Evento #AIsulserio

L'Intelligenza Artificiale.
Ma sul serio

Dal boom di ChatGPT alla concretezza dell'AI nelle imprese italiane

AI generativa: dalla teoria alla pratica

Per portare i migliori vantaggi possibili, l’implementazione di soluzioni di AI generativa richiede competenze e una precisa strategia di data management. Lo raccontano direttamente gli operatori che con la GenAI stanno già lavorando.

Autore: Elena Re Garbagnati

C’è molto entusiasmo attorno all’Intelligenza Artificiale generativa e alle opportunità che può portare al business aziendale. Sicuramente è corretto tentare di capire come muoversi e come cogliere queste opportunità, che aprono ad applicazioni molto pratiche e ad investimenti concreti che moltissime aziende hanno già fatto. Tuttavia, l’eccesso di entusiasmo per qualsiasi nuova tecnologia può esporre a grossi rischi, e l’Intelligenza Artificiale generativa non fa eccezione. È pertanto doveroso cercare concretezza, ossia indagare su quelle che sono le opportunità concrete e quali vantaggi possono apportare al proprio business.

ImpresaCity lo ha fatto con un talk in cui ha coinvolto i manager di alcune delle aziende più impegnate nello sviluppo di soluzioni e prodotti che si basano sull’Intelligenza Artificiale: Roberto Patano, Senior Manager Systems Engineering di Netapp, Claudia Angelelli, Presales Tech Team Senior Manager di VMware Italy, Paolo Pinto, Head of Data Science di Anzani Group, Federico Flamminii, CEO di Trice e Daniele Mazzantini, BU Manager Microsoft di Computer Gross.

L’addestramento dell’AI

Sfruttare i vantaggi che si prospettano dell’AI generativa è una sfida che richiede prima di tutto delle basi concrete nella gestione dei dati, nelle tecniche di conservazione degli stessi e nei principi di sicurezza delle informazioni sulla base delle quali agirà l’AI. Hanno fatto comprendere bene questo concetto gli ospiti del talk, a partire da Roberto Patano di Netapp, che ha messo l’accento proprio sul primo anello della catena, ossia la necessità di dare in pasto a piattaforme di AI una quantità ingente di informazioni, nel formato corretto.

Dalla sua analisi è emerso che oggi la corsa verso l’AI generativa è soprattutto un tema di data management, perché “per fare che tutto funzioni è necessario conoscere tutto il ciclo di vita del dato e comprendere - per esempio - dove viene generato, se il suo impiego crea problemi legati alla sicurezza del dato stesso, eccetera”. Inoltre, il dato dev’essere sempre disponibile, nel formato corretto per l’AI, si deve conoscere esattamente in quale ambiente avverrà il training, se verranno utilizzate risorse in cloud, e via dicendo. In mancanza di queste informazioni si corre il rischio di creare un problema di sicurezza o di trovarsi davanti a un progetto di AI fallimentare. “Ecco perché – conclude Patano – Netapp, che si occupa di storage, è un anello chiave in questo ecosistema: contribuisce alla mobilità del dato e consente di avere una infrastruttura che semplifica l’accesso al dato”.

Claudia Angelelli di VMware, Roberto Patano di NetApp, Paolo Pinto di Anzani Group

Claudia Angelelli di VMware, reduce dall’appuntamento di VMware Explore durante il quale si è parlato tantissimo di AI e di Private AI come di una nuova e necessaria strada per governare proprio l’AI generativa, aggiunge che “l’AI generativa serve per creare nuovi dati. Prende il dato e lo usa per costruire qualcosa di nuovo, che poi viene inserito all’interno di un motore di ricerca che, nel caso degli LLM (Large Language Model), risponde a quesiti posti in linguaggio naturale”. Per fare che questi passaggi si possano realizzare l’AI deve essere addestrata: una fase delicata che richiede di dare in pasto all’AI una base dati il più ampia possibile.

Questo, tuttavia, non significa derogare sulla riservatezza dei dati o sulla loro sicurezza. Come ricorda Angelelli, ci sono aziende che hanno proprietà intellettuali da tutelare. Da una parte hanno la necessità di addestrare l’AI fornendole tutti i dati possibili, facendo finetuning specifico sul settore industriale di pertinenza e testando le risposte, così da avere le risposte desiderate. Dall’altra devono avere la contezza del fatto che non devono condividere in rete i dati privati.

Compito dei vendor come VMWare è trovare la soluzione a questa dualità. “VMware, con il supporto di partner come Intel e IBM, sta creando una architettura che importa modelli prefabbricati scelti dallo sviluppatore. Solo in seguito, in quello che si può definire ultimo miglio, viene messa in produzione e inizia la fase di finetuning con la base dati dell’azienda, che così facendo resta riservata. Quello che si ottiene è un sistema che risponde alle aspettative, ma che tiene all'interno dell’azienda tutti i dati sensibili, privati, le proprietà intellettuali, senza condividerli nel mondo pubblico” conclude Angelelli.

Lo scenario locale

Tra i grandi vendor e le imprese del territorio c’è uno strato di competenze e abilità determinanti, che solo un operatore di prossimità riesce a toccare con mano, per questo è stato importante il contributo di Paolo Pinto di Anzani Group, che testimonia che cosa cercano nell’AI le imprese italiane in questa rivoluzione. Le aziende hanno capito che non possono restare indietro. Sanno che c’è una potenzialità e vogliono sfruttarla, peccato che all’ultimo miglio saltino fuori i problemi, che spetta alle realtà sul territorio risolvere creando soluzioni sartoriali.Il ruolo delle aziende della nostra dimensione e nella nostra posizione è ascoltare le esigenze di ogni singolo cliente e cercare di estrapolare dai grandi trend quello che effettivamente rientra nelle possibilità del cliente per capacità di spesa, ma anche per esigenza effettiva, quindi quello che davvero gli serve” sottolinea Pinto.Federico Flamminii di Trice e Daniele Mazzantini di Computer Gross

Sempre restando sul territorio, Federico Flamminii di Trice spiega che tipo di approccio serve adottare a livello aziendale e in quale direzione è meglio spingere i clienti anche sul piano della nuova organizzazione di business. I filoni indicati da Flamminii sono due: l’organizzazione dei processi interni - che è un tema in cui l'Intelligenza Artificiale ha una rilevanza molto importante - e la creazione del modello di business. Trice agisce su entrambi accompagnando i clienti su un terreno che non conoscono. Sulla parte dei processi l’obiettivo è l’ottimizzazione dei costi, mentre per quella dei nuovi modelli di business si mira a generare ricavi.

Ovviamente per tutte le fasi di valutazione e implementazione occorrono competenze che non si possono improvvisare e per le quali ci si affida ai system integrator, come Computer Gross. Daniele Mazzantini chiarisce a che punto sono oggi i system integrator, dove e come stanno investendo e quali sono invece gli step ancora da fare. Computer Gross si posiziona tra i vendor che detengono la tecnologia, i distributori di tecnologia e i partner, che mettono a terra e customizzano le offerte per il cliente finale. Ci sono moltissime competenze in gioco e occorrono tutte, perché c’è anche molta confusione.

La sensazione, spiega Mazzantini, è che questa parte del business sia in standby: ci sono tante domande che vengono poste relativamente a tutte le fasi di implementazione. Al momento ci si concentra sulla gestione del dato, che non è banale perché c'è un tema di compliance, oltre a quello organizzativo, ma “Computer Gross sta allestendo un centro di eccellenza che consenta poi di lavorare al fianco dei partner per mettere a terra queste soluzioni che potrebbero costituire da seconda rivoluzione dopo quella del cloud” conclude Mazzantini.

Fra perplessità e hype il rischio di commettere errori è dietro l’angolo e ce ne sono alcuni gravi che le imprese commettono nella gestione del proprio patrimonio informativo. Ne ha parlato Roberto Patano di Netapp, che è andato subito dritto al punto: “il problema è che non c’è una data governance, intendo tecnologia, processi interni, organizzazione, regole, gestione reale dell'informazione”. La chiave per non sbagliare è essere consapevoli di quello che si fa, e per farlo è necessario banalmente definire delle regole per cui alcuni asset, alcune persone, possono accedere a delle informazioni, altri no. Bisogna capire quali sono le informazioni, da dove arrivano, per evitare problemi di privacy, per non parlare dei problemi etici o del rischio cyber.

L’implementazione dell’AI prescinde quindi dalla questione della data governance interna all’azienda perché non si possono dare indiscriminatamente tutte le informazioni in pasto all’AI - e a maggior ragione all’AI generativa. L’avvento di quest’ultima, però, può giocare un ruolo determinante nello stimolare l’implementazione di quei controlli che al momento non ci sono e in assenza dei quali l’AI può rivelarsi inaffidabile o lontana dalle aspettative.

Fra realtà e aspettative

Finora abbiamo parlato di gestione del dato, senza scendere nel dettaglio dell’ambiente in cui questo risiede, ma è necessario considerare anche questo aspetto perché l’AI si va a inserire in architetture IT sempre più complesse, ibride e in particolare multicloud - secondo il Politecnico di Milano sono almeno cinque i cloud provider a cui le imprese italiane si rivolgono mediamente. È quindi importante capire che cosa fare per gestire in maniera efficace ambienti così articolati che poi devono alimentare piattaforme così innovative e critiche. Ad affrontare il tema è stata Claudia Angelelli, che risponde con la soluzione di VMware mirata alla semplificazione. L’azienda ha infatti creato una piattaforma che usa l’AI per semplificare il multicloud gestendo sia l’hardware sia tutti i servizi cloud sottostanti, così da permettere una ottimizzazione e massimizzazione delle risorse.

Una infrastruttura – sottolinea Angelelli – che diventa una commodity al servizio dello sviluppatore, a cui resta quindi l’unico compito di addestrare l’LLM, senza preoccuparsi di dove risiede il dato e delle risorse necessarie”. Ovviamente non avviene tutto in automatico: la piattaforma svolge una analisi dei dati, delle applicazioni e delle prestazioni ed evidenzia una serie di suggerimenti; l’implementazione poi spetta al gestore, che potrà decidere alla luce di informazioni reali sull’economia dei costi, sullo stato di salute dell’infrastruttura – non proprio evidente soprattutto se distribuita. Questa soluzione, in sostanza, permette di soddisfare le esigenze di business, sfruttando l’AI come semplificatore e facilitatore dei processi.

Dal canto suo, colazione. Paolo Pinto di Anzani Group sottolinea di avere già disponibile una soluzione software per l’analisi dei processi decisionali, che è molto richiesta dai clienti. Ma proprio per la necessità di soluzioni sartoriali di cui si parlava sopra, Pinto rimarca come emergano spesso, parlando con i clienti, problemi annosi che per vari motivi non sono mai stati risolti e per i quali ci si interroga sull’efficacia dell’AI generativa.

A parte le applicazioni verticali, sono molti ad aspettarsi un risultato in particolare dall’uso dell’AI generativa: un aumento esponenziale delle performance nello sviluppo applicativo. Ne ha riferito Federico Flamminii di Trice, che ha rilevato grande pressione sulla fase di sviluppo da parte di tutti i comparti aziendali, che si aspettano tempi sempre più ristretti. Tuttavia, è imperativo sfatare il mito della bacchetta magica che permette di fare di tutto e immediatamente. Per questo Flamminii invita a definire ruoli, aspettative credibili e fiducia fra tutti gli interlocutori, per raggiungere i risultati migliori possibili, nei tempi corretti.

Finora si è parlato tanto di competenze che si raggiungono anche con l’aspetto formativo. Daniele Mazzantini di Computer Gross spiega infatti che sul tema dell’AI generativa “la formazione è quasi obbligatoria perché la gestione del dato non è scontata”. Computer Gross sta attivando due livelli di certificazione: uno, basico, per il primo approccio, e uno più complesso che chiama direttamente in causa OpenAI e Azure.

I progetti di successo

All’inizio si è parlato della necessità di concretezza, è il momento di dargli voce con i progetti di successo già implementati o progettati, di cui le aziende intervenute sono particolarmente orgogliose. Roberto Patano ha messo in risalto la partnership di Netapp con Nvidia che ha portato alla creazione di una soluzione congiunta dedicata a chi vuole provare a creare in casa i propri progetti personalizzati di AI. Il caso più curioso di Netapp è però quello del progetto statunitense realizzato in collaborazione con un system integrator locale, che analizza in tempo reale le risposte del cliente a un call center e ne rileva il sentiment, suggerendo all’operatore le successive domande da porre.

Claudia Angelelli ha invece proposto alla platea il progetto di Disaster Recovery di VMware che, impiegando l’AI, in pochi secondi è in grado di individuare l’ultimo recovery point non corrotto, di recuperarlo e di metterlo in linea. Non solo: promette anche di analizzare i dati e individuare il punto di ingresso dell’attaccante nella infrastruttura e il percorso che ha seguito l’attacco, così da indicare all’amministratore di rete tutti gli asset coinvolti. Sempre VMware sta anche sviluppando negli USA un progetto per l’healthcare in cui viene impiegata l’AI a supporto della parte diagnostica di riconoscimento delle immagini, di modo da aiutare il medico nella diagnosi.

Anzani Group ha invece impiegato l’AI per creare un sistema di analisi decisionale basata su diversi elementi non correlati fra loro, come potrebbero essere per esempio la situazione economica generale, le decisioni pregresse, accadimenti vari del giorno precedente. Si tratta di fatti che in genere nelle aziende vengono affrontati e risolti separatamente, ma che grazie alla soluzione descritta da Pinto possono essere gestiti tutti insieme grazie a formule matematiche e statistiche sofisticate che solo un motore di algoritmi misti di AI può gestire con efficienza.

Trice ha invece unito sviluppo e performance in una soluzione di business process management che permette a un cliente di usare dati presenti sul web per prendere decisioni a livello strategico. Il cliente in questione può interrogare l’AI tramite linguaggio naturale interfacciandosi con un avatar di OpenAI.

Ultimo intervento è quello di Mazzantini, che racconta di un importante progetto recente per un cliente che necessitava di avere evidenza di tutte le vulnerabilità di una vasta base di installato multivendor. Grazie alla soluzione implementata, l'operatore è riuscito ad avere in tempo reale l’elenco di tutte le vulnerabilità.

Agenda

16.00 Arrivo e registrazione ospiti
16:20 Il nuovo scenario dell'AI, oltre il sensazionalismo del mercato - Quale valore concreto le imprese italiane possono trarre dalle nuove tecnologie di AI, in che ambiti, con quali ostacoli da superare
16:35 Cosa dicono oggi le imprese: i risultati di un sondaggio di G11 Media
16:45 Dalla teoria alla pratica dell'AI generativa: casi utente italiani
17:00 L'AI è un gioco di squadra: gli operatori che aiuteranno le imprese ad utilizzare al meglio le nuove tecnologie dell'AI
17:15 Talk Show - Pareri a confronto: come si utilizzerà l'AI nelle imprese italiane
  • Paolo Pinto, Senior Data Science at Anzani Group
  • Daniele Mazzantini, BU Manager Microsoft at Computer Gross
  • Roberto Patano, Senior Manager System Engineering at NetApp
  • Federico Flamminii, CEO at Trice R1 Group
  • Claudia Angelelli, Presales Tech Team Senior Manager at VMware Italy
18.30 Aperitivo di networking