▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...

Tre strade per semplificare l'AI

Far entrare diffusamente l'AI in azienda è possibile ma non banale. Tre sviluppi tecnologici mirano a semplificare l'adozione trasversale del machine learning.

Tecnologie

Adottare applicazioni mirate di AI, magari "pacchettizzate" da un vendor tecnologico? Di solito questo non rappresenta un problema, almeno in molti campi. Approcciare l'AI come componente trasversale dei propri processi, magari sviluppando internamente le proprie applicazioni? Qui le cose si fanno più complesse, anche ammettendo di avere già in casa le giuste competenze. Perché in realtà in campo AI e machine learning c'è ancora molto da fare per semplificare l'adozione delle nuove tecnologie, andando ben oltre le applicazioni mirate e preconfezionate.

Ci si sta lavorando, però. Il panorama dei vendor tecnologici - tra cui moltissime startup e altrettanti operatori di nicchia - che sviluppano nuovi approcci ai vari componenti dell'AI è sempre più variegato. Con tre direttrici di sviluppo particolarmente interessanti.

I dati "sintetici"

È sempre dai dati che si deve partire. L'AI ha bisogno di grandi quantità di dati per fornire risultati attendibili quanto promettono i suoi sostenitori. Questo perché gli algoritmi di machine learning devono essere addestrati proprio dando loro in pasto, da esaminare, grandi quantità di informazioni tratte dai casi d'uso reali che poi dovranno affrontare.

Problema: nonostante il gran parlare sulle enormi moli di dati che le aziende gestiscono, non è detto che ci siano abbastanza dati per addestrare algoritmi mirati. Perché gli algoritmi possono essere pensati per casi d'uso molto particolari per i quali non ci sono dati sufficientemente variati. Ma soprattutto perché in alcuni ambiti - e accade sempre più spesso - l'utilizzo dei dati disponibili è bloccato o limitato da considerazioni di privacy ed etiche. O da vere e proprie normative, come il GDPR. E le tecnologie proposte per superare questi limiti, come quelle di anonimizzazione dei dati, non sono considerate abbastanza efficaci.

La soluzione a cui molti guardano è l'utilizzo di dati "sintetici", ossia dati che assomigliano a quelli reali ma sono creati artificialmente. Esistono già diverse software house che creano dati sintetici a partire da dataset reali. Le loro tecnologie esaminano i dataset a disposizione, identificano le caratteristiche principali dei loro dati e creano altri dataset che replicano esattamente queste proprietà. Con il vantaggio che i dati sintetici sono a tutti gli effetti dati anonimi: non permettono di identificare alcuna persona come "sorgente". Banalmente perché non esistono persone che abbiano generato quei dati.

Si possono, con le giuste tecnologie, "imitare" vari tipi di dati di interesse per l'AI. La cronaca è già piena di casi in cui clip audio e video sintetici (i cosiddetti deepfake) sono stati creati attraverso l'utilizzo di reti neurali e usati per scopi dimostrativi (e anche meno leciti, talvolta).

In generale, però, le aziende oggi sono più interessate alla sintesi di immagini e dati tabellari più strutturati. Soprattutto i classici dati "da database" (ordini, profili dei clienti, dati clinici...), che saranno meno affascinanti dei deepfake ma sono alla base di molte più applicazioni concrete. Paradossalmente, è molto più facile creare un set di immagini realistiche ma sintetiche, rispetto a "clonare" un dataset tabellare mantenendo la sua stessa significatività per l'addestramento degli algoritmi di AI. Ma le tecnologie in questo campo stanno migliorando, spinte dalla necessità crescente di molte grandi aziende di sviluppare le proprie capacità di analisi predittiva nel pieno rispetto delle norme e della privacy.

I processori per l'AI

Le stime dicono che è un mercato da quasi settanta miliardi di dollari: parliamo del giro di affari potenziale legato ai nuovi processori progettati espressamente per supportare applicazioni di machine learning e AI.

Una volta era il campo da gioco privilegiato di Nvidia, che resta comunque il player principale del settore. Non a caso, nei risultati finanziari più recenti il business Nvidia derivante dai prodotti per data center (prevalentemente le GPU per AI e machine learning) ha superato il giro d'affari legato al comparto per cui la società era inizialmente nata, ossia il gaming. In un anno, il business data center di Nvidia è praticamente raddoppiato (oggi cuba 3,75 miliardi di dollari) proprio per la richiesta di piattaforme specializzate per l'AI.

Non c'è più solo Nvidia nel campo dei processori per l'AI. Molti grandi nomi dell'IT mondiale hanno deciso che per far girare al meglio gli algoritmi di machine learning servono chip ancora più ottimizzati delle GPU classiche. C'è chi si sviluppa questi chip in casa, come Google con i processori Tensor o AWS con i Graviton. C'è chi procede con acquisizioni mirate e sviluppi propri, come ad esempio Intel o la stessa Nvidia. C'è poi una pletora di produttori molto meno noti e molto più di nicchia, che seguono proprie strade di sviluppo tecnologico.

Già, perché in questa fase il tratto forse più interessante del mercato è che non c'è una tecnologia a priori dominante per la progettazione di chip per l'AI. Quello che serve in un chip del genere è soprattutto velocità: di elaborazione e nell'accesso ai dati. Ma anche un basso consumo, dato che l'AI è già energivora di suo e deve perdere la spiacevole nomea che si è fatta in questo senso. Velocità di elaborazione e bassi consumi non vanno quasi mai di pari passo, le strade per raggiungere un equilibrio ideale fra loro sono molte. Le scelte dei produttori spaziano di conseguenza: da mega-chip con miliardi di transistor a chip più semplici ma molto ottimizzati che possono essere installati anche in piccoli device, ideali per l'edge computing.

Guardando avanti, il trend più interessante riguarda la "composizione" di chip per l'AI unendo micro-unità di elaborazione di tipo differente. Non si tratta del classico approccio stile SoC o chiplet, ma la realizzazione di un processore a più "strati" sovrapposti con funzioni diverse. Si lavora anche alla realizzazione di processori fotonici in cui i dati vengono trasmessi da impulsi luminosi e non elettromagnetici: alte velocità e bassi consumi in questo caso riescono a sposarsi. E in prospettiva c'è il quantum machine learning: l'utilizzo del quantum computing in campo AI.

Il percorso completo

Per le aziende che vogliono genericamente "fare AI" al proprio interno, andando oltre le soluzioni mirate, la strada non è semplice. C'è sempre da svolgere un importante lavoro di integrazione fra componenti distinte e di vendor diversi. Non è una critica, è solo che al momento nessuno è in grado di coprire completamente, con una singola piattaforma, il (lungo) percorso che va dai dati grezzi all'ottimizzazione continua di una applicazione di AI una volta messa in produzione.

È il tema definito dell'AI lifecycle management. O, in una visione più orientata all'automazione, del MLOps. Un tema parecchio articolato: "fare AI", come indicavamo prima, non è semplicemente addestrare algoritmi di machine learning su un particolare dataset. C'è molto di più intorno a questa fase fondamentale. Tanto che, ad esempio, Google parla in modo specifico di un "debito tecnico nascosto" nel campo del machine learning.

Google sottolinea in questo modo che, molto spesso, chi si avvicina all'AI non ha davvero presenti tutti i passi che deve affrontare. Deve tra l'altro raccogliere i dati di interesse, verificarli, "pulirli", organizzarli, sintetizzarli se necessario, estrarne le feature chiave. C'è la fase del machine learning in senso proprio: addestramento degli algoritmi, creazione dei modelli, controllo dei risultati, validazione degli algoritmi stessi, implementazione, ottimizzazione continua. Dietro tutto questo ci sono sistemi che vanno attivati, configurati, monitorati, manutenuti.

Non mancano le soluzioni dedicate a ciascuno di questi passi. Ma non basta, alle aziende serve di più. Ci si sta pian piano arrivando: molte software house che già propongono soluzioni per una parte del "flusso" AI vi stanno affiancando funzioni complementari, sviluppate in proprio oppure assorbite con acquisizioni di altre software house.

È un campo in rapido sviluppo in cui competono tanto grandi nomi quanto startup già molto quotate, con l'obiettivo finale di una piattaforma che faccia da soluzione unica per tutto il ciclo di vita dell'AI. E che, parallelamente, "democratizzi" l'AI stessa semplificandone l'uso. Come? Sfruttando proprio l'AI, ossia abilitando funzioni di Intelligenza Artificiale che in maniera automatica gestiscono parti del processo AI. Ad esempio raccolgono dati, li classificano, addestrano algoritmi di machine learning (AutoML è una sigla che sentiremo sempre più spesso), scrivono codice applicativo (è l'augmented coding).

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter