▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Perché l’AI non può fare a meno dell’open source

“Democratizziamo l’AI” è lo slogan più diffuso del Red Hat Summit 2024. Solo il modello open source può garantire l’evoluzione dell’AI.

Tecnologie

L’open source è il modello migliore per supportare lo sviluppo dell’AI”. È semplicemente così secondo Matt Hicks. Al Red Hat Summit 2024 di Denver, il Ceo di Red Hat apre i lavori con messaggi molto chiari al mercato. “L’AI è ormai ovunque – prosegue Hicks – ma oggi ci troviamo di fronte a un modello forse “aperto”, ma dall’evoluzione limitata”. Cosa significa? Che l’AI non è un modello realmente aperto al contributo delle community. In particolare, ciò che è limitata è la componente di apprendimento, per esempio per un LLM (Large Language Model), componente fondamentale per istruire correttamente la macchina.

Questi modelli non sono aperti secondo il paradigma open source – afferma il guru Chris Wright, Cto di Red Hat -. Sono aperti all'utilizzo, con varie restrizioni o regole, ma possono non essere aperti ai contributi, né dispongono di set di dati o “pesi” per l’addestramento aperti”.

L’open source, dunque, si propone come una metodologia per l’evoluzione delle tecnologie AI realmente indipendente dai vendor che attualmente “possiedono” e commercializzano gli strumenti di Gen AI. “L’open source permette di svincolarsi dai monopoli – sottolinea Hicks – fornendo un’alternativa valida all’evoluzione”.

Anche nel contesto dell’AI – aggiunge Gianni Anguilletti, Regional Director dell’area mediterranea di Red Hat -, come già è successo in passato, contribuiamo alla “democratizzazione” dell’IT. Un paradigma, quello dell’open source, che il mercato ha riconosciuto vincente negli anni, partendo da Linux fino ad arrivare a Kubernetes, in cui l’innovazione è stata possibile solo grazie al contributo di community formate da numerose risorse appassionate e altamente competenti”.

I primi passi verso l’open (source) AI

Insomma, più persone partecipano e collaborano a un progetto innovativo e più si otterrà un risultato qualitativamente elevato, e ciò vale anche per l’AI. Red Hat si aspetta di rendere open l’evoluzione con l’applicazione della ben nota filosofia. E permettendo agli utenti di creare e mettere a fattor comune i contributi all’evoluzione del LLM, non ci si può che aspettare un incremento di efficienza e prestazioni.

Insieme a Ibm Research, Red Hat sta già dimostrando che si può fare. Ibm Research, infatti, ha già scelto di applicare una licenza Apache open source al modello Granite, l’LLM “ispirato” a Llama di Meta. Rendere aperta l’AI significherebbe, inoltre, accelerare la realizzazione di modelli, e dunque progetti, per un’industria specifica agevolando così le best practices di cui ogni tecnologia innovativa ha forte bisogno.

Poi c’è InstructLab. Un progetto open source che utilizza un nuovo metodo di ottimizzazione dell'allineamento basato su dati sintetici per modelli linguistici di grandi dimensioni. InstructLab consente a chiunque, non solo agli esperti, di contribuire ad addestrare e mettere a punto un modello linguistico. E, da quello che abbiamo visto in demo, è realmente così.

Sostenibilità e affidabilità

Democratizzazione, dunque, poi sostenibilità e trust, ovvero più che “fiducia”, affidabilità. Parlando di sostenibilità, Red Hat cita il progetto Kepler, un tool applicativo in grado di fornire informazioni sull’impronta di CO2 e sull’efficienza energetica di un sistema IT su cloud. “Kepler – prosegue Wright – può diventare uno strumento in grado di monitorare anche il consumo energetico delle GPU, e non solo delle CPU. Ed è quello che stiamo facendo: utilizziamo Kepler per misurare il consumo energetico dei modelli di machine learning sia per l'addestramento che per l'inferenza”.

Infine, il fattore “trust”. “L’innovazione senza sicurezza è semplicemente un rischio – afferma Wright -. Per il software, la provenienza e la distribuzione sono fondamentali per garantire un'esperienza più sicura. È determinante avere chiara la provenienza del codice, di chi ci ha lavorato e di chi vi ha avuto accesso”.

Per garantire l’affidabilità, dunque, ancora una volta torna utile il corposo processo di validazione del codice, e il controllo lungo tutta la filiera delle modifiche e degli aggiornamenti. Un processo che, checché se ne dica, negli anni Red Hat ha continuamente affinato, proprio per rispondere ai dubbi del mercato relativi all’affidabilità del codice open source.

E, ovviamente, Red Hat all’affidabilità dell’AI ci sta già pensando, almeno rispetto a quella dei modelli. Da un po’ di tempo, infatti, sta promuovendo TrustyAI, un software autonomo che si collega a qualsiasi applicazione AI, indipendentemente dall'ambiente o dalla tecnologia su cui è in esecuzione. Esamina il sistema, esamina gli input e mappa il modo in cui questi influenzano gli output. Fornisce poi grafici facili da visualizzare, per rendere più chiaro se esistono eventuali pregiudizi.

Se, per esempio, TrustyAI può scoprire che, se si ottiene un risultato diverso cambiando solo l’etnia o il codice postale di un richiedente di una richiesta di mutuo respinta, allora è chiaro che il sistema ha dei pregiudizi. Ed è possibile accorgersene lavorando sui parametri di input.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter