▾ G11 Media: | ChannelCity | ImpresaCity | SecurityOpenLab | Italian Channel Awards | Italian Project Awards | Italian Security Awards | ...

Una cooperazione globale per l'AI sicura

Dall'AI Seoul Summit 2024 arriva un accordo internazionale per garantire la sicurezza delle applicazioni di AI. Ma con pochi dettagli, almeno per ora.

Tecnologie

All'AI Seoul Summit in corso in questi giorni in Coresa, i rappresentanti di diverse nazioni - tra cui l'Italia - hanno formalizzato un accordo per sviluppare varie forme di cooperazione internazionale legate alla "messa in sicurezza" delle applicazioni di Intelligenza Artificiale. L'idea di fondo - si spiega - è che "la sicurezza, l'innovazione e l'inclusività dell'AI sono obiettivi interconnessi ed è importante includere queste priorità nelle discussioni internazionali sulla governance dell'AI".

Prevedibilmente, una cooperazione così di alto livello sullo sviluppo responsabile dell'AI non può che basarsi su premesse e obiettivi condivisibili ma anche, al momento, piuttosto vaghi. Ad esempio, i sottoscrittori dell'accordo riconoscono "l'importanza dell'interoperabilità tra i framework di governance dell'AI, in linea con un approccio basato sul rischio, per massimizzare i benefici e affrontare l'ampia gamma di rischi derivanti dall'AI, al fine di garantire una progettazione, uno sviluppo, una diffusione e un utilizzo dell'AI sicuri e degni di fiducia".

Come però tutto questo possa essere messo in pratica, è poco chiaro. Di sicuro si prevede la creazione di diversi "AI safety institute" e di istituzioni che si occupino in maniera trasversale della sicurezza dell'AI, collaborando fra loro in attività di ricerca e test dei prodotti commerciali basati su funzioni di AI. Tra gli obiettivi c'è anche la definizione di una base solida di "prove" che possano guidare le legislazioni e le politiche relative alla sicurezza dell'AI.

In comune andranno certamente messi, nelle intenzioni, gli studi scientifici sui vari aspetti della sicurezza dell'AI. Tra cui in particolare la condivisione di informazioni sui modelli di AI e sui loro limiti e rischi, il monitoraggio dei danni causati delle AI e degli incidenti di sicurezza.

Il Financial Times riporta più dettagli concreti su come i principi espressi dai leader globali impatteranno sulle imprese che stanno sviluppando tecnologie di AI. Le principali - come Amazon, Google, Meta, Microsoft e OpenAI - hanno sottoscritto un documento secondo cui renderanno pubblici i metodi e i principi usati per valutare i rischi associati ai loro modelli "di frontiera" dell'AI.

Le software house coinvolte non svilupperanno o implementeranno affatto un modello di AI, se questo presenterà rischi seri che non possono essere limitati. Più in dettaglio, secondo quanto è stato dichiarato, le software house “valuteranno i rischi posti dai loro modelli o sistemi di frontiera anche prima di distribuirli e, nel caso, prima e durante l'addestramento”. Le aziende stabiliranno inoltre le “soglie alle quali i rischi gravi posti da un modello o da un sistema, se non adeguatamente mitigati, sarebbero considerati intollerabili”.

Si tratta ovviamente di impegni presi su base volontaria che, in assenza di vere normative globali, sono vincolanti nella forma ma poco nella sostanza. Come in altre iniziative del genere, le aziende coinvolte hanno promesso una adeguata trasparenza riguardo al modo e al grando in cui rispetteranno l'impegno preso. Ma a parte questo, c'è poco su cui contare.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter