Anche l’Intelligenza Artificiale guarda a un futuro sostenibile

Una riflessione a cura di Roberto Carrozzo, Head of Intelligence & Data di Minsait, su uno dei modelli più potenti e innovativi tra le reti neurali artificiali: quello delle Generative Adversarial Networks (GAN)

Autore: Roberto Carrozzo

È di qualche mese fa l’incredibile notizia pubblicata dal New York Times in cui si raccontava di un ospedale ungherese in cui un software di intelligenza artificiale ha individuato, in una paziente, un principio di cancro al seno che era sfuggito all’occhio attento dei radiologi. Circa nello stesso periodo andavano virali sui social le foto del Papa con outfit improbabili ma iper-realistici. Che cos’hanno in comune queste due notizie, apparentemente così distanti tra di loro? La tecnologia alla base: le reti neurali artificiali.

Questi modelli computazionali possono aiutare a comprendere in anticipo le evoluzioni di un tumore e prevedere una cura per il trattamento. Come abbiamo visto, però, possono anche semplificare la generazione di notizie false e immagini truccate difficilmente distinguibili dalla realtà. Sebbene questi due casi d’uso siano totalmente agli antipodi, sia per quanto riguarda l’ambito di applicazione sia per quanto concerne la finalità, riassumono perfettamente le potenzialità e i rischi di questi modelli di intelligenza artificiale.

Uno dei modelli più potenti e innovativi tra le reti neurali artificiali è quello delle Generative Adversarial Networks (GAN). Il funzionamento delle GAN è basato sulla competizione tra due reti neurali: generatore e discriminatore. Partendo da un dataset con dati reali, il primo cerca di creare dati sintetici che imitino quelli reali, e il secondo cerca di distinguerli da quelli effettivamente prodotti da esseri umani. Attraverso questa continua sfida, il generatore riceve un feedback dal discriminatore su come migliorare i propri campioni, e attraverso questa retroazione, il generatore migliora sempre di più la propria capacità di generare contenuti che sembrano reali. Questo ciclo di feedback continuo porta alla produzione di contenuti sempre più convincenti.

Le GAN sono molto efficaci per catturare effetti complessi e hanno mostrato un enorme potenziale in diversi ambiti di applicazione come ad esempio l’image inpainting ovvero il ripristino di parti mancanti da immagini, la super resolution che consente di rendere ad alta definizione immagini a bassa definizione, il denoising per rimuovere il rumore dai dati (ad esempio la rimozione del rumore statistico dalle immagini a raggi x in ambito sanitario). In ambito medico questi modelli di intelligenza artificiale vengono già utilizzati per lo studio delle immagini a raggi x al fine di comprendere come evolve il cervello dei pazienti in presenza e assenza di patologie dirette e per comprendere in anticipo l’evoluzione di alcuni tipi di tumore (come, per esempio, il glioblastoma) e prevedere una cura per il trattamento.

Nonostante le incredibili opportunità offerte dalle GAN per migliorare e innovare vari settori, esistono anche rischi e minacce non trascurabili legati alla sempre maggior democratizzazione di questi strumenti di AI. Tra i principali pericoli vi è sicuramente la semplificazione nella generazione di notizie false o di immagini contraffate utilizzabili da attori malevoli per perseguire fini compromettenti o diffamatori. La diffusione massiccia di contenuti falsi può contribuire a manipolare l’opinione pubblica, impattando negativamente il sistema democratico e la società nel suo complesso.


Roberto Carrozzo di Minsait

Quindi come possiamo bilanciare i benefici delle GAN con i rischi che comportano? Come possiamo garantire che queste potenti tecnologie vengano utilizzate per il bene della società, invece che per scopi malevoli? Da una parte è la stessa tecnologia che può venirci incontro. Sono in corso iniziative che prevedono l’uso dell’intelligenza artificiale per individuare le fake news. È paradossale come la stessa tecnologia possa aiutare a individuare gli usi impropri della tecnologia stessa.

Dall’altra parte non si può non considerare il tema etico. Il professor Luciano Floridi ha stilato cinque principi fondamentali che determinano il carattere etico dei sistemi di intelligenza artificiale, e sono: beneficenza, non malevolenza, autonomia, giustizia ed esplicabilità. Ed è proprio la mancanza di questo ultimo principio che continua a compromettere l’eticità di tecnologie come le GAN, che nella maggioranza dei casi non condividono informazioni sul proprio algoritmo, sul dataset di riferimento o sui metodi di addestramento. Finché non ci sarà maggiore trasparenza non sarà possibile indagare sugli scopi e sui pericoli che si celano dietro questi sistemi.

Inoltre, come dimostrano le ultime iniziative nazionali e sovranazionali, è necessario che le istituzioni si attivino per rispondere alle sfide portate dalle AI, senza pregiudicare le potenzialità di innovazione e di sviluppo. Un esempio è quello dell’European Data Protection Board che ha deciso di avviare una task force con l’obiettivo di favorire la cooperazione e lo scambio di informazioni tra i paesi membri in tema di regolamentazioni sull’Intelligenza Artificiale. È fondamentale, in tal senso, una stretta collaborazione tra esperti del settore, governi, istituzioni e altri stakeholder per definire standard e best practice che tutelino gli interessi dei cittadini e prevengano l'abuso di queste tecnologie.

Un futuro sostenibile per l’Intelligenza Artificiale è possibile, ma tutti gli attori coinvolti devono lavorare insieme per creare un domani in cui algoritmi come le GAN possano prosperare, ma senza compromettere il benessere della società e la stabilità del nostro sistema democratico.

Roberto Carrozzo è Head of Intelligence & Data di Minsait


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.