Autore: Redazione ImpresaCity
Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria.
ChatGPT, spiega il Garante stesso, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.
Come peraltro testimoniato dalle verifiche effettuate, si spiega, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto. Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.
OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.
La decisione del Garante ha già scatenato qualche commento. “La posizione del Garante sembra riflettere un pregiudizio verso i sistemi di intelligenza artificiale generativa, in linea purtroppo con l'attuale posizione della Commissione europea nella stesura dell'AI Act... È importante trovare un equilibrio tra l'adozione di tecnologie di IA e la salvaguardia della privacy e della sicurezza degli utenti, ma ci riferiamo a tecnologie in rapida evoluzione che attualmente non generano rischi elevati per i dati delle persone”, hanno ad esempio evidenziato gli avvocati Giulio Coraggio e Tommaso Ricci dello studio legale DLA Piper.
Da parte sua, anche Kaspersky ha commentato che “OpenAI è trasparente in merito alle proprie procedure in materia di dati: i dati che sono inseriti nelle loro API commerciali vengono memorizzati solo temporaneamente per monitorare potenziali abusi, con l’opzione di opt-out". "Tuttavia - ha proseguito Vladislav Tushkanov, Lead Data Scientist di Kaspersky - questo non è applicabile ai servizi non API. L’interfaccia di ChatGPT informa gli utenti che i dati immessi possono essere condivisi con terze parti e controllati da analisti umani per migliorare la qualità del servizio. Pertanto, OpenAI consiglia agli utenti di non condividere informazioni personali e private proprie o altrui durante la conversazione con un chatbot. Tuttavia, è stato osservato che gli utenti tendono a essere aperti e sinceri nella comunicazione con gli assistenti di conversazione artificiali. Per questo motivo, è essenziale ricordare che è preferibile trattare qualsiasi chatbot, indipendentemente dalla durata del suo utilizzo, come un estraneo incontrato su Internet e utilizzarlo in base al proprio approccio personale alla privacy”.