La diffusione di piattaforme GenAI e agenti AI aumenta i rischi di sicurezza anche se le aziende accelerano l’abilitazione sicura delle applicazioni SaaS di intelligenza artificiale
Autore: Redazione ImpresaCity
Una ricerca dei Netskope Threat Labs fotografa una crescita del 50% nell’uso delle piattaforme GenAI da parte nel periodo marzo-aprile-maggio 2025, ma nonostante si vada verso l’abilitazione sicura delle applicazioni SaaS di GenAI e degli agenti AI, oltre la metà delle adozioni attuali di applicazioni GenAI rientra nella shadow AI, ovvero applicazioni AI non autorizzate utilizzate dai dipendenti, con conseguenti rischi crescenti per la sicurezza dei dati.
Nel dettaglio, il più recente Cloud and Threat Report dei Netskope Threat Labs indica che le piattaforme GenAI facilitano il collegamento diretto dei database aziendali alle applicazioni AI, e la loro popolarità crea nuovi rischi per la sicurezza dei dati, aumentando l’importanza della prevenzione della perdita di dati (DLP), del monitoraggio continuo e della consapevolezza degli utenti. Anche il traffico di rete associato all’uso di piattaforme GenAI è cresciuto del 73% rispetto al trimestre precedente. A maggio, il 41% delle aziende ne utilizzava già almeno una, con Microsoft Azure OpenAI (29%) guida la classifica, seguita da Amazon Bedrock (22%) e Google Vertex AI (7,2%).
Non solo: dall’implementazione di soluzioni GenAI locali tramite GPU on-premise, allo sviluppo di strumenti che interagiscono con applicazioni SaaS GenAI o piattaforme GenAI, le aziende stanno esplorando molte opzioni per innovare rapidamente con l’AI, rivolgendosi sempre più a interfacce di Large Language Model (LLM).
Inoltre, il numero di applicazioni SaaS GenAI monitorate da Netskope è passato da 317 a oltre 1.550 in soli tre mesi, a conferma della straordinaria velocità di rilascio e adozione. In media, le aziende utilizzano oggi 15 applicazioni GenAI, contro le 13 di febbraio, con un aumento del volume di dati caricati da 7,7 GB a 8,2 GB al mese (trimestre su trimestre).
Secondo Netskope, i CISO e altri professionisti della sicurezza devono intraprendere i passi necessari per garantire un’adozione sicura e responsabile nell’attuale fase di accelerazione dell’uso delle tecnologie GenAI. In particolare, occorre Mappare il panorama GenAI: determinare quali strumenti GenAI sono in uso in azienda, chi li utilizza e come vengono sfruttati; Rafforzare i controlli sulle applicazioni genAI: stabilire e applicare policy che consentano solo l’uso di applicazioni GenAI approvate dall’azienda, implementare solidi meccanismi di blocco e introdurre un sistema di user coaching in tempo reale; Verificare i controlli locali; Monitorare continuamente: implementare un monitoraggio costante dell’uso della GenAI in azienda per rilevare nuovi casi di shadow AI e rimanere aggiornati su normative, etica AI e minacce emergenti; e infine Valutare i rischi emergenti della shadow AI agentica: identificare chi sta guidando l’adozione di AI agentica e collaborare con questi utenti per sviluppare policy concrete e attuabili che limitino lo shadow AI.
“La rapida crescita della shadow AI impone alle aziende di identificare chi sta creando nuove applicazioni e agenti AI utilizzando piattaforme GenAI, e in quali contesti vengono sviluppati e implementati. Non si tratta di frenare l’innovazione, ma di proteggerla: le aziende devono rivedere i controlli sulle applicazioni AI ed evolvere le politiche DLP, includendo elementi di user coaching in tempo reale”, commenta Ray Canzanese, Direttore di Netskope Threat Labs.