Autore: Fabio Fratucello
L’Intelligenza Artificiale sta determinando un cambiamento radicale nel panorama delle minacce informatiche. Se da un lato consente ai difensori di rilevare e rispondere alle minacce con maggiore velocità e precisione, dall’altro ha abbassato la soglia d’ingresso per gli avversari, che oggi possono lanciare e scalare gli attacchi più rapidamente. Il risultato è una corsa agli armamenti che impone difese più rapide, intelligenti e proattive per contrastare minacce informatiche sempre più avanzate e prevenire le violazioni.
Il Global Threat Report 2025 di CrowdStrike evidenzia come gli avversari stiano sfruttando l’AI per colpire le organizzazioni. L’AI è sempre più utilizzata in campagne di social engineering. Parallelamente, sono in aumento gli attacchi agli ambienti cloud – come il LLMjacking, che consiste nel dirottamento di modelli aziendali AI o ML tramite l’uso di credenziali rubate o di vulnerabilità nelle API. Poiché gli avversari stanno letteralmente armando l’AI con rapidità e su larga scala, i team di sicurezza devono saper conquistare il vantaggio dell’AI per proteggere efficacemente le proprie organizzazioni.
L’AI agentica rappresenta un avanzamento tecnologico straordinario in termini di capacità offerte dall’intelligenza artificiale. Mentre l’AI generativa (GenAI) è ormai ampiamente adottata per la creazione di contenuti e l’assistenza nelle attività, l’AI agentica introduce un cambio di paradigma, poiché è in grado di gestire autonomamente compiti complessi e articolati, superando i limiti delle soluzioni GenAI reattive che richiedono un prompt o un clic per attivarsi. Progettata per l’adattabilità e l’esecuzione in tempo reale, l’AI agentica agisce infatti per conto dei difensori umani, garantendo velocità, coerenza e intelligenza, a un livello che l’automazione tradizionale non è in grado di eguagliare.
A differenza dell’automazione convenzionale, basata su workflow rigidi o logiche predeterminate, infatti, l’AI agentica è progettata per interpretare dinamicamente il contesto, prendere decisioni ed eseguire azioni – in modo continuo e autonomo. Può gestire in modo indipendente flussi di lavoro investigativi e di risposta end-to-end su endpoint, identità e ambienti cloud, adattandosi in tempo reale in base al feedback degli analisti e agli esiti delle minacce, per migliorare costantemente il processo decisionale. Questa agilità rende l’AI agentica uno strumento unico per affrontare avversari sofisticati e veloci.
Per i Security Operations Center moderni l’AI agentica rappresenta un elemento di svolta. I SOC operano sotto enorme pressione, tra volumi crescenti di alert, tempi di breakout sempre più brevi e una cronica carenza di analisti qualificati. I metodi tradizionali di triage manuale degli alert non sono più sostenibili. Gli analisti impiegano troppo tempo a filtrare falsi positivi o rilevamenti di bassa priorità, e ciò causa un eccesso di escalation e capacità limitate di risposta alle minacce reali o ad alta priorità.
L’AI agentica può risolvere questi problemi replicando il giudizio di un esperto alla velocità tipica della macchina. È in grado di valutare in autonomia gli alert in ingresso, eliminare i dati di disturbo, determinarne la gravità e raccomandare le azioni successive – accelerando sensibilmente il triage e riducendo il carico sugli analisti, già oberati.
Nell’applicazione in situazioni reali tale modello ha dimostrato di portare a risultati significativi. Ad esempio, CrowdStrike Charlotte AI Detection Triage consente ai team di sicurezza di recuperare fino a 40 ore settimanali (il valore è calcolato moltiplicando il numero medio di allarmi gestiti da Charlotte AI per un tempo di gestione di 5 minuti per allarme, come stimato dal team di Falcon Complete. I risultati individuali possono variare in base a fattori come il volume totale degli allarmi) grazie all’automazione del triage manuale, raggiungendo un’accuratezza superiore al 98% (il punteggio di accuratezza è una misura delle decisioni di triage di Charlotte AI che coincidono con le decisioni degli esperti del team CrowdStrike Falcon Complete Next-Gen MDR) nel replicare le decisioni umane.
Basata su un modello di autonomia vincolata (bounded autonomy), Charlotte AI permette alle organizzazioni di definire come e quando debbano essere prese decisioni automatiche, dando pieno controllo agli analisti su soglie, interventi di revisione umana e supervisione. Questo equilibrio tra automazione e controllo aiuta a scalare le capacità di risposta, preservando al contempo la fiducia nelle azioni e nei risultati guidati dall’IA.
L’autonomia vincolata garantisce che gli agenti AI operino entro parametri chiaramente definiti, come l’ambito di accesso ai dati, le azioni di risposta consentite e i percorsi di escalation. Questo framework stabilisce barriere di sicurezza che allineano le decisioni dell’AI alla tolleranza al rischio e ai protocolli operativi dell’organizzazione. Un altro elemento cruciale è la comprensibilità: la capacità dell’AI agentica di rendere trasparenti e giustificabili le proprie azioni, sia per gli analisti sia per gli auditor. Questo è fondamentale per mantenere fiducia, trasparenza e difendibilità normativa nelle operazioni di sicurezza autonome.
L’AI agentica è un moltiplicatore di forza a disposizione di analisti e team di sicurezza. Sgravando il personale da compiti ripetitivi e dispendiosi in termini di tempo, permette di concentrarsi su attività più evolute e sofisticate, come la threat investigation su minacce avanzate, la validazione dei rilevamenti e l’analisi critica di scenari complessi. Il risultato è un SOC più efficiente e resiliente, in cui intelligenza artificiale ed esperienza umana operano in sinergia per ridurre il tempo di permanenza delle minacce e migliorare i risultati di sicurezza.
Tuttavia, la vera promessa dell’AI agentica va oltre i singoli strumenti o le single funzionalità. Essa rappresenta un cambio strutturale nell’approccio alla cybersecurity: dal reagire agli attacchi al prevenirli attivamente. Automatizzando le attività più ripetitive ed esigenti in termini di tempo e risorse, l’AI agentica consente ai difensori di concentrarsi su ciò che conta davvero – comprendere il comportamento degli avversari, identificare le minacce avanzate e fermare le violazioni prima che si aggravino.
In un panorama di minacce sempre più accelerato, in cui gli avversari sfruttano l’AI per scalare gli attacchi, i team di sicurezza hanno bisogno di molto più che semplici miglioramenti incrementali. Servono sistemi intelligenti che uniscano la precisione delle macchine all’intuizione e alla conoscenza umana, operando alla velocità della minaccia stessa.
L’AI agentica non è un semplice nuovo strato di automazione nella catena di sicurezza: è un abilitatore strategico che rivoluziona il funzionamento del SOC dalle fondamenta. Adottando innovazioni basate sull’AI con il giusto equilibrio tra autonomia e supervisione, le organizzazioni possono riprendere il controllo, ridurre il burnout degli analisti e dei team di sicurezza e riportare in modo decisivo il vantaggio dell’IA dalla parte del difensore.
Fabio Fratucello è Field CTO World Wide, CrowdStrike