Per i ricercatori di Sophos X-Ops l'AI generativa può effettivamente aiutare i cyber criminali, ma tra di loro pare manchi ancora una visione coerente delle possibilità delle nuove tecnologie
Il collegamento tra AI e cybersecurity è logico lato piattaforme di difesa, mentre è meno chiaro quanto le nuove potenzialità delle tecnologie recenti di Intelligenza Artificiale possano aiutare anche i cyber criminali nei loro attacchi. Sophos ha pubblicato due report dedicati proprio all'utilizzo della AI da parte dei "cattivi" cyber.
Il primo studio - The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI - dimostra come l'AI generativa possa effettivamente essere utile per perpetrare frodi su vasta scala, anche da parte di chi ha competenze tecniche minime. Usando un semplice template per e-commerce e strumenti come GPT-4, gli specialisti di Sophos X-Ops sono stati infatti in grado di costruire un sito web completamente funzionante dotato di immagini, contributi audio e descrizioni di prodotto generati da AI.
Il tutto è stato completato da un finto login Facebook e una finta pagina di checkout con cui è possibile sottrarre le credenziali di login e i numeri di carta di credito di utenti inconsapevoli. Costruire e attivare il sito web ha richiesto pochissime conoscenze tecniche e, con lo stesso strumento, Sophos X-Ops è riuscita in pochi minuti a creare centinaia di siti simili semplicemente premendo un pulsante.
Proprio questa capacità di "industrializzare" la creazione di siti fraudolenti è il passo in più che i ricercatori Sophos sono stati in grado di fare ma che manca ancora alla gran parte dei cyber criminali. “Dovesse esistere una tecnologia AI capace di creare minacce automatizzate complete, prima o poi le persone la utilizzerebbero. Abbiamo già assistito all'integrazione di elementi di AI generativa nelle truffe classiche, come testi o fotografie prodotti da AI, per adescare vittime", ha spiegato Ben Gelman, senior data scientist di Sophos.
A rassicurare i potenziali bersagli delle campagne malevole "potenziate" dall'AI ci pensa un secondo report Sophos - Cybercriminals Can’t Agree on GPTs - secondo cui molti cybercriminali sono ancora lontani dall'adottare strumenti AI per i loro attacchi. Sophos X-Ops ha esaminato quattro importanti forum del dark web alla ricerca di conversazioni inerenti l'AI generativa. Il suo appeal sembra al momento piuttosto limitato, almeno a giudicare dalle (relativamente poche) conversazioni in merito.
La maggioranza dei post analizzati da Sophos riguardava semplicemente la vendita di account ChatGPT compromessi e dei sistemi che permettono di aggirare le protezioni integrate negli LLM in modo da poterli sfruttare per obiettivi illeciti. Sophos X-Ops ha trovato anche dieci derivati da ChatGPT che in teoria si possono usare per lanciare attacchi e sviluppare malware. Ma questi tool sono accolti con scetticismo e anche diffidenza, più che con entusiasmo o quantomeno interesse.
"Almeno per ora, pare che i dibattiti sugli LLM in corso tra cybercriminali siano gli stessi di chiunque altro”, ha sintetizzato Christopher Budd, director, X-Ops research di Sophos.