Se l’intelligenza artificiale viene usata per crimini informatici, a pagare sono quasi sempre cittadini inermi
- Postato il 9 agosto 2025
- Blog
- Di Il Fatto Quotidiano
- 1 Visualizzazioni
.png)
Viviamo in un’epoca in cui le macchine non si limitano più a rispondere a comandi. Oggi esistono agenti digitali capaci di osservare, ragionare e agire in piena autonomia. Si chiamano Agentic AI e, sebbene rappresentino una frontiera avanzata della tecnologia, portano con sé un rovescio pericoloso: il rischio che questi sistemi vengano arruolati dal crimine informatico, trasformandosi in strumenti di truffa, frode e manipolazione. A pagarne il prezzo, sempre più spesso, sono i cittadini.
La differenza rispetto ai sistemi di IA tradizionali è sostanziale. Non parliamo più di software che eseguono istruzioni. Gli agenti AI sono progettati per perseguire obiettivi, anche in ambienti mutevoli, decidendo in autonomia come farlo. Questo li rende flessibili, adattivi… e, se usati da criminali, letalmente efficaci.
Immaginate un’intelligenza artificiale programmata per creare truffe: può scandagliare in pochi secondi milioni di profili social, generare finti call center, replicare la voce dei nostri cari o del vostro commercialista, o ancora del vostro direttore di banca, con deepfake vocali, simulare conversazioni e mail ineccepibili. E può farlo 24 ore su 24, senza stancarsi, senza esitazioni.
Già oggi assistiamo a truffe automatizzate che colpiscono risparmiatori ignari, pensionati, piccoli imprenditori. Il caso Arup (grande società britannica di ingegneria e consulenza fondata nel 1946, famosa per progetti come la Sagrada Familia di Barcellona) è emblematico: una frode da 25 milioni di dollari orchestrata con video e audio deepfake del CFO dell’azienda. La dipendente, convinta di parlare con il suo superiore, ha eseguito bonifici urgenti per oltre 25 milioni di dollari. Non per ingenuità, ma perché l’inganno era tecnicamente perfetto.
In questo nuovo scenario, il fattore umano diventa il vero anello debole. Le truffe non puntano più solo alle vulnerabilità tecniche, ma alle emozioni, alla fiducia, alla percezione. E se a far leva su queste fragilità è un sistema AI progettato per imitare, convincere e ingannare, diventa quasi impossibile difendersi. Il nostro cervello, evolutivamente, non è stato programmato per distinguere tra un volto reale e un deepfake, tra una mail fraudolenta generata da AI e una scritta da una persona reale. E il problema peggiora quando questi strumenti vengono “armati” da organizzazioni criminali, spesso con budget superiori a quelli di molte PMI o enti pubblici.
Mentre molte aziende stanno iniziando a usare intelligenze artificiali autonome per proteggere i propri sistemi – ad esempio in centri specializzati che sorvegliano costantemente le reti informatiche per riconoscere pericoli in tempo reale – gli stessi strumenti sono già finiti nelle mani dei criminali. Ci sono AI utilizzate per scopi illegali che riescono a inviare truffe via email o messaggi, costruite su misura per ogni persona, così da sembrare vere. Possono anche mettere in atto attacchi simili ai ransomware: in pratica, un sistema entra nel computer della vittima, blocca i file e poi chiede un pagamento per sbloccarli, come se un ladro chiudesse tutti i tuoi documenti con un lucchetto e ti dicesse “paga se vuoi riaverli”. Ma queste nuove AI non sempre usano la forza: spesso convincono la persona a dare volontariamente soldi o informazioni, facendo leva sulla fiducia o sull’urgenza.
Sono capaci di raccogliere dati personali che troviamo su internet, anche in modo inconsapevole, e di usarli per creare identità false che sembrano credibili. E infine riescono a simulare conversazioni – via chat, telefono o video – così realistiche da farci credere di parlare con qualcuno di fiducia, spingendoci ad autorizzare bonifici o a condividere informazioni riservate. A tutto ciò si aggiunge la capacità dell’AI di “apprendere” dagli errori. Se una truffa fallisce, il sistema la registra, la corregge, e la ripropone in versione migliorata. Un ciclo che, senza protezioni adeguate, può diventare devastante per cittadini già disorientati.
Non possiamo limitarci a rincorrere le truffe una volta avvenute. Serve un sistema preventivo chiaro e stringente. È necessario che ogni agente AI, soprattutto quelli impiegati nel settore finanziario o che interagiscono con il pubblico, risponda a protocolli di comportamento, sicurezza e tracciabilità. Protocolli che definiscano con chiarezza cosa l’agente può fare da solo e in quali casi è indispensabile l’intervento umano. Devono stabilire come vengono registrate e controllate le azioni dell’agente, definire chi ne è responsabile in caso di errore o abuso e prevedere come proteggerlo da eventuali manipolazioni esterne.
In assenza di queste regole, si genera una pericolosa zona grigia in cui diventa difficile anche stabilire la responsabilità legale in caso di frode.
Il pericolo non è l’intelligenza artificiale in sé. È l’assenza di consapevolezza, di educazione digitale, di strumenti normativi aggiornati. Le truffe digitali ai danni dei cittadini stanno diventando più sofisticate, frequenti e personalizzate. Pensare che basti una password complessa o un antivirus per difendersi è illusorio. Serve un salto culturale, in cui istituzioni, aziende e media lavorino per creare consapevolezza, prevenzione e strumenti accessibili. È l’unico modo per evitare che l’intelligenza artificiale, invece di proteggerci, diventi l’ennesima arma nelle mani dei truffatori.
L'articolo Se l’intelligenza artificiale viene usata per crimini informatici, a pagare sono quasi sempre cittadini inermi proviene da Il Fatto Quotidiano.