Vi spiego come l’IA analizza i documenti su Kennedy. Parla il prof. Teti

  • Postato il 12 giugno 2025
  • Intervista
  • Di Formiche
  • 2 Visualizzazioni

Oggi il direttore della Cia, John Ratcliffe, ha annunciato la declassificazione di 54 documenti relativi all’assassinio del senatore Robert Francis Kennedy, alla luce di un executive order del presidente Donald Trump riguardante anche le morti violente del presidente John Fitzgerald Kennedy e del reverendo Martin Luther King. Martedì Tulsi Gabbard, direttrice dell’Intelligence nazionale degli Stati Uniti, aveva dichiarato di utilizzare l’intelligenza artificiale per velocizzare il lavoro, in particolare la pubblicazione dei documenti sull’assassinio del presidente Kennedy.

Ne parliamo con Antonio Teti, professore dell’Università “G. D’Annunzio” di Chieti-Pescara.

Quali sono i pro di questa scelta?

L’utilizzo dell’IA per accelerare la declassificazione dei documenti, come nel caso degli archivi sull’assassinio di JFK, può rappresentare una svolta significativa dal punto di vista operativo. Tra i vantaggi principali c’è senza dubbio la velocità di elaborazione di decine di migliaia di pagine che, grazie all’IA, possono essere analizzate in poche settimane anziché in mesi o anni. Altro punto di forza è la possibilità di ottimizzare il lavoro umano: l’IA può automatizzare la ricerca di termini sensibili, sigle, nomi e riferimenti potenzialmente classificati, permettendo agli analisti di concentrarsi sulle valutazioni di merito e sulla contestualizzazione dei documenti.

Ci sono anche dei rischi da non sottovalutare?

Sì, come per esempio quella delle “allucinazioni” delle piattaforme di intelligenza artificiale. In altri termini, se parliamo di IA non correttamente supervisionata, il rischio che elementi importanti sia tralasciati o completamente ignorati, risulta reale. Altro aspetto critico è la dipendenza da tecnologie esterne: utilizzare strumenti privati, per quanto avanzati, pone interrogativi sulla sicurezza, sulla gestione dei dati riservati e sulla trasparenza dei processi.

La Cia ha recentemente sviluppato una chatbot basata sull’intelligenza artificiale per supportare gli analisti nella selezione delle informazioni e nella creazione di profili dei target. Quanto siamo vicini, nella realtà, a un’intelligenza artificiale in grado di prevedere il comportamento umano?

La chatbot dell’agenzia di intelligence statunitense si basa su modelli linguistici avanzati per supportare gli analisti nell’elaborazione di enormi quantità di informazioni provenienti da fonti pubbliche, ma anche da dati raccolti clandestinamente. Questo approccio non solo aiuta a creare profili più accurati dei leader mondiali, ma consente anche di prevedere le loro decisioni e reazioni. Siamo ancora lontani da un’IA capace di prevedere il comportamento umano con precisione scientifica. Le tecnologie attuali riescono a individuare pattern, correlazioni e probabilità sulla base di grandi quantità di dati storici, ma non possono ancora comprendere le motivazioni profonde o i fattori contestuali unici che influenzano le scelte individuali. Tuttavia, nei contesti strutturati – come il comportamento d’acquisto online o l’interazione sui social – l’IA è già in grado di formulare previsioni affidabili su scala statistica soprattutto se parliamo di piattaforme di tipo generativo. In ambito di intelligence, questo significa che può supportare, in maniera rilevante il carico di lavoro dell’analista soprattutto nell’analisi dei dati, nella profilazione comportamentale, nella previsione delle minacce, nel supporto alle operazioni sotto copertura e nella traduzione e riconoscimento automatico (traduzione testi, riconoscimento volti, trascrizioni audio, analisi segnali visivi, eccetera), e soprattutto nelle attività di analisi predittiva.

Il concetto di profilazione digitale assume un significato particolarmente rilevante in ambito di intelligence. Quali sono, a suo avviso, i limiti tecnici ed etici dell’uso dell’IA per costruire profili comportamentali a fini investigativi o di spionaggio?

I limiti tecnici riguardano principalmente la qualità e la provenienza dei dati: bias nei dataset, mancanza di contesto e interpretazioni errate possono portare a conclusioni fuorvianti. Dal punto di vista etico, l’uso dell’IA per la profilazione solleva interrogativi seri sulla privacy, le libertà individuali e il rischio di discriminazioni. Il fatto che un sistema algoritmico “etichetti” un individuo sulla base di attività digitali può produrre perplessità sul piano della tutela della privacy, ma se la stessa è condotta per fini investigativi e giudiziari oltre che riferibili alla sicurezza nazionale, risulta oltremodo evidente la sua indiscutibile necessità sul piano della prevenzione a contrasto alle attività criminose ed in particolare a quelle relative al terrorismo internazionale. Certamente occorre progettare nuovi quadri normativi chiaro ed applicabili, oltre che una supervisione umana costante.

La creazione di profili fake impiegati per interagire online e studiare soggetti di interesse è una pratica nota nel mondo dell’intelligence. Che tipo di evoluzione ha avuto con l’avvento dell’intelligenza artificiale generativa?

L’IA generativa ha introdotto tecniche e metodologie impressionanti sul piano della creazione di identità digitali false. Il livello di sofisticazione ha subito un incremento impressionante sia sul piano qualitativo che quantitativo. Attualmente è possibile generare immagini di volti realistici, storie coerenti, stili di scrittura personalizzati e interazioni credibili su tutti i social network, garantendo una produzione su scala industriale. È dal 2017 che si registrano a livello mondiale attività di cyber espionage condotte per mezzo di fake profile opportunamente realizzati. I vantaggi derivanti da attività di cyber espionage sono enormi, sia sul piano della riduzione dei rischi per chi conduce tali attività che per i costi di gestione, i quali risultano sostanzialmente azzerati. Questo rappresenta un enorme vantaggio per le operazioni di undercover intelligence, ma anche un problema per quanto concerne le operazioni di disinformazione e manipolazione dell’opinione pubblica. Il confine tra operazioni lecite e abuso tecnologico, come sappiamo, è sempre più sottile.

Il suo ultimo libro, “Digital profiling” (Il Sole 24 Ore) descrive le metodologie e le tecniche della profilazione digitale. Quanto pesa, oggi, la componente algoritmica rispetto a quella umana nell’interpretazione dei dati digitali raccolti?

La componente algoritmica ha assunto un ruolo centrale nel filtrare e strutturare enormi volumi di dati. Tuttavia, l’interpretazione resta una prerogativa umana, soprattutto nei contesti di intelligence strategica o geopolitica. Gli algoritmi possono segnalare anomalie o tendenze, ma è l’analista umano a comprendere il “perché” e a inserirlo in un quadro decisionale più ampio. La sfida attuale è garantire che l’automazione aumenti, e non sostituisca, il giudizio umano. A tal proposito, il mio libro esplora in profondità il cyber profiling, ovvero la pratica di raccogliere e analizzare dati digitali per tracciare il profilo psicologico e comportamentale di un individuo. Attraverso lo studio delle interazioni sui social media, delle ricerche online, dei comportamenti d’acquisto e delle preferenze espresse dagli utenti, è possibile delineare schemi che rivelano abitudini, opinioni e intenzioni future. Questa metodologia è diventata uno strumento essenziale non solo per le forze dell’ordine, che la utilizzano per individuare criminali o minacce informatiche, ma anche per aziende e governi interessati a comprendere meglio i comportamenti della popolazione. Nel libro oltre all’illustrazione delle tecniche di cyber profiling e social media analytics, strumenti essenziali per la valutazione dei dati pubblicati dagli utenti, sono descritti: l’utilizzo del linguaggio naturale (NLP), l’apprendimento automatico (machine learning), le tecniche di stilometria sono tra i metodi impiegati per identificare schemi ricorrenti nel comportamento online. Sono metodologie che permettono di individuare fake profile, tracciare le emozioni predominanti nei messaggi digitali e persino prevedere potenziali minacce

L’uso dell’intelligenza artificiale per la profilazione digitale può riguardare non solo le agenzie di intelligence, ma anche aziende e governi democratici. Esiste un rischio concreto di sorveglianza predittiva anche nelle democrazie occidentali?

Sì, esiste. Anche nei sistemi democratici, l’uso dell’IA per fini di sicurezza può spingersi oltre i confini accettabili, specie in assenza di trasparenza e accountability. La sorveglianza predittiva – basata su analisi di big data e comportamento passato – può trasformarsi in una forma di colpevolezza pre-emptive, con possibili conseguenze finanche molto gravi per la presunzione di innocenza. Il rischio può aumentare in maniera esponenziale con la collaborazione tra enti pubblici e privati, che spesso non sono soggetti agli stessi standard etici. Per questo motivo risulta fondamentale la profonda riflessione si “chi”, “come” e “perché” risulta legittimato a condurre attività di questo tipo.

Dal punto di vista accademico e professionale, quali sono oggi le competenze più richieste per operare nel campo del cyber profiling? E quanto è importante una collaborazione tra esperti di tecnologia, psicologia e intelligence?

La figura di riferimento è sempre il data scientist, ovvero colui che detiene le competenze chiave che includono data science, Osint (open source intelligence), psicologia comportamentale, analisi delle minacce digitali e conoscenza delle dinamiche socioculturali. È sempre più importante formare professionisti ibridi, capaci di integrare le competenze tecniche con quelle interpretative. La collaborazione interdisciplinare è fondamentale: solo combinando l’expertise di analisti, psicologi e tecnologi è possibile costruire profili completi e contestualizzati, evitando errori di valutazione e abuso degli strumenti.

Autore
Formiche

Potrebbero anche piacerti