Perché le tecnologie civili con ricadute militari sono un fenomeno da presidiare
- Postato il 4 marzo 2026
- Difesa
- Di Formiche
- 2 Visualizzazioni
La Relazione annuale sulla politica dell’informazione per la sicurezza 2026, tra i vari temi, sottolinea la crescente convergenza tecnologica tra il settore civile e quello militare. Sensori, algoritmi, droni, cloud e crittografia quantistica nascono sempre più spesso nei laboratori delle università e nelle officine delle startup, per poi trovare applicazione nei sistemi di difesa. Una traiettoria che l’Intelligence italiana ha deciso di analizzare con attenzione, anche perché porta con sé opportunità e rischi sistemici da governare.
Dal mercato civile alle Forze armate
Una quota crescente di competenze, componenti e servizi che il settore militare utilizza non nasce più nei programmi di procurement della difesa, ma nel settore civile. La sensoristica, il cloud, l’analisi dei dati: tutto viene prima sviluppato per esigenze commerciali e poi ricalibrato per gli usi operativi. Il risultato è una compressione dei tempi e dei costi rispetto ai tradizionali programmi esclusivamente militari, ma anche una governance più complessa, che richiede valutazioni di sicurezza continue, gestione attenta della supply chain e protezione della proprietà intellettuale.
In questo quadro, la Relazione assegna all’intelligence economica un ruolo di presidio: mappare le filiere critiche, monitorare acquisizioni e joint venture potenzialmente ostili, fornire early warning su dipendenze da fornitori esteri e rischi di spionaggio industriale. Non solo dunque raccolta di informazioni, ma anche una funzione di prevenzione strutturata, capace di supportare le politiche di controllo degli investimenti e di protezione del know-how nazionale.
Il nodo del dual use
Al centro di questa convergenza c’è il tema del dual use, ovvero delle tecnologie con impiego civile legittimo ma potenziale utilizzo militare o ostile. L’elenco che emerge dalla Relazione è lungo e comprende intelligenza artificiale, droni, sensori, software di data analytics, materiali avanzati e strumenti crittografici. La sfida, come sottolinea il documento, è trovare un equilibrio per non frenare innovazione e competitività, ma introdurre responsabilità e controlli proporzionati. Valutazioni di rischio per casi d’uso, verifiche sull’utilizzatore finale, controlli sulle esportazioni quando applicabili e un approccio di “security by design” nei prodotti sono gli strumenti indicati per muoversi su questo terreno scivoloso.
Droni autonomi e la questione etica
La sezione più densa sul piano delle implicazioni è quella dedicata ai sistemi d’arma autonomi (Aws). La Relazione descrive con precisione la frontiera tecnologica attuale: droni Fpv che, grazie a moduli di intelligenza artificiale a basso costo, acquisiscono autonomia nella fase terminale dell’ingaggio come risposta diretta alla guerra elettronica. L’operatore individua il bersaglio e attiva un aggancio visivo; da quel momento il sistema gestisce in autonomia la guida finale, correggendo la traiettoria in tempo reale anche in assenza di segnale di controllo. Efficace sul piano operativo, problematico su quello giuridico.
Il diritto internazionale umanitario, fondato sulle Convenzioni di Ginevra, considera essenziale il principio del “controllo umano significativo” sui sistemi d’arma e richiede la possibilità di identificare chiaramente i responsabili di eventuali crimini di guerra. Un sistema completamente autonomo, capace di selezionare e colpire un bersaglio senza intervento umano, mette in crisi entrambi questi pilastri. A ciò si aggiunge il rischio che algoritmi addestrati su dati imperfetti o affetti da bias sistematici non riescano a distinguere combattenti da civili, violando il principio di distinzione che è cardine del diritto dei conflitti armati.