L’Europa vuole domare l’intelligenza artificiale o soffocarla?
- Postato il 3 luglio 2025
- Blog
- Di Il Fatto Quotidiano
- 2 Visualizzazioni
.png)
Le Big Tech chiedono di rinviare il regolamento europeo. Ma l’AI Act non è un bavaglio: è un primo, timido tentativo di impedire che l’algoritmo decida tutto nell’ombra. Come il GDPR, sarà il banco di prova di una regolamentazione digitale che per ora esiste solo sulla carta.
di Agostino Imperatore*
Mentre l’Europa si prepara a varare la disciplina più ambiziosa al mondo sull’intelligenza artificiale, le grandi aziende tecnologiche cercano di prendere tempo. La CCIA Europe (Computer & Communication Industry Association), lobby che rappresenta big tech come Google, Meta, Amazon e Apple, ha formalmente chiesto all’Unione Europea di rinviare l’entrata in vigore dell’AI Act, il nuovo regolamento che punta a disciplinare l’uso dell’intelligenza artificiale in Europa.
L’allarme riguarda soprattutto i cosiddetti modelli di intelligenza artificiale general-purpose, cioè quei sistemi di base utilizzabili in un’ampia gamma di applicazioni – come ChatGPT, Gemini o Claude – per i quali l’entrata in vigore degli obblighi operativi concreti è prevista a partire dal 2 agosto 2025.
A dire il vero, si tratta di un regolamento che oggi definisce solo principi generali, come l’obbligo di valutare i rischi e comunicare le finalità d’uso, senza strumenti concreti di enforcement. Proprio questa incertezza applicativa è finita al centro delle polemiche: nel mirino non è tanto il contenuto della norma in sé, quanto il cosiddetto rolling out tecnico, ossia l’assenza di linee guida, registri europei e codici di condotta per capire come conformarsi. Senza questi strumenti, secondo la CCIA, le aziende rischiano sanzioni ingiuste per inadempimenti su cui non hanno ancora piena consapevolezza, frenando di conseguenza la crescita.
Dello stesso avviso è il numero uno di Bosch, Stefan Hartung, secondo il quale l’Europa starebbe “regolando se stessa fino alla morte”, creando un contesto ipernormato che rende difficile pianificare investimenti. L’accusa a Bruxelles è chiara: troppe regole rischiano di soffocare l’innovazione, ma senza di esse l’intelligenza artificiale rischierebbe di sfuggire al controllo. D’altro canto, dove c’è trasparenza, l’arbitrio si riduce e il potere decisionale diventa meno opaco.
Se da un lato l’Unione Europea punta, con l’AI Act, a diventare pioniera di una regolamentazione affidabile e umanocentrica, dall’altro lo stato dell’arte appare ancora molto lontano dalla realtà operativa. Gli standard tecnici non sono pronti, i codici di condotta accumulano ritardi, e la definizione stessa di “rischio elevato” è così ampia da sfiorare l’onnicomprensività. Il risultato è un quadro normativo generico e confuso, percepito dagli operatori del settore come una vera e propria giungla regolatoria. In questo scenario globale, l’Europa sembra sospesa in un equilibrio precario fra la tutela dei diritti e la salvaguardia della propria capacità di attrarre investimenti. E non è detto che riesca a trovare la sintesi.
Negli Stati Uniti l’IA è disciplinata da un mosaico frammentato di regole federali e norme di settore; in Cina, invece, l’innovazione tecnologica convive con un controllo pervasivo da parte dello Stato. L’Europa cerca di differenziarsi da entrambi i modelli, puntando su una terza via: una regolamentazione etica, trasparente e responsabile. Il rischio, però, è che nel tentativo di bilanciare ogni esigenza si finisca per perdere competitività, scoraggiare gli investimenti e costruire un labirinto normativo in cui solo le multinazionali con grandi uffici legali riescono a orientarsi. D’altronde, anche nel 2018, quando entrò in vigore il GDPR, molti sostennero che “l’Europa si stesse suicidando” con un’iperregolamentazione; poi, però, quella disciplina è diventata uno standard globale e un vantaggio competitivo. E se con l’AI Act stesse accadendo lo stesso? La domanda, allora, è inevitabile: come coniugare rigore regolatorio e sviluppo economico?
Il futuro dell’AI Act sarà il banco di prova di un’Europa che sogna di dettare regole al mondo, ma che rischia di restare ostaggio delle proprie contraddizioni. Da un lato la spinta alla trasparenza e al controllo democratico, dall’altro il timore di soffocare un’innovazione che corre più veloce delle regole. Una sfida che non si può più rimandare. L’IA va avanti, con o senza regole.
*Avvocato
L'articolo L’Europa vuole domare l’intelligenza artificiale o soffocarla? proviene da Il Fatto Quotidiano.