“Un modello cooperativo e democratico per domare l’Ai”, da Genova la sfida al mercato globale

  • Postato il 26 febbraio 2026
  • Copertina
  • Di Genova24
  • 1 Visualizzazioni
simone gamberini

Genova. “Con questo ritmo rischiamo di ritrovarci in breve tempo sotto il controllo di poche grandi piattaforme che hanno un solo obiettivo, estrarre e utilizzare i nostri dati e per manipolare anche spesso i nostri comportamenti sia come consumatori sia come cittadini, la cooperazione è sempre intervenuta quando il mercato prendeva una via troppo troppo estrema per riequilibrare il processo e oggi il modello cooperativo, che è democratico, può permettere un controllo democratico dei dati e un’estrazione economica del valore dei dati che può essere ridistribuito all’interno della comunità”.

Ad avvisare sui rischi insiti nella rapida evoluzione e diffusione dei sistemi di intelligenza artificiale è Simone Gamberini, presidente nazionale di Legacoop. Lo fa da Genova, dalla due giorni di Biennale dell’economia cooperativa a Palazzo Ducale. Oltre 600 partecipanti in presenza, tra cui le massime cariche istituzionali, più di 30 docenti universitari, 6 workshop progettuali, per un’iniziativa promossa da Legacoop, insieme a Coopfond, Fondazione Pico e Fondazione Barberini. La proposta lanciata da Genova è quella di una “governance democratica dell’intelligenza artificiale”.

Gamberini, come può agire il modello cooperativo nell’ambito dell’Ai?
Il mercato che è privo di regole perché è sovranazionale, non è regolato da regole locali. Un’idea potrebbe essere l’organizzazione dei proprietari di dati in cooperative, per riequilibrare i processi“.

Nel mondo cooperativo, oggi, quanto incide l’uso dell’intelligenza artificiale?
La questione verte soprattutto le decisioni sui modelli di governance, e per un’impresa come una cooperativa dove il lavoratore è anche socio questo è un tema fondamentale. Noi abbiamo un obiettivo, che è quello di massimizzare il valore per i nostri soci che sono anche i nostri lavoratori. È un obiettivo un po’ diverso rispetto a quello che molte imprese cercano di ottenere oggi attraverso l’utilizzo dell’intelligenza artificiale“.

A livello legislativo l’Italia e l’Europa che punto sono? 

A livello europeo è stato fatto un passo molto molto avanti con gli Ai-Act che ha per la prima volta posto limiti e regole all’intelligenza artificiale. Oggi dobbiamo, probabilmente non solo in Italia ma in tutti i paesi, capire anche come regolare l’intelligenza artificiale. Lo dico perché sono convinto che sia in atto un problema democratico“.

In che senso c’è un problema democratico?
Oggi noi inconsapevolmente consegniamo i nostri dati a grande piattaforme, l’intelligenza artificiale elabora quei dati, condiziona anche le nostre ricerche e anche il nostro pensiero, se viene alimentata con un obiettivo che è solo quello del profitto. Dobbiamo agire come hanno agito nel 45 i Padri costituenti, costruendo quella che noi abbiamo chiamato la sussidiarietà digitale, cioè un insieme di regole che consentano di riprendere una parte del controllo democratico dei dati e dell’utilizzo dei dati“.

Dalle cooperative la proposta di una sussidiarietà digitale, un pacchetto di regole che consenta di riprendere il controllo dei dati…
“È fondamentale. Le grandi piattaforme che sono abituate a lavorare sul mercato globale, che per definizione non ha regole perché supera le regole dei paesi, sono molto contrari a questo processo, ma è l’unico modo attraverso il quale noi probabilmente riusciamo a preservare sia un sistema economico sano, che guarda anche alla comunità, alla qualità del lavoro e non a trasformare tutti i consumatori in produttori sulla base di un algoritmo”.

Parlando di utilizzo dell’Ai nelle azienda, negli Stati Uniti i grossi gruppi, che hanno investito molto in intelligenza artificiale per migliorare i loro processi, si sono resi conto che ha reso meno del previsto…
“Fino a ora l’intelligenza artificiale, soprattutto in alcune aziende, penso a quelle manifatturiere, è stata utilizzata soprattutto in una logica predittiva, non ancora generativa. Le grandi aziende che stanno utilizzando l’intelligenza artificiale in una logica generativa, la stanno utilizzando in modo massivo per migliorare sia i processi sia la competitività, ma anche per sviluppare anche una sorta di forma di controllo sul lavoro”.

Questo è un rischio per i lavoratori?
Per il mondo cooperativo dove i lavoratori sono spesso anche soci e quindi proprietari della cooperativa questo tema della capacità dell’intelligenza artificiale di sostituirsi nelle decisioni diventa determinante, e qua c’è un po’ la sfida. Io penso che lo sviluppo dell’algoritmo e dell’intelligenza artificiale sia qualcosa di positivo va però governato con delle regole che oggi nessuno è stato nelle condizioni di mettere in campo e io continuo a pensare che un mercato non regolato produca degli effetti negativi e molte disuguaglianze, non sono solo economiche e sociali ma anche digitali“.

Un altro problema è quello della formazione digitale dei cittadini?
Certo, noi oggi non abbiamo, come singoli cittadini, le competenze per capire come muoverci. Dobbiamo probabilmente avere qualche legge che tuteli un po’ diversamente e strumenti di organizzazione che, come quelli delle imprese cooperative, abbiano un controllo democratico. Nelle cooperative riversare gli eventuali profitti verso la comunità, redistribuire quei profitti, è un obbligo, se non lo applichiamo in qualche modo alla galassia dell’Ai e continueranno a crescere quei 4-5 grandi colossi che via via orienteranno i consumi, le informazioni e i servizi che dovremmo utilizzare come singoli cittadini“.

Autore
Genova24

Potrebbero anche piacerti