Come combattere le fake news e cos'è la Sezione 230 che protegge Musk e Zuckerberg
- Postato il 24 novembre 2025
- Cultura
- Di Agi.it
- 1 Visualizzazioni
Come combattere le fake news e cos'è la Sezione 230 che protegge Musk e Zuckerberg
AGI - Quello a cui stiamo assistendo da lunghi anni è un declino della verità, col proliferare di fake news, disinformazione, teorie del complotto e negazionismo. Che fossero cadute in disgrazia le ‘grandi narrazioni’ che hanno segnato il secolo scorso è cosa nota, così come l’evidenza che le interpretazioni hanno sostituito i fatti. Ciò che un tempo era derubricato a opinione personale e aveva una eco limitata, oggi gode di un seguito molto più ampio grazie alla cassa di risonanza dei social network.
Partendo da queste considerazioni, Steven Brill, giornalista e co-fondatore e co-Ceo di NewsGuard, azienda che valuta l’affidabilità dei siti di informazioni, spiega nel suo libro ‘La scomparsa della verità – Social media e manipolazione dei fatti: come possiamo difenderci’ (Neri Pozza Editore, pagg. 346; 30 euro) perché prolificano i siti di disinformazione, le fake news e i cosiddetti ‘troll’ senza che le piattaforme, i provider o le aziende che gestiscono il web o i social siano chiamate a risponderne. E il futuro è anche più preoccupante con l’arrivo dell’Intelligenza artificiale.
La Sezione 230 e il paradiso della disinformazione
Brill racconta come tutto ebbe inizio. Il 4 agosto 1995 quando un emendamento, inserito nella 'Sezione 230' del 'Communications Decency Act' che costituisce il Titolo V del 'Telecommunications Act' del 1996, pose le basi per quello che sarebbe diventato il paradiso della disinformazione rendendo le piattaforme ‘non responsabili’ di ciò che viene pubblicato. Il testo recita così: "Nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi".
“Il nostro emendamento – dichiarò uno dei fautori, il democratico Ron Wyden – proteggerà i buoni samaritani dei computer, i fornitori di servizi online, chiunque offra un’interfaccia per navigare su Internet […]. Li proteggerà dall’assumersi responsabilità di cui non dovrebbero affrontare le conseguenze per il solo fatto di averci aiutato a risolvere questo problema”.
Grazie a quell’emendamento che è ancora in vigore i proprietari dei social network, ma anche Google, Microsoft e altri non hanno responsabilità di ciò che viene scritto sul web o su X, Facebook, TikTok o Instagram. Il motivo, spiegavano i legislatori trent’anni fa (quando il flusso di contenuti sul web era due miliardi di volte inferiore a oggi) “su Internet succedono troppe cose” e la legge non avrebbe funzionato perché “un esercito di burocrati non sarebbe mai intervenuto in tempo” per regolamentare i contenuti, mentre le piattaforme lo avrebbero potuto fare per cui compito dei legislatori era di agevolare il compito di queste ultime che avrebbero vagliato i contenuti come “buoni samaritani” senza la paura (che poi avrebbe bloccato tutto) di conseguenze legali.
Se da un lato probabilmente Internet non si sarebbe mai sviluppata senza la Sezione 230 – travolta da una valanga di cause legali – l’emendamento voluto per permettere alle aziende private di fare un tentativo di moderazione a monte, senza essere penalizzate per averci provato (e senza esserci riuscite) di fatto tolse ogni responsabilità alle piattaforme. Un emendamento che allora era pensato per il web e che invece ha avuto conseguenze drammatiche con l’avvento dei social.
Algoritmi e strategie di destabilizzazione
Nel libro ‘La scomparsa della verità’ Steven Brill fa quindi un’analisi approfondita della disinformazione sul web, del proliferare delle fake news e dei messaggi malevoli e provenienti da account nascosti (spesso posizionati in paesi stranieri) diffusi secondo una chiara strategia propagandistica o mirata a destabilizzare da Stati come Russia, Iran o Cina che diffondono false notizie confezionate ad arte e ripostate sui social da milioni di utenti. Il caso più eclatante e famoso riguarda i siti di Russia Today, oggi RT, e Sputnik che da novembre 2017 sono stati deindicizzatati dalle Notizie di Google proprio a causa della propaganda perpetrata con messaggi "ripetitivi, falsi o strumentalizzabili" pro Putin.
Una tendenza purtroppo netta e irruenta alimentata dagli algoritmi dei social network che promuovono contenuti controversi se non vere e proprie fake news (per esempio, negli Usa, favorevoli a Trump, ai Maga o, in generale, a tutto ciò che è anti-Ucraina e anti-Ue) che diventano virali, mentre quelli più seri, moderati o corretti vengono lasciati visibili in strettissima misura.
Il paradosso della pubblicità programmatica
Per arginare le fake news si è cercato di intervenire, spiega Brill, ma la ricetta ha creato un altro danno inatteso. La pubblicità sul web oggi avviene spesso con degli algoritmi, il cosiddetto ‘posizionamento programmatico’ che permette alle grandi aziende, ai grandi marchi, di comparire su migliaia di siti senza che ne siano a conoscenza. Una sorta di pubblicità ‘a tappeto’ che però non contempla l’autorevolezza o la natura dei siti su cui il banner appare. I clienti non sono interessati a sapere dove la pubblicità compare ma a quanti utenti finali arriva. E così accade che per mezzo dei titoli e pezzi ‘clickbite’, ossia fatti e concepiti per attirare clic sul sito web attraverso i social, siti spesso di disinformazione ottengono pubblicità.
C’è da aggiungere a questo il fatto che i marchi si sono avvalsi dei servizi di società di ‘brand safety’, ossia aziende che stilano delle liste di parole vietate. Se un sito usa quelle parole, l’algoritmo che regola la pubblicità programmatica evita di far comparire il brand su quel sito. Una soluzione teoricamente giusta – per selezionare le testate online in base alla qualità - che si è però rivelata quasi letale: i siti più autorevoli si sono trovati ad avere meno pubblicità. Per evitare di sponsorizzare siti di fake news o siti offensivi, infatti, le ‘black list’ di parole vietate comprendevano quelle più usate nell’informazione come “Covid”, “Russia”, “Ucraina”, oppure altre come “nero” o “gay”. La conseguenza è stata che i siti che si volevano bloccare si sono invece fatti furbi e hanno evitato parole che sapevano essere vietate oppure hanno creato volutamente errori nel testo (tipo “C0vid”, “Ucrania”, ecc.).
“Nel 2020 gli inserzionisti programmatici hanno versato nelle tasche degli editori di questa informazione di bassa qualità 2,6 miliardi di dollari di proventi pubblicitari – scrive Brill – negli Usa si stima siano stati spesi 1,62 miliardi di dollari per inserzioni su siti di disinformazione. Le inserzioni online di tutte le testate americane nel 2020 ammontavano ad appena 3,5 miliardi di dollari: se fossero state destinate ai giornali (affidabili e in difficoltà) le loro entrate sarebbero aumentate del 50%”.
La crescita dei siti 'pink slime' e il crollo dell'editoria
In tema di numeri, Brill sottolinea che nel 2023 Meta, attraverso Facebook e Instagram, e Google sono arrivate a raccogliere quasi due terzi di tutti i proventi della pubblicità online, mentre un altro 20% finiva nelle tasche di Amazon e TikTok. Il resto veniva diviso tra migliaia di siti di informazione. Ma c’è un altro dato che fa scalpore in ottica della ‘scomparsa della verità’: negli Usa fra il 2005 e il 2021 hanno chiuso i battenti circa 2.200 testate con relativi siti (e tagliati 40.000 posti redazionali). Ebbene, a fronte di questi dati, emerge che alla fine del 2023 negli Usa il numero di veri siti d’informazione gestiti da veri quotidiani locali è calato, mentre quello dei cosiddetti siti di informazione ‘pink slime’ (che si presentano come legittimi editori di notizie ma in realtà hanno un obiettivo diverso e nascosto) è aumentato al punto che adesso si equivalgono: 1.200 per ciascuna categoria.
Un nuovo pericolo per la verità: l'Intelligenza artificiale
Nel suo libro, Brill racconta poi la sua vicenda personale, di come sia stato accusato (e perseguitato) perché ritenuto fazioso o legato alla sinistra malgrado NewsGuard sia sempre stata equilibrata nei giudizi e abbia dato voti bassi a siti di destra e di sinistra se non rispettavano i nove parametri che aveva scelto come garanzia di qualità. Al termine del libro c’è un capitolo importante dedicato all’Intelligenza artificiale e ai rischi della manipolazione, del deep fake e della disinformazione avanzata. Una nuova era della manipolazione dell’informazione dalla quale ci si può difendere solo se si creano delle barriere.
Proposte per arginare la disinformazione sul web
Le proposte avanzate da Brill, nate dalla sua esperienza sul campo, spaziano dalla modifica (solo un po’) della Sezione 230 per chiedere alle piattaforme social di essere più responsabili perdendo in alcuni casi l’immunità, alla fine dell’anonimato online, fino a esigere una segnalazione chiara dei siti di notizie ‘pink slime’ che dovrebbero indicare da chi prendono i fondi. Inoltre, conclude Brill, è necessario se non vitale regolamentare la concessione delle licenze per addestrare l’Intelligenza artificiale facendo sì che sia obbligatorio un contrassegno visibile che indichi che si sta utilizzando un prodotto di IA generativa su licenza.
L'esperimento di X e lo smascheramento dei troll
Ultima considerazione: una delle ipotesi di lavoro di Steven Brill, quella di eliminare l’anonimato sui social, è stata per mezz’ora applicata su X dando risultati clamorosi. Come racconta il sito L'Europeista, venerdì 21 novembre il social di Elon Musk ha introdotto per trenta minuti una novità che aveva annunciato da mesi: la possibilità di vedere da quale Paese stia operando ogni utente che scrive sulla piattaforma. L’effetto è stato sconvolgente: milioni di profili, di cui eravamo abituati a leggere i tweet e i commenti che alimentavano lo scontro politico permanente nelle nostre società, si sono rivelati per quello che erano: dei falsi assemblati su scala industriale nel subcontinente indiano o nei paesi del Sahara.
In alcuni casi, lo smascheramento ha rivelato realtà che hanno qualcosa di comico: l’account ufficiale di Ivanka Trump, per esempio, è alimentato da un utente in Nigeria, mentre l’account ’Russian Army’ è operativo dall’India, l'account 'America First’ dal Bangladesh e il famoso patriota pro-Trump e anti-ucraino Jackson Hinkle vive in Burkina Faso. Un esperimento durato pochissimo che ha fatto però capire che si può fare qualcosa (se c’è la volontà) per contrastare ‘la scomparsa della verità’, anche perché, come ha detto lo stesso Mark Zuckerberg, il 93% degli utenti di Meta (Facebook e Instagram) è composto da profili sconosciuti selezionati dall’algoritmo oppure da pubblicità di inserzionisti.
Continua a leggere...