Meta e sicurezza dei minori: dati segreti rivelano rischi dei social sulla salute mentale
- Postato il 24 novembre 2025
- Di Panorama
- 2 Visualizzazioni

Per definizione i social dovrebbero unire le persone, favorire la partecipazione alla vita pubblica e creare vicinanza, ma la realtà sembra raccontare altro. Secondo quanto riportato da Reuters, nel 2020 Meta avviò uno studio interno, il Project Mercury, in collaborazione con Nielsen, azienda di analisi e ricerche di mercato, per misurare l’impatto della sospensione temporanea di Facebook sugli utenti. I risultati evidenziarono che chi aveva smesso di usare la piattaforma per una settimana mostrava livelli significativamente più bassi di depressione, ansia e solitudine. Eppure, invece di rendere pubblici i dati o approfondire la ricerca, Meta decise di interrompere il progetto.

Le accuse contro i colossi tech
L’accusa del presunto occultamento delle prove sui danni legati ai social media, è soltanto una delle contestazioni contenute in un documento depositato dallo studio legale Motley Rice. Lo studio, che rappresenta diversi distretti scolastici statunitensi, ha avviato un’azione legale contro Meta, Google, TikTok e Snapchat, sostenendo che queste aziende abbiano deliberatamente nascosto agli utenti, ai genitori e agli insegnanti i rischi dei loro prodotti.
Meta attribuisce quei risultati negativi alla narrativa mediatica sul colosso tecnologico, con «citazioni selezionate ad arte e opinioni errate» come dichiara il portavoce Andy Stone. Ha ribadito che il Project Mercury fu interrotto a causa di una metodologia imperfetta, difendendo le misure di sicurezza già in vigore per gli adolescenti.
Ma secondo l’accusa, queste protezioni per i minori sarebbero state progettate per risultare inefficaci, come nel caso della moderazione di un utente che deve essere colto in flagrante ben 17 volte nel tentativo di traffico sessuale prima di essere rimosso. Nel 2021, inoltre, Mark Zuckerberg ha ammesso che la sicurezza dei bambini non era la sua priorità, preferendo concentrare risorse sullo sviluppo del Metaverso, nonostante Nick Clegg, all’epoca responsabile delle politiche pubbliche globali di Meta, sostenesse il rafforzamento degli investimenti nella tutela dei minori.
Leggi federali e indagini europee
A livello federale, il Congresso degli Stati Uniti sta valutando il Kids Off Social Media Act, che vieta l’accesso ai social ai minori di 13 anni, mentre lo stato di New York ha già approvato il SAFE for Kids Act, imponendo restrizioni ai feed basati sull’algoritmo per i minori di 18 anni senza consenso dei genitori.
In Europa, invece, la Commissione sta indagando su Meta per presunte violazioni del DSA, il Digital Services Act, accusando la società di utilizzare «modelli oscuri» anziché strumenti semplici per segnalare contenuti illegali, disorientando gli utenti.
Meta ha comunque introdotto negli ultimi anni nuove restrizioni sui contenuti dannosi per adolescenti e ha lanciato lo standard “Pg-13” in Usa, Canada, Australia e Regno Unito, insieme a controlli parentali per gestire le interazioni con chatbot e personaggi creati dall’intelligenza artificiale. «Sappiamo che i genitori hanno già molte responsabilità», dichiara Meta in una nota, «per questo ci impegniamo a fornire loro strumenti e risorse che semplifichino le cose, specialmente quando si confrontano con nuove tecnologie come l’IA».
In attesa che questi strumenti arrivino in Europa, la causa intentata in USA proseguirà presso la Corte distrettuale della California del Nord il 26 gennaio 2026, mostrando come tra nuove misure di tutela e cause legali, i social non sembrano sempre unire, ma talvolta dividono e isolano.