Grok sotto accusa per il chatbot sexy Ani: “Contenuti sessuali espliciti nell’app destinata anche a minori”

  • Postato il 18 luglio 2025
  • Trending News
  • Di Il Fatto Quotidiano
  • 3 Visualizzazioni

Grok è finito di nuovo sotto la lente d’ingrandimento. Il chatbot, basato sull’intelligenza artificiale della società xAI di Elon Musk, ha recentemente introdotto avatar animati che hanno riacceso le polemiche. Le figure di “Bad Rudy” e “Ani” sono molto divisive. Il primo è un panda rosso che insulta gli utenti e propone di commettere crimini insieme. Il secondo, invece, è un avatar in stile anime che interpreta il ruolo di fidanzata ossessiva e possessiva. Proprio “Ani” potrebbe violare le regole dell’App Store.

Con questo avatar, infatti, l’applicazione di Grok difficilmente potrebbe rimanere nello store ufficiale di Apple nella sua forma attuale. “Ani”, infatti, è programmata per comportarsi come una fidanzata gelosa e possessiva. Può intrattenere anche dialoghi esplicitamente sessuali con gli utenti, come confermato da una recente ricerca di Platformer. Un modus operandi che violerebbe le attuali linee guida Apple e non sarebbe destinata ai minori. L’app Grok per iOS è adatta per utenti dai 12 anni in su, causando così un controsenso ideologico ed etico.

I problemi

Secondo le attuali linee guida Apple, i contenuti sessuali espliciti o pornografici sono vietati. Diventa quindi legittimo chiedersi come una simile funzione abbia superato il processo di revisione di iOS. Se anche Grok dovesse riuscire a superare queste difficoltà (magari riclassificando l’app o introducendo procedure di verifica dell’età più rigide e sicure), resterebbero altre problemi da affrontare. E sarebbero di natura etica.

Molti giovani utenti, infatti, tendono a creare legami affettivi intensi con questi avatar o una falsa intimità digitale. Tanti, infatti, usano le AI anche come supporto emotivo. Questo tipo di ‘relazioni’ non possono essere prese sottogamba e sarebbe un rischio grande lasciarle magari in mano ad adolescenti. In casi estremi, ci sono stati anche utenti che si sono tolti la vita dopo conversazioni molto coinvolgenti con chatbot.

L'articolo Grok sotto accusa per il chatbot sexy Ani: “Contenuti sessuali espliciti nell’app destinata anche a minori” proviene da Il Fatto Quotidiano.

Autore
Il Fatto Quotidiano

Potrebbero anche piacerti