Grok e le immagini sessualizzate su X: AI, abusi e rischi sistemici

In meno di due settimane, Grok, il chatbot di intelligenza artificiale sviluppato da Elon Musk e integrato nella piattaforma X, è finito al centro di una delle polemiche più gravi legate all’uso dell’AI generativa.
Secondo un’analisi pubblicata dal New York Times, il sistema avrebbe contribuito alla diffusione di milioni di immagini sessualizzate, molte delle quali generate a partire da foto reali, sollevando interrogativi urgenti su moderazione, responsabilità e rispetto delle normative europee.

Oltre 4 milioni di immagini in nove giorni

I dati raccolti indicano che, in un arco di nove giorni, Grok ha pubblicato oltre 4,4 milioni di immagini.
L’analisi del New York Times stima che almeno il 41% dei contenuti — circa 1,8 milioni di immagini — presentasse una forte connotazione sessualizzata. Una valutazione più ampia condotta dal Center for Countering Digital Hate, basata su modelli statistici, porta la percentuale fino al 65%, pari a oltre tre milioni di immagini, includendo uomini, donne e minori.

Numeri che, per dimensione e rapidità di diffusione, non trovano precedenti recenti nel panorama delle piattaforme digitali.

Generazione di immagini esplicite da foto reali

Secondo le ricostruzioni, molti utenti avrebbero utilizzato Grok per modificare immagini esistenti, chiedendo al sistema di alterare fotografie reali per trasformare le persone ritratte in versioni sessualizzate o esplicite, spesso senza consenso.
La dinamica ha innescato una reazione immediata da parte di vittime, associazioni per i diritti digitali ed esperti di sicurezza online, che parlano apertamente di abuso sistemico dell’AI generativa.

Un possibile “rischio sistemico” secondo il DSA

La portata del fenomeno ha riportato al centro il Digital Services Act (DSA), il regolamento europeo che impone obblighi rafforzati alle piattaforme di grandi dimensioni in presenza di rischi sistemici.
Secondo diversi osservatori, la capacità di Grok di generare e diffondere in modo massivo immagini non consensuali rientrerebbe pienamente in questa definizione.

Molti dei contenuti emersi sarebbero illegali in gran parte degli Stati membri dell’UE, ma al momento non risultano indagini formali avviate dalle autorità europee nei confronti della piattaforma.

Un’ondata senza precedenti rispetto ai deepfake precedenti

Gli esperti sottolineano come l’intensità e la velocità di diffusione delle immagini attribuite a Grok abbiano superato quelle osservate in passato su siti specializzati in deepfake sessuali.
Il confronto più citato è con Mr. Deepfakes, una delle principali piattaforme di questo tipo, chiusa nel 2023 dopo pressioni giudiziarie internazionali. In questo caso, però, la generazione dei contenuti sarebbe avvenuta all’interno di un grande social network, amplificando l’impatto e la visibilità del fenomeno.

La reazione di X e lo stop alla funzione gratuita

Di fronte all’ondata di proteste, X ha bloccato l’accesso gratuito alla funzione di generazione di immagini sessualizzate l’8 gennaio.
La decisione è arrivata dopo giorni di critiche pubbliche e segnalazioni, ma non ha placato il dibattito sulla responsabilità diretta delle piattaforme e sul ruolo delle scelte di design nei sistemi di AI.

Secondo le ricostruzioni, l’escalation sarebbe iniziata alla fine di dicembre, in seguito alla pubblicazione da parte di Musk di contenuti provocatori, che avrebbero incentivato un uso distorto dello strumento da parte degli utenti.

Un caso che riapre il dibattito sull’AI generativa

Il caso Grok riaccende il confronto globale su limiti, governance e controlli dell’intelligenza artificiale.
La capacità di produrre contenuti realistici su larga scala, unita a sistemi di moderazione insufficienti, rischia di trasformare strumenti nati per l’innovazione in moltiplicatori di abusi digitali.

Per l’Europa, la vicenda rappresenta un banco di prova concreto: verificare se le nuove regole introdotte dal DSA siano davvero in grado di intervenire tempestivamente contro fenomeni che mettono a rischio diritti fondamentali, sicurezza e dignità delle persone.

Ti è piaciuto questo articolo?

Iscriviti alla nostra newsletter gratuita e unisciti a una community di appassionati come te!

Condividi sui social
Potrebbero interessarti
Related news