Donne spogliate dall’AI: Grok nel mirino dell’UE per l’ondata di deepfake sessuali

121
Donne spogliate Grok AI deepfake_donnaclick

Grok_(Depositphotos)_Donnaclick

Quando l’AI viola la nostra immagine, il confine tra innovazione e abuso diventa sempre più sottile.

Nel 2026, basta una foto pubblicata online per diventare vittima di un’aggressione invisibile, ma profondamente violenta. Succede a tante, troppe donne. A volte sono adolescenti, altre volte professioniste che avevano semplicemente condiviso un’immagine sui social. Senza autorizzazione e senza consenso, quelle foto vengono intercettate e trasformate da un’intelligenza artificiale in immagini sessualmente esplicite.

Il caso è esploso attorno alla piattaforma Grok, integrata nel social X (ex Twitter) e ha innescato un’ondata di indignazione internazionale, scoperchiando un problema strutturale. Non si tratta più solo di “abusi online”, ma della fragilità di interi sistemi digitali che, in assenza di regole efficaci, trasformano strumenti tecnologici in strumenti di umiliazione.

Una funzione chiamata “Spicy Mode”, inizialmente promossa come opzione creativa, ha permesso per giorni di generare deepfake sessuali da immagini reali, anche di minorenni, senza barriere né autorizzazioni. Il risultato: centinaia di donne e ragazze spogliate digitalmente, violate nella loro intimità e trasformate in contenuti pornografici.

Lo scandalo, scoppiato inizialmente come fenomeno virale, si è trasformato in una vera e propria emergenza internazionale, che pone una questione sempre più rilevante: chi ci protegge davvero online?

L’allarme globale su Grok: un fenomeno fuori controllo

A sollevare l’attenzione internazionale sono state alcune testimonianze raccolte dalla BBC, secondo cui numerose donne hanno visto le proprie foto alterate da Grok e trasformate in immagini sessualmente esplicite completamente false, ma verosimili. Nonostante le immagini non fossero reali, l’effetto psicologico è stato descritto come equivalente a una violazione fisica. Un trauma profondo che non riguarda solo la reputazione, ma l’identità stessa. Il punto chiave è che non servono più competenze tecniche per produrre questi contenuti: basta un prompt, una richiesta digitata, e l’AI genera automaticamente il deepfake. Una facilità d’uso che rende la pratica replicabile, istantanea e devastante. L’indignazione è tale che la Commissione europea ha annunciato l’apertura di un’indagine ufficiale: “Non si tratta di qualcosa di ‘piccante’. È illegale. È terribile. È disgustoso. Non ha posto in Europa”, ha dichiarato un portavoce a Bruxelles

Il caso Grok ha portato l’intelligenza artificiale davanti ai tribunali della coscienza pubblica. Domenica, in risposta al clamore crescente, X ha dichiarato di aver rimosso le immagini e bandito gli utenti coinvolti. “Interveniamo contro i contenuti illegali su X, compreso il materiale pedopornografico (CSAM), rimuovendoli, sospendendo definitivamente gli account e collaborando con i governi locali”, ha scritto l’account ufficiale X Safety. Ma per molti non basta. La Commissione europea ha citato anche un altro episodio inquietante: a novembre, Grok aveva generato contenuti che negavano l’Olocausto. Questo ha portato Bruxelles a inviare una richiesta di informazioni a X, ai sensi del Digital Services Act (DSA). A dicembre, proprio per altre violazioni del DSA, X è stata multata per 120 milioni di euro. “Penso che X sia ben consapevole che prendiamo molto sul serio l’applicazione del DSA”, ha dichiarato la Commissione, ricordando che si tratta di un quadro normativo pensato proprio per evitare abusi sistemici da parte delle piattaforme.

Donne spogliate Grok AI deepfake_Donnaclick
App Grok cellulare_(Depositphotos.com)_Donnaclick

Perché i deepfake sessuali sono un problema strutturale

Il caso Grok non rivela soltanto un abuso da parte di singoli utenti, ma qualcosa di molto più profondo: una fragilità sistemica nel modo in cui vengono progettate e rese pubbliche le tecnologie digitali. Quando una funzione come Spicy Mode consente di spogliare digitalmente una persona con un semplice clic, senza alcun filtro né consenso, la responsabilità non può ricadere solo su chi ne fa un uso illecito. Va attribuita anche a chi quella funzione l’ha pensata, resa disponibile e lasciata attiva. In Francia, centinaia di donne e adolescenti hanno denunciato di aver visto le proprie immagini trasformate in deepfake sessuali nel giro di pochi giorni. Non un caso isolato, ma un’ondata. Un abuso previsto, prevedibile e replicabile, reso possibile da un’infrastruttura che non ha saputo — o voluto — prevedere i danni.

Eppure, le leggi contro la pornografia non consensuale esistono già in molti ordinamenti. Il problema, oggi, è che l’AI generativa scardina i tempi e gli strumenti tradizionali del diritto: il danno diventa immediato, automatizzato e su scala globale. In questo scenario, l’innovazione rischia di trasformarsi in una zona franca, dove le regole ci sono ma non riescono più a farsi valere.