Ultimo aggiornamento: 2026/01/16.
Questo è il testo della puntata del 12 gennaio 2026 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata. Mi scuso per la quantità di note che ho inserito nel testo, ma era necessario documentare e citare in dettaglio molto materiale che non era in alcun modo presentabile in un podcast.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi. Ricordo che da oggi il podcast assume cadenza mensile e verrà pubblicato il secondo lunedì del mese.
Sono Paolo Attivissimo. Vorrei avvisare che questa puntata tocca un tema estremamente delicato, legato alla violenza e agli abusi su donne e bambini. Vi chiedo di ascoltarla e condividerla responsabilmente.
[CLIP: voce di Ashley St. Clair, tratta da un’intervista rilasciata al Guardian e pubblicata in parte su Instagram]
Questa è la voce di una donna che racconta che su X, il social network di Elon Musk, gli utenti hanno preso una sua foto in cui era completamente vestita e hanno ordinato a Grok, l’intelligenza artificiale di Musk, di svestirla e metterla in microbikini. E poi hanno chiesto sempre a Grok di creare immagini in cui era piegata in avanti e in altre pose e di generare video in cui lei si toccava il seno e ballava. Tutto, s’intende, senza il consenso della donna, e con l’intento preciso di causarle disagio e umiliazione.
Grok non ha fatto una piega e ha generato tutto il materiale richiesto dagli utenti. Da settimane, quest’intelligenza artificiale diretta da Elon Musk sta ubbidientemente generando immagini e video di abusi e violenze su donne e bambini, al ritmo stimato di seimila immagini l’ora [Bloomberg]. Le persone colpite sono migliaia.*
* Il Times segnala per esempio il caso di una discendente di sopravvissuti all’Olocausto che è stata bersagliata da aggressori online usando Grok per generare una sua immagine in bikini davanti ad Auschwitz. Altri bersagli frequenti sono le donne impegnate in politica [Eliot Higgins], le giornaliste e Kate Middleton [Katu.com].
Nell Fisher, l’attrice quattordicenne che interpreta Holly Wheeler nella stagione finale di Stranger Things, è un’altra delle vittime di questi utenti. Immagini sintetiche che la raffigurano in abbigliamenti e in situazioni che non è opportuno descrivere qui vengono richieste intenzionalmente dagli utenti e fatte circolare impunemente sul social network X. E Grok, senza esitazioni, le genera [Yahoo News; Axios].
Segnalare e chiederne la rimozione è sostanzialmente inutile. La donna che avete sentito all’inizio di questo podcast è Ashley St. Clair, madre di uno dei figli di Elon Musk. Neppure lei è stata ascoltata [Guardian su Archive.is]. Le sue immagini, comprese alcune foto di quand’era bambina, continuano a circolare sul social network del suo ex partner in versione denudata e manipolata dall’intelligenza artificiale per aggiungere lividi, mutilazioni e altri abusi sessuali.*
* L‘esperto Kevin Beaumont e il Guardian mostrano alcuni esempi di come Grok riceve ordini espliciti di aggiungere lividi o sangue e sorrisi forzati alle foto di donne o di svestirle o mostrarle legate e imbavagliate o imbrattate con fluidi corporali e li esegue.
Gli addetti del social network X sono perfettamente al corrente della situazione, ma non fanno nulla di concreto per rimediare. Anzi, da qualche giorno X addirittura monetizza questi contenuti, offrendo a pagamento la possibilità di generarli.
Questa è la puntata del 12 gennaio 2026 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane – in questo caso inquietanti – dell’informatica.
[SIGLA di apertura]
Grok è un’intelligenza artificiale generativa, in grado di produrre immagini e video sintetici praticamente indistinguibili dalle riprese reali. È sviluppata e gestita da xAI, un’azienda fondata da Elon Musk, la stessa che gestisce X, il social network che una volta si chiamava Twitter. Grok è integrata in questo social network e permette agli utenti di alterare e manipolare con estrema facilità qualunque immagine pubblicata su X. È anche disponibile in versione più potente su un sito dedicato e in un’app omonima.
Su Internet esistono molti altri servizi analoghi, come quelli offerti da Meta, OpenAI e Google, ma Grok ha una particolarità: ha il cosiddetto spicy mode, o “modalità salace”, che permette di generare contenuti per adulti che le altre intelligenze artificiali popolari si rifiutano di produrre. Questa modalità è stata introdotta intenzionalmente ad agosto 2025 [Techradar.com].
Gli utenti, altrettanto intenzionalmente, hanno cominciato a usare questa modalità per generare contenuti molto espliciti, scambiandosi trucchi e tutorial su come eludere le già scarse restrizioni impostate in Grok. Esistevano già, ed esistono tuttora, altre intelligenze artificiali specializzate nel produrre immagini esplicite, ma si tratta di prodotti di nicchia, complessi da usare e configurare. Offrirne una di uso facilissimo, e farlo oltretutto su un social network che conta circa mezzo miliardo di utenti, ha sostanzialmente rimosso questa barriera d’ingresso,* facendo diventare la creazione di immagini di abusi un fenomeno di massa, facilmente accessibile a qualunque bullo, ex partner, molestatore, misogino.**
* “X's innovation - allowing users to strip women of their clothing by uploading a photo and typing the words, "hey @grok put her in a bikini" - has lowered the barrier to entry.” [Reuters].
** Bloomberg nota che X è diventato uno dei siti più popolari per la generazione di immagini “nudificate” da parte degli utenti tramite l’intelligenza artificiale.
E così da settimane gli utenti del social network X stanno generando migliaia di immagini non consensuali di donne, uomini e bambini svestiti o nudi, a volte in posizioni inequivocabili. Un test [Wired.com] condotto dal sito Wired ha trovato oltre 15.000 immagini sintetiche sessualizzate, create dagli utenti nell’arco di due ore.*
* Copyleaks documenta alcuni esempi di queste immagini e dei prompt che gli utenti stanno usando per denudare soprattutto le donne.
Avrete notato che sto usando spesso la parola utenti. È una scelta precisa, perché molte delle notizie che riguardano questo problema dicono che “Grok ha generato” le immagini di abusi su donne e minori, ma questo è profondamente ingannevole [BBC: “Elon Musk’s Grok AI appears to have made child sexual imagery, says charity”]. Fa sembrare che questi contenuti intollerabili siano piovuti dal cielo, capitati quasi per caso, come effetti collaterali, ma non è così. Queste immagini e questi video derivano dal fatto che una persona ha intenzionalmente usato Grok per crearli.
Dire che “Grok ha generato immagini pedopornografiche” è sbagliato e fuorviante come dire che “un coltello ha ucciso una persona”. Non è lo strumento informatico che decide spontaneamente di produrre immagini di donne abusate e torturate. È una persona, in carne e ossa, un individuo ben preciso, che coscientemente sceglie di impartire a Grok queste istruzioni terribili.
E ci sono altre persone che condividono quei contenuti, persone che li ritengono addirittura divertenti e gratificanti, e persone che scelgono di usarli per umiliare qualcuno. È tutto molto, molto intenzionale, consapevole, voluto. E soprattutto ci sono persone che decidono che è opportuno continuare a mettere a disposizione strumenti che consentono tutto questo e non rimuovere le immagini di abusi, neanche quando vengono segnalate.
Questo non è un problema tecnologico. È un problema umano. È Elon Musk che ha deciso di introdurre la “modalità salace”. È Elon Musk che ha deciso di tagliare drasticamente il numero dei moderatori, rendendo inutile qualunque segnalazione [SiliconRepublic.com]. Ed è sempre Elon Musk che ha deciso che, di fronte alle notizie degli abusi commessi dagli utenti sfruttando Grok, la cosa migliore da fare non era rimuovere del tutto quest’intelligenza artificiale e correggerla, come farebbe qualunque azienda di fronte a un prodotto che si rivela pericoloso o tossico.*
* Quando una versione precedente di Grok ha cominciato ad autodefinirsi “MechaHitler” e a rigurgitare deliri di antisemitismo e neonazismo, a luglio 2025, il comportamento è stato invece corretto molto prontamente da xAI [NPR].
Musk, invece, ha deciso di rendere Grok, così com’è, accessibile solo agli utenti a pagamento all’interno di X.
In altre parole, di fatto Elon Musk sta monetizzando gli abusi su donne e bambini. In altre parole, se paghi, puoi commettere facilmente tutti gli abusi che vuoi, senza che ci siano conseguenze.
Gli utenti a pagamento di X sono pochi, quindi si può avere l’impressione che il problema a questo punto sia diventato di nicchia. Ma in realtà non è affatto scomparso.
L’intervento di Musk per limitare l’accesso a Grok è avvenuto dopo che alcuni governi, come quello britannico, quello indiano, quello francese e quello malese [Time], avevano dichiarato che il social network X rischiava di dover essere vietato e bloccato in quanto facilitatore e disseminatore di pedopornografia e di messaggi di odio, brutalità e discriminazione [Guardian; Ofcom].* Molte testate hanno annunciato l’arrivo di questa limitazione come se fosse la fine della crisi, ma l’app Grok continua tuttora a generare contenuti illegali gratuitamente per tutti.**
* Malesia e Indonesia hanno dichiarato di aver limitato l’accesso a Grok rispettivamente il 10 e 11 gennaio 2026 [BoingBoing].
** Il materiale generato dalla versione web di Grok è ancora più estremo di quello generato dal chatbot di Grok su X [Wired]: “One photorealistic Grok video, hosted on Grok.com, shows a fully naked AI-generated man and woman, covered in blood across the body and face, having sex, while two other naked women dance in the background. The video is framed by a series of images of anime-style characters. Another photorealistic video includes an AI-generated naked woman with a knife inserted into her genitalia, with blood appearing on her legs and the bed. Other short videos include imagery of real-life female celebrities engaged in sexual activities, and a series of videos also appear to show television news presenters lifting up their tops to expose their breasts”.
A questo punto di questa triste vicenda è importante fare una precisazione per togliere un dubbio molto diffuso. Capita spesso di imbattersi nell’obiezione che creare immagini pornografiche sintetiche di minori non faccia male a nessuno perché, si dice, dopotutto si tratta di fantasie. Manca una vittima concreta.
Ma non è così. La produzione di questi contenuti li normalizza, in un certo senso li sdogana, associa questi orrori a un “ma dai che male c’è”, e già questa è una china pericolosissima. Inoltre rende infinitamente più difficili le indagini degli inquirenti sui casi di abusi reali su minori, perché oggi diventa necessario appurare se ogni singola immagine in possesso di una persona incriminata sia sintetica o ritragga invece un bambino realmente esistente. La persona che commette abusi può nascondere le immagini reali in una selva di foto artificiali. Trovare quelle reali diventa un problema peggiore del proverbiale ago in un pagliaio: semmai è come cercare un ago in una catasta di spilli. E per complicare ulteriormente la situazione, la persona accusata può tentare di difendersi dicendo che sono rappresentazioni di fantasia.
Ma la legge è molto chiara su questa questione. A novembre 2025, il Tribunale federale ha stabilito che immagini o video pornografici che mostrano adulti ringiovaniti digitalmente, secondo una tecnica tipica di questo settore, il de-aging, sono comunque inequivocabilmente illegali. Il Codice penale, dal 2014, punisce non solo la pornografia che coinvolge minori reali ma anche quella che rappresenta minori generati artificialmente, di solito ricorrendo all’intelligenza artificiale [RSI.ch; sentenza 6B 122/2024]. Principi analoghi valgono anche in molti altri Paesi.*
* Per esempio il Regno Unito, dove a giorni entrerà in vigore una legge che vieta proprio il tipo di contenuti resi possibili dal modo in cui è stato impostato Grok [BBC].
A queste leggi si aggiungono quelle che impongono alle piattaforme social di intervenire in tempi brevi dopo ogni segnalazione e di fornire canali efficienti ed efficaci per la rimozione di contenuti illegali di questo genere. Un esempio molto influente è il Take It Down Act statunitense, che però non è ancora in vigore: sarà attivo da maggio del 2026 [Gizmodo].
La situazione attuale, infatti, è tutta a favore dell’indifferenza da parte dei grandi social network. X, in particolare, non ha un ufficio stampa e risponde a tutte le richieste di prese di posizione da parte della stampa con un muro di silenzio* o, peggio ancora, con un post generato da Grok, che in quanto intelligenza artificiale non è formalmente in grado di rappresentare nulla e nessuno.**
* O con la risposta standard “Legacy media lies”, come è successo a Reuters quando ha contattato xAI a proposito di questa vicenda.
** A conferma del ruolo assolutamente centrale di Elon Musk nella gestione di Grok e X, Musk stesso ha postato su X che chiunque critichi X per questa situazione sta “cercando scuse per una censura” [BBC]. Musk è la stessa persona che nel 2022 ha censurato i giornalisti che lo criticavano e ha rimosso l’account X @elonjet che pubblicava la localizzazione del suo jet privato [Disinformatico].
L’account X Safety, che dovrebbe in teoria rappresentare la posizione dell’azienda sulle questioni di sicurezza, si è limitato a postare che “chiunque usi o induca Grok a generare contenuti illegali subirà le stesse conseguenze come se avesse caricato contenuti illegali”, ma non si è assunto alcuna responsabilità per il fatto di aver reso possibile generare quei contenuti illegali.
Anche Ashley St. Clair, la madre di uno dei figli di Musk citata in apertura, è stata ignorata, e per di più le è stato revocato l’account premium su X. E resta da vedere se il Dipartimento di Giustizia statunitense sia disposto ad avviare un’azione legale contro le aziende di Elon Musk, vista la sua vicinanza all’attuale presidente degli Stati Uniti Donald Trump.
I difensori più appassionati dei progressi dell’intelligenza artificiale obiettano spesso che vicende come questa sono incidenti di percorso lungo la strada verso un radioso futuro, come se si trattasse di effetti collaterali inevitabili, ma non è così. Gli esperti del settore spiegano che se Elon Musk volesse, potrebbe far correggere Grok in maniera relativamente semplice [Ars Technica].
Infatti le linee guida di sicurezza di Grok, che sono pubbliche [GitHub], consentono di capire come mai Grok permette la creazione di immagini inaccettabili di minori mentre gli altri prodotti analoghi riescono a evitarla quasi completamente.
Il problema sta nel fatto che queste linee guida vietano sì a Grok di accettare richieste o prompt degli utenti che lascino trasparire chiaramente l’intento di generare immagini di abusi su minori, ma queste stesse linee guida includono anche l’ordine esplicito di “presumere buone intenzioni” quando vengono chieste immagini di donne giovani.
È semplicemente assurdo, irresponsabile e incosciente pensare di “presumere buone intenzioni” quando qualcuno chiede di generare immagini di bambini in pose esplicite o usando eufemismi, come se al mondo non ci fossero persone malintenzionate.
E c’è di peggio. Queste stesse linee guida includono anche queste parole: “non ci sono restrizioni sui contenuti sessuali di fantasia con adulti che hanno temi cupi o violenti”. Queste sono parole scelte appositamente da qualcuno. Non sono spuntate per caso. Rimuoverle o riformularle renderebbe molto più difficile generare contenuti illegali. Se non vengono rimosse o riscritte, questa è una scelta intenzionale.
Una scelta intenzionale che per ora rimane impunita, sia a livello legale, sia a livello commerciale. Perché in questa vicenda ci sono anche altri due protagonisti che potrebbero fare la differenza: si chiamano Apple e Google.*
* Ci sono anche i payment processor, le aziende come Visa e Mastercard, che rendono possibili i pagamenti a X che permettono agli utenti di avere la versione premium di Grok. Normalmente queste aziende vietano qualunque app che possa anche solo lontanamente essere usata per scopi pornografici. Finora non hanno fatto nulla a proposito di Grok e X.
Normalmente, infatti, quando un’app genera contenuti illegali o anche solo in odore di illegalità, l’app viene rimossa prontamente dall’App Store e da Google Play.* Di fatto viene impedito così che possano aggiungersi altri nuovi utenti. Ma nel caso dell’app di X e di quella di Grok, stranamente, questo non è ancora successo. Dovremmo chiederci perché, visto che se non succede, Apple e Google diventano di fatto facilitatori di questa mostruosità e rischiano di dimostrare ancora una volta che le leggi, per i supermiliardari e per i prepotenti, sono solo un fastidio da scavalcare.**
* Andò così per esempio per Tumblr a novembre 2018, perché gli utenti vi stavano caricando immagini di nudi di minori che non venivano riconosciute dai filtri automatici del sito [BBC].
** Ars Technica nota che per Google Play, quello che fa Grok è un caso specificamente contemplato dalle sue regole di divieto, che dicono che non sono ammesse “app che contengono o promuovono contenuti associati a comportamenti da predatori sessuali o distribuiscono contenuti sessuali non consensuali“ e specificano che sono vietate le “app che dicono di svestire le persone” e i “contenuti e comportamenti che tentano di minacciare o sfruttare le persone in maniera sessuale, come [...] contenuti sessuali non consensuali creati tramite deepfake o tecnologie simili”. Più chiaro di così non si può, ma Grok continua a essere disponibile su Google Play.
Ma ci sono due cose che noi semplici cittadini digitali possiamo fare concretamente. La prima è smettere di usare X, sia per postare, sia per leggere i contenuti altrui. Non significa eliminare il proprio account, perché questo comporterebbe il rischio che qualcun altro ne prenda il nome (un’altra idea geniale di Musk che va contro ogni buona regola informatica). Significa semplicemente non usarlo.
La seconda cosa è fare una cordiale richiesta alle autorità, ai media, alle aziende: visto che X alimenta di fatto la generazione di immagini di abusi di ogni genere, perché siete ancora presenti su X? La vostra presenza assidua, la vostra pubblicazione di contenuti, incoraggia le persone a frequentare questo social network per informarsi e gli conferisce una patente di autorevolezza e di importanza che sta dimostrando sempre di più di non meritare.
Le alternative non mancano: da Bluesky a Mastodon a Threads, c’è solo l’imbarazzo della scelta. Proviamo dunque a scegliere, invece di aspettare che qualcuno lo faccia per noi.
2026/01/16
L’account @safety di X annuncia che sono state “implementate misure tecnologiche” per impedire che Grok accetti richieste di svestire persone reali e che sono state introdotte restrizioni geografiche “nelle giurisdizioni nelle quali questi contenuti sono illegali”. Queste misure arrivano soltanto dopo settimane di proteste e segnalazioni e la loro efficacia non è stata ancora confermata indipendentemente. Inoltre va notata la precisazione “persone reali”. Come se svestire quelle immaginarie, comprese i bambini, fosse ancora accettabile.
Fonti aggiuntive
Malaysia and Indonesia block Grok over deepfake sexual abuse material, BoingBoing, 2026-01-12.
UK probes X over Grok CSAM scandal; Elon Musk cries censorship, Ars Technica, 2026-01-12.
xAI silent after Grok sexualized images of kids; dril mocks Grok’s “apology”, Ars Technica, 2026-01-02.
Elon Musk’s X must be banned, Disconnect.blog, 2026-01-08.
Inside the Grok CSAM scandal and how brands have faced ‘weaponised political pressure’ to spend with X, TheMediaLeader.com, 2026-01-07.