
L’ente britannico di regolamentazione dei media, Ofcom, ha avviato un’indagine approfondita riguardante la creazione di immagini sessualmente esplicite di donne e minorenni tramite Grok, il chatbot di intelligenza artificiale associato alla piattaforma X. Questo provvedimento è emerso in seguito alla necessità di verificare se il popolare social network, di proprietà di Elon Musk, abbia infranto le disposizioni dell’Online Safety Act, una legge ideata per combattere la proliferazione di contenuti nocivi su Internet, con particolare attenzione alla protezione dei più giovani.
La decisione di aprire un’indagine formale da parte di Ofcom segue una forte presa di posizione del governo guidato da Keir Starmer, che ha espresso una chiara condanna nei confronti della creazione e diffusione di deepfake sessuali. Tali pratiche non solo mettono a rischio la sicurezza e la dignità delle persone coinvolte, soprattutto delle vittime minorenni, ma sollevano anche preoccupazioni rispetto ai temi etici e legali legati all’uso dell’intelligenza artificiale.
Il lancio dell’Online Safety Act ha rappresentato un passo significativo nella lotta contro i contenuti pericolosi online. La legge impone obblighi severi alle piattaforme digitali per garantire un ambiente più sicuro per gli utenti, in particolare per i giovani. **Ofcom** si impegnerà a stabilire se X ha rispettato tali normative e quali misure potrebbero essere necessarie per prevenire ulteriori violazioni in futuro.
Questo evento solleva interrogativi importanti sulla responsabilità delle piattaforme di social media e sull’impatto dell’intelligenza artificiale nelle interazioni quotidiane degli utenti. Mentre l’innovazione tecnologica offre opportunità senza precedenti, è essenziale che le aziende e gli sviluppatori si assumano la responsabilità per garantire che i loro prodotti non vengano utilizzati in modi dannosi. La conclusione di quest’indagine potrebbe influenzare le politiche future in merito all’intelligenza artificiale e alla gestione dei contenuti sui social media.