Un messaggio chiaro, lanciato agli utenti che utilizzano l’Intelligenza Artificiale: chi genera questo tipo di immagine può rischiare sanzioni e multe. E non solo…
Un aiuto concreto per il presente ed il futuro, o un nemico da combattere? I dubbi sull’Intelligenza Artificiale continuano ad accompagnare esperti ed addetti ai lavori. Da una parte gli integralisti che tendono a distruggerla e a criticarla (temendo che lentamente possa sostituire numerosi lavoratori), dall’altra gli innovatori convinti di avere tra le mani un mezzo importante e in grado di aiutare tutti i cittadini dal punto di vista lavorativo e personale. E non solo.
Le discussioni sull’Intelligenza Artificiale continuano a tenere banco e a dividere. Ma al di là delle questioni puramente teoriche e delle prese di posizione, esistono anche delle indagini che rischiano di inchiodare alcuni tra i responsabili dei più famosi strumenti di AI. Alcune di esse infatti, sono state utilizzate per ottenere scopi poco edificanti. E’ il caso di Grok, l’Intelligenza Artificiale creata da Elon Musk e spesso utilizzata su X, il suo social network.
Grok è stato infatti utilizzato per creare contenuti video sessualmente violenti ed espliciti che ritraggono numerose donne. Il Primo Ministro britannico si è unito alla condanna delle immagini generate dal software. Grok è stato utilizzato anche per “spogliare” un’immagine di Renee Nicole Good, la donna uccisa mercoledì da un agente dell’immigrazione e delle dogane (ICE) negli Stati Uniti, e per ritrarla con una ferita da proiettile sulla fronte. Una ricerca condotta da AI Forensics, un’organizzazione no-profit con sede a Parigi, ha individuato circa 800 immagini e video creati dall’app Grok Imagine che includevano contenuti pornografici. Paul Bouchaud, ricercatore presso AI Forensics, ha dichiarato: “Si tratta di video pienamente pornografici che hanno un aspetto professionale”.
Un video AI fotorealistico visionato dalla ONG mostrava una donna, con tatuato lo slogan “non rianimare”, con un coltello tra le gambe. Altre immagini e video mostravano contenuti che spaziavano dall’immaginario erotico a donne che si spogliavano, pose ammiccanti e video che ritraevano nudità integrale e atti sessuali. AI Forensics ha spiegato di essere riuscita a recuperare le immagini perché gli utenti hanno creato dei “link di condivisione”, che sono stati poi catturati dalla Wayback Machine, un archivio internet. Non è noto se le immagini fossero presenti su X, il social media di proprietà di xAI, la società tecnologica di Musk che ha integrato Grok nella piattaforma.
Mercoledì, Keir Starmer ha chiesto a X di “riprendere il controllo” (get a grip) davanti all’ondata di foto create dall’IA di donne e bambini parzialmente vestiti sulla piattaforma, descrivendo i contenuti come “vergognosi” e “disgustosi”. Parlando a Greatest Hits Radio, ha aggiunto: “È illegale. Non lo tollereremo. Ho chiesto che tutte le opzioni siano sul tavolo. X deve darsi una regolata e rimuovere questo materiale”.
Penny East, direttrice di Fawcett Society, la principale associazione per i diritti delle donne nel Regno Unito, ha chiesto al governo un’azione urgente: “L’uso sempre più violento e inquietante di Grok illustra gli enormi rischi dell’IA senza sufficienti tutele”. In un rapporto pubblicato questa settimana, AI Forensics ha esaminato 50.000 menzioni di “@Grok” su X e 20.000 immagini generate dallo strumento in una settimana (tra il 25 dicembre e il 1° gennaio). Almeno un quarto delle menzioni erano richieste di creazione di immagini. Tra i comandi (prompt) più frequenti figuravano termini come “lei”, “metti”, “rimuovi”, “bikini” e “vestiti”.
È emerso che più della metà delle immagini ritraeva persone in “abbigliamento minimo”, come biancheria intima o bikini, per la maggior parte donne che sembravano avere meno di 30 anni. Il 2% delle immagini sembrava mostrare persone di età pari o inferiore a 18 anni. Nei giorni scorsi Elon Musk ha scritto su X: “Chiunque usi Grok per creare contenuti illegali subirà le stesse conseguenze che subirebbe caricando contenuti illegali”. Parole che aprono ad un dibattito chiaro e ad una domanda che da tempo inizia a circolare nell’ambiente.
L’Intelligenza Artificiale è uno strumento che viene messo a disposizione (spesso in modo gratuito) di tutti. Se qualcuno lo utilizza in modo sbagliato, la responsabilità può essere attribuita all’AI? Per quale ragione dovrebbe essere ritenuta responsabile, se qualcuno la utilizza in modo fraudolento? Il dibattito resta aperto e coinvolge numerosi addetti ai lavori. Molti sono convinti che, a rischiare potrebbero essere anche (o soprattutto) gli utenti. Ecco perchè, soprattutto in un periodo di vuoto legislativo e contraddistinto da una grande attenzione mediatica, è necessario prestare la massima attenzione ai contenuti che si generano. Molti utenti, in buona fede, potrebbero creare dei contenuti che potrebbero portare a guai seri. Il consiglio che gli esperti della Polizia Postale hanno infatti riservato agli utenti è di prestare la massima attenzione.
Molte volte i protagonisti del cartone animato sono stati in grado di anticipare il futuro:…
Una nuova legge studiata dal Governo e destinata a rivoluzionare il mondo economico e pensionistico:…
Il presidente americano continua ad essere protagonista nella sua azione in Venezuela. Ecco il piano…
Qual è il significato di quel codice numerico che i giovani utilizzano spesso nelle loro…
Il campione olimpico (che nella sua carriera ha portato a casa ben dodici medaglie), ha…
Milioni di italiani preferiscono smontare il Presepe dopo l'Epifania. Ma si tratta di un grave…