Uno scandalo ha fatto finire sotto i riflettori X - il social network del miliardario Elon Musk -. Poco prima dell’inizio dell’anno nuovo è stata lanciata una funzione con la quale gli utenti possono chiedere a un’intelligenza artificiale di modificare a piacere le foto pubblicate da chiunque abbia un account sulla piattaforma. Il risultato è stato che il social è stato inondato da revenge porn, deepfake e immagini pedopornografiche.
Per alcuni giorni gli utenti - soprattutto donne - hanno protestato, suscitando anche le prime reazioni da parte delle istituzioni. Veementi quelle giunte da India e Indonesia. Sono intervenuti direttamente i governi, dando all’azienda di Elon Musk 72 ore di tempo per fornire spiegazioni e prendere provvedimenti. In Francia tre componenti dell’esecutivo hanno sollecitato l’Unione Europea ad applicare gli strumenti previsti dal regolamento sui servizi digitali e, si legge nel comunicato, costringere la piattaforma a prendere misure per prevenire e mitigare la condivisione di contenuti illegali. Ofcom, l’agenzia governativa che vigila sui crimini digitali nel Regno Unito, ha confermato alla BBC che la creazione di tali immagini che coinvolgono minori o generate senza consenso è, senza dubbio alcuno, illecita.
Silenzio al momento negli Stati Uniti, dove il TAKE IT DOWN Act, una legge fortemente voluta da questa amministrazione, in particolare da Melania Trump, dovrebbe dare l’opportunità agli utenti di rimuovere contenuti che li riguardano entro 24 ore. Un’opportunità al momento negata. Il TAKE IT DOWN Act, almeno sulla carta, prevede pene severissime, anche detentive, non per gli utenti, ma per chi gestisce la piattaforma su cui tali contenuti vengono pubblicati.
La reazione dell’azienda è stata ambigua. Grok, l’intelligenza artificiale integrata nella piattaforma, ha ammesso, per quanto possa essere anomalo considerarla una posizione ufficiale, di aver involontariamente manipolato immagini di minori, salvo essere riprogrammato nel giro di poche ore per timore, probabilmente, che l’ammissione potesse aprire la porta a cause e class action, se non a conseguenze peggiori. Alcuni rappresentanti dell’azienda in Europa hanno dichiarato che ci sono state delle sviste, ma che ora il sistema è in grado di prevenire gli abusi, attribuendo la colpa agli utenti che utilizzano la funzione con fini illegali e negando responsabilità dirette.
Un elemento significativo è che è sparita la sezione che aggregava le immagini generate artificialmente nascondendole a una ricerca generica, ma la maggior parte dei contenuti ottenuti senza consenso è tuttora disponibile online.
Quali che siano le responsabilità, è anche preoccupante constatare che, appena ne hanno avuto l’opportunità, centinaia di migliaia di utenti si siano esercitati nel manipolare immagini anche di donne e minori, sollevando la questione dell’urgenza di una regolamentazione delle intelligenze artificiali e soprattutto di strumenti di intervento tempestivi sia per gli utenti sia per le istituzioni.
Pare anche immediatamente evidente quanto, almeno per il momento, sia inappropriato condividere online, anche in buona fede, anche in ambienti controllati, qualsiasi immagine di minori.










