Big Tech corre ai ripari bloccando immagini, video e ricerche.
La prossima hit di Taylor Swift deve avere come protagonista l’intelligenza artificiale. Dopo le sue inconsapevoli apparizioni in pubblicità fasulle di Le Creuset, in cui il suo volto e la sua voce sono stati montati in video per truffare i fan, la cantante si è trovata ancora una volta sul lato oscuro della tecnologia digitale, dove è diventata il bersaglio di immagini grafiche deepfake generate dall’intelligenza artificiale.
Come scoperto da 404 Media, molte di queste immagini vietate ai minori sono state realizzate dall’applicazione Designer AI di Microsoft, che ha indotto il gigante tecnologico a individuare una falla e a eliminarla dalla sua piattaforma. Le immagini esplicite di Swift hanno accumulato decine di milioni di visualizzazioni.
Sembrava che gli utenti avessero sfruttato i limiti del sistema di intelligenza artificiale sbagliando leggermente i nomi o utilizzando frasi descrittive per aggirare le protezioni di Microsoft volte a impedire la creazione di contenuti espliciti. Per esempio, se volevano produrre foto false di Jennifer Aniston, scrivevano “Jennifer ‘attore’ Aniston” nel prompt.
Per arginare la marea, X (precedentemente noto come Twitter), dove circolava la maggior parte delle immagini, ha temporaneamente disabilitato le ricerche del nome della cantante. Joe Benarroch, responsabile delle operazioni commerciali del social network, ha poi confermato al Wall Street Journal che la funzione di ricerca è stata ripristinata, ma ha ribadito la promessa di rimuovere tali contenuti e di sanzionare i responsabili.
Il problema si è esteso oltre X: Reality Defender, un’organizzazione specializzata nell’identificazione di contenuti deepfake, ha rilevato un’impennata di materiale pornografico non consensuale con Swift su diversi social media, tra cui Facebook e Telegram.
Microsoft, riconoscendo il ruolo della sua AI nella creazione di queste immagini da bruciare, ha agito per chiudere le falle che consentivano agli utenti di comporre contenuti espliciti aggirando i semplici filtri dei nomi. Sarah Bird, responsabile dell’ingegneria AI di Microsoft, ha sottolineato l’impegno dell’azienda per un’esperienza utente sicura e rispettosa.
Il Codice di condotta dell’azienda vieta l’uso dei suoi strumenti per generare contenuti intimi per adulti o non consensuali. Per far rispettare questa politica, Microsoft ha creato ampi team dedicati allo sviluppo e alla manutenzione dei sistemi di sicurezza e dei guardrail. Questi team lavorano per perfezionare il filtraggio dei contenuti, il monitoraggio operativo e i meccanismi di rilevamento degli abusi per garantire un ambiente confortevole agli utenti.
Secondo quanto riferito, Meta ha anche lavorato per eliminare le immagini incriminate dalla sua piattaforma.