La piattaforma X interviene contro i deepfake di Taylor Swift, così i contenuti generati dall’intelligenza artificiale suscitano preoccupazioni

La piattaforma di social media X ha preso provvedimenti temporanei bloccando le ricerche di Taylor Swift dopo che sul sito sono circolate immagini esplicite della cantante generate dall’intelligenza artificiale. Il responsabile delle operazioni commerciali dell’azienda, Joe Benarroch, ha dichiarato che si tratta di una misura precauzionale per dare priorità alla sicurezza. Gli utenti che tentavano di cercare Swift sulla piattaforma si trovavano di fronte a un messaggio che recitava: “Qualcosa è andato storto. Prova a ricaricare”.

Le immagini grafiche false hanno suscitato grande attenzione e alcune sono diventate virali e sono state viste milioni di volte. I fan di Taylor Swift hanno segnalato i post e gli account che condividevano le immagini false, inondando la piattaforma di immagini e video reali della cantante con l’hashtag “protect Taylor Swift“. X, ex Twitter, ha rilasciato una dichiarazione in cui condanna la pubblicazione di nudità non consensuali sulla piattaforma, sottolineando la propria politica di tolleranza zero e rimuovendo attivamente le immagini identificate.

La Casa Bianca ha espresso preoccupazione per l’allarmante diffusione di foto generate dall’intelligenza artificiale. L’addetto stampa della Casa Bianca, Karine Jean-Pierre, ha chiesto una legislazione che affronti l’uso improprio della tecnologia AI sulle piattaforme dei social media. Ha sottolineato il ruolo delle piattaforme nell’applicazione delle regole per prevenire la diffusione di disinformazione e di immagini intime non consensuali.

Taylor Swift

In risposta all’incidente, alcuni politici statunitensi chiedono nuove leggi per criminalizzare la creazione di immagini deepfake. I deepfake, che utilizzano l’intelligenza artificiale per manipolare volti o corpi nei video, hanno registrato un aumento significativo dal 2019. Al momento, negli Stati Uniti non esistono leggi federali contro la condivisione o la creazione di immagini deepfake.

La questione dei contenuti deepfake si estende oltre gli Stati Uniti, poiché il Regno Unito ha già reso illegale la condivisione di pornografia deepfake con il suo Online Safety Act nel 2023. Il caso di Taylor Swift ha riacceso il dibattito sui pericoli degli strumenti AI facilmente accessibili per la creazione di deepfake e sul loro potenziale impatto.

In Italia, Taylor Swift è stata recentemente vittima di attacchi online, con deepfakes sessualmente espliciti circolati su varie piattaforme sociali. Le immagini generate dall’intelligenza artificiale, viste decine di milioni di volte, hanno spinto la piattaforma di social media X a sospendere diversi account coinvolti nella diffusione dei contenuti. Nonostante gli sforzi per rimuovere le immagini, queste hanno continuato a circolare su altre piattaforme, sollevando preoccupazioni sulla facilità con cui gli strumenti di IA possono generare e perpetuare contenuti deepfake.

L’incidente ha suscitato discussioni sulle implicazioni più ampie della disinformazione guidata dall’IA e dei deepfakes. La Casa Bianca, i politici e persino organizzazioni del settore come la SAG-AFTRA hanno espresso allarme e chiesto misure preventive.

Taylor Swift

Source: bbc.com, tg24.sky.it

Banksy Bruciato

Grazie per aver letto il nostro Articolo!

Clicca sull' icona per tornare alla home page