Imagens pornográficas falsas de Taylor Swift, geradas por inteligência artificial, viralizaram nas redes sociais e causaram indignação em fãs da cantora e em políticos americanos nesta sexta-feira (26).
Uma das imagens foi vista 47 milhões de vezes no X, o antigo Twitter, antes de ser removida na quinta-feira (25). Segundo a imprensa americana, a publicação ficou visível na plataforma por aproximadamente 17 horas.
Esses "deepfakes" — imagens falsas, mas extremamente realistas — pornográficos de celebridades não são novidade. No entanto, ativistas e autoridades estão preocupados que ferramentas fáceis de usar, que utilizam inteligência artificial (IA) generativa, criem uma avalanche incontrolável de conteúdo tóxico ou prejudicial.
O ataque a Swift, a segunda artista mais ouvida do mundo no Spotify, pode fomentar o debate sobre o fenômeno.
"O único lado positivo de isso ter acontecido com Taylor Swift é que ela provavelmente tem poder suficiente para aprovar uma legislação que acabe com isso. Vocês estão doentes", escreveu a influenciadora Danisha Carter no X.
A rede social é uma das maiores plataformas de conteúdo pornográfico do mundo, afirmam alguns analistas, já que suas políticas sobre nudez são mais flexíveis do que as do Facebook ou do Instagram, redes da Meta.
Em um comunicado, o X esclareceu que "publicar imagens de nudez não consensual (NCN) é estritamente proibido" em sua plataforma. "Temos uma política de tolerância zero para esse tipo de conteúdo."
A plataforma, de propriedade do magnata Elon Musk, afirmou que estava "removendo ativamente todas as imagens identificadas e tomando as medidas apropriadas contra as contas responsáveis por publicá-las".
Além disso, destacou que estava "monitorando de perto a situação para garantir que qualquer outra violação seja abordada imediatamente e que o conteúdo seja removido".
Os representantes de Swift não responderam imediatamente a um pedido de comentários da agência de notícias France Presse.
Yvette Clarke, congressista democrata de Nova York que apoiou uma lei para combater fotos pornográficas falsas, ressaltou que "com os avanços em IA, criar deepfakes está mais fácil e barato".
Por sua vez, o legislador republicano Tom Keane alertou que "a tecnologia de IA está avançando mais rápido do que as barreiras necessárias". "Se a vítima for Taylor Swift ou qualquer jovem de nosso país, devemos estabelecer salvaguardas para combater essa tendência alarmante", acrescentou.
Segundo uma pesquisa citada pela revista "Wired", nos primeiros nove meses de 2023, foram enviados 113 mil vídeos "deepfake" para os sites pornográficos mais populares.