Uma onda de indignação tem tomado conta das redes sociais devido à circulação de imagens pornográficas geradas por inteligência artificial (IA) da renomada cantora Taylor Swift. Essas imagens, conhecidas como “deepfakes”, levantam questões sérias sobre a ética e o controle em torno do uso da IA para criar conteúdo explicitamente não consensual envolvendo figuras públicas.
As deepfakes em questão retratam Taylor Swift em situações sexualizadas durante um jogo do Kansas City Chiefs, fazendo alusão ao seu relacionamento amplamente divulgado com o jogador Travis Kelce. A fonte dessas imagens permanece desconhecida, mas a discussão online sobre o tópico atingiu grandes proporções, com a hashtag “Taylor Swift IA” tornando-se tendência, acumulando mais de 58.000 posts na plataforma X.
A reação dos fãs, conhecidos como Swifties, foi rápida e intensa. Muitos expressaram sua revolta chamando as imagens de “repugnantes” e pedindo medidas legais contra quem as criou. Alguns usuários questionaram a falta de regulamentação em torno da criação não consensual de imagens explícitas, considerando tal ato como uma forma de agressão sexual.
A equipe de relações públicas de Taylor Swift, até o momento, não respondeu aos pedidos de comentários sobre o incidente, destacando a complexidade e a novidade desse desafio emergente.
Reações governamentais
O governo Biden tomou medidas recentes para regular o uso da IA, assinando uma ordem executiva em outubro que proíbe a geração de material de abuso sexual infantil e a criação de imagens íntimas não consensuais de pessoas reais. Esta ordem também exige orientações para marcar ou rotular a saída da IA generativa, uma medida crucial para lidar com o problema crescente das deepfakes.
Além disso, alguns estados nos EUA, como Texas, Minnesota, Nova York, Havaí e Geórgia, já tornaram ilegal a pornografia deepfake não consensual. No entanto, essas proibições não impediram casos semelhantes de circulação de imagens geradas por IA em ambientes educacionais, como nas escolas secundárias de Nova Jersey e Flórida.
Os representantes dos EUA Joseph Morelle (D-NY) e Tom Kean (R-NJ) reintroduziram recentemente um projeto de lei que propõe tornar crime federal o compartilhamento não consensual de imagens pornográficas digitalmente alteradas. O “Ato de Prevenção de Deepfakes de Imagens Íntimas” não apenas impõe penalidades como prisão e multa, mas também permite que as vítimas processem os infratores em tribunal civil.
Já discutimos anteriormente sobre as questões jurídicas e também éticas envolvendo o uso da IA, em especial da simulação de conversas pornográficos, incluindo com menores de idade. Vale relembrar que, em 2023, outras imagens de deepfake também se tornaram virais. Uma retratava o Papa Francisco em uma jaqueta Balenciaga, grife que se envolveu no mesmo ano em um escândalo de abuso sexual infantil; e de Donald Trump resistindo à prisão.
Este incidente com Taylor Swift não é isolado. Recentemente, fãs foram alvo de golpes financeiros envolvendo anúncios gerados por IA que apresentavam a cantora em situações enganosas. Dessa forma, essa tecnologia também pode vir a ser explorada para manipulação e prejuízo financeiro. A questão central agora é como equilibrar o progresso da inteligência artificial com a necessidade de salvaguardar os direitos individuais e a integridade das figuras públicas.
Facebook Comments