A cantora e compositora Taylor Swift foi vítima de imagens falsas, feitas com inteligência artificial, sexualmente explícitas na rede social X (antigo Twitter). Esse tipo de imagem é conhecido como deepfake, uma junção de técnicas que sintetiza imagens e sons por meio de IA.
Siga a Forbes no WhatsApp e receba as principais notícias sobre negócios, carreira, tecnologia e estilo de vida
Com a crescente repercussão do caso, os Estados Unidos estão sendo pressionados pelos fãs da cantora para adotarem medidas concretas. Bruno Sartori, jornalista pioneiro no uso de deepfakes no Brasil, comenta o caso: “A Casa Branca anunciou que o governo planeja criar uma legislação específica para combater o uso indevido da tecnologia. Parlamentares manifestaram a necessidade de criminalizar deepfakes que inserem pessoas em vídeos pornográficos.”
No Brasil, essa prática já é considerada crime, conforme o parágrafo único do artigo 216-B do código penal.
Leia também:
X suspende proibição de buscas sobre Taylor Swift após divulgação de imagens falsas
Por que os avatares das empresas são sempre mulheres?
10 números surpreendentes sobre IA que todos deveriam conhecer
Como se proteger das deepfakes?
A ferramenta que utiliza IA para montagens com fotos, vídeos e áudios se popularizou após uma série de conteúdos de personalidades e políticos com vozes e falas reconstruídas viralizarem na internet — inclusive o Papa Francisco, Donald Trump e Barack Obama.
Otto Pohlmann, CEO da Centric Solution, diz que “o caso destaca a necessidade de regulamentação e conscientização para mitigar tais abusos. Mas também é fundamental educar as pessoas sobre como reconhecer conteúdo manipulado”.
Em uma sociedade onde todos publicam fotos, enviam áudios e gravam vídeos praticamente todos os dias, como se proteger da utilização ilegal de deepfakes? “A melhor forma de proteção é pressionar as plataformas para garantir a segurança dos usuários. Todos têm o direito de não serem expostos a conteúdo fraudulento”, responde Sartori.
Empresas como Meta, Google e Adobe já criaram selos para verificar conteúdos criados a partir de IA. Adilson Batista, fundador da Adbat, acrescenta que outro crivo importante é o da própria base de seguidores, amigos e familiares: “A validação humana tem relação com as pessoas que conhecem os artistas ou indivíduos e podem notificar se o conteúdo não é verdadeiro”.
O que aconteceu?
De acordo com a Reuters, o X proibiu as buscas por “Taylor Swift” na plataforma durante a última semana, quando deepfakes ilegais foram divulgadas. A busca foi reativada na noite de segunda-feira (29).
O post O que o caso Taylor Swift nos alerta sobre os perigos da IA? apareceu primeiro em Forbes Brasil.