“Estamos entrevistando o único sobrevivente do recente tiroteio na escola: o TikToker Krishna Sahay”, âncora da CBS News, Anne-Marie Green diz no começo do noticiário. “Isso deve ter sido absolutamente traumatizante”, comenta um repórter em outro vídeo. “O que estava passando pela cabeça das pessoas?”
Sahay faz uma pausa antes de responder: “Balas, dã!”
A estrela do TikTok e do YouTube está entre uma safra crescente de usuários de mídia social que tem recrutado IA generativa e outros softwares para produzir notícias aparentemente reais dadas pelos principais âncoras dos principais meios de comunicação – do CBS Evening News ‘Norah O’Donnell para jornalistas da CNN, BBC e outros. Graças à tecnologia, as âncoras têm a mesma aparência e som. E graças aos poderosos algoritmos das plataformas, histórias sensacionais e manchetes falsas com os seus nomes e imagens (ou o logotipo de algum meio de comunicação) estão se tornando virais como se fossem notícias verdadeiras.
5 tecnologias polêmicas de Black Mirror
Esta semana, um vídeo real da correspondente da CNN, Clarissa Ward, esquivando-se de foguetes perto da fronteira entre Israel e Gaza se tornou viral com um áudio falso. No início deste mês, um clipe gerado por IA do co-apresentador do CBS This Morning, Rei Gayle, promovendo um produto que ele nunca usou ou ouviu falar, estava circulando on-line. Um deepfake do âncora da CNN Anderson Cooper, criticando o ex-presidente Donald Trump também se tornou viral recentemente depois que Trump e seu filho compartilharam isso no Truth Social e no Twitter.
E as supostas transmissões de notícias com o TikToker Sahay – que o ajudaram a acumular uma audiência de milhões – incluíram mais de uma dúzia de âncoras proeminentes de uma série de redes de TV que fornecem comentários problemáticos e entrevistam o criador enquanto ele zomba dos tiroteios em escolas, dos ataques terroristas de 11 de setembro ou de vítimas de estupros vítimas.
Em muitos casos, estas notícias inventadas apresentadas em emissoras reais estão atraindo mais atenção do que os vídeos legítimos publicados nas contas de redes sociais das organizações de notícias. Um dos recentes deepfakes de Sahay foi curtido mais de 300 mil vezes no TikTok, enquanto o vídeo original postado no mesmo dia atraiu 7 mil curtidas. Sahay foi banido do TikTok e não respondeu a pedidos de entrevista.
Mas, mesmo que sua conta no TikTok esteja inativa, os vídeos de grande alcance de Sahay ainda são fáceis de encontrar na plataforma, republicados por outros usuários, e vários deles permanecem no YouTube.
Políticas das plataformas não são suficientes
A maioria das grandes plataformas de mídia social tem políticas contra deepfakes. A porta-voz do TikTok, Ariane Selliers, disse: “O TikTok exige que os criadores rotulem o conteúdo realista gerado por IA”, seja com um adesivo ou uma legenda, e que o TikTok “continua a remover conteúdo que pode enganar ou se passar por pessoas de maneira prejudicial”. (A maioria dos vídeos de Sahay não incluía tal isenção de responsabilidade.)
O TikTok proíbe deepfakes que contenham a imagem de indivíduos que não sejam públicos e “embora forneçamos mais liberdade para figuras públicas, não queremos que elas sejam objeto de abuso ou que as pessoas sejam enganadas sobre questões políticas ou financeiras”.
Leia também:
Saiba quais são as 10 tendências de IA para 2024 e prepare-se
4 em cada 10 empresas vão usar IA nas entrevistas em 2024: veja como se dar bem
Parem de dizer que IA é inteligente. O motivo? Ela não é!
A porta-voz do YouTube, Elena Hernandez, disse que “há muito tempo, políticas de desinformação proibiram conteúdos que tenha sido tecnicamente manipulado ou adulterado de uma forma que represente um sério risco de danos.”
Deepfakes e “cheapfakes” (comoo são chamados os deepfakes de baixo orçamento) não são novos. Só neste mês, foram usados para atingir desde Tom Hanks (cujo sósia de IA estava promovendo um plano odontológico) ao principal criador de conteúdo do YouTube, Mr. Beast (que parecia estar fazendo “o maior sorteio de iPhone 15 do mundo”).
“As plataformas de mídia social estão prontas para lidar com o aumento dos deepfakes de IA?”, escreveu Mr. Beast, cujo nome verdadeiro é Jimmy Donaldson, semana passada no Twitter.
O Conselho de Supervisão do Facebook também anunciou esta semana um caso relacionado a um vídeo manipulado do presidente Joe Biden.
Deepfake de alto nível
As transmissões noticiosas adulteradas, baseadas nas vozes e rostos de jornalistas de alto nível parecem ser uma abordagem mais recente e potencialmente mais perigosa. No início deste ano, a empresa de análise de mídia social Graphika divulgou pesquisas sobre “uma nova e distinta forma de conteúdo de vídeo” que encontrou no Facebook, Twitter e YouTube. Pelo levantamento, âncoras de notícias geradas por IA fazem parte de “uma operação de spam político pró-China”. Tudo fake. A mídia estatal chinesa também fez experimentos com âncoras gerados por Inteligência Artificial. E vídeos deepfake mais longos e de maior produção, como as notícias de Sahay, continuam a ganhar força em todas as plataformas.
“Vídeos de âncoras de notícias são um meio atraente para transmitir desinformação”, disse Hany Farid, professor da Escola de Informação da Universidade da Califórnia Berkeley que testemunhou no Congresso sobre deepfakes. “Em muitos casos, os âncoras são conhecidos e confiáveis dos telespectadores e, mesmo que não o sejam, o formato geral das notícias é familiar e, portanto, mais confiável.”
“Os resultados, embora ainda não perfeitos, são muito bons, especialmente quando visualizados num dispositivo móvel e quando os espectadores transitam rapidamente por perfis das redes sociais”, acrescentou Farid, cuja investigação se concentrou na percepção humana e na análise de imagens. “Teremos que levar mais a sério a proteção dos direitos das pessoas cuja imagem e voz estão sendo cooptadas.”
Não é só meme
Deepfakes são frequentemente implantados em memes para fazer as pessoas rirem, e o cenário mais extremo – que esse conteúdo manipulado poderia ser usado para espalhar informações falsas com o objetivo de mudar o curso de eleições, IPOs de empresas e outros eventos de alto risco – ainda não aconteceu. Mas as eleições de 2020 deram uma prévia da explosão de uso de Inteligência Artificial iniciada pelo ChatGPT, que no início deste ano se tornou um dos aplicativos que mais cresceram na história. E que contribuiu para a adoção generalizada da tecnologia e bilhões em financiamento para startups de IA.
Agora, quase qualquer pessoa pode empregar software de IA fácil de usar e prontamente disponível para fazer vídeos ou áudio de figuras públicas (ou pessoas comuns) fazendo e dizendo coisas que nunca fizeram. Isso aumentou o receio de que a IA transforme as iminentes eleições de 2024 em um faroeste caótico – uma preocupação intensificada pelo aumento de deepfakes sendo transformados em notícias aparentemente genuínas.
A maior preocupação, de acordo com o advogado Kevin Goldberg, especialista em Primeira Emenda do Freedom Forum, uma organização sem fins lucrativos, é que os vídeos que usam âncoras de notícias reais possam ser usados como uma “forma agressiva de desinformação nas eleições de 2024.”
“Sim, há potencial para travessuras, mas o nosso sistema jurídico e a nossa sociedade estão mais do que bem equipados para lidar com este novo meio”, disse o advogado.
O post Na nova era da IA, notícias falsas são dadas por jornalistas reais apareceu primeiro em Forbes Brasil.