Forbes, a mais conceituada revista de negócios e economia do mundo.
Nos primeiros dias de 2025, a cantora Anitta publicou um vídeo em que conversa com uma versão de sua voz feita por IA. “A inteligência artificial rouba nossas características”, disse a carioca. Em casos mais extremos, criminosos utilizam réplicas de especialistas, como o médico Drauzio Varella, para vender medicamentos falsos.
“As deepfakes estão crescendo não apenas no Brasil, mas em todo o mundo, impulsionadas, principalmente, pelo amplo acesso a ferramentas de IA. Hoje, qualquer pessoa com um smartphone pode gerar deepfakes em minutos”, explica Fabrício Carraro, especialista em inteligência artificial e program manager na Alura.
Leia também
Em julho de 2024, a atriz Paolla Oliveira se pronunciou sobre o assunto: “Estão utilizando a minha voz e o meu rosto sem a minha permissão em diversos conteúdos para disseminar informações falsas. Não confie em tudo que você vê pela internet”
“O Brasil é um dos países com maior número de usuários de redes sociais, que se tornaram espaços ideais para a disseminação de deepfakes”, afirma Carraro. “Esses vídeos podem ser usados tanto para fins satíricos quanto para a manipulação da opinião pública.”
A imagem de William Bonner, editor-chefe do Jornal Nacional, já foi manipulada para a repercussão de notícias falsas sobre diversos assuntos. Em outubro de 2024, cibercriminosos divulgaram um golpe financeiro com um vídeo falso do apresentador.
A lista de personalidades brasileiras que já foram “clonadas” pela IA é extensa e inclui nomes como Neymar, Eliana, Ana Maria Braga, Ivete Sangalo e Jade Picon – além de figuras da política nacional.
No entanto, de acordo com Fabrício Carraro, “adolescentes criam deepfakes de colegas de classe para humilhá-los, criminosos clonam pessoas comuns para enganar familiares e geram conteúdos íntimos falsos para chantagear as vítimas.”
Como Reconhecer Conteúdos Falsos
Para não cair em armadilhas online, o especialista recomenda a adoção de uma postura de “ceticismo crítico”. “Isso significa sempre questionar a autenticidade de vídeos, áudios ou imagens, mesmo quando provêm de fontes conhecidas, como amigos ou familiares.”
Ademais, existem algumas dicas práticas para reconhecer conteúdos feitos por IA. Confira:
Observe o movimento dos olhos e da boca: deepfakes têm dificuldade em replicar movimentos naturais dos olhos e na sincronia da fala com os lábios.
Preste atenção na iluminação e sombras: inconsistências podem indicar manipulação.
Verifique a qualidade da voz e do áudio: conteúdos gerados por deepfake podem parecer artificiais, com entonações ou pausas incomuns.
Analise detalhes no rosto: olhe para as bordas do rosto ou para áreas como o cabelo e os óculos.
Procure por movimentos corporais anormais: em vídeos, observe se os gestos e os movimentos corporais parecem naturais e consistentes com a pessoa.
Questione mensagens sensacionalistas: golpistas costumam usar deepfakes para causar impacto e criar urgência.
Observe a resolução do vídeo: os vídeos frequentemente apresentam baixa qualidade.
Confirme com fontes confiáveis: se algo parecer suspeito, entre em contato diretamente com a pessoa ou instituição envolvida ou pesquise em fontes confiáveis para confirmar a veracidade.
Escolhas do editor
O post Celebridades Brasileiras São Vítimas da IA; Aprenda a Reconhecer Conteúdos Falsos apareceu primeiro em Forbes Brasil.