A Inteligência Artificial (IA) é capaz de produzir escrita, imagens, música e vídeo cada vez mais semelhantes aos humanos. Houve relatos de estudantes usando-o para trapacear, e uma indústria surgiu em torno de livros de autoria de IA reivindicados por pessoas como seu próprio trabalho.
Leia também:
A IA deixará os seres humanos inúteis?
5 lançamentos da Meta que levam inteligência artificial
Por que 2023 será o ano da inteligência artificial?
No entanto, há também pelo menos um caso relatado de um professor usando IA para “provar” incorretamente que seus alunos trapacearam – levando-o a reprovar todos eles.
Há também um caso recente de um fotógrafo que venceu uma competição enviando uma foto gerada por IA em vez de uma que ele mesmo tirou. Nesse caso, o fotógrafo teve boas intenções e devolveu o prêmio após expor o que havia feito.
Felizmente, existem alguns métodos bastante precisos – por enquanto – para detectar onde os trabalhos foram criados com a ajuda da IA. Neste artigo, examinarei quais ferramentas existem, como funcionam e por que podem ser vitais para a segurança e para proteger a integridade acadêmica e artística.
À medida que o conteúdo criado por IA se torna mais comum, seu potencial de causar consequências perturbadoras e potencialmente prejudiciais aumenta. Um grande exemplo é o fenômeno das “deep fakes”, onde podem ser feitas imagens realistas de vídeos ou pessoas reais que parecem fazer ou dizer coisas que nunca fizeram. Já houve exemplos disso sendo usado para falsificar conteúdo pornográfico de pessoas sem seu consentimento e para colocar palavras na boca de políticos, incluindo Barack Obama . Você pode encontrar um vídeo de Trump sendo preso (mesmo antes de ser) e Joe Biden cantando Baby Shark (que, até onde eu sei, ele nunca fez!)
Parte disso pode parecer engraçado, mas existe o potencial de ter consequências danosas para as pessoas envolvidas – ou para a sociedade em geral, caso influencie os processos democráticos.
A IA tem sido usada para clonar vozes humanas para cometer fraudes. Em um caso, foi usado para tentar induzir uma família a acreditar que sua filha havia sido sequestrada para extorquir o dinheiro do resgate. Em outro, um executivo da empresa foi persuadido a transferir mais de US$ 240.000 (R$ 476.000) por meio de uma voz falsa que ele acreditava ser seu chefe.
Se for usado por alunos para colar em redações e exames, pode prejudicar a integridade dos sistemas educacionais e a reputação de escolas e faculdades. Isso pode resultar em uma preparação inadequada dos alunos para as carreiras que desejam ingressar e na desvalorização de diplomas e certificados.
Tudo isso destaca a importância de contramedidas robustas para educar o público sobre os perigos da IA e, sempre que possível, detectá-la ou mesmo preveni-la. Sem que esse problema seja resolvido, a IA pode levar a desinformação, manipulação e danos generalizados. Então, o que exatamente pode ser feito?
Métodos para detectar conteúdo gerado por IA
Felizmente, existem vários métodos disponíveis para detectar conteúdo gerado por IA.
Em primeiro lugar, existem ferramentas digitais que usam seus próprios algoritmos de IA para tentar determinar se um texto, uma imagem ou um vídeo foi criado usando IA.
Você pode encontrar vários detectores de texto IA disponíveis gratuitamente online. O AI Content Detector afirma ser 97,8% confiável e pode examinar qualquer parte do texto em busca de sinais de que não foi escrito por um humano. Isso é feito treinando o detector nos métodos e padrões usados por ferramentas como ChatGPT e outros modelos de linguagem grandes quando criam texto. Em seguida, ele compara essas informações com o texto enviado para tentar determinar se é uma escrita humana natural ou um texto criado por IA.
Reconhecendo a ameaça que os vídeos e imagens gerados por IA podem representar para a segurança nacional, as organizações militares também se juntaram à luta. A Agência de Projetos de Pesquisa Avançada do Departamento de Defesa dos EUA (DARPA) criou ferramentas que visam determinar se as imagens foram criadas ou manipuladas por IA. Uma das ferramentas, conhecida como MediFor, funciona comparando a imagem gerada por IA com imagens do mundo real, procurando por sinais reveladores, como variações no efeito de iluminação e coloração que não correspondem à realidade. Outro, conhecido como SemaFor, analisa o contexto entre fotos e legendas de texto ou notícias que as acompanham.
Por fim, não devemos ignorar o papel que o julgamento humano e o pensamento crítico podem desempenhar na detecção de conteúdo de IA. Os seres humanos têm um senso de “instinto” que – embora certamente não seja infalível – pode nos ajudar quando se trata de determinar a autenticidade. Lançando um olhar crítico e aplicando o que sabemos – é realmente provável que Joe Biden crie um vídeo de si mesmo cantando Baby Shark ? – é essencial, em vez de delegar toda a responsabilidade às máquinas.
O futuro da detecção de IA – uma corrida armamentista?
É provável que estejamos apenas testemunhando os estágios iniciais do que será um cenário de “corrida armamentista”, à medida que a IA se torna mais eficiente na criação de conteúdo realista e os criadores de ferramentas de detecção correm para acompanhar.
Esta não é uma batalha que será travada apenas entre tecnólogos. À medida que as implicações para a sociedade se tornam mais claras, governos e grupos de cidadãos descobrirão que têm um papel importante como legisladores, educadores e guardiões da “verdade”. Se descobrirmos que não podemos mais confiar no que lemos, assistimos, vemos e ouvimos, nossa capacidade de tomar decisões informadas em todas as esferas da vida, da política à ciência, ficará comprometida.
Reunir soluções tecnológicas, julgamento humano e supervisão informada e intervenção, quando necessário, de reguladores e legisladores será nossa melhor defesa contra esses desafios emergentes.
*Bernard Marr é um autor best-seller internacional, palestrante popular, futurista e consultor estratégico de negócios e tecnologia para governos e empresas.
(traduzido por Andressa Barbosa)
O post Como detectar se um conteúdo foi criado pelo ChatGPT e outras IAs? apareceu primeiro em Forbes Brasil.