As principais empresas de inteligência artificial, incluindo OpenAI, Alphabet e Meta, assumiram compromissos voluntários com a Casa Branca para implementarem medidas como inserção de marcas d’água em conteúdo gerado por sistemas de inteligência artificial para tornar a tecnologia mais segura, informou o governo norte-americano.
As empresas – que também incluem Anthropic, Inflection, Amazon.com e Microsoft, parceira da OpenAI – se comprometeram a testar minuciosamente os sistemas antes de lançá-los e compartilharem informações sobre como reduzir os riscos e investir em segurança digital.
Leia também
Ingredientes para um futuro impulsionado por Inteligência Artificial
Acalme-se e pare de se preocupar – a IA é uma bênção, não uma maldição
A medida é vista como uma vitória para o esforço do governo do presidente dos EUA, Joe Biden, de regulamentar a tecnologia, que passa por um boom de investimentos e popularidade.
Desde que a IA generativa, que usa dados para criar novos conteúdos, como a conversa que soa humana do ChatGPT, tornou-se extremamente popular este ano, parlamentares de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia.
Em junho, o presidente do Senado dos EUA, Chuck Schumer, pediu uma “legislação abrangente” para avançar e garantir salvaguardas para a inteligência artificial.
O Congresso norte-americano está considerando um projeto de lei que exigirá que os anúncios políticos divulguem se ferramentas de IA foram usadas para criar imagens ou outros conteúdos.
Biden, que receberá executivos das sete empresas na Casa Branca nesta sexta-feira (21), também está trabalhando no desenvolvimento de uma ordem executiva e de uma legislação bipartidária sobre tecnologia de IA.
Como parte do esforço, as sete empresas se comprometeram a desenvolver um sistema de “marca d’água” para todas as formas de conteúdo, desde texto, imagens, áudios e vídeos gerados por IA, para que os usuários saibam quando a tecnologia foi usada.
Essa marca d’água, incorporada ao conteúdo de forma técnica, presumivelmente facilitará aos usuários identificar imagens ou áudios de deep-fake que possam, por exemplo, mostrar um ato de violência que não ocorreu ou distorcer a foto de um político para colocá-lo em uma posição desfavorável. Não está claro como a marca d’água ficará evidente no compartilhamento das informações.
As empresas também se comprometeram a se concentrar na proteção da privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia seja livre de preconceitos e não seja usada para discriminar grupos vulneráveis. Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.
O post OpenAI, Google e Meta se comprometem em identificar conteúdo de IA apareceu primeiro em Forbes Brasil.