Bloco Principal 3

Google, Meta e OpenAI firmam compromisso para identificar conteúdos gerados por Inteligência Artificial, diz governo dos EUA

 

As principais empresas de Inteligência Artificial (IA), como a OpenAI, Google e Meta, assumiram compromissos com a Casa Branca para implementar medidas que identifiquem o conteúdo gerado por IA, informou o governo dos Estados Unidos, nesta sexta-feira (21).

O presidente Joe Biden recebe, nesta sexta-feira (21), executivos de empresas de tecnologia.

As medidas podem incluir, por exemplo, a inserção de marcas d’água em textos, imagens, áudios e vídeos gerado por AI.

As empresas – que também incluem a Anthropic, Inflection e Amazon – se comprometeram a testar os sistemas antes de lançá-los e compartilhar informações sobre como reduzir riscos e investir em segurança cibernética.

A medida é vista como uma vitória do governo Biden para regulamentar tecnologias de inteligência artificial, que experimentou recentemente um boom de investimentos das empresas.

Regulação nos EUA

 

Desde que a IA se popularizou no mundo, especialmente após o surgimento do ChatGPT, legisladores de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia.

O líder do Senado nos EUA, Chuck Schumer, pediu em junho uma “legislação abrangente” para avançar e garantir salvaguardas para a inteligência artificial.

O Congresso está considerando um projeto de lei para exigir que anúncios políticos revelem se a IA foi usada para criar imagens ou outro conteúdo.

O presidente Joe Biden também está trabalhando no desenvolvimento de uma ordem executiva e legislação bipartidária sobre tecnologia de IA.

Sistema para ‘marca d’água’

 

Como parte do esforço, as empresas se comprometeram a desenvolver um sistema de “marca d’água” todas que deve ser usada em diferentes formas de conteúdo, desde texto, imagens, áudios e até vídeos gerados por IA, para que os usuários saibam quando a tecnologia foi usada.

Essa marca d’água, provavelmente, tornará mais fácil para os usuários identificar imagens ou áudios deep-fake que podem, por exemplo, mostrar um ato de violência que não ocorreu, criar um golpe ou distorcer uma foto de um político.

Não está claro como a marca d’água ficará evidente no compartilhamento das informações.

As empresas também se comprometeram a se concentrar em proteger a privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia seja livre de preconceitos e não seja usada para discriminar grupos vulneráveis.

Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.

G1

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Botão Voltar ao topo
slot gacor hari ini
situs slot luar negeri