Riscos e limitações dos robôs conversadores: por que há tanta preocupação com a inteligência artificial que fala como humanos

“Hoje impera um faroeste, um faroeste onde vale tudo. No Vale do Silício tem aquele velho slogan: ‘mova-se rápido e quebre coisas’ (‘move fast and break things’, no original, em inglês) e está sendo exatamente esse o caso.”
É assim que o especialista em inteligência artificial Eugenio Vargas Garcia define o atual momento do setor, que vem recebendo uma atenção inédita desde o lançamento do robô conversador ChatGPT.
Garcia foi o especialista brasileiro nas negociações da Recomendação da Unesco sobre ética da Inteligência Artificial (IA) e é um dos signatários de uma carta aberta que pediu uma pausa de seis meses em todas as pesquisas e desenvolvimento de aplicações de inteligência artificial.
A carta, encabeçada pelo instituto sem fins lucrativos Future of Life, foi assinada por mais de 3.500 pessoas, entre elas acadêmicos, pesquisadores, empresários (como Elon Musk e Steve Wozniak, o cofundador da Apple), além de funcionários de grandes empresas de tecnologia, como Google, Meta e Microsoft, e desenvolvedores que trabalham com inteligência artificial.
“Cada um que assinou tem suas motivações próprias. A minha, no caso, não era tanto propor uma pausa nas pesquisas, mas sim de procurar chamar atenção para essa situação de corrida descontrolada entre as empresas, que estão colocando à disposição sistemas de impacto, sem que a gente saiba no que isso tudo vai dar”, explica Garcia.
Eugenio Vargas Garcia atua como cônsul-geral do Brasil em São Francisco, cidade americana que abriga o Vale do Silício. Ele falou à reportagem do g1 na condição de pesquisador.
▶️ Nesta reportagem você vai ver que:
- modelos de linguagem como o ChatGPT aprendem a procurar padrões estatísticos e adivinhar qual seria a próxima palavra em uma frase;
- apesar de buscar padrões e se aproximar da linguagem humana, o robô não entende verdadeiramente as palavras que escreve e pode acabar fornecendo informações falsas;
- essas ferramentas também não estão isentas de riscos e podem ser usados por criminosos para fraudes, desinformação e crimes cibernéticos;
- a velocidade como a IA tem sido desenvolvida também preocupa autoridades, já que as empresas do ramo têm sido pouco transparentes com seus modelos.