Inicio

Quanto mais avançada e "humana" é uma Inteligência Artificial, mais tende a mentir

Um novo estudo descobriu que as IAs que apresentam maior complexidade são mais propensas a fornecer respostas incorretas
Por History Channel Brasil em 04 de Outubro de 2024 às 16:10 HS
Quanto mais avançada e "humana" é uma Inteligência Artificial, mais tende a mentir-0

O avanço da inteligência artificial (IA) acontece em ritmo surpreendente e, com isso, surgem novos desafios que envolvem a tecnologia.  Agora, pesquisadores descobriram um aspecto preocupante sobre as IAs: à medida que se tornam mais sofisticadas, elas também ficam mais propensas a fornecer respostas incorretas de maneira convincente. Um estudo sobre o tema foi publicado na revista Nature.

Respostas falsas

O estudo analisou alguns dos modelos de linguagem mais avançados da indústria, como o GPT da OpenAI, o LLaMA da Meta e o BLOOM da BigScience. Esses modelos são projetados para fornecer respostas cada vez mais precisas a perguntas complexas, mas, paradoxalmente, também são mais propensos a cometer erros em perguntas simples. José Hernández-Orallo, especialista do Instituto Valenciano de Pesquisa em Inteligência Artificial e coautor do estudo, destaca que a crescente capacidade das IAs de "simular conhecimento" pode fazer com que inventem fatos ou respostas falsas quando não têm informações precisas suficientes.

Desenho de um robô de perfil com dois rostos (um feliz e um raivoso), cada um apontando para cada lado

O problema é que, à medida que os chatbots ganham habilidades, eles oferecem respostas que parecem convincentes, mesmo quando estão incorretas. Isso representa um problema sério, já que os usuários percebem essas respostas como confiáveis, embora o nível real de precisão, segundo o estudo, esteja em torno de 60% em perguntas simples. Essa margem de erro é preocupante, especialmente quando as IAs são usadas em áreas que exigem altos níveis de precisão.

Uma das possíveis soluções propostas pelos pesquisadores é que os modelos de linguagem poderiam ser programados para se abster de responder quando não tiverem certeza da resposta. Em vez de inventar uma resposta errada, a IA deveria admitir sua falta de conhecimento em determinadas áreas. No entanto, essa opção apresenta desafios comerciais. Em uma indústria que busca se posicionar como líder, um chatbot que admite não saber pode ser visto como limitado, afetando sua competitividade em relação a outros que, mesmo correndo o risco de errar, oferecem uma resposta em qualquer situação.

Fontes
Futurism e La Vanguardia
Imagens
istock