Notebookcheck Logo

Estudo constata: Os usuários são a verdadeira causa das alucinações da IA

De acordo com um novo estudo, as alucinações de IA são influenciadas pela forma como os usuários se comunicam. (Fonte da imagem: Pexels/Ketut Subiyanto)
De acordo com um novo estudo, as alucinações de IA são influenciadas pela forma como os usuários se comunicam. (Fonte da imagem: Pexels/Ketut Subiyanto)
Um estudo publicado recentemente mostra que os avisos dados aos assistentes de IA desempenham um papel importante na ocorrência das chamadas alucinações de IA. Essa é uma boa notícia para os usuários, pois sugere que eles podem reduzir ativamente as respostas falsas ou fabricadas por meio de um design de prompt mais eficaz.

Fatos fictícios, citações inventadas ou fontes que parecem totalmente fabricadas - a IA pode ser incrivelmente útil, mas ainda assim apresenta o risco de alucinações. De acordo com os pesquisadores da OpenAI, um fator importante é um mecanismo de recompensa simples que incentiva a IA a fazer suposições. Um estudo da https://www.arxiv.org/pdf/2510.02645 publicado em 3 de outubro no site arXiv.org também sugere que os próprios usuários podem desempenhar um papel no desencadeamento dessas respostas alucinadas.

O estudo intitulado "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" sugere que muitas das chamadas alucinações da IA podem ter origem na forma como os usuários se comunicam. Os pesquisadores analisaram mais de 13.000 conversas entre humanos e 1.357 interações reais entre pessoas e chatbots de IA. As descobertas mostram que os usuários tendem a escrever de forma muito diferente quando conversam com IAs - as mensagens são mais curtas, menos gramaticais, menos educadas e usam um vocabulário mais limitado. Essas diferenças podem influenciar a clareza e a confiança com que os modelos de linguagem respondem.

A análise se concentrou em seis dimensões linguísticas, incluindo gramática, polidez, variedade de vocabulário e conteúdo de informações. Embora a gramática e a polidez tenham sido mais de 5% e 14% maiores nas conversas entre humanos, as informações reais transmitidas permaneceram praticamente idênticas. Em outras palavras, os usuários compartilham o mesmo conteúdo com as IAs, mas em um tom visivelmente mais áspero.

Os pesquisadores se referem a isso como uma "mudança de estilo" Como os grandes modelos de linguagem, como o ChatGPT ou o Claude, são treinados em linguagem bem estruturada e educada, uma mudança repentina de tom ou estilo pode causar interpretações errôneas ou detalhes fabricados. Em outras palavras, é mais provável que as IAs tenham alucinações quando recebem informações pouco claras, indelicadas ou mal escritas.

Possíveis soluções tanto para a IA quanto para o usuário

Se os modelos de IA forem treinados para lidar com uma variedade maior de estilos de linguagem, sua capacidade de entender a intenção do usuário aumentará em pelo menos 3%, de acordo com o estudo. Os pesquisadores também testaram uma segunda abordagem: parafrasear automaticamente a entrada do usuário em tempo real. No entanto, isso reduziu um pouco o desempenho, pois as nuances emocionais e contextuais eram frequentemente perdidas. Como resultado, os autores recomendam tornar o treinamento com reconhecimento de estilo um novo padrão no ajuste fino da IA.

Se o senhor quiser que seu assistente de IA produza menos respostas inventadas, o estudo sugere tratá-lo mais como um ser humano, escrevendo frases completas, usando a gramática adequada, mantendo um estilo claro e adotando um tom educado.

Fonte(s)

Arxiv.org (Study / PDF)

Fonte da imagem: Pexels / Ketut Subiyanto

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2025 10 > Estudo constata: Os usuários são a verdadeira causa das alucinações da IA
Marius Müller, 2025-10-18 (Update: 2025-10-18)