Fatos fictícios, citações inventadas ou fontes que parecem totalmente fabricadas - a IA pode ser incrivelmente útil, mas ainda assim apresenta o risco de alucinações. De acordo com os pesquisadores da OpenAI, um fator importante é um mecanismo de recompensa simples que incentiva a IA a fazer suposições. Um estudo da https://www.arxiv.org/pdf/2510.02645 publicado em 3 de outubro no site arXiv.org também sugere que os próprios usuários podem desempenhar um papel no desencadeamento dessas respostas alucinadas.
O estudo intitulado "Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions" sugere que muitas das chamadas alucinações da IA podem ter origem na forma como os usuários se comunicam. Os pesquisadores analisaram mais de 13.000 conversas entre humanos e 1.357 interações reais entre pessoas e chatbots de IA. As descobertas mostram que os usuários tendem a escrever de forma muito diferente quando conversam com IAs - as mensagens são mais curtas, menos gramaticais, menos educadas e usam um vocabulário mais limitado. Essas diferenças podem influenciar a clareza e a confiança com que os modelos de linguagem respondem.
A análise se concentrou em seis dimensões linguísticas, incluindo gramática, polidez, variedade de vocabulário e conteúdo de informações. Embora a gramática e a polidez tenham sido mais de 5% e 14% maiores nas conversas entre humanos, as informações reais transmitidas permaneceram praticamente idênticas. Em outras palavras, os usuários compartilham o mesmo conteúdo com as IAs, mas em um tom visivelmente mais áspero.
Os pesquisadores se referem a isso como uma "mudança de estilo" Como os grandes modelos de linguagem, como o ChatGPT ou o Claude, são treinados em linguagem bem estruturada e educada, uma mudança repentina de tom ou estilo pode causar interpretações errôneas ou detalhes fabricados. Em outras palavras, é mais provável que as IAs tenham alucinações quando recebem informações pouco claras, indelicadas ou mal escritas.
Possíveis soluções tanto para a IA quanto para o usuário
Se os modelos de IA forem treinados para lidar com uma variedade maior de estilos de linguagem, sua capacidade de entender a intenção do usuário aumentará em pelo menos 3%, de acordo com o estudo. Os pesquisadores também testaram uma segunda abordagem: parafrasear automaticamente a entrada do usuário em tempo real. No entanto, isso reduziu um pouco o desempenho, pois as nuances emocionais e contextuais eram frequentemente perdidas. Como resultado, os autores recomendam tornar o treinamento com reconhecimento de estilo um novo padrão no ajuste fino da IA.
Se o senhor quiser que seu assistente de IA produza menos respostas inventadas, o estudo sugere tratá-lo mais como um ser humano, escrevendo frases completas, usando a gramática adequada, mantendo um estilo claro e adotando um tom educado.
Fonte(s)
Fonte da imagem: Pexels / Ketut Subiyanto
Os Top 10
» Os Top 10 Portáteis Multimídia
» Os Top 10 Portáteis de Jogos
» Os Top 10 Portáteis Leves para Jogos
» Os Top 10 Portáteis Acessíveis de Escritório/Empresariais
» Os Top 10 Portáteis Premium de Escritório/Empresariais
» Os Top 10 dos Portáteis Workstation
» Os Top 10 Subportáteis
» Os Top 10 Ultrabooks
» Os Top 10 Conversíveis
» Os Top 10 Tablets
» Os Top 10 Smartphones
» A melhores Telas de Portáteis Analisadas Pela Notebookcheck
» Top 10 dos portáteis abaixo dos 500 Euros da Notebookcheck
» Top 10 dos Portáteis abaixo dos 300 Euros