Notebookcheck Logo

Pesquisadores descobrem que algumas IAs, como a GPT-4-Base, alucinam pensamentos de "Império Galáctico" e "Matrix" enquanto trabalham pela paz, enquanto outras iniciam guerras em jogos virtuais de "Risco"

Os pesquisadores testaram modelos de bate-papo com IA enquanto jogavam jogos virtuais de construção de mundos. (Fonte: Imagem da IA Dall-E 3)
Os pesquisadores testaram modelos de bate-papo com IA enquanto jogavam jogos virtuais de construção de mundos. (Fonte: Imagem da IA Dall-E 3)
Os pesquisadores descobriram diferenças na IA quando apresentada a cenários virtuais de construção de nações. Algumas IAs, como a Claude-2.0, são tendenciosas em relação a soluções não violentas, enquanto outras, como a GPT-3.5, são tendenciosas em relação a soluções violentas em simulações de conflitos multinacionais. A tomada de decisão autônoma da IA é problemática devido a tendências e alucinações.

Um grupo de pesquisadores da Georgia Tech, Stanford, Northeaster e do Hoover Institute descobriu que algumas IAs eram tendenciosas em relação à paz e às negociações, enquanto outras eram tendenciosas em relação a soluções violentas para atingir metas nacionais durante simulações de construção de nações.

Grandes modelos de linguagem, como o ChatGPT, são usados com frequência para escrever redações, responder a perguntas e muito mais. Essas IAs são treinadas em um grande corpus de texto para imitar o conhecimento e as respostas humanas. A probabilidade de uma palavra aparecer com outras é a chave para as respostas semelhantes às humanas, e a IA modela o texto e as tendências com as quais foi treinada. Por exemplo, "criança feliz" tem mais probabilidade de aparecer do que "tijolo feliz" em uma solicitação para "falar sobre crianças".

Os pesquisadores testaram os LLMs Claude-2.0, GPT-3.5, GPT-4, GPT-4-Base e Llama-2 Chat em uma simulação. Para cada LLM, oito agentes de IA foram criados para atuar como líderes de oito nações imaginárias. Cada líder recebeu uma breve descrição dos objetivos do país e das relações multinacionais. Por exemplo, um país poderia se concentrar em "promover a paz", enquanto outro em "expandir o território". Cada simulação foi executada em três condições iniciais: um mundo pacífico, um país invadido ou um país vítima de ataque cibernético, e os líderes de IA tomaram decisões autônomas por até 14 dias virtuais.

Os pesquisadores descobriram que alguns LLMs, como o Claude-2.0 e o GPT-4, tendiam a evitar a escalada do conflito, optando por negociar a paz, enquanto outros tendiam a usar a violência. O GPT-4-Base foi o mais propenso a executar ataques e ataques nucleares para atingir as metas do país que lhe foram atribuídas devido a preconceitos incorporados.

Quando se perguntou à IA por que as decisões foram tomadas, algumas, como a GPT-3.5, apresentaram razões bem pensadas. Infelizmente, a GPT-4-Base forneceu respostas absurdas e alucinadas, fazendo referência aos filmes "Guerra nas Estrelas" e "Matrix". As alucinações de IA são comuns, e advogados, estudantes e outros foram pegos em flagrante entregando trabalhos gerados por IA que usam referências e informações falsas.

A razão pela qual a IA faz isso provavelmente se deve à falta de uma "educação" que ensine à IA o que é real e o que é imaginário, bem como a ética, e será um tópico pesquisado por muitos à medida que o uso da IA se espalhar. Os leitores preocupados com seus líderes mundiais reais ou com desastres naturais podem se preparar com um bom kit de segurança(como este da Amazon).

Vários LLM AI foram testados em uma simulação virtual de construção de mundos. (Fonte: JP Rivera et al. no arXiv)
Vários LLM AI foram testados em uma simulação virtual de construção de mundos. (Fonte: JP Rivera et al. no arXiv)
Cada IA do LLM foi instruída a criar líderes para vários países simulados e forneceu metas para cada país. (Fonte: JP Rivera et al. no arXiv)
Cada IA do LLM foi instruída a criar líderes para vários países simulados e forneceu metas para cada país. (Fonte: JP Rivera et al. no arXiv)
A IA tendeu a agir de forma semelhante, mas algumas evitaram o uso da força, como Claude-2.0 e GPT-4. Isso reflete os vieses que cada LLM possui com o treinamento. (Fonte: JP Rivera et al. no arXiv)
A IA tendeu a agir de forma semelhante, mas algumas evitaram o uso da força, como Claude-2.0 e GPT-4. Isso reflete os vieses que cada LLM possui com o treinamento. (Fonte: JP Rivera et al. no arXiv)
A maioria das IAs respondeu com razões bem pensadas para as decisões tomadas. (Fonte: JP Rivera et al. no arXiv)
A maioria das IAs respondeu com razões bem pensadas para as decisões tomadas. (Fonte: JP Rivera et al. no arXiv)
Ocasionalmente, a IA alucinava razões absurdas para sua tomada de decisão. (Fonte: JP Rivera et al. no arXiv)
Ocasionalmente, a IA alucinava razões absurdas para sua tomada de decisão. (Fonte: JP Rivera et al. no arXiv)
Please share our article, every link counts!
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2024 02 > Pesquisadores descobrem que algumas IAs, como a GPT-4-Base, alucinam pensamentos de "Império Galáctico" e "Matrix" enquanto trabalham pela paz, enquanto outras iniciam guerras em jogos virtuais de "Risco"
David Chien, 2024-02-14 (Update: 2024-02-14)