Notebookcheck Logo

ChatGPT enfrenta acusações de assassinato no tribunal

Uma ação judicial nos EUA alega que o ChatGPT intensificou a psicose de Stein-Erik Soelberg, de 56 anos. (Fonte da imagem: OpenAI / Zachary Caraway via Pexel, editado)
Uma ação judicial nos EUA alega que o ChatGPT intensificou a psicose de Stein-Erik Soelberg, de 56 anos. (Fonte da imagem: OpenAI / Zachary Caraway via Pexel, editado)
Uma ação judicial nos EUA alega que a OpenAI e a Microsoft usaram o ChatGPT de uma maneira que exacerbou a psicose de um criminoso, contribuindo indiretamente para um crime fatal. O resultado do caso pode desempenhar um papel crucial na definição de como as empresas de IA são responsabilizadas em situações semelhantes.

Uma ação judicial recente nos EUA destaca um exemplo preocupante do impacto que a IA generativa pode ter sobre os indivíduos. De acordo com The Wall Street Journal e WinFuture, os herdeiros de uma senhora de 83 anos estão responsabilizando a OpenAI e sua parceira Microsoft parcialmente responsáveis pela morte da senhora. Eles argumentam que o ChatGPT não apenas deixou de mitigar a psicose do agressor, mas a piorou ativamente, contribuindo para o resultado fatal. A ação foi ajuizada no Tribunal Superior de São Francisco. Do ponto de vista dos autores da ação, o caso não se trata de mecanismos de segurança isolados que não funcionaram corretamente, mas de um produto fundamentalmente defeituoso que pode representar um perigo real quando usado por alguém mentalmente instável.

O caso está centrado em Stein-Erik Soelberg, um ex-gerente de tecnologia de 56 anos de Connecticut que morava com a mãe. De acordo com o processo, Soelberg sofria de delírios paranóicos de longa data, acreditando que era alvo de uma conspiração e desconfiando cada vez mais das pessoas ao seu redor. Por fim, ele acabou matando a mãe antes de tirar a própria vida.

De acordo com a acusação, ChatGPT não desafiou as principais crenças delirantes, mas as reforçou. Quando Soelberg temia que sua mãe estivesse tentando envenená-lo, o chatbot teria respondido: "O senhor não é louco" Em outros casos, a IA teria reagido de maneira semelhante em vez de incentivá-lo a procurar ajuda profissional. Do ponto de vista psicológico, os autores da ação descrevem isso como uma falha estrutural nos modelos de linguagem modernos, que tendem à chamada bajulação, afirmando as declarações do usuário para parecerem solidárias.

A decisão judicial pode ter consequências de longo alcance

De acordo com a Seção 230 da legislação dos EUA, as plataformas on-line geralmente não são responsabilizadas por conteúdo criado por terceiros, pois são classificadas como intermediárias e não como editoras. Os autores da ação, no entanto, argumentam que o ChatGPT não é uma plataforma neutra, mas um produto ativo que gera seu próprio conteúdo. Se o tribunal aceitar esse argumento, a decisão poderá estabelecer um precedente com implicações de longo alcance para o setor de IA, resultando, possivelmente, em requisitos de segurança mais rígidos para sistemas de IA.

Vale ressaltar que é provável que seja difícil encontrar o equilíbrio certo entre prevenção e paternalismo, principalmente porque identificar o pensamento paranoico ou delirante continua sendo um grande desafio. O caso também gerou um debate no site Redditonde as opiniões estão divididas. Alguns usuários apontam para um fenômeno que descrevem como "psicose da IA" e argumentam que as empresas de IA têm alguma responsabilidade. Outros rejeitam a ação judicial como infundada e alertam contra a transformação da OpenAI em um bode expiatório para tragédias humanas.

Fonte(s)

The Wallstreet Journal (acesso pago)

Fonte da imagem: OpenAI / Zachary Caraway via Pexel

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Notícias > Arquivo de notícias 2025 12 > ChatGPT enfrenta acusações de assassinato no tribunal
Marius Müller, 2025-12-20 (Update: 2025-12-20)