Notebookcheck Logo

Pesquisadores alertam sobre enxames de IA que criam opinião pública falsa

Uma imagem decorativa mostrando um chip com o acrônimo
ⓘ Igor Omilaev via Unsplash
Uma imagem decorativa mostrando um chip com o acrônimo "AI" escrito nele
Uma equipe internacional de pesquisadores emitiu um alerta sobre os perigos dos enxames de IA com relação à fabricação de consenso público falso, observando que isso já pode estar acontecendo.

Imagine um mundo em que um grande grupo de pessoas possa falar sobre um determinado tópico, fazendo com que ele se torne uma tendência on-line. Ou um mundo em que essas pessoas podem forçar a mão de figuras públicas ou até mesmo espalhar desinformação. Agora imagine um mundo em que as "pessoas" são, na verdade, perfis alimentados por IA que agem em uníssono e imitam vozes humanas únicas.

É sobre esse perigo que cientistas de várias instituições do mundo todo estão nos alertando em uma publicação recente na revista Science.

Uma equipe de pesquisa internacional detalhou como a fusão de grandes modelos de linguagem (LLMs) com sistemas multiagentes permite a criação de enxames de IA mal-intencionados. Diferentemente dos bots tradicionais e facilmente identificáveis que copiam e colam, esses enxames avançados consistem em personas controladas por IA que mantêm identidades persistentes, memória e objetivos coordenados. Eles podem adaptar dinamicamente seu tom e conteúdo com base no envolvimento humano, operando com supervisão mínima em várias plataformas.

A principal ameaça representada por essas redes é a fabricação de "consenso sintético" Ao inundar os espaços digitais com conversas fabricadas, mas altamente convincentes, esses enxames criam uma falsa ilusão de que um ponto de vista específico é universalmente aceito. Os pesquisadores observam que esse fenômeno põe em risco a base do discurso democrático, pois um único agente mal-intencionado pode se passar por milhares de vozes independentes.

Essa influência persistente vai além da mudança de opiniões temporárias; ela pode alterar fundamentalmente a linguagem, os símbolos e a identidade cultural de uma comunidade. Além disso, esse resultado coordenado ameaça contaminar os dados de treinamento de modelos regulares de inteligência artificial, estendendo a manipulação a plataformas de IA estabelecidas.

Para combater essa ameaça em evolução, os especialistas argumentam que a moderação tradicional de conteúdo post a post não é mais eficaz. Os mecanismos de defesa devem se voltar para a identificação de coordenação estatisticamente improvável e para o rastreamento da origem do conteúdo. Os pesquisadores também enfatizam a necessidade de aplicar as ciências comportamentais para estudar as ações coletivas dos agentes de IA quando eles interagem em grandes grupos. As soluções propostas incluem a implementação de métodos de verificação que preservam a privacidade, o compartilhamento de evidências por meio de um Observatório de Influência de IA distribuído e a limitação dos incentivos financeiros que impulsionam o envolvimento não autêntico.

Fonte(s)

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Notícias > Arquivo de notícias 2026 02 > Pesquisadores alertam sobre enxames de IA que criam opinião pública falsa
Chibuike Okpara, 2026-02-16 (Update: 2026-02-16)