Pesquisadores alertam sobre enxames de IA que criam opinião pública falsa

Imagine um mundo em que um grande grupo de pessoas possa falar sobre um determinado tópico, fazendo com que ele se torne uma tendência on-line. Ou um mundo em que essas pessoas podem forçar a mão de figuras públicas ou até mesmo espalhar desinformação. Agora imagine um mundo em que as "pessoas" são, na verdade, perfis alimentados por IA que agem em uníssono e imitam vozes humanas únicas.
É sobre esse perigo que cientistas de várias instituições do mundo todo estão nos alertando em uma publicação recente na revista Science.
Uma equipe de pesquisa internacional detalhou como a fusão de grandes modelos de linguagem (LLMs) com sistemas multiagentes permite a criação de enxames de IA mal-intencionados. Diferentemente dos bots tradicionais e facilmente identificáveis que copiam e colam, esses enxames avançados consistem em personas controladas por IA que mantêm identidades persistentes, memória e objetivos coordenados. Eles podem adaptar dinamicamente seu tom e conteúdo com base no envolvimento humano, operando com supervisão mínima em várias plataformas.
A principal ameaça representada por essas redes é a fabricação de "consenso sintético" Ao inundar os espaços digitais com conversas fabricadas, mas altamente convincentes, esses enxames criam uma falsa ilusão de que um ponto de vista específico é universalmente aceito. Os pesquisadores observam que esse fenômeno põe em risco a base do discurso democrático, pois um único agente mal-intencionado pode se passar por milhares de vozes independentes.
Essa influência persistente vai além da mudança de opiniões temporárias; ela pode alterar fundamentalmente a linguagem, os símbolos e a identidade cultural de uma comunidade. Além disso, esse resultado coordenado ameaça contaminar os dados de treinamento de modelos regulares de inteligência artificial, estendendo a manipulação a plataformas de IA estabelecidas.
Para combater essa ameaça em evolução, os especialistas argumentam que a moderação tradicional de conteúdo post a post não é mais eficaz. Os mecanismos de defesa devem se voltar para a identificação de coordenação estatisticamente improvável e para o rastreamento da origem do conteúdo. Os pesquisadores também enfatizam a necessidade de aplicar as ciências comportamentais para estudar as ações coletivas dos agentes de IA quando eles interagem em grandes grupos. As soluções propostas incluem a implementação de métodos de verificação que preservam a privacidade, o compartilhamento de evidências por meio de um Observatório de Influência de IA distribuído e a limitação dos incentivos financeiros que impulsionam o envolvimento não autêntico.
Fonte(s)
Ciência via Tech Xplore
Os Top 10
» Os Top 10 Portáteis Multimídia
» Os Top 10 Portáteis de Jogos
» Os Top 10 Portáteis Leves para Jogos
» Os Top 10 Portáteis Acessíveis de Escritório/Empresariais
» Os Top 10 Portáteis Premium de Escritório/Empresariais
» Os Top 10 dos Portáteis Workstation
» Os Top 10 Subportáteis
» Os Top 10 Ultrabooks
» Os Top 10 Conversíveis
» Os Top 10 Tablets
» Os Top 10 Smartphones
» A melhores Telas de Portáteis Analisadas Pela Notebookcheck
» Top 10 dos portáteis abaixo dos 500 Euros da Notebookcheck
» Top 10 dos Portáteis abaixo dos 300 Euros

