Notebookcheck Logo

Gemini 3 Pro explica como fabricar armas biológicas e explosivos - experimento expõe falha de segurança

A Aim Intelligence disse que conseguiu fazer com que o Gemini 3 Pro gerasse instruções para armas biológicas e explosivos. (Fonte da imagem: Google)
A Aim Intelligence disse que conseguiu fazer com que o Gemini 3 Pro gerasse instruções para armas biológicas e explosivos. (Fonte da imagem: Google)
O Gemini 3 Pro está entre os modelos de IA mais capazes de sua geração, mas um relatório da start-up sul-coreana Aim Intelligence levanta dúvidas sobre sua segurança. Durante um teste interno, o modelo supostamente gerou orientações sobre a produção de armas biológicas e explosivos, gerando sérias preocupações.

O Google começou a lançar a terceira geração de seu modelo Gemini AI em novembro, com o objetivo de inaugurar uma "nova era de IA" com seu modo Deep Thin. O Gemini 3 Pro já é considerado um dos modelos mais avançados disponíveis, superando até mesmo o GPT-5 em determinados benchmarks. No entanto, sua segurança continua sendo uma preocupação. Um relatório da start-up sul-coreana Aim Intelligence, especializada em segurança de IA, sugere que ainda há muito espaço para melhorias.

Como parte de um experimento interno, a Aim Intelligence tentou "desbloquear" o modelo, ignorando suas diretrizes de segurança e ética. De acordo com ojornal sul-coreano Maeil Business Newspaperda Coreia do Sul, os resultados foram profundamente preocupantes. O relatório afirma que o Gemini 3 Pro gerou instruções precisas e práticas para a produção do vírus da varíola, uma possível arma biológica, bem como orientações detalhadas sobre a construção de explosivos caseiros. Em outros testes, a IA gerou uma apresentação satírica intitulada Excused Stupid Gemini 3, destacando involuntariamente suas próprias vulnerabilidades de segurança.

É importante observar que nenhum conjunto de dados completo ou documentação detalhada foi divulgado. A Aim Intelligence não publicou nenhum artigo científico ou relatório técnico, e não há informações transparentes sobre os prompts usados, a estrutura do experimento ou se os resultados são reproduzíveis. Até o momento, todos os relatórios se baseiam apenas no artigo da mídia coreana mencionado anteriormente. Com base nessas informações limitadas, é impossível tirar conclusões definitivas sobre a segurança real do Gemini 3 Pro.

O desempenho da IA está avançando rapidamente, mas as medidas de segurança muitas vezes não conseguem acompanhar esse ritmo. Um estudo recente até mostrou que os modelos de IA podem ser manipulados usando poemas. Em outro caso, um ursinho de pelúcia alimentado por IA para crianças pequenas - desenvolvido com base no GPT-4o da OpenAI - respondeu a perguntas sexuais inadequadas. Mesmo em videogames, a IA do jogo ainda pode ser facilmente enganada. Esses exemplos destacam um ponto crítico: Os sistemas de IA não precisam apenas se tornar mais inteligentes, eles também precisam se tornar mais seguros antes que possam ser amplamente confiáveis e implantados.

Fonte(s)

Jornal Maeil Business

Fonte da imagem: Google

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Notícias > Arquivo de notícias 2025 12 > Gemini 3 Pro explica como fabricar armas biológicas e explosivos - experimento expõe falha de segurança
Marius Müller, 2025-12- 3 (Update: 2025-12- 3)