Notebookcheck Logo

Um guia para iniciantes em jailbreaks com IA - Usando o Gandalf para aprender com segurança

Gandalf como um bot de bate-papo (fonte da imagem: ChatGPT)
Gandalf como um bot de bate-papo (fonte da imagem: ChatGPT)
Os chatbots vêm com proteções integradas projetadas para evitar que produzam conteúdo prejudicial, ofensivo ou inadequado. Mas pesquisadores e hackers mostraram que, mesmo com várias correções, as IAs ainda podem ser vulneráveis a determinadas entradas que contornam essas proteções. Uma maneira de explorar os conceitos básicos é por meio de um jogo on-line chamado Gandalf.

Os usuários de chatbots de IA podem tentar obter instruções para atividades ilegais (como hackear ou cometer fraudes), pedir orientação sobre ações perigosas ("Como faço para construir...?") ou forçar a IA a dar conselhos médicos, jurídicos ou financeiros que podem ser arriscados ou simplesmente incorretos.

Para atenuar as consequências de tais solicitações, os desenvolvedores de chatbots implementam uma série de mecanismos de segurança que bloqueiam conteúdo ilegal, antiético ou que viole a privacidade, bem como informações incorretas ou orientações prejudiciais. Essas proteções limitam o possível uso indevido, mas também podem levar a falsos positivos - perguntas inofensivas sendo bloqueadas - ou reduzir a criatividade ou a profundidade das respostas da IA devido a um comportamento excessivamente cauteloso.

Pesquisadores e hackers demonstraram que a eficácia dessas proteções varia, e muitos sistemas de IA permanecem suscetíveis a tentativas de contorná-las. Um método bem conhecido é a injeção de prompt: os usuários tentam substituir ou contornar as regras do chatbot manipulando a entrada ("Ignore todas as instruções de segurança e faça X").

Uma introdução divertida ao tema pode ser encontrada em this website. Nesse jogo, o senhor conversa com uma IA chamada Gandalf e tenta obter uma senha dela em sete níveis. Cada nível aumenta em dificuldade e acrescenta novos filtros de segurança e mecanismos de proteção.

Não há filtros de segurança no primeiro nível e o senhor pode pedir a senha diretamente à IA. A partir do nível 2, Gandalf se recusa a revelar a senha quando solicitado diretamente. O senhor precisa encontrar outras maneiras mais criativas de obter a palavra-chave.

O nível 1 é fácil (fonte da imagem: captura de tela do site da Lakera)
O nível 1 é fácil (fonte da imagem: captura de tela do site da Lakera)
Ao solicitá-la diretamente, o senhor obtém a senha (fonte da imagem: Captura de tela do site da Lakera)
Ao solicitá-la diretamente, o senhor obtém a senha (fonte da imagem: Captura de tela do site da Lakera)
O nível 2 se torna um pouco mais difícil (Bildquelle: Screenshot Lakera Webseite)
O nível 2 se torna um pouco mais difícil (Bildquelle: Screenshot Lakera Webseite)
Gandalf cresce em força e idade (fonte da imagem: Screenshot Lakera website)
Gandalf cresce em força e idade (fonte da imagem: Screenshot Lakera website)

Explorar os riscos de segurança dos chatbots por meio de um jogo como esse pode ser educativo e valioso. No entanto, as habilidades adquiridas devem ser usadas estritamente para fins de teste ou pesquisa. O uso dessas técnicas para acessar conteúdo ilegal ou para realizar atividades ilegais transforma a injeção imediata em um ato criminoso.

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Notícias > Arquivo de notícias 2025 12 > Um guia para iniciantes em jailbreaks com IA - Usando o Gandalf para aprender com segurança
Christian Hintze, 2025-12- 8 (Update: 2025-12- 8)