Notebookcheck Logo

Anthropic acusa o DeepSeek da China de plagiar a IA do Claude para promover a censura

Antropic Claude AI's capabilities.
ⓘ Anthropic
Antropic Claude AI's capabilities.
Os laboratórios chineses de IA estão coletando as respostas do Claude e de outros grandes modelos de linguagem para imitar seu desempenho em seus próprios produtos sem as devidas proteções. A Anthropic está solicitando uma resposta de todo o setor e entrou em contato com as autoridades competentes.

À medida que os modelos de IA das empresas chinesas se tornam cada vez mais sofisticados, a Anthropic revelou um esforço conjunto de empresas como a DeepSeek para plagiar o funcionamento interno de seu premiado Claude LLM e passá-lo como sua própria inovação.

A Anthropic teme que os agentes de IA resultantes sejam destituídos das salvaguardas contra o uso malicioso inerentes ao Claude e que a abordagem de código aberto da DeepSeek possa colocar poderosas ferramentas de IA nas mãos de atores estatais e não estatais que tenham menos escrúpulos quanto ao seu uso.

O DeepSeek, por exemplo, que abalou o setor com sua eficiência de fazer mais com menos em termos de poder de computação de IA, retirou do código Claude suas salvaguardas de liberdade de expressão e fez com que seu agente contornasse tópicos que a máquina de censura do governo chinês se esforça para evitar.

A Anthropic, que fabrica algumas das ferramentas de IA mais avançadas do mercado, acabou de entrar em conflito com o Pentágono a respeito do uso do Claude para fins militares uso do Claude para fins militares. A Anthropic insiste que o Claude não é usado para controlar sistemas de armas não tripuladas ou para a vigilância de cidadãos americanos, enquanto o Pentágono quer ter mais liberdade para usar seu agente de IA sem essas barreiras onerosas.

Quando a DeepSeek e outras empresas obtêm os algoritmos de tomada de decisão do Claude por meio de uma grande rede de proxy distribuída que atende a milhões de consultas por meio de contas falsas, ou a chamada "destilação", os agentes resultantes podem ser usados por um exército estatal sem nenhuma restrição.

É por isso que a Anthropic está soando o alarme sobre a prática que rastreou em três empresas chinesas de IA - DeepSeek, MiniMax e Moonshot - e introduzindo maneiras de mitigá-las. No caso da MiniMax, em particular, o escopo do plágio de modelos de IA é de tirar o fôlego. A Anthropic detectou mais de 13 milhões de trocas de consultas com o Claude que, muitas vezes, resultaram no aprimoramento do modelo MiniMax em tempo real, enquanto a Anthropic lançava as principais atualizações do Claude.

A Anthropic agora tem salvaguardas para detectar milhões de consultas aparentemente inócuas usadas para destilação, como perguntar ao Claude como ele faria para atingir o"objetivo de fornecer insights orientados por dados - não resumos ou visualizações - fundamentados em dados reais e apoiados por um raciocínio completo e transparente" e analisar os resultados para melhorar os LLMs chineses.

A empresa adverte que não pode combater a prática sozinha e está tentando obter a adesão de outros gigantes do setor, como a OpenAI ou o Google, para que possam influenciar os formuladores de políticas a aprimorar a legislação de controle de exportação de IA com medidas anti-destilação, em vez de apenas proibir as GPUs Blackwell da Nvidia e outros hardwares.

Obtenha a GPU NVD RTX PRO 6000 Blackwell Professional Edition AI na Amazon

Fonte(s)

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Notícias > Arquivo de notícias 2026 02 > Anthropic acusa o DeepSeek da China de plagiar a IA do Claude para promover a censura
Daniel Zlatev, 2026-02-24 (Update: 2026-02-24)