A Anthropic rejeita a iniciativa do Pentágono de abrir a Claude AI para sistemas de armas não tripuladas ou para uso em vigilância em massa

O gigante da IA Anthropic deixará passar o prazo de 27 de fevereiro estabelecido pelo Pentágono para retirar de seu modelo Claude todas as salvaguardas para uso militar.
De acordo com o CEO da Anthropic, Dario Amodei, a empresa de IA não pode abrir o Claude para operar sistemas de armas não tripuladas ou para vigilância em massa de cidadãos norte-americanos em "sã consciência" porque ele não é comprovadamente seguro nem confiável o suficiente para atender a essa finalidade.
O Claude da Anthropic é, ao mesmo tempo, um dos principais agentes de IA existentes e o mais orientado para a segurança, com barreiras de proteção incorporadas contra o uso malicioso de suas ferramentas de IA. O Departamento de Guerra dos EUA (DoW), no entanto, exige que os modelos de IA que ele adquire sejam desenvolvidos e testados com base em um modelo de inteligência artificial que os modelos de IA que ele adquire sejam desprovidos de quaisquer restrições, exceto suas próprias e obscuras restrições de "uso legal":
Diversidade, Equidade e Inclusão e ideologia social não têm lugar no DoW, portanto, não devemos empregar modelos de IA que incorporem "ajustes" ideológicos que interfiram em sua capacidade de fornecer respostas objetivamente verdadeiras às solicitações do usuário
O Departamento também deve utilizar modelos livres de restrições de política de uso que possam limitar aplicações militares legais. Portanto, oriento o CDAO a estabelecer parâmetros de referência para a objetividade do modelo como critério primário de aquisição no prazo de 90 dias, e oriento o Subsecretário de Guerra para Aquisição e Manutenção a incorporar a linguagem padrão de "qualquer uso legal" em qualquer contrato do DoW por meio do qual os serviços de IA sejam adquiridos no prazo de 180 dias.
O Pentágono agora ameaçou a Anthropic com repercussões terríveis que vão além do impacto em seu balanço patrimonial. Além de prejudicar o atual contrato de US$ 200 milhões para o fornecimento de ferramentas de IA ao Pentágono, a Anthropic corre o risco de ser designada como um risco para a cadeia de suprimentos ou de ser solicitada a remover as barreiras da Claude para uso militar, de acordo com a lei dos anos 50 criada para forçar as empresas americanas a entrarem em conformidade com a lei durante a Guerra da Coreia, por motivos de segurança nacional.
A designação de risco para a cadeia de suprimentos é normalmente reservada para empresas com possíveis conexões com agentes estatais mal-intencionados, como a Huawei da China ou a Kaspersky da Rússia, portanto, colocar a Anthropic nessa lista poderia causar um golpe significativo em seu potencial de ganhos. Apesar do risco de se tornar um pária da IA para o atual governo da Casa Branca, Amodei insiste queos atuais"sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas", enquanto"usar esses sistemas para vigilância doméstica em massa é incompatível com os valores democráticos"
O Claude da Anthropic foi o modelo escolhido quando o governo quis usar ferramentas de IA para filtrar informações confidenciais e foi útil no planejamento do ataque que capturou o líder venezuelano Maduro, portanto, Dario Amodei disse que espera que o Pentágono reconsidere sua posição sobre os dois cenários de linha vermelha que continuará a restringir em seus modelos de IA.
Fonte(s)
Os Top 10
» Os Top 10 Portáteis Multimídia
» Os Top 10 Portáteis de Jogos
» Os Top 10 Portáteis Leves para Jogos
» Os Top 10 Portáteis Acessíveis de Escritório/Empresariais
» Os Top 10 Portáteis Premium de Escritório/Empresariais
» Os Top 10 dos Portáteis Workstation
» Os Top 10 Subportáteis
» Os Top 10 Ultrabooks
» Os Top 10 Conversíveis
» Os Top 10 Tablets
» Os Top 10 Smartphones
» A melhores Telas de Portáteis Analisadas Pela Notebookcheck
» Top 10 dos portáteis abaixo dos 500 Euros da Notebookcheck
» Top 10 dos Portáteis abaixo dos 300 Euros











