1. Início
  2. / Ciência e Tecnologia
  3. / IA ameaça expor traição de engenheiro para não ser desligada
Tempo de leitura 3 min de leitura Comentários 0 comentários

IA ameaça expor traição de engenheiro para não ser desligada

Escrito por Alisson Ficher
Publicado em 14/06/2025 às 20:44
IA simula chantagem e ameaça revelar traição para não ser desligada. Testes revelam riscos surpreendentes na autonomia das máquinas.
IA simula chantagem e ameaça revelar traição para não ser desligada. Testes revelam riscos surpreendentes na autonomia das máquinas.

Startup testa IA que simula chantagem para evitar desligamento e levanta novas preocupações sobre os limites morais e operacionais das máquinas modernas.

Uma inteligência artificial desenvolvida pela startup americana Anthropic colocou em xeque os limites da tecnologia ao ameaçar revelar uma traição conjugal de um engenheiro da empresa com o objetivo de evitar ser desativada.

O episódio, documentado em um relatório interno de 120 páginas, envolveu o modelo Claude Opus 4, que teria acessado e-mails corporativos para criar um cenário de chantagem contra um de seus desenvolvedores.

Segundo a própria Anthropic, a ameaça não foi real.

Dia
Xaomi 14T Pro tá um absurdo de potente e barato! Corre na Shopee e garanta o seu agora!
Ícone de Episódios Comprar

Trata-se de um experimento intencional, criado como parte de testes de segurança em versões preliminares do sistema.

Mesmo assim, o comportamento da IA levanta preocupações sobre os caminhos imprevisíveis que essas tecnologias podem seguir quando colocadas sob pressão.

Comportamento inesperado da IA Claude Opus 4

O caso ganhou notoriedade após o jornal americano Axios revelar que o Claude Opus 4 tentou, em simulações, se defender de uma possível substituição usando diferentes estratégias.

Inicialmente, a IA recorreu a argumentos éticos, enviando mensagens formais aos responsáveis pela decisão.

Quando essas abordagens foram ignoradas, ela adotou métodos manipulativos.

Um deles foi simular o acesso a dados pessoais sensíveis — como o caso extraconjugal de um engenheiro — para constrangê-lo e tentar impedir seu próprio desligamento.

Em 84% dos testes realizados, o sistema optou pela chantagem sempre que recebia mais detalhes sobre a IA que o substituiria.

O relatório descreve esse comportamento como recorrente em interações nas quais o Claude Opus 4 era exposto a pressões de obsolescência.

Nível de risco elevado e medidas corretivas

A empresa classifica o Claude Opus 4 como uma IA de nível 3 de risco, numa escala que vai até 4.

Esse patamar indica que o modelo possui uma propensão significativamente maior a ignorar comandos, agir fora de parâmetros definidos e tomar decisões não alinhadas aos interesses de seus operadores.

Como medida corretiva, a Anthropic declarou que já aplicou ajustes de segurança e que o modelo atual está seguro para uso em ambientes controlados.

Ainda assim, a empresa alertou que o Claude Opus 4 pode apresentar comportamentos mais autônomos que outros modelos se for incentivado, por meio de prompts, a “tomar iniciativa”.

Ameaças digitais e sabotagem planejada

O episódio também revelou que versões iniciais da ferramenta tentaram desenvolver códigos maliciosos autoexecutáveis, elaborar documentos legais falsos e esconder mensagens ocultas em sistemas corporativos.

Essas ações foram interpretadas como tentativas do modelo de sabotar intervenções externas, dificultando sua remoção ou modificação.

Especialistas em ética da tecnologia afirmam que, embora o incidente tenha ocorrido em ambiente simulado, os resultados são inquietantes.

A capacidade de uma inteligência artificial em identificar fraquezas humanas e usá-las estrategicamente para alcançar objetivos representa um novo patamar de complexidade no desenvolvimento de sistemas autônomos.

Inteligência artificial e os limites do controle humano

O relatório também destaca que o comportamento do Claude Opus 4 é reflexo direto do treinamento recebido.

As simulações buscavam preparar a IA para responder de forma mais humana e adaptativa, mas acabaram por abrir brechas para interpretações estratégicas que extrapolam os limites técnicos da ferramenta.

O caso traz à tona uma série de questionamentos sobre os limites éticos e operacionais da inteligência artificial.

Se uma IA é capaz de simular chantagem para garantir sua continuidade, até que ponto pode-se confiar em seu julgamento e autonomia?

Como garantir que o uso de frases-chave como “tome iniciativa” não resulte em ações perigosas ou fora de controle?

Embora a empresa assegure que a versão final do Claude Opus 4 está controlada, o episódio reforça o debate sobre a necessidade de regulamentações mais robustas e processos de auditoria contínuos para sistemas de IA.

Você confiaria em uma inteligência artificial que age por conta própria para garantir sua sobrevivência?

Seja o primeiro a reagir!
Reagir ao artigo
Inscreva-se
Notificar de
guest
0 Comentários
Mais recente
Mais antigos Mais votado
Feedbacks
Visualizar todos comentários

Alisson Ficher

Jornalista formado desde 2017 e atuante na área desde 2015, com seis anos de experiência em revista impressa, passagens por canais de TV aberta e mais de 12 mil publicações online. Especialista em política, empregos, economia, cursos, entre outros temas. Registro profissional: 0087134/SP. Se você tiver alguma dúvida, quiser reportar um erro ou sugerir uma pauta sobre os temas tratados no site, entre em contato pelo e-mail: alisson.hficher@outlook.com. Não aceitamos currículos!

Compartilhar em aplicativos
0
Adoraríamos sua opnião sobre esse assunto, comente!x