Alerta global. por que a IA da Antrópica está causando tanta ansiedade na indústria?

Alerta global. por que a IA da Antrópica está causando tanta ansiedade na indústria?

Mundo

antrópico, Uma empresa de inteligência artificial fundada por Dario Amodei e ex-membros da OpenAIdecidiu interromper a produção em massa do seu mais recente modelo experimental, Claude Mithosapós testes internos, constatou-se que o sistema é capaz de identificar e explorar milhares de vulnerabilidades críticas dos principais sistemas operacionais e navegadores da web do mundo.

07.04.2026 Anthropic revelou o desenvolvimento do Claude Mythos PreviewO modelo de IA com capacidades de cibersegurança é tão avançado que a empresa decidiu vetar o seu lançamento para o público em geral, considerando-o uma ameaça à segurança global.

A Anthropic apresentou o Opus 4.6, o mecanismo de IA por trás do chatbot ClaudeShterstok-Shutterstock

Esta é a primeira vez que uma empresa de IA admite publicamente o desenvolvimento de uma ferramenta cujo potencial destrutivo excede os limites que ela impôs a si mesma para trazê-la ao mercado.

Em apenas algumas semanas, o modelo encontrou milhares de vulnerabilidades em sistemas operacionais e navegadores que sobreviveram a milhões de testes automatizados e análises humanas ao longo dos anos, informou a empresa em comunicado oficial.

Por: Antrópicodurante avaliações de segurança, Claude Mithos “Milhares de vulnerabilidades críticas foram descobertas, incluindo algumas em todos os principais sistemas operacionais e navegadores da web”.

Esta é a primeira vez que uma empresa de inteligência artificial admite publicamente que a sua criação representa uma ameaça direta à segurança global.Imagem gerada por IA

A empresa alertou que algumas dessas falhas sobreviveram a “milhões de análises automatizadas” sem serem detectadas previamente.

Em comunicado oficial, a Anthropic observou:Os modelos de IA atingiram o nível de capacidade de codificação onde eles podem ser mais espertos que todos, exceto as pessoas mais qualificadas, para encontrar e explorar vulnerabilidades de software.”

O secretário do Tesouro, Scott Besant, e o presidente do Federal Reserve, Jerome Powell Representantes dos principais bancos de Wall Street foram chamados com urgência analisar o impacto potencial do Mythos na infraestrutura financeira conforme relatado Insider de negócios:.

Na primeira etapa, A Anthropic limitou a disponibilidade do modelo a um pequeno grupo de empresas de tecnologia e financeiras – incluindo Amazon, Apple e JPMorgan Chase no âmbito do chamado Project Glasswing, que visa fortalecer sistemas críticos até que modelos semelhantes estejam disponíveis no mercado aberto.

A cautela na empresa não é novidade. Em fevereiro de 2026, o lançamento de mais uma ferramenta de automação empresarial que criou a histórica bolsa de valores cabe a empresas de software, consultorias jurídicas e agências de publicidade, conforme noticiado. CNN em espanhol.

O próprio Amodei alertou que a inteligência artificial poderia substituir “metade de todos os cargos básicos de gestão nos próximos um a cinco anos”.

As preocupações não vêm apenas de fora. em fevereiro Adeus Sharma até então responsável pela área de segurança da Antrópica, Ele deixou a empresa e publicou uma carta de demissão declarando que “o mundo está em perigo”.citando não apenas os riscos da IA, mas “toda uma série de crises interligadas”, conforme reproduzido; País:.

O novo recurso de voz de Claude, IA da Anthropic

A saída de Sharma soma-se a outras demissões recentes na área e a um clima de tensão crescente sobre a ética do desenvolvimento de modelos avançados.

Existem relatórios paralelos Vox: e outras mídias Eles observaram que a Anthropic fez lobby em Washington para enfraquecer a legislação. que estabelecerá padrões de segurança para modelos de IA, contradizendo a sua posição original como empresa focada na responsabilidade tecnológica.

Estas controvérsias alimentam o debate sobre se as empresas de IA podem efectivamente auto-regular-se ou se é necessária a intervenção governamental.

O próximo passo dependerá de como prosseguirão as conversas entre a Anthropic, os reguladores e as empresas participantes do Projeto Glasswing.

Por enquanto, o Claude Mythos está disponível apenas em ambientes controlados enquanto a indústria aguarda definições de marcos legais para reger o desenvolvimento e implantação de modelos desta magnitude.

Este conteúdo foi produzido pela equipe LA NACION com suporte de IA.



Fonte da notícia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *