Uma partida importante foi realizada na semana passada. Não foi entre Washington DC e Teerão e o Congresso e os Clinton por causa dos casos Epstein. Foi entre Entrópico e Pentágono.
A Anthropic é uma das maiores empresas de IA, um desenvolvedor de IA em nuvem que é mais capaz do que alguns outros produtos de IA como o ChatGPT, pelo menos em algumas dimensões. Tão capaz, de facto, que embora o Pentágono tenha protegido as suas apostas com mais do que um produto de IA, a Cloud é um que aparentemente já demonstrou o seu valor ao Departamento de Guerra. Ou seja, os sistemas Palantir usaram-no para ajudar a expulsar Nicolás Maduro.
Isto pode parecer uma situação em que todos ganham: grandes dólares para a Antrópica e grandes capacidades para o Departamento de Guerra. Mas o chefe da Entropic, Dario Amudi, traçou limites. Ele disse ao Departamento de Guerra que não poderia continuar a usar a nuvem, a menos que o Pentágono estivesse disposto a garantir que ela não seria usada na vigilância doméstica ou em sistemas de armas não tripulados de IA.
De forma reveladora – e assustadora – o Departamento de Guerra disse que não estava disposto a obedecer. Sexta-feira foi o prazo que o Pentágono estabeleceu para a Anthropic fornecer à Entropic o equivalente IP de domínio eminente ou potencialmente enfrentado – invocando a Lei de Produção de Defesa, que força a Anthropic a fornecer ao Departamento de Guerra o que deseja.
Por outro lado, o Pentágono poderia colocar a Entropic no seu bolso ao declarar um risco na cadeia de abastecimento, o que o impediria de fazer mais negócios. É um pouco contraditório considerar a nuvem essencial para o trabalho do Departamento de Guerra e algo perigoso demais para usar, mas tanto faz.
A Antrópico disse ao Departamento de Guerra para bater na areia.
Logo após a troca, o presidente Donald Trump recorreu às redes sociais para dizer à Anthropic que o governo não usaria mais a nuvem. O Pentágono decidiu pela designação de “risco da cadeia de abastecimento” e, uma hora depois, os advogados da Anthropic preparavam-se para processar o governo federal.
A OpenAI então interveio e perdeu a conta Antrópica do Pentágono, mas eles disseram que o seu acordo com o Pentágono garante que os produtos da OpenAI não podem ser usados em operações de vigilância doméstica. Dado o ultimato do Pentágono à Entropic, a OpenAI tem dificuldade em explicar como isso é possível. Para citar o ex-chefe de pesquisa política da OpenAI, “A suposição padrão da equipe da OpenAI aqui, infelizmente, é que a OpenAI se retirou e enquadrou-a como não cedendo”.
A narrativa retrata o antrópico como protagonista. A reação imediata de alguém, como foi a minha, foi admirar Entropy por sua postura de princípios. Que incrível que uma grande empresa de IA com alguma moral e uma visão mais ampla esteja ao lado de suas contas bancárias!
E então percebi o quão ridícula era toda a situação e parei de comemorar.
A Anthropic, quase por definição, pratica as piores formas de saque, assim como todas as grandes empresas de IA. Vamos contar as maneiras
O grande modelo de negócios da IA é vender às empresas produtos que lhes permitam demitir mais funcionários. Nunca ficou claro exactamente como é que uma sociedade como esta, onde só existem empregos fisicamente exigentes, sobreviverá economicamente.
Como administrar uma sociedade onde a renda do trabalho é zero é incompreensível. Elon Musk aparentemente pensa que todos nós relaxaremos em nosso tempo livre quando estivermos ociosos. Mas basta perguntar aos funcionários de Jack Dorsey como eles se sentem em relação à recente demissão em massa de 40% da força de trabalho de sua empresa, em antecipação a uma substituição da IA.
A grande IA também quer seu poder, água e terra – em quantidades enormes e até obscenas. E se o nosso país não tolerar isso, eles vão tirar isso dos países mais pobres. Sentindo um alarme crescente, Trump prometeu no seu discurso sobre o Estado da União que a grande IA deveria garantir que os preços da electricidade não subissem para outros consumidores.
A grande IA também não quer que os governos a regulem e recrutou o governo federal para fazer o seu trabalho sujo. Recentemente, o governo federal disse a um legislador de Utah que seu projeto de lei estadual perfeitamente razoável, oferecendo poucas regulamentações, era um fracasso e que ele deveria desistir e parar de tentar. Todas as grandes empresas de IA, incluindo a Anthropic, têm agora PACs que contribuem ativamente para as campanhas desses candidatos, em linha com as suas posições sobre regulamentação.
Há questões maiores em jogo aqui do que candidatos e redes elétricas. A grande IA quer realizar gratuitamente qualquer trabalho criativo produzido por humanos. A Big AI quer despir você sem o seu consentimento. A grande IA quer enganar você visualmente. A grande IA espera um dia ler seus pensamentos. Os últimos resquícios de privacidade que restaram em sua mente e em seu coração devem ser destruídos.
A grande IA aparentemente quer que você, e especialmente seus filhos, seja tão dependente cognitiva e emocionalmente dela que não será mais capaz de passar a vida sem conhecê-la e cuidar dela. A grande IA está bem intencionada em criar um mundo onde não podemos nem acreditar nos nossos olhos ou ouvidos, e o conceito de verdade não tem mais referências sensoriais.
Em suma, a grande IA é indiferente a um mundo onde os humanos são redundantes. É claro que aqueles que dirigem a grande IA nunca se tornam redundantes. Eles serão uma nova espécie de homem, rica e poderosa. O resto de nós seremos Morlocks para seu Eloi.
Tudo isto apesar do facto de Dario Amudi, da Entropic, ter deixado bem claro, através de uma série de artigos notáveis, que realmente pensou sobre estes riscos. Ele pensou neles e então – aparentemente em nosso nome – decidiu que estava bem com eles.
Portanto, poupe-me do enquadramento heróico entrópico do Pentágono. Não pense por um segundo que a Anthropic ou qualquer uma das grandes empresas de IA pensam sobre o resto de nós, a não ser como seus produtos podem roubar completamente nossas vidas. Se você acha que o pedido do Pentágono é assustador, pense novamente no que a grande IA está pedindo – a todos nós.