Sempre houve uma linha em uma sociedade livre. O governo poderia punir o que você fez e às vezes regular o que você disse, mas isso não conseguiu entrar na sua mente. Suas crenças, dúvidas, convicções particulares eram somente suas. Nenhuma ordem judicial poderia obrigá-los. Nenhum mandado de busca poderia recuperá-los.
Essa linha está se movendo e a maioria das pessoas não percebe isso.
O debate sobre IA concentrou-se principalmente na vigilância e na fala, e só isso já deveria nos preocupar. A inteligência artificial tornará mais barato monitorar o que as pessoas dizem, rastrear o que as pessoas acreditam e criar perfis precisos de comunidades inteiras. Você não precisa proibir a fala para silenciá-la. Basta um sistema que esteja sempre observando.
Numa atmosfera assim, as pessoas começam a autocensurar-se. A pesquisa mostra isso consistentemente. Quando as pessoas sentem que estão sendo observadas, elas mudam o que dizem, muitas vezes sem perceber.
Mas os avanços tecnológicos não se limitam ao discurso.
A neurotecnologia, há muito tempo objeto de ficção científica, está se tornando uma realidade. A estimulação cerebral profunda trata a doença de Parkinson. A estimulação magnética transcraniana foi liberada pelo FDA para depressão, inclusive em adolescentes. As interfaces cérebro-computador estão sendo testadas em humanos e as empresas estão trabalhando em dispositivos que permitem às pessoas controlar a tecnologia com seus pensamentos.
Para pacientes com paralisia ou doença neurológica grave, este é um trabalho que muda vidas. Nada disso deve ser ignorado.
Mas as tecnologias desenvolvidas para o tratamento têm uma longa história de expansão para além da medicina. O EEG foi desenvolvido para diagnosticar epilepsia e agora é o motor por trás dos programas de atenção do consumidor. Os medicamentos desenvolvidos para a depressão e o TDAH tornaram-se ferramentas de produtividade para pessoas saudáveis. A estimulação cerebral profunda, desenvolvida para o Parkinson, está agora sendo estudada para melhorar o vício e a memória.
O padrão é familiar: uma tecnologia ganha confiança ao tratar o sofrimento real, e essa confiança leva-a a utilizações que nunca fizeram parte do acordo original. A neurotecnologia de consumo está atualmente seguindo esse caminho. E como qualquer outro tipo de dados pessoais, os dados cerebrais tornam-se valiosos quando se tornam úteis.
Uma vez valorizado, é recolhido, partilhado e utilizado de formas com as quais as pessoas nunca concordaram. Os incentivos tendem a empurrar em uma direção.
A coleta intrusiva e extensa de dados é uma coisa. Mas agora adicione a capacidade da IA de encontrar padrões em tudo isso.
A Primeira Emenda protege o seu direito à liberdade de expressão. Isso não garante que você se sentirá seguro ao fazê-lo. Num mundo onde tudo o que você diz pode ser registrado, analisado e vinculado a você, as pessoas estão prestando mais atenção.
A fala torna-se estreita. Os comentários são suavizados. A oposição desaparece ou é silenciada. Isto não é especulação. Como as pessoas se comportam quando sentem que estão sendo observadas?
A neurotecnologia abre uma frente nova e mais intensa neste problema.
Pesquisas recentes mostraram que aspectos da linguagem podem ser reconstruídos a partir de padrões de atividade cerebral. Outros trabalhos demonstraram a decodificação em tempo real da “fala interior”, e os próprios pesquisadores alertam para um possível uso indevido.
Nada disso está no nível da leitura da mente do consumidor. A lacuna entre o laboratório e a vida cotidiana ainda é significativa. Mas o caminho é suficientemente claro para que faça sentido colocar agora as questões jurídicas e constitucionais, antes que a tecnologia ultrapasse as leis que a regem.
Na minha opinião, a lei não está pronta.
O risco não é uma perda repentina de liberdade. Reverter algo é mais lento e mais difícil. A fala fica mais protegida. A crença se torna mais aparente. A leitura privada torna-se mais fácil.
A Quarta Emenda protege contra buscas irracionais, mas não foi construída para um mundo onde crenças e intenções possam ser inferidas a partir de sinais biológicos sem entrar numa casa ou tocar num dispositivo.
De forma mais ampla, os tribunais ainda estão a considerar o que fazer com os dados digitais. E os dados neurais ainda não fazem parte desta conversa. Mesmo onde existem leis de privacidade, elas tendem a concentrar-se nos dados que podem ser recolhidos e não no que pode ser entendido a partir dos dados já obtidos.
Esta lacuna torna-se importante quando a informação mais sensível não é o que alguém disse, mas o que um sistema de IA altamente inteligente deduziu de tudo o resto a que pode aceder.
A liberdade religiosa levanta uma preocupação que é negligenciada nesta discussão.
A liberdade de religião depende da liberdade de consciência. A Primeira Emenda protege não apenas o que as pessoas dizem publicamente, mas também o que acreditam, questionam e fazem em privado.
Para muitas tradições, esta vida interior não é uma observação secundária à prática religiosa. É o centro. Oração, intenção, dúvida – tudo isso acontece dentro da pessoa, não em uma plataforma pública.
O que acontece com essa liberdade preciosa quando a vida interior não é mais completamente privada?
As ameaças não têm necessariamente a ver com forçar você a revelar suas crenças. Algo mais silencioso e mais difícil de evitar: a possibilidade de que aquilo em que você acredita seja visível para empregadores, governos, seguradoras ou empresas simplesmente como um efeito colateral das ferramentas que você usa todos os dias. Ninguém deveria perguntar.
O sistema reconhece isso. É como ter uma conversa particular em casa e, no dia seguinte, encontrar um anúncio exibido em seus dispositivos direcionado ao mesmo assunto.
Este tipo de exposição cria uma pressão difícil de ver e difícil de combater, precisamente porque nunca há um momento em que algo esteja obviamente errado.
Pense em como isso parece na prática. Um funcionário muçulmano usa um aplicativo corporativo de bem-estar que monitora a frequência cardíaca e o estresse durante todo o dia de trabalho. Ele sai para orar. O aplicativo registra um padrão repetitivo: quietude, respiração lenta e atividade reduzida na tela cinco vezes ao dia. Ele nunca contou a ninguém sobre sua religião. Ele nunca precisou. O padrão fez isso por ele. É quase impossível saber se o seu empregador alguma vez agiu com base nesta informação. Esta revelação aconteceu sem o seu conhecimento e sem o seu consentimento.
Ou considere o seguinte: os pais que educam em casa contam com um currículo on-line que monitora as seleções de aulas, listas de leitura e quanto tempo os alunos gastam em diferentes disciplinas. Com o tempo, essas seleções formam um padrão claro: certos períodos da história são enfatizados, outros são ignorados, certos escritores retornam continuamente.
A partir disso surge um perfil: não apenas como a criança aprende, mas o que a família provavelmente acredita. Nenhuma pesquisa foi concluída. Nenhum anúncio foi feito. As conclusões vêm da acumulação, não da exposição. E uma vez que existam, podem viajar para além da plataforma, para além da família, para sistemas que os pais nunca pretendem informar.
É o tipo de exposição silenciosa que a lei nunca foi concebida para impedir, mas agora pode ser necessário. Alguns governos começaram a reagir. O Colorado agora trata os dados neurais como informações confidenciais, com proteções legais mais fortes. O Chile reconhece a privacidade subjetiva como um direito constitucional. Em 2023, a UNESCO adotou um quadro global sobre a ética da neurotecnologia.
Estes são estágios iniciais, mas são reais. Nos Estados Unidos, a conversa mal começou.
O risco não é uma perda repentina de liberdade. Reverter algo é mais lento e mais difícil. A fala fica mais protegida. A crença se torna mais aparente. A leitura privada torna-se mais fácil.
A lei ainda diz que você é livre. Mas a liberdade que existe apenas no papel, num mundo onde os nossos pensamentos são como os dados de outras pessoas, é muito mais tênue do que a base sobre a qual este país foi construído.
As sociedades livres sempre tiveram de traçar uma linha entre o que pode ser conhecido e o que deve permanecer pessoal. Durante a maior parte da nossa história, esta tem sido a linha da mente humana.
Agora vale a pena decidir se vamos mantê-lo aí.