Governo Trump Recua e Revisará IAs da Google, Microsoft e x AI Antes do Lançamento
Governo Trump recua e revisará IAs de Google, Microsoft e xAI antes do lançamento. Mudança ocorre após susto com modelo Mythos da Anthropic. Leia a análise completa.
NOTÍCIAS
5/6/20263 min ler


O governo Donald Trump, que sempre se orgulhou de sua postura de não intervenção no Vale do Silício, acaba de promover uma guinada de 180 graus na política americana de inteligência artificial. A administração está finalizando acordos com Google DeepMind, Microsoft e xAI para garantir acesso antecipado e revisão governamental de novos modelos de IA antes do lançamento público, uma mudança sísmica que reescreve as regras do jogo para as big techs.
O estopim da mudança: o "Mythos" da Anthropic assusta o Pentágono
O catalisador dessa reviravolta tem nome e sobrenome: Claude Mythos, o novo modelo da Anthropic anunciado em abril. O sistema demonstrou uma capacidade tão extraordinária de identificar vulnerabilidades de segurança em softwares que a própria empresa se recusou a liberá-lo publicamente, temendo o impacto na área de cibersegurança. Autoridades americanas confirmaram que a NSA (Agência de Segurança Nacional) já está testando o Mythos, e o Pentágono avalia suas capacidades para usos militares e de inteligência.
Como vai funcionar na prática
Segundo informações do New York Times, a Casa Branca está debatendo uma ordem executiva para criar um grupo de trabalho conjunto entre governo e indústria. Esse grupo seria responsável por definir os procedimentos de revisão de novos modelos de IA, e o modelo em discussão segue a linha do Reino Unido, onde órgãos governamentais verificam se sistemas de IA atendem a padrões de segurança antes da liberação. Na última semana, autoridades da Casa Branca já se reuniram com executivos da Anthropic, Google e OpenAI para apresentar parte desses planos.
O Centro para Normas e Inovação em IA (Caisi), ligado ao Departamento do Comércio, será o órgão responsável pelas análises prévias. Chris Fall, diretor do Caisi, afirmou que "uma ciência de medição independente e rigorosa é essencial para compreender a IA de ponta e suas implicações para a segurança nacional".
Entre as propostas na mesa, está a criação de um processo de revisão que daria ao governo acesso prioritário aos modelos antes do lançamento público — sem necessariamente impedir sua liberação.
De "bebê lindo" a risco nacional: o contexto político
A guinada é particularmente dramática porque Trump sempre foi um entusiasta da desregulamentação. Em julho do ano passado, ele descreveu a IA como um "lindo bebê que nasceu", prometendo deixar a indústria prosperar sem interferência. Ao reassumir o cargo, rapidamente revogou as exigências de avaliação de segurança para modelos de IA que haviam sido estabelecidas pelo governo Biden.
Mas os ventos mudaram. Uma pesquisa do Pew Research Center já mostrava que 50% dos republicanos e 51% dos democratas estavam mais preocupados do que entusiasmados com o uso crescente de IA na vida cotidiana. O temor de um ataque cibernético devastador habilitado por IA — e as inevitáveis consequências políticas que isso traria — foi o empurrão final.
As big techs divididas: inovação versus segurança
A proposta de revisão prévia gerou divisão entre as empresas de tecnologia. Alguns executivos temem que uma supervisão excessiva possa desacelerar a inovação americana frente à China, enquanto outros reconhecem a necessidade de algum controle. Dean Ball, ex-conselheiro de IA do governo Trump e atualmente na Foundation for American Innovation, resumiu o dilema: o cenário exige equilíbrio — há poucas regras formais, mas também é preciso evitar regulação excessiva.
A situação é ainda mais complexa porque o governo Trump trava simultaneamente uma disputa com a Anthropic sobre um contrato de US$ 200 milhões com o Pentágono, envolvendo o uso de IA em operações militares. O impasse levou o Pentágono a designar a Anthropic como "risco da cadeia de suprimentos" — uma classificação que, na prática, exclui a empresa de contratos com o Departamento de Defesa.
O que isso significa para o futuro da IA
A decisão do governo Trump representa um ponto de inflexão histórico. Pela primeira vez, a maior potência tecnológica do mundo admite que modelos de IA de ponta são poderosos demais para serem lançados sem supervisão governamental. A medida sinaliza que a era da autorregulação da indústria de IA pode estar chegando ao fim — e que mesmo os governos mais liberais estão percebendo que a segurança nacional e a inovação precisam caminhar juntas.
Como apontou o The New York Times, a Casa Branca quer evitar a qualquer custo o impacto político de um ataque cibernético catastrófico facilitado por IA. E, para isso, está disposta a rever seus próprios dogmas ideológicos. Para as big techs, o recado é claro: desenvolvam à vontade, mas agora com o governo olhando por cima do ombro.
contato@universoia.net.br
