Lembra quando as empresas de tecnologia costumavam fingir que estavam acima da política? Que estavam apenas construindo coisas legais em garagens e não precisavam se preocupar com o negócio bagunçado de contribuições de campanha e PACs? Pois é, esses dias acabaram.
Anthropic, a startup de IA que passou os últimos anos se posicionando como a alternativa “responsável” à OpenAI, acaba de lançar o AnthroPAC. Isso mesmo— a empresa que não para de falar sobre segurança de IA e princípios constitucionais de IA agora tem seu próprio comitê de ação política. E eles estão planejando contribuições bipartidárias durante as eleições de meio de mandato para tanto legisladores atuais quanto candidatos políticos em ascensão.
Olha, eu não estou chocado. Eu só estou decepcionado com o quão previsível tudo isso é.
A Empresa de Segurança Fica Política
O AnthroPAC será financiado exclusivamente por doações de funcionários, que é a linha corporativa padrão para fazer isso parecer uma iniciativa popular. Mas vamos ser realistas sobre o que está acontecendo aqui. A Anthropic cresceu. Eles têm receita séria, concorrência séria e ameaças regulatórias sérias no horizonte. É claro que eles vão começar a jogar o jogo de Washington.
Este não é o primeiro rodeio deles também. Em fevereiro, a Anthropic gastou 20 milhões de dólares no Public First Action, um grupo lançado no ano passado para apoiar esforços de segurança em IA. Vinte milhões de dólares. Isso não é troco, mesmo para uma startup de IA bem financiada. Isso é uma declaração de intenções.
O Que Isso Realmente Significa
O que me incomoda sobre toda essa situação. A Anthropic construiu toda a sua marca sendo a empresa de IA ponderada e preocupada com a segurança. Eles publicam artigos sobre IA constitucional. Eles falam incessantemente sobre políticas de escalonamento responsáveis. Eles se posicionam como os adultos na sala.
E agora eles estão fazendo exatamente o que cada outro gigante da tecnologia faz quando cresce o suficiente: comprando influência política.
É hipócrita? Talvez. É necessário? Provavelmente. O ambiente regulatório de IA está uma bagunça no momento, e se você não está na mesa, você está no cardápio. Mas isso faz todos aqueles altos princípios de segurança parecerem um pouco mais com cópias de marketing e um pouco menos com convicções genuínas.
O Livro de Jogadas Bipartidário
A abordagem bipartidária é particularmente reveladora. A Anthropic não está escolhendo lados—ela está diversificando suas apostas. Eles querem amigos em ambos os lados do corredor porque sabem que a regulação da IA está chegando, e querem moldá-la em vez de deixá-la ser moldada para eles.
Inteligente? Absolutamente. Cínico? Também absolutamente.
Este é o mesmo livro de jogadas que cada grande empresa de tecnologia tem seguido. Começar com idealismo, crescer rápido, perceber que o governo está prestando atenção e, de repente, descobrir que contribuições políticas são apenas parte do negócio. O Google fez isso. A Meta fez isso. A Amazon fez isso. Agora a Anthropic está fazendo isso.
A Real Pergunta
A questão não é se a Anthropic deveria estar envolvida na política. Ela deveria. A regulação de IA é muito importante para ser deixada para pessoas que não entendem a tecnologia. A questão é se suas atividades políticas estarão alinhadas com seus princípios de segurança declarados ou se esses princípios irão silenciosamente ficar em segundo plano em relação aos interesses comerciais.
O AnthroPAC apoiará candidatos que realmente se importam com a segurança da IA ou apoiará candidatos que são amigáveis ao modelo de negócios da Anthropic? Aqueles 20 milhões de dólares para o Public First Action se transformarão em salvaguardas significativas ou serão usados para suavizar regulamentos que podem prejudicar o resultado financeiro?
Eu ainda não tenho respostas. Ninguém tem. Mas estou observando, e estou cético.
A Anthropic passou anos nos dizendo que eles são diferentes. Que se importam mais com a segurança do que com a velocidade, mais com princípios do que com lucros. Agora estão jogando os mesmos jogos políticos que todos os outros. Talvez isso seja apenas crescer na indústria de tecnologia. Talvez seja necessário ter um assento à mesa.
Mas com certeza faz aqueles sermões sobre segurança parecerem um pouco vazios.
🕒 Published: