A Alphabet, empresa-mãe do Google, modificou suas diretrizes sobre o uso da inteligência artificial (IA) e eliminou a proibição de aplicações que pudessem “causar danos”, abrindo espaço para o desenvolvimento de tecnologias voltadas à segurança e defesa. A mudança foi criticada pela Human Rights Watch, que classificou a decisão como “extremamente preocupante” e alertou para os riscos de falta de responsabilização no uso militar da tecnologia. As informações são da rede BBC.
O grupo de direitos humanos destacou que a aplicação da IA no campo de batalha pode “complicar a prestação de contas” em decisões que “podem ter consequências de vida ou morte”. Segundo Anna Bacciarelli, pesquisadora sênior da organização, “um líder global da indústria abandonar as linhas vermelhas que estabeleceu para si mesmo sinaliza uma mudança preocupante, num momento em que precisamos mais do que nunca de uma liderança responsável em IA”.
A Alphabet justificou a revisão das diretrizes em um post assinado por James Manyika, vice-presidente sênior, e Demis Hassabis, CEO do Google DeepMind. No texto, a empresa argumentou que democracias devem liderar o desenvolvimento da IA, baseadas em valores como liberdade, igualdade e respeito aos direitos humanos.
“Acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntas para criar IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional”, afirmou a companhia.

Especialistas apontam que a IA já está sendo incorporada a estratégias militares em diferentes países, o que levanta preocupações sobre o uso de sistemas autônomos para tomada de decisões letais. Em janeiro, parlamentares britânicos mencionaram o impacto da IA na guerra na Ucrânia, destacando que a tecnologia oferece “vantagens significativas no campo de batalha”.
O aumento da presença da IA no setor de defesa também foi citado no último relatório do Relógio do Juízo Final, que mede o risco global de destruição da humanidade. O documento destacou que “sistemas que incorporam inteligência artificial no direcionamento militar já foram usados na Ucrânia e no Oriente Médio, e vários países estão avançando na integração da tecnologia às suas forças armadas”.
Limites para o uso de armas autônomas
A possibilidade de que máquinas possam tomar decisões militares sem supervisão humana direta tem sido alvo de críticas de ativistas e especialistas em segurança. Campanhas pedem que governos estabeleçam limites claros para o uso de armas autônomas e adotem regulações mais rígidas para o emprego da IA em conflitos.
A mudança nas diretrizes da Alphabet contrasta com a postura adotada pela empresa em 2018, quando, sob pressão de funcionários, o Google decidiu não renovar um contrato com o Pentágono para desenvolvimento de IA militar. À época, milhares de colaboradores assinaram uma petição contra o projeto conhecido como Project Maven, temendo que a iniciativa fosse um primeiro passo para a criação de armamentos autônomos.
A decisão de flexibilizar as regras ocorre em um momento estratégico para a Alphabet. Pouco antes da publicação do blog, a empresa divulgou seu balanço financeiro anual, que frustrou expectativas do mercado e impactou negativamente suas ações. Apesar do crescimento de 10% na receita com publicidade digital, impulsionada pelos gastos eleitorais nos Estados Unidos, os números ficaram abaixo do esperado pelos investidores.