Disputa entre governos e big techs mostra que a discussão sobre guerra e Inteligência Artificial já não é apenas tecnológica, mas política e ética
O avanço da Inteligência Artificial no campo militar abriu uma nova frente de debate global sobre quem deve estabelecer limites para o uso dessa tecnologia em conflitos armados. Diferentemente de outras inovações militares do passado, grande parte das ferramentas de IA hoje é desenvolvida inicialmente no setor privado, principalmente por grandes empresas de tecnologia, e só depois incorporada por governos.
Esse cenário cria uma situação inédita na história da guerra. Segundo o especialista em tecnologia e inovação Fernando Barra, autor do livro Inteligência Artificial Ampliada, as chamadas big techs passaram a ocupar um papel central no desenvolvimento dessas capacidades. “Hoje, grande parte da infraestrutura de dados, dos modelos e das plataformas de IA está concentrada em empresas privadas, que acabam se tornando fornecedoras estratégicas de tecnologia para governos”, explica.

Casos recentes envolvendo as empresas OpenAI e Anthropic em negociações com o governo dos Estados Unidos ilustram esse dilema. Enquanto algumas companhias tentam estabelecer limites éticos para o uso militar da tecnologia, como restrições relacionadas a armas totalmente autônomas ou vigilância em massa, autoridades governamentais defendem que essas capacidades podem ser essenciais para a segurança nacional.
Para Barra, o ponto central do debate é que a Inteligência Artificial está deixando de ser apenas uma ferramenta tecnológica e se consolidando como uma infraestrutura de poder geopolítico. “A grande questão não é apenas o que a IA consegue fazer, mas quem controla os sistemas que ela está ampliando”, afirma.
Esse cenário levanta uma discussão complexa: até que ponto empresas privadas devem ter poder para definir limites éticos para tecnologias que podem impactar segurança global? Ao mesmo tempo, deixar todas as decisões nas mãos de governos também gera preocupações sobre transparência, controle democrático e riscos de escalada militar.
Diante desse impasse, especialistas avaliam que o mundo pode caminhar para algum tipo de governança internacional sobre o uso militar da Inteligência Artificial, semelhante aos acordos globais que regulam armas nucleares ou químicas. A discussão ainda está em estágio inicial, mas tende a ganhar importância à medida que a tecnologia se torna cada vez mais central nas estratégias de defesa.
Para Fernando Barra, a questão que definirá o futuro da IA em conflitos não será apenas tecnológica, mas institucional. “O debate mais importante talvez não seja sobre as capacidades da tecnologia, mas sobre quem decide os limites e as direções do seu uso”, conclui.
Imagem: divulgação.