A aplicação ascendente da inteligência artificial (IA) no campo militar está a transformar significativamente a maneira como os conflitos armados são conduzidos. O caso particular do desenvolvimento de armas autónomas, representa um dos maiores desafios éticos e securitários da atualidade. Armas autónomas são sistemas que podem identificar, selecionar e atacar alvos sem a intervenção humana direta, servindo-se de IA para tomar decisões em frações de segundos. Embora essas tecnologias ofereçam potenciais vantagens estratégicas, como a capacidade de realizar operações de precisão e reduzir o risco para os militares, também trazem uma série de riscos significativos, a começar pela imprevisibilidade das decisões tomadas por esses sistemas.
A IA, especialmente em cenários complexos e dinâmicos como o de um campo de batalha, pode não interpretar corretamente situações inesperadas, conduzindo a ataques a alvos errados ou a danos colaterais inaceitáveis, como o caso de civis. Outra questão, diz respeito ao risco da própria proliferação do uso de IA em armas, derivada da eventualidade de uma corrida armamentista onde Estados competem para desenvolver as armas autónomas mais avançadas do que os seus rivais. A lista continua quando pensamos sobre a possibilidade de essas armas autónomas poderem ser replicadas ou adquiridas por grupos terroristas e intensificar conflitos globais. Aliás, o acesso a uma tecnologia tão poderosa pode reduzir o limiar para o uso da força, tornando a guerra mais fácil e menos dispendiosa do ponto de vista humano. A própria remoção do fator humano no uso da força letal suscita preocupações sobre a responsabilidade moral. Se um sistema autónomo cometer uma atrocidade, então, quem seria responsabilizado? Quem desenvolve a IA, o comandante militar, a tecnologia em si?
Existe, no entanto, uma linha de pensamento oposta, focada na aplicação militar da IA para mitigar danos colaterais e proteger a vida de civis.
Ora, as operações militares modernas envolvem o processamento de enormes quantidades de dados, provenientes de diversas fontes, como imagens de satélites, drones e sensores terrestres. Os sistemas de IA são capazes de processar e analisar essas informações de forma muito mais rápida e precisa do que humanos, e assim identificar e diferenciar alvos militares de civis. Tal inclui a capacidade de reconhecer veículos, instalações e movimentos militares em tempo real, evitando que estruturas civis, como hospitais, escolas e áreas residenciais, sejam atacadas. Outra utilização benéfica da IA será a sua integração em drones e veículos autónomos, que podem ser usados para realizar missões de reconhecimento e monitorização em zonas de alto risco, sem a necessidade de expor as tropas militares humanas. Com base na análise de padrões de comportamento e movimento, os sistemas de IA podem alertar os militares para evitar ataques em determinadas áreas ou modificar as suas estratégias operacionais para evitar o impacto de danos indesejáveis em civis.
Apesar dos avanços significativos, ainda persistem desafios a serem superados, especialmente no que se refere à fiabilidade dos sistemas de IA e às implicações éticas do uso de máquinas para tomar decisões de vida ou morte. O recurso a IA na guerra para prevenir danos civis é tão positivo quanto os parâmetros desenhados pelos humanos que a orientam – e esses parâmetros refletirão as reais intenções e prioridades dos governos que recorram a esse sistema.
Bruno Castro é Fundador & CEO da VisionWare, e especialista em Cibersegurança e Investigação Forense.