Especialista alerta para os riscos do desenvolvimento de aparelhos como o Predator, veículo aéreo não tripulado dos EUA
Especialista alerta para os riscos do desenvolvimento de aparelhos como o Predator, veículo aéreo não tripulado dos EUA

Carlos Teixeira
Radar do Futuro

“É hora de começarmos a nos preocupar com o dia em que os exércitos de robôs serão capazes de conduzir hostilidades com total autonomia, sem que os humanos os comandem.”  O alerta  é do russo Vasily Sychev, jornalista e perito em armas, em texto publicado no site  da Organização das Nações Unidas para a Educação, Ciência e Cultura.

A partir da análise de especialistas, ele conclui que os Sistemas Letais de Armas Autônomas (LAWS, na sigla em inglês) estão criando uma “Terceira Revolução” da guerra, depois da pólvora e das armas nucleares. A força predominante no processo é a inteligência artificial (IA) com o número crescente de aplicações nas áreas de segurança e militar.

A evolução baseada em tecnologias facilita as manobras no campo e pode salvar vidas quando as coisas dão errado. Também aumenta o desempenho dos exércitos, fornecendo aliados robóticos para combater forças inimigas. Mas o risco é real, confirmado pela influência predominante de interesses de exércitos na geopolítica global.

Ferramenta poderosa

Vasily Sychev assinala a importância da inteligência artificial no cenário atual. Muitas corporações ao redor do mundo estão conduzindo pesquisas científicas vitais no campo da IA. Até o momento, os resultados foram excelentes – a IA aprendeu a prever o risco de uma pessoa desenvolver diabetes com o uso de um smartwatch ou a diferenciar, com base em sua aparência, entre moles e certos tipos de crescimentos cancerígenos.

“Esta ferramenta poderosa, que ultrapassa a inteligência humana por uma das suas características mais importantes, a velocidade, também é de interesse para os militares”. Graças ao desenvolvimento de tecnologias de informática, os sistemas de armas do futuro se tornarão mais autônomos do que os que estão sendo usados ​​atualmente.

Por um lado, esse empoderamento, sem dúvida, fornecerá assistência valiosa aos combatentes. Por outro, trará sua parcela de desafios e riscos. Como o desencadeamento de corridas armamentistas entre países, ausência de regras e leis nas zonas de combate e irresponsabilidade na tomada de decisões.

Hoje, muitos empresários, formuladores de políticas e cientistas estão tentando proibir o uso de sistemas de armas autônomos, embora as autoridades militares insistam que, em combate, a decisão final – matar ou não matar – sempre será feita por um humano.

“Nós queremos acreditar nisso. Mas devemos lembrar que as armas nucleares – que nunca deveriam ter visto a luz do dia e que enfrentaram oposição desde a primeira fase de sua concepção – foram, todavia, bem e verdadeiramente usadas”, atesta o executivo.

Um assistente virtual

Como em todas as outras esferas da atividade humana, a IA pode facilitar e acelerar enormemente o trabalho no campo da segurança. Por exemplo, pesquisadores da Universidade de Granada (Espanha) estão desenvolvendo softwares que usam redes neurais para detectar pequenas armas – pistolas, metralhadoras e metralhadoras – em imagens de vídeo, quase instantaneamente e com grande precisão. 

Os modernos sistemas de segurança incluem um grande número de câmeras de vigilância cujos operadores simplesmente não podem visualizar todas as imagens. A IA é, portanto, muito útil para analisar essas imagens, detectando a presença de armas e informando agentes em tempo recorde.

Em outro exemplo, o Centro de Geospatial Intelligence, vinculado à  Universidade de Missouri, nos Estados Unidos desenvolveu um sistema de inteligência artificial capaz de identificar rapidamente e com precisão a localização de dispositivos de mísseis antiaéreos no satélite e imagens aéreas. A capacidade de pesquisa do sistema é até oitenta e cinco vezes mais rápida que a dos especialistas humanos.

Sergundo
Vasily Sychev ,para formar a rede neural subjacente a este sistema foram utilizadas fotografias que representam diferentes tipos de mísseis antiaéreos. Uma vez que o sistema foi treinado, testes foram realizados com um conjunto de fotos. Em apenas quarenta e dois minutos, o sistema encontrou noventa por cento dos dispositivos defensivos. Os especialistas humanos precisaram de sessenta horas de trabalho para resolver o mesmo problema, obtendo o mesmo resultado.

Aplicações complexas

Existem também aplicações mais complexas de IA. O Laboratório de Pesquisa do Exército dos EUA, por exemplo, está desenvolvendo um sistema de computador que analisa a resposta humana a uma determinada imagem. Será útil para analistas militares que precisam visualizar e sistematizar milhares de fotos e horas de gravações de vídeo. 

O princípio do sistema: a IA rastreia os olhos e a face da pessoa e compara as expressões faciais com as imagens que a pessoa está olhando. Se uma imagem chama a atenção da pessoa (o que significa que a expressão facial ou a direção do seu olhar muda), o software automaticamente a transfere para uma pasta temática.

Durante os testes, a um soldado foi mostrado um conjunto de imagens divididas em cinco categorias principais: barcos, pandas, frutas vermelhas, borboletas e lustres. Pediram-lhe para contar apenas as imagens da categoria em que ele estava interessado. As imagens rolavam a uma taxa por segundo.

No campo do combate

AI também pode ajudar soldados em combate. Na Rússia, por exemplo, o desenvolvimento do caça a jato de quinta geração Sukhoi Su-57 está em fase de conclusão. O avião poderia ser comissionado antes do final de 2018. O software do computador de vôo deste avião furtivo contém elementos de IA. 

Em voo, o avião de caça está constantemente analisando a qualidade do ar, sua temperatura, sua pressão e muitos outros parâmetros. Se o piloto tentar realizar uma manobra e o sistema “estimar” que a ação causará uma falha, o comando do piloto será ignorado. Se o avião der um giro, o mesmo sistema diz ao piloto como estabilizar o avião e recuperar o controle.

Enquanto isso, o Japão está desenvolvendo seu próprio caça de quinta geração. Seu protótipo de pesquisa, o X-2 Shinshin (“Spirit of the Heart” em japonês), fez seu primeiro voo em abril de 2016. Uma vasta rede de sensores, que analisará a condição de cada componente da aeronave e determinará qualquer dano que possa ocorrer, garantindo a sua “sobrevivência”.

Se, durante o combate, a asa ou cauda de uma aeronave estiver danificada, seu sistema de controle será reconfigurado de modo que sua manobrabilidade e velocidade permaneçam virtualmente inalteradas. O computador do caça japonês será capaz de prever a hora exata em que um elemento danificado irá falhar completamente, de modo que o piloto possa decidir continuar a luta ou retornar à base.

Segundo o jornalista, as inovações fazem da inteligência artificial ​​uma “dádiva de Deus” – se tal termo puder ser usado para armas e sistemas de combate. Um programa complexo capaz de resolver um problema em particular dez vezes mais rápido do que um humano pode não apenas facilitar o trabalho de uma aeronave de reconhecimento, um operador de drone ou um comandante do sistema de defesa aérea, mas também pode salvar vidas.

Ele seria capaz de resgatar membros da tripulação a bordo de um submarino em perigo (remotamente apagando incêndios em compartimentos abandonados por humanos) ou salvando pilotos de avião ou operadores de veículos blindados danificados.

Robôs assassinos

A velocidade de análise e a capacidade de aprender tornam a inteligência artificial atraente para sistemas de combate. Os militares, embora ainda não o admitam, provavelmente já estão tentados a criar sistemas de combate capazes de operar no campo de batalha de maneira totalmente autônoma. Portanto, armamentos capazes de identificar um alvo, abrir fogo nele, se movimentar e escolher as trajetórias ótimas. As armas podem inclusive garantir a própria segurança delas. 

Há alguns anos, as autoridades militares da China, Alemanha, Rússia, Estados Unidos e vários outros países anunciaram que a criação de sistemas de combate totalmente autônomos não era seu objetivo. Ao mesmo tempo, as forças militares notaram que tais sistemas provavelmente serão criados.

Em 2017, o Departamento de Defesa dos EUA concluiu e começou a implementar a Terceira Estratégia de Compensação. Envolve, entre outras coisas, o desenvolvimento ativo de tecnologias e conceitos da próxima geração e seu uso em futuras iniciativas militares.

No dia primeiro de setembro de 2017, o presidente russo Vladimir Putin declarou, em uma conferência pública em uma escola em Yaroslavl: “A inteligência artificial é o futuro, não apenas para a Rússia, mas para toda a humanidade. Vem com oportunidades colossais, mas também ameaças que são difíceis de prever hoje. 

Quem quer que se torne o líder nessa esfera, se tornará o governante do mundo ”. Ele acrescentou que seria“ altamente indesejável para qualquer um obter um monopólio. Assim, se nos tornarmos líderes neste campo, compartilharemos essas tecnologias com o mundo inteiro ”. Mas isso significa que não estamos no início de uma nova era de corridas armamentistas?

Na Terra, um número crescente de áreas é protegido de forma confiável por sistemas antiaéreos e antimísseis, monitorados por satélite e por sistemas não tripulados, e patrulhados por navios e aeronaves. Na mente dos militares, apenas sistemas de combate com IA poderão, em caso de guerra, penetrar nessas áreas fechadas e operar com relativa liberdade.

Hoje, já existem sistemas de combate capazes de detectar e classificar seus alvos, e de controlar o disparo de mísseis antiaéreos, como os avançados sistemas de mísseis de defesa terra-ar S-400 na Rússia. O Sistema de Combate Aegis da América, que controla o armamento de navios de guerra, funciona da mesma maneira.

Ao longo da zona desmilitarizada, na fronteira com a República Popular Democrática da Coreia, a República da Coreia colocou vários robôs militares SGR-A1 encarregados da vigilância. No modo automático, eles são capazes de abrir fogo contra o inimigo, embora não atire em pessoas que estão com as mãos para cima. No entanto, nenhum desses sistemas é usado pelos militares no modo automático.

Os mais recentes avanços no desenvolvimento da inteligência artificial possibilitam a criação de sistemas de combate que podem se movimentar. Assim, nos EUA, aviões não tripulados estão sendo desenvolvidos para voar atrás de aviões de combate operados por humanos e para alvos aéreos ou terrestres sob comando.

O sistema de controle de fogo do tanque T-14 russo da próxima geração, baseado na plataforma de esteira pesada universal Armata, será capaz de detectar autonomamente alvos e bombardeá-los até que sejam completamente destruídos. A Rússia também está trabalhando simultaneamente em uma família de robôs rastreados que poderão participar de combates com soldados humanos.

Para os exércitos, todos esses sistemas são chamados a executar várias funções básicas – o mais importante, destruir os alvos inimigos com mais eficiência e salvar as vidas de seus próprios soldados. Ao mesmo tempo, ainda não existem normas ou documentos legais internacionais para regulamentar o uso de sistemas de combate equipados com IA em guerra.

Ausência de regulamentações

Nem as Leis e Costumes da Guerra na Terra nem as Convenções de Genebra definir quais sistemas de IA podem ser usados ​​em combate e quais não podem. Nem existe legislação internacional que ajude a identificar os responsáveis ​​pelo fracasso de um sistema autônomo. Se um drone bombardeia civis de forma autônoma, quem será punido? Seu fabricante? O comandante do esquadrão ao qual foi atribuído? O Ministério da Defesa? A cadeia de potenciais culpados é muito longa e, como sabemos, quando há muitos culpados, ninguém é culpado.

Em 2015, o Instituto Futuro da Vida publicou uma carta aberta assinada por mais de 16.000 pessoas, alertando sobre as ameaças que os sistemas de combate baseados em IA representam para os civis, o risco de uma corrida armamentista e o perigo de um desfecho fatal para a humanidade. Foi assinado, nomeadamente, pelo empresário americano e fundador da SpaceX e Tesla, Elon Musk, o astrofísico britânico Stephen Hawking (1942-2018) e o filósofo americano Noam Chomsky. Em agosto de 2017, Musk liderou um grupo de 116 especialistas em IA para enviar uma petição às Nações Unidas, pedindo a proibição total do desenvolvimento e teste de armas ofensivas autônomas.

Esses especialistas acreditam que a criação de exércitos de robôs capazes de conduzir hostilidades de forma autônoma inevitavelmente levará ao surgimento de sentimentos de poder absoluto e impunidade entre eles. Assim, quando os seres humanos estão em uma situação de conflito, eles tomam decisões que incluem suas atitudes morais, sentimentos e emoções.

A observação direta do sofrimento dos outros ainda tem um efeito dissuasivo sobre o pessoal militar, mesmo que a compaixão e a sensibilidade acabem diminuindo entre os soldados profissionais. No caso da introdução generalizada de LAWS, cujos efeitos podem ser desencadeados simplesmente passando a tela de um tablet em outro continente, a guerra inevitavelmente se tornará nada mais que um jogo, com vítimas civis e militares reduzidas a números em uma tela .