Este artigo foi publicado originalmente em inglês no site The Defense Post
Por Penelope Shaw
Do Exterminador do Futuro ao HAL 9000, “robôs assassinos” com inteligência artificial assustaram e entusiasmaram o público por anos.
Recentemente, os países transformaram essa ficção em realidade por meio do desenvolvimento de Sistemas de Armas Autônomas Letais (LAWS, da sigla em inglês). Um exemplo proeminente é o American Phalanx CIWS, um canhão Vulcan de 20 mm guiado por radar que ataca automaticamente ameaças que se aproximam de navios de combate no mar.
À medida em que mais países desenvolvem armas inteligentes capazes de destruição em massa, é imperativo criar e aplicar regulamentos para reger essas LAWS.
Responsabilidade Humana
Embora as LAWS atualmente funcionem sob parâmetros estritamente definidos em sua programação, o crescimento constante das capacidades de inteligência artificial levará à criação de LAWS mais poderosas que podem tomar decisões, aprender com elas e, potencialmente, ajustar sua codificação para reagir de novas maneiras.
LAWS pode identificar, selecionar e engajar alvos sem intervenção humana; eles têm o poder de fazer determinações de vida ou morte.
Para garantir que as LAWS cumpram as leis humanitárias internacionais, os humanos, especificamente os comandantes que destacam e os programadores que criam as armas, devem ser obrigados a aceitar a responsabilidade pelas LAWS em todos os momentos.
A exigência de responsabilidade humana pelas LAWS garante que os países mantenham a vantagem de tais armas de reduzir as fatalidades de não combatentes, ao mesmo tempo em que minimizam as violações das leis humanitárias internacionais.
Ao exigir que os humanos aceitem a responsabilidade em vez de banir totalmente as LAWS, os países ainda mantêm a maior capacidade das LAWS sobre os lutadores humanos para reduzir as vítimas civis e danos à propriedade.
Programação Ética
Os humanos têm se mostrado historicamente pobres em seguir as diretrizes éticas no campo de batalha devido aos altos níveis de estresse, ordens pouco claras, tropas jovens e muito mais. Dados esses fatores, esperar a adesão intransigente às leis humanitárias internacionais é irracional e inatingível.
Em contraste, as respostas não emocionais das LAWS, habilidades de sacrifício pessoal e processamento de dados superior podem reduzir significativamente as mortes de não combatentes. Os engenheiros podem programar LAWS para agirem das formas que os humanos considerem mais éticas.
Minimizar as atrocidades da guerra, como mortes de civis, é uma das maiores prioridades; portanto, embora uma consideração e pesquisa completas devam ser realizadas sobre as LAWS antes de implantá-las, sua capacidade de reduzir as atrocidades de guerra é inestimável.
Responsabilidade
É certo que alguns consideram os mecanismos legais existentes inadequados para lidar com as infrações das LAWS, tornando impossível responsabilizar uma parte. Eles deduzem que LAWS não podem ser responsabilizadas porque não têm intencionalidade por trás de suas decisões.
Eles também afirmam que comandantes e programadores humanos não podiam ser responsabilizados por causa da natureza totalmente autônoma das máquinas; para serem responsabilizados, os comandantes e programadores devem ter tido a intenção específica de cometer atos criminosos por meio do uso indevido ou adulteração da máquina.
No entanto, eles deixam de levar em conta a natureza específica das LAWS: prejudicar. Os programadores escolheram projetar e os comandantes escolheram implantar uma arma, e sua decisão de construí-la e usá-la na guerra os torna responsáveis. Em uma situação de mau funcionamento de LAWS, eles e as LAWS são todos agentes e compartilham a responsabilidade.
Embora a responsabilidade do comandante/programador possa parecer injusta em algumas situações, esse alto nível de responsabilidade incentivará o uso de LAWS apenas em circunstâncias específicas e exaustivamente pesquisadas.