sexta-feira, 28 de setembro de 2018

Combatentes e civis poderiam estar em maior risco em um campo de batalha dirigido por IA. #conflito


A guerra algorítmica está chegando. Os seres humanos devem manter o controle

A humanidade é confrontada com uma nova realidade grave - o surgimento de armas autônomas. Pode soar como um roteiro de Hollywood, mas o risco é real: humanos tão distantes das escolhas de guerra que a tomada de decisões de vida ou morte é efetivamente deixada para os sensores e o software.

Que tipo de futuro se aproxima se a tomada de uma vida humana é relegada a algoritmos? Os robôs e os sistemas de computador não têm a capacidade humana única e distinta de entender o ambiente complexo em que estão operando e as armas que estão usando. Além disso, os sistemas de armas mais complexos estão - por exemplo, incorporando aprendizado de máquina - e quanto maior a liberdade que eles recebem para agir sem intervenção humana, mais imprevisíveis são as conseqüências em seu uso.

Nós do Comitê Internacional da Cruz Vermelha acreditamos que a responsabilidade pelas decisões de matar, ferir e destruir deve permanecer com os humanos. É o soldado ou lutador humano - não uma máquina - que entende a lei e as conseqüências de violá-la, e quem é responsável por aplicá-la. Essas obrigações não podem ser transferidas para um programa de computador. Os governos - com a contribuição da sociedade civil e da indústria de tecnologia - não devem perder tempo em concordar com limites à autonomia em sistemas de armas.

Os avanços tecnológicos representam grandes oportunidades. Seja nas áreas de medicina, transporte, agricultura, comércio, finanças ou virtualmente qualquer outro domínio, robótica, IA e aprendizado de máquina estão tendo um efeito transformador ao avançarmos na forma como analisamos e atuamos sobre dados do mundo ao nosso redor. Faz sentido que essa tecnologia seja considerada para fins de segurança nacional e defesa, e é por isso que não é surpresa vermos muitos países investirem pesadamente em IA e em sistemas robóticos militares com maior autonomia.

Mas quando se trata de conflito armado, não podemos esquecer que até as guerras têm limites. Os governos que devem agora definir os limites para os sistemas de armas autônomos precisam garantir o cumprimento do Direito Internacional Humanitário e estar firmemente enraizados nos princípios da humanidade e nos ditames da consciência pública.

A boa notícia é que quando o Grupo de Peritos Governamentais encarregado de examinar sistemas de armas autônomos se reuniu em abril deste ano em Genebra, na Suíça, havia um amplo consenso de que o controle humano deve ser mantido sobre os sistemas de armas.

De certa forma, essa é a parte fácil. Em sua próxima reunião, no final de agosto, os governos devem agora basear-se neste acordo para responder à pergunta mais difícil: que nível de controle humano é necessário para assegurar tanto a compatibilidade com nossas leis quanto a aceitabilidade de nossos valores?

A resposta para isso é importante porque alguns sistemas de armas com autonomia em suas “funções críticas” de selecionar e atacar alvos já estão em uso em circunstâncias limitadas para tarefas muito específicas, como derrubar foguetes ou mísseis. Após a ativação por um operador humano, é o sistema de armas que seleciona um alvo e lança um contra-ataque.

No entanto, o escopo de possíveis futuros sistemas de armas baseados em IA é muito mais amplo. Ele engloba toda a gama de sistemas robóticos armados e, potencialmente, baseia-se na tecnologia de sistemas de “auxílio à decisão” da IA ​​já em fase de testes, que analisam os feeds de vídeo e detectam possíveis alvos.

Com novos avanços acontecendo em um ritmo alucinante, os governos - com o apoio da comunidade científica e técnica - devem tomar medidas urgentes para chegar a um acordo sobre os limites que preservarão o elemento humano crucial, sem sufocar ou retardar o progresso tecnológico que traz benefícios óbvios.

A alternativa é a perspectiva profundamente enervante de uma nova corrida armamentista e um futuro onde as guerras são travadas com algoritmos, com resultados incertos para civis e combatentes.

TRADUÇÃO DE:

Algorithmic warfare is coming. Humans must retain control




VER TAMBÉM:

9 questões éticas principais em inteligência artificial