top of page
Foto do escritorCyber Security Brazil

EUA e mais 30 países estabelecem acordo para o uso militar de IA.



Em 1º de novembro, na embaixada dos EUA em Londres, a vice-presidente dos EUA, Kamala Harris, anunciou uma série de iniciativas de IA, e seus alertas sobre a ameaça que a IA representa para os direitos humanos e valores democráticos chamaram a atenção das pessoas. Mas ela também revelou uma declaração assinada por 31 nações para estabelecer limites ao uso militar da IA. Ela compromete os signatários a usar revisões legais e treinamento para garantir que a IA militar esteja dentro das leis internacionais, desenvolver a tecnologia de maneira cuidadosa e transparente, evitar vieses não intencionais em sistemas que usam IA e continuar discutindo como a tecnologia pode ser desenvolvida e implantada de forma responsável.


"Uma abordagem baseada em princípios para o uso militar da IA deve incluir uma consideração cuidadosa dos riscos e benefícios, e também deve minimizar vieses não intencionais e acidentes", diz a declaração. Ela também afirma que os estados devem incorporar salvaguardas nos sistemas militares de IA, como a capacidade de desengajar ou desativar quando um sistema demonstra "comportamento não intencional".


A declaração não é legalmente vinculativa, mas é o primeiro grande acordo entre nações para impor limites voluntários à IA militar. No mesmo dia, a ONU anunciou uma nova resolução de sua Assembleia Geral que pede um estudo aprofundado sobre armas autônomas letais e poderia estabelecer os termos para restrições a tais armas.


Lauren Kahn, analista de pesquisa sênior do Centro de Tecnologia Emergente e Segurança (CSET) da Universidade de Georgetown, chama a declaração liderada pelos EUA de "incrivelmente significativa". Ela diz que poderia oferecer um caminho prático para um acordo internacional vinculativo sobre as normas de como as nações desenvolvem, testam e implantam IA em sistemas militares, fornecendo maiores salvaguardas e transparência em aplicações envolvendo sistemas de armas. "Eu realmente acredito que esses são acordos sensatos com os quais todos concordariam", diz Kahn.


A declaração não procura uma proibição de qualquer uso específico de IA no campo de batalha. Em vez disso, concentra-se em garantir que a IA seja usada de maneiras que garantam transparência e confiabilidade. Isso é importante, diz Kahn, porque os militares estão procurando usar a IA de diversas maneiras. Mesmo que restrita e supervisionada de perto, a tecnologia ainda poderia ter efeitos desestabilizadores ou perigosos.


Uma preocupação é que um sistema de IA com mau funcionamento possa fazer algo que desencadeie uma escalada nas hostilidades. "O foco em armas autônomas letais é importante", diz Kahn. "Ao mesmo tempo, o processo tem sido travado nessas discussões, que se concentram exclusivamente em um tipo de sistema que ainda não existe."


Algumas pessoas ainda estão trabalhando para proibir armas autônomas letais. No mesmo dia em que Harris anunciou a nova declaração sobre a IA militar, o Primeiro Comitê da Assembleia Geral da ONU, um grupo de nações que trabalha em desarmamento e proliferação de armas, aprovou uma nova resolução sobre armas autônomas letais.


A resolução pede um relatório sobre os desafios "humanitários, legais, de segurança, tecnológicos e éticos" levantados por armas autônomas letais e sugere contribuições de organizações internacionais e regionais, Comitê Internacional da Cruz Vermelha, sociedade civil, comunidade científica e indústria. Uma declaração emitida pela ONU citou o representante do Egito dizendo que "um algoritmo não deve estar no controle total de decisões que envolvam matar ou prejudicar seres humanos", após a votação.


"É um momento emocionante e monumental", diz Anna Hehir, gerente de programa de sistemas de armas autônomas no Instituto Futuro da Vida, uma organização sem fins lucrativos que faz campanha por uma proibição total de sistemas autônomos letais que visam humanos. "É um grande passo em direção a um instrumento legalmente vinculativo, o que o Secretário-Geral da ONU pediu para acontecer até 2026."


Militares ao redor do mundo têm há muito interesse em IA, mas a rápida implantação de novas tecnologias no campo de batalha na Ucrânia provocou um interesse renovado dos EUA e de outros. O Pentágono está experimentando a incorporação de IA em sistemas menores e mais baratos como uma maneira de aumentar sua capacidade de detectar ameaças e reagir rapidamente.


"Os sistemas que estamos começando a ver na Ucrânia são sem precedentes - é tecnologia que ainda não vimos antes", diz Hehir sobre o amplo uso de drones no conflito, incluindo alguns com IA para identificação de alvos. "Definitivamente é um campo de testes para diferentes tecnologias."


O ChatGPT ainda não parece ter sido convocado para o serviço militar, mas o recente florescimento da tecnologia de chatbot parece ter suscitado um debate renovado e mais sério sobre os riscos da IA militar. "A declaração política e a votação da ONU representam uma mudança bastante significativa no debate em torno de armas autônomas nos últimos anos", diz Paul Scharre, especialista em armas autônomas e diretor de estudos no Center for New American Security (CNAS), um think tank em Washington, DC.


Alguns sistemas autônomos já existem, incluindo sistemas defensivos a bordo de navios de guerra que podem atirar automaticamente em mísseis entrantes. Mas só houve alguns relatos de uso potencial de sistemas letais que incorporam IA moderna em conflitos armados. Um drone implantado durante.


Via - Wired

0 visualização0 comentário

Comments


bottom of page