Os principais pesquisadores boicotam a Universidade Coreana por trabalhar em “robôs assassinos” – senha do Bitcoin

Mais de 50 investigadores experientes em AI e robótica disse que eles desenvolvem a Universidade KAIST na Coreia do Sul, em detrimento dos planos das armas Institute, KI-alimentados, iria boicotar. A ameaça foi anunciada antes de uma conferência da ONU marcada para ocorrer em Genebra na próxima semana para discutir as restrições internacionais aos chamados “robôs assassinos”. Ele marca uma escalada de táticas pela comunidade científica que está lutando ativamente por controles mais fortes. ,

O boicote foi organizado pelo professor Toby Walsh, da Universidade de New South Wales, que apontou em um comunicado de imprensa que a corrida já começou a construção de armas autônomas. “Podemos ver protótipos de armas autônomas desenvolvido hoje por muitos países, incluindo os Estados Unidos, China, Rússia e Reino Unido “, disse Walsh.


“Estamos trancados em um corrida armamentista que ninguém quer chegar. As ações do KAIST só vão acelerar corrida armamentista. Nós não podemos tolerar isso. “

Os signatários do boicote incluem alguns dos melhores pesquisadores de AI do mundo, incluindo os professores Geoffrey Hinton, Yoshua Bengio e Jügen Schmidhuber. O boicote proibiria qualquer contato e colaboração acadêmica com o KAIST até que a universidade esteja confiante de que as armas que ele desenvolveu terão “controle humano significativo”.

O gatilho para essa ação foi o anúncio da KAIST em fevereiro passado para estabelecer um centro de pesquisa conjunto com a firma sul-coreana de defesa Hanwha Systems. De acordo com o The Korean Times, o objetivo do centro é “desenvolver tecnologias de inteligência artificial (IA) que possam ser aplicadas a armas militares” que “procurem e eliminem alvos sem alvos”. controle humano.”

Mas de acordo com um relatório do Times Higher Education, disse o presidente KAIST Sung-Chul Shin, ele estava “entristecido” com a ameaça de boicote e nega que a Universidade desenvolve sistemas de armas autônomas. “Como uma instituição acadêmica, valorizamos os direitos humanos e as normas éticas em um nível muito alto. KAIST não irá executar violam os direitos humanos a actividade de investigação, incluindo armas autônomas Falta de controle humana significativa “disse ele. O organizador do boicote, Walsh disse o Times Higher Education que ele deve consultar o seu co-signatário sobre o caminho a seguir, acrescentando que a resposta da KAIST ainda” algumas questões não respondidas ” deixe para trás.

A parceria da KAIST com a Hanwha reúne duas das maiores organizações militares e robóticas do mundo. O KAIST é uma universidade de pesquisa de renome mundial conhecida por seu trabalho, como o robô de transformação DRC-HUBO, que ganhou o DARPA Robot Challenge 2015.

A Hanwha Systems é agora a filha de defesa do poderoso Hanbha Chaebol na Coréia do Sul. Hanwha já está se desenvolvendo. envolvido armas autônomas como o guarda SGR-A1, que foi supostamente usado na fronteira entre a Coréia do Norte e a Coréia do Sul. A empresa também produz bombas de fragmentação que são proibidas por um tratado internacional (embora muitas nações incluam a proibição, incluindo a Coréia do Sul, os Estados Unidos, a Rússia e a China). A pesquisa do robô KAIST é respeitada internacionalmente, incluindo o trabalho de desenvolvimento do robô DRC HUBO. Foto de Chip Somodevilla / Getty Images

Anteriormente, altos funcionários da AI e robótica da ONU escreveram que armas que matam sem intervenção humana poderiam desestabilizar o mundo e ser controladas por um tratado internacional. Isso recebeu apoio internacional, com 19 países, incluindo Egito, Argentina e Paquistão, apoiando essa iniciativa. Mas outros países, como os Estados Unidos e o Reino Unido, argumentam que tal legislação seria impraticável devido à impossibilidade de definir o que é constituído ou não. controle humano. Muitos sistemas já possuem algumas capacidades autônomas, incluindo drones e redes antimísseis.

Para Walsh e outros, entretanto, o perigo é grande demais para ser complacente. “Quando desenvolvidas, as armas autônomas podem […] permitir que ela combata a guerra mais rapidamente e em maior escala do que nunca”, disse Walsh em um comunicado à imprensa. “Esta caixa de Pandora será difícil de fechar quando estiver aberta.”