Más de 50 importantes investigadores de Inteligencia Artificial (IA) anunciaron el miércoles un boicot a KAIST, la principal universidad de Corea del Sur, después de que abriera lo que llamaron un “laboratorio de armas de IA” en asociación con una de las compañías más grandes de dicha nación.
Los investigadores, con sede en 30 países, dijeron que se abstendrían de visitar KAIST, recibir visitantes de la universidad o cooperar con sus programas de investigación hasta que se comprometan a abstenerse de desarrollar armas de IA sin “control humano significativo”.
Representantes de KAIST, que abrió el centro en febrero junto a Hanwha Systems (uno de los dos fabricantes surcoreanos de municiones de racimo, también conocidas como bombas clúster) respondieron en cuestión de horas que “no tenían intención de participar en el desarrollo de sistemas letales de armas autónomas y/o robots asesinos”.
Por su parte, el presidente de la universidad, Sung-Chul Shin, dijo que la universidad era “significativamente consciente” de las inquietudes éticas con respecto a la IA.
“Reafirmo, una vez más, que KAIST no realizará actividades de investigación contrarias a la dignidad humana, incluidas armas autónomas que carecen de un control humano significativo”, agregó.
A su vez, dijo que el nuevo Centro de Investigación para la Convergencia de Defensa Nacional e Inteligencia Artificial se enfocaría en el uso de IA para sistemas de comando y control, navegación para grandes vehículos submarinos no tripulados, entrenamiento de aeronaves inteligentes y rastreo, así como reconocimiento de objetos.
Requiere mayor análisis
Toby Walsh, profesor de University of New South Wales, en Sydney, fue quien organizó el boicot. Dijo que la respuesta rápida de la universidad fue un éxito, pero que necesitaba hablar con todos los que firmaron la carta para evaluar si deben suspender el boicot. Agregó que la respuesta de la universidad agrega peso a las discusiones de la próxima semana sobre el tema.
Walsh destacó que no queda claro cómo se podría establecer un control humano significativo de un submarino no tripulado, uno de los proyectos de lanzamiento, cuando el mismo esté bajo el mar y no pueda comunicarse.
En una carta abierta anunciando el boicot, los investigadores advirtieron que si se desarrollan, las armas autónomas permitirán que las guerras se libren más rápido y a una escala mayor que nunca.
“Tendrán el potencial de ser armas de terror”, apuntaron.
Los expertos citaron prohibiciones efectivas sobre tecnologías de armas previas e instaron a KAIST a prohibir cualquier trabajo sobre armas letales autónomas y a abstenerse de usos de IA que pudieran dañar vidas humanas.
La carta, también firmada por expertos en aprendizaje profundo y robótica, fue presentada antes de la reunión del próximo lunes en Ginebra, donde 123 países miembros de la ONU debatirán acerca de los desafíos planteados por armas letales autónomas, que los críticos describen como “robots asesinos”.
Walsh dijo a Reuters que había muchos buenos usos potenciales de la robótica y la inteligencia artificial en el ejército, incluida la eliminación de los seres humanos de tareas peligrosas como la limpieza de campos minados. Sin embargo, fue enfático en que darle a una máquina la opción de decidir quién debe vivir cruza una clara línea moral.
“No deberíamos permitir que los robots decidan quién vive y quién muere”, puntualizó.