Una nueva ronda de conversaciones sobre el uso de los llamados "robots asesinos" se reabrió en Naciones Unidas, con el foco puesto en la definición de las características de las armas letales autónomas.
La ONU organizó las primeras negociaciones sobre robots asesinos el año pasado y acordó seguir adelante, aunque la elaboración de un tratado que rija el uso de tales armas sigue siendo una perspectiva lejana.
Los activistas denuncian que pronto se desplegarán armas capaces de usar fuerza letal sin que un humano dé la orden y criticaron al organismo de la ONU que organiza las conversaciones -la Convención sobre Ciertas Armas Convencionales (CCW)- por avanzar demasiado despacio.
Pero saludaron la reanudación de las conversaciones de la ONU.
"Es un debate mucho más enfocado ahora", consideró Richard Moyes, cofundador de la Campaña para Parar Robots Asesinos y miembro de la Campaña Internacional para Abolir las Armas Nucleares, ganadora del Nobel de la Paz en 2017.
Para Moyes es crucial que los Estados estén de acuerdo en que un humano que use cualquier arma "tiene que saber dónde y cuándo va a aplicar realmente la fuerza".
El número de Estados que han pedido una rotunda prohibición de los robots asesinos ha aumentado, mientras las preocupaciones en el sector privado y académico han crecido debido a la amenaza que representan las armas que dependen totalmente de la inteligencia artificial para decidir a quién matar.
Pero los Estados que tienen las armas autónomas más avanzadas -principalmente Estados Unidos, China, Rusia e Israel- no se han comprometido ante ningún tipo de mecanismo vinculante que restrinja su uso.
Las conversaciones de la CCW están siendo dirigidas por el embajador de desarme indio, Amandeep Gill, quien comentó que las dos semanas, hasta el 20 de abril, se centrarían, en parte, en el "tema de la caracterización", lo que significa trabajar en una definición de armas autónomas.
"Estamos luchando y lo estamos haciendo por una buena razón, porque estos son temas complejos", dijo a los periodistas la semana pasada.
Moyes concedió que no saldrá nada concreto en la reunión de abril pero los activistas esperan que, con dos sesiones más programadas este año, los Estados acepten pasar a negociaciones formales sobre un tratado vinculante.
Escenarios apocalípticos
Expertos internacionales alertaron en un informe sobre los riesgos de un uso malintencionado de la inteligencia artificial por parte de "Estados corruptos, de criminales o de terroristas" en un futuro cercano.
Según ellos, en la próxima década, la eficacia creciente de la inteligencia artificial (IA) podría reforzar la cibercriminalidad y conducir al uso de drones o robots con fines terroristas.
Este extenso informe de 100 páginas fue redactado por 26 expertos especialistas en IA, ciberseguridad y robótica de prestigiosas universidades (Cambridge, Oxford, Yale, Stanford) y organismos no gubernamentales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).
"Creemos que los ataques que serían posibles por el uso creciente de la IA serán particularmente efectivos, finamente dirigidos y difíciles de atribuir", advierten.
Para ilustrar sus temores, estos especialistas mencionan varios "escenarios hipotéticos de usos malintencionado de la IA". Explican por ejemplo que terroristas podrían alterar los sistemas de IA disponibles en los comercios (drones o vehículos autónomos) para causar accidentes o explosiones.
Los autores imaginan también casos de robots de limpieza traficados que se colarían entre otros robots encargados por ejemplo de la limpieza de un ministerio.
Un día, el intruso podría atacar tras localizar visualmente al ministro. Se acercaría a él y se haría estalla.
La advertencia de Stephen Hawking
No es la primera vez que expertos lanzan una señal de alarma sobre la IA. En 2014, el fallecido astrofísico Stephen Hawking advirtió sobre los riesgos que la inteligencia artificial podría hacer correr a la humanidad si supera la inteligencia humana. El empresario Elon Musk y otros también han multiplicado las advertencias.
También se han publicado informes sobre el uso de drones asesinos o sobre la manera en la que la IA podría afectar a la seguridad de países como Estados Unidos.
Este nuevo documento aporta "un panorama general sobre la manera en la que la IA crea nuevas amenazas o cambia la naturaleza de las amenazas existentes en campos como la seguridad digital, física o política", explica Seán Ó hÉigeartaigh, director de estudios sobre Inteligencia Artificial en Cambridge.
La inteligencia artificial, que apareció en los años 1950, se basa en algoritmos sofisticados que permiten resolver problemas que los humanos resuelven utilizando sus capacidades cognitivas.
En los últimos años se han hecho progresos enormes en los campos relacionados con la percepción, el reconocimiento de voz y el análisis de imágenes.
"Por el momento sigue habiendo una brecha significativa entre los avances de la búsqueda e investigación y sus posibles aplicaciones. Es el momento de actuar", dijo Miles Brundage, encargado de investigación del Future of Humanity Institute de la Universidad de Oxford. Agencias