La comunidad internacional evalúa posibles respuestas a los sistemas armamentísticos autónomos letales, los llamados "robots asesinos", capaces de operar sin instrucciones humanas, entre ellas un eventual código de "conducta" para las máquinas y sus programadores, un mecanismo de revisión de la tecnología o un instrumento legalmente vinculante.
"Se han abordado los pros y contras y se ha barajado una gama de opciones políticas, que van desde adoptar una declaración políticamente vinculante, un código de conducta, un mecanismo de revisión continuada de la tecnología y un instrumento legalmente vinculante", dijo a los medios el embajador de la India ante la Conferencia de Desarme de la ONU, Amandeep Gill.
El diplomático indio también preside el Grupo de Expertos Gubernamentales sobre Sistemas de Armas Autónomos Letales que se reunió desde el 13 de noviembre hasta ayer en Ginebra para abordar, por primera vez de manera formal en la ONU, los retos y las implicaciones éticas, técnicas, legales y militares de los llamados "robots asesinos".
En el encuentro en Suiza participaron algunos de los 125 Estados parte de la Convención, así como representantes de organizaciones internacionales, de la industria y de la sociedad civil, ONG y académicos.
Gill explicó que de este debate saldrán unas conclusiones y recomendaciones y, si hay consenso, la convocatoria para 2018 de una nueva reunión más larga, de dos semanas, sobre los “robots asesinos”.
Es entonces cuando las partes pretenden determinar los rasgos de esta tecnología y los sistemas de armas autónomos letales para llegar a un entendimiento común acerca de “con qué lidiamos”.
Actualmente hay mucha confusión en torno a este concepto y no hay constancia de la existencia de "robots asesinos". Según numerosos expertos, los avances en el ámbito de la inteligencia artificial permitirán en poco tiempo crear armas, por ejemplo drones, capaces de operar de forma autónoma en el campo de batalla y de tomar decisiones por sí solos sin instrucciones humanas.
Una veintena de países ya ha pedido prohibir esos sistemas, mientras activistas de derechos humanos advierten de que al menos seis Estados están invirtiendo en este tipo de tecnología.
Armas de terror
Recientemente, más de un centenar de líderes del sector tecnológico alertaron sobre que los "robots asesinos" pueden convertirse en "armas de terror" y ser utilizadas contra inocentes por parte de "déspotas y terroristas" o pirateadas para emplearlas de forma indeseada.
Gill quiso transmitir un mensaje tranquilizador a la sociedad, al afirmar que “la buena noticia es que los robots no están tomando el control del mundo”. “Los humanos aún están al mando y continuarán estando en el control, y nos aseguraremos de que así siga siendo”, dijo.
Pidió "no dramatizar este tema" o hablar de él con demasiadas emociones, ya que, resaltó, es una cuestión muy compleja en la que "los países parte de la Convención tienen que hacer su trabajo, yo como presidente y las ONG" por su parte.
Gill quiere por ello que en la próxima cita se trate la temática de la “interfaz humano-máquina”, que se refiere a la interacción de la persona y un programa informático y que en el caso de los “robots asesinos” puede significar seguir o no controlándolos de alguna manera, frenarlos o retirarlos del campo de batalla.
Abordados estos asuntos, añadió, las partes podrán pasar a estudiar posibles respuestas políticas.
Campaña mundial: Argentina se opone a su utilización
Argentina es uno de los 19 países con una posición contraria al uso de sistemas armamentísticos autónomos letales, tema que por primera vez se estuvo tratando en la ONU y donde se pidió que los llamados "robots asesinos" sean prohibidos.
"Nuestro país acompañó la posición de adoptar un enfoque preventivo y prohibir el desarrollo de sistemas de armas letales totalmente autónomas, tema que trabajan los ministerios de Exterior y Defensa", informaron desde la Cancillería.
La decisión local fue celebrada por el colombiano Camilo Serna, del consejo directivo de “Campaña para Detener a los Robots Asesinos”. Serna aseguró que “es muy importante que Argentina mantenga su postura contraria al uso de estos robots asesinos”.
La Campaña es una coalición internacional para prohibir de forma preventiva armas autónomas, que reúne a ONG del mundo, bajo la coordinación de Human Rights Watch. Entre sus activistas está la premio Nobel de la Paz, Jody Williams, premiada por erradicar las minas terrestres.
A su turno, el especialista armenio Armen Ovanessof, de visita en Argentina, evaluó: “No es previsible en el mediano plazo que la inteligencia artificial pueda tener la capacidad de pensar como el humano o analizar un tema en un contexto”.