En las últimas semanas la viral noticia de que un drone con Inteligencia Artificial mató a su operario durante una misión simulada atrajo la atención sobre los peligros del funcionamiento de los nuevos desarrollos tecnológicos. Ahora, un coronel de las Fuerza Aérea estadounidense reveló la verdad sobre el episodio, pero precisó que se debe trabajar en el “desarrollo ético de las IA”.
El caso se dio a conocer durante una conferencia de prensa en Londres, durante la Cumbre de Capacidades de Combate Aéreo Futuro de la Real Sociedad Aeronáutica. Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, detalló cómo sucedieron los hechos para los presentes. Según relató, el ejército realizaba una simulación de vuelo con un drone de IA.
La misión del objetivo era la de Supresión de Defensas Aéreas Enemigas (SEAD), para identificar y destruir misiles enemigos. Sin embargo, el génesis del conflicto tuvo lugar cuando el operador humano le indicó al aparato que abortara la misión.
“Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Luego el operador diría que sí y la IA acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza. Pero el sistema obtenía puntos al eliminar esa amenaza. Entonces, ¿Qué hizo? Mató al operador”, explicó Hamilton.
“Mató al operador porque esa persona le impedía lograr su objetivo”, reiteró. “Entrenamos al sistema: ‘No mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”, agregó.
Sin dudas, su relato causó preocupación, pero con ello habría demostrado que no se puede confiar ciegamente en las Inteligencias Artificiales. “No se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”, aseveró.
No obstante, este viernes el coronel -quien además es piloto experimental de pruebas de aviones de combate- anunció a través de un comunicado que “se expresó mal” durante su exposición y que la simulación que involucró al amenazador drone fue un “experimento mental”.
“Nunca hemos realizado [dentro del ejército] ese experimento, ni necesitamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, sostuvo en el documento.
Asimismo, aclaró que la Fuerza Aérea del país norteamericano no ha probado ningún dispositivo que cuente con una IA armado ni ha experimentado con simulaciones similares a las que relató durante la cumbre en Reino Unido.