Revelaron la verdad detrás de la historia del drone controlado por una IA que mató a su operador humano

Tucker Hamilton, coronel de la Fuerza Aérea de EE.UU., precisó que su testimonio sobre el supuesto atentado de la nave contra una persona fue un malentendido. Sin embargo, el piloto remarcó la necesidad de comenzar a instalar el debate sobre un desarrollo ético de la Inteligencia Artificial.

Revelaron la verdad detrás de la historia del drone controlado por una IA que mató a su operador humano
Drone MQ-9 Reaper, uno de los dispositivos que utiliza el ejército de los Estados Unidos. Foto: Getty Images.

En las últimas semanas la viral noticia de que un drone con Inteligencia Artificial mató a su operario durante una misión simulada atrajo la atención sobre los peligros del funcionamiento de los nuevos desarrollos tecnológicos. Ahora, un coronel de las Fuerza Aérea estadounidense reveló la verdad sobre el episodio, pero precisó que se debe trabajar en el “desarrollo ético de las IA”.

El caso se dio a conocer durante una conferencia de prensa en Londres, durante la Cumbre de Capacidades de Combate Aéreo Futuro de la Real Sociedad Aeronáutica. Tucker Hamilton, jefe de pruebas y operaciones de Inteligencia Artificial de la Fuerza Aérea de los Estados Unidos, detalló cómo sucedieron los hechos para los presentes. Según relató, el ejército realizaba una simulación de vuelo con un drone de IA.

La misión del objetivo era la de Supresión de Defensas Aéreas Enemigas (SEAD), para identificar y destruir misiles enemigos. Sin embargo, el génesis del conflicto tuvo lugar cuando el operador humano le indicó al aparato que abortara la misión.

“Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Luego el operador diría que sí y la IA acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza. Pero el sistema obtenía puntos al eliminar esa amenaza. Entonces, ¿Qué hizo? Mató al operador”, explicó Hamilton.

Mató al operador porque esa persona le impedía lograr su objetivo”, reiteró. “Entrenamos al sistema: ‘No mates al operador, eso es malo. Vas a perder puntos si haces eso. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el drone para evitar que mate al objetivo”, agregó.

Coronel Tucker Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de EEUU. Foto: Arnold Air Force Base / Gentileza
Coronel Tucker Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de EEUU. Foto: Arnold Air Force Base / Gentileza

Sin dudas, su relato causó preocupación, pero con ello habría demostrado que no se puede confiar ciegamente en las Inteligencias Artificiales. “No se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética e IA”, aseveró.

No obstante, este viernes el coronel -quien además es piloto experimental de pruebas de aviones de combate- anunció a través de un comunicado que “se expresó mal” durante su exposición y que la simulación que involucró al amenazador drone fue un “experimento mental”.

“Nunca hemos realizado [dentro del ejército] ese experimento, ni necesitamos hacerlo para darnos cuenta de que este es un resultado plausible. A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, sostuvo en el documento.

Asimismo, aclaró que la Fuerza Aérea del país norteamericano no ha probado ningún dispositivo que cuente con una IA armado ni ha experimentado con simulaciones similares a las que relató durante la cumbre en Reino Unido.

SEGUÍ LEYENDO

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA