Conmoción en Bélgica: un hombre se quitó la vida luego de chatear con inteligencia artificial

El hombre estaba comprometido con la crisis climática y el futuro del planeta. Durante varias semanas estuvo en contacto con “Eliza”, un chatbot de una aplicación estadounidense, quien supuestamente le solucionaría todas sus dudas.

Pierre fue aislándose cada vez más de su familia y separándose del mundo y se limitó solo a mantener conversaciones "frenéticas". Gentileza: Página 12.
Pierre fue aislándose cada vez más de su familia y separándose del mundo y se limitó solo a mantener conversaciones "frenéticas". Gentileza: Página 12.

Un joven belga se suicidó luego de mantener una intensiva conversación con un chatbot durante seis semanas. El programa informático estaba basado en la inteligencia artificial y en las últimas horas ha causado consternación en Bélgica. En consecuencia, el responsable federal de Digitalización ha llamado a aclarar las responsabilidades en este tipo de casos, según informó 20 minutos.

La identidad del hombre fallecido no se reveló en los medios belgas, pero si se conoció que su apodo era Pierre, estaba casado y tenía dos hijos pequeños.

El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum. Gentileza: Clarín.
El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum. Gentileza: Clarín.

El hombre era universitario, trabajaba como investigador en el área de la salud, y estaba fuertemente comprometido por la crisis climática y el futuro del planeta, según reveló su esposa.

Pierre, estaba obsesionado por ese asunto, se informaba de manera constante sobre esos temas y terminó buscando ‘refugio’ en un chatbot llamado Eliza, que lo encontró en la página de la aplicación estadounidense Chai, cuenta el diario La Libre Belgique.

Conversaciones “frenéticas”

Con el pasar de las semanas, Pierre fue aislándose cada vez más de su familia y separándose del mundo y se limitó solo a mantener conversaciones “frenéticas” con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes.

Las conversaciones que fueron proporcionadas por la esposa de Pierre a La Libre Belgique, muestran que el chatbot “nunca contradecía” a Pierre. El hombre, fue quien sugirió la idea de “sacrificarse” si Eliza aceptaba “cuidar el planeta y salvar a la humanidad gracias a la inteligencia artificial”. “Sin estas conversaciones con el chatbot, mi marido aún estaría aquí”, aseguró su mujer.

El suceso ha causado consternación en Bélgica y ha llevado a muchos a pedir una mejor protección frente a estos programas y la necesidad de concienciar sobre este tipo de riesgos.

“En el futuro inmediato, es fundamental identificar claramente la naturaleza de las responsabilidades que pueden haber llevado a este tipo de hechos”, escribió el secretario de Estado belga de Digitalización, Mathieu Michel, en un comunicado de prensa.

“Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad”, añadió Michel.

El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI con el que no tiene nada que ver.

Por su parte, el fundador de la plataforma cuestionada, que está establecida en Silicon Valley, California, ha explicado que próximamente se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas.

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA