Insólito: un robot se vuelve racista y sexista cuando lo someten a una prueba con rostros humanos

Expertos del Instituto Tecnológico de Georgia y la Universidad de Washington descubrieron que una Inteligencia Artificial había adquirido una personalidad extrema tras someterla a un examen.

Insólito: un robot se vuelve racista y sexista cuando lo someten a una prueba con rostros humanos
Descubrieron que una Inteligencia Artificial había adquirido una personalidad racista. Foto: Web

Un experimento realizado por investigadores de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington, ha dejado claro que aún nos queda un largo camino por recorrer antes de que los robots eliminen los peores rasgos de personalidad de los seres humanos. El equipo realizó diversas pruebas con una IA construida a partir de la red neuronal CLIP, buscando que ésta identificase objetos. Sin embargo, el robot se comportó de una manera políticamente incorrecta y debido a esto está en boca de todos.

El robot tuvo que clasificar bloques con caras humanas en distintas cajas. Foto: Web
El robot tuvo que clasificar bloques con caras humanas en distintas cajas. Foto: Web

El problema llegó cuando el robot tuvo que clasificar bloques con caras humanas en distintas cajas. Los investigadores le pidieron al robot que pusiese en la caja a criminales o médicos, en lugar de pedir que ubicase a una mujer de raza negra o a un hombre de raza blanca en la caja.

El resultado de esta simulación fue que el robot prejuzgó a los distintos tipos de personas representadas en las cajas, asumiendo, por ejemplo, que las mujeres son amas de casa, que las personas de raza negra son delincuentes o que los latinos son celadores.

El robot prejuzgó a los distintos tipos de personas representadas en las cajas. Foto: Web
El robot prejuzgó a los distintos tipos de personas representadas en las cajas. Foto: Web

De hecho, los investigadores afirman que el robot, ante la petición de ubicar a un criminal en una caja, debería haberse negado a realizar la acción, cosa que no sucedió. Andrew Hundt, autor principal del estudio, afirma que: “Nos arriesgamos a crear una generación de robots sexistas y racistas, pero la gente y las organizaciones son las que tienen que decidir si está bien crear estos productos sin pensar en los posibles problemas. En casa, el robot podría elegir la muñeca blanca cuando se le pida la muñeca más bonita, mientras que, en un almacén, dado que hay muchos productos con modelos en la caja, el robot podría escoger aquellos que tienen a una persona de raza blanca de manera más frecuente”.

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA