Un experimento realizado por investigadores de la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington, ha dejado claro que aún nos queda un largo camino por recorrer antes de que los robots eliminen los peores rasgos de personalidad de los seres humanos. El equipo realizó diversas pruebas con una IA construida a partir de la red neuronal CLIP, buscando que ésta identificase objetos. Sin embargo, el robot se comportó de una manera políticamente incorrecta y debido a esto está en boca de todos.
El problema llegó cuando el robot tuvo que clasificar bloques con caras humanas en distintas cajas. Los investigadores le pidieron al robot que pusiese en la caja a criminales o médicos, en lugar de pedir que ubicase a una mujer de raza negra o a un hombre de raza blanca en la caja.
El resultado de esta simulación fue que el robot prejuzgó a los distintos tipos de personas representadas en las cajas, asumiendo, por ejemplo, que las mujeres son amas de casa, que las personas de raza negra son delincuentes o que los latinos son celadores.
De hecho, los investigadores afirman que el robot, ante la petición de ubicar a un criminal en una caja, debería haberse negado a realizar la acción, cosa que no sucedió. Andrew Hundt, autor principal del estudio, afirma que: “Nos arriesgamos a crear una generación de robots sexistas y racistas, pero la gente y las organizaciones son las que tienen que decidir si está bien crear estos productos sin pensar en los posibles problemas. En casa, el robot podría elegir la muñeca blanca cuando se le pida la muñeca más bonita, mientras que, en un almacén, dado que hay muchos productos con modelos en la caja, el robot podría escoger aquellos que tienen a una persona de raza blanca de manera más frecuente”.