Once adolescentes en la localidad española de Almendralejo, Extremadura, denunciaron la circulación de fotos suyas desnudas creadas con una aplicación de inteligencia artificial (IA), lo que probocó un debate acalorado en el país.
La policía confirmó que tienen once declaraciones de víctimas menores de edad en este caso, en el que los presuntos autores manipularon fotos de niñas superponiendo sus caras a cuerpos desnudos de otras personas. Estas imágenes falsas se generaron utilizando una aplicación de IA capaz de producir fotomontajes de gran realismo.
La investigación se abrió por un presunto delito de invasión de la intimidad. La fiscalía indicó que también podría considerarse el delito de pornografía infantil debido a la edad de las víctimas. Se estima que alrededor de una veintena de niñas podrían haber sido víctimas de estas fotos manipuladas.
Madres de las víctimas expresaron su indignación en las redes sociales. Miriam Al Adib, madre de una de las chicas, denunció esta “barbaridad” en Instagram. Explicó en el post: “Cuando llegué a casa, una de mis hijas, con un disgusto tremendo, me ha dicho: ‘mira que han hecho’ (...) Han cogido una foto suya y la han puesto como si estuviera desnuda”. La policía también le advirtió que estas fotos podrían haber sido compartidas en sitios pornográficos.
Otra madre relató en la televisión pública TVE que intentaron chantajear a su hija exigiéndole dinero para no difundir las imágenes.
El suceso reavivó la preocupación sobre el uso de la inteligencia artificial con fines malintencionados, como en el caso de los “deepfakes” pornográficos. Según un estudio de 2019 realizado por la empresa de inteligencia artificial holandesa Sensity, el 96% de los vídeos falsos en línea son pornografía no consentida, y la mayoría de las víctimas son mujeres.