Mundo

Policía española: Fotos de menores desnudos generadas por IA puede considerarse pornografía infantil

Las declaraciones se producen en medio de un dramático caso de falsificaciones en Almendralejo, en la comunidad autónoma de Extremadura, en el suroeste del país.

Alyssa Mcmurtry  | 21.09.2023 - Actualızacıón : 23.09.2023
Policía española: Fotos de menores desnudos generadas por IA puede considerarse pornografía infantil Archivo. (Guardia Civil)

OVIEDO, España

La policía española advirtió este jueves que el uso de inteligencia artificial (IA) para generar fotografías de menores desnudos puede considerarse legalmente equivalente a producir pornografía infantil.

Las declaraciones se producen en medio de un dramático caso de falsificaciones en Almendralejo, en la comunidad autónoma de Extremadura, en el suroeste del país.

Al menos 22 niñas menores de 16 años declararon a la policía que fueron víctimas de deepfakes (ultrafalso).

La portavoz de la policía de Extremadura, Mari Ángeles Jiménez, señaló que todas ellas denunciaron haber visto fotografías publicadas en las redes sociales en las que se veía su rostro sobre un cuerpo desnudo.

Jiménez dijo que la policía ha identificado a 10 niños responsables de crear y difundir falsificaciones, todos ellos también menores de edad.

Miriam Al Adib, madre de una de las víctimas, realizó una transmisión en vivo en Instagram para contar lo sucedido. Todo comenzó cuando su hija, de 14 años, le contó lo que estaba sucediendo y finalmente le mostró un desnudo falso con su rostro.

Adib dijo que su corazón dio un vuelco y que, si no conociera el cuerpo de su hija, la foto parecía real.

Adib y otros padres se han unido para hablar con sus hijos y ofrecerles apoyo.

Pedro García, padre de una de las víctimas, dijo a la emisora española RTVE que su hija no sale de casa desde hace una semana y que algunas familias necesitan ayuda psicológica.

Javier Izquierdo, de la Policía Nacional, dijo que ese tipo de actividad está penada por el código penal español.

Aunque las imágenes fueron manipuladas, si son realistas, se consideran pornografía infantil, advirtió Izquierdo y añadió que cualquiera de los autores mayores de 14 años podría enfrentar la pena de prisión.

Producir pornografía infantil en España puede llevar a alguien a prisión hasta nueve años.

La policía también está investigando la aplicación ClothOff, que supuestamente se utilizó en el caso. Utiliza inteligencia artificial para desnudar a cualquiera, gratis, según la descripción de la aplicación.

Izquierdo añadió que eliminar completamente las imágenes de Internet puede ser muy complicado.

*Traducido por Daniel Gallego.

El sitio web de la Agencia Anadolu contiene sólo una parte de las historias de noticias ofrecidas a los suscriptores en el Sistema de Difusión de AA News (HAS), y en forma resumida.
Temas relacionados
Bu haberi paylaşın