El Fondo de las Naciones Unidas para la Infancia (UNICEF) lanzó un llamado urgente a los gobiernos del mundo para que amplíen las definiciones legales de material de abuso sexual infantil (MASI) con el fin de incluir el contenido generado o manipulado mediante IA y sancionar su creación, posesión y difusión como delito explícito, argumentando que el daño no es “ficticio” sino “abuso real”.
En su declaración oficial, UNICEF subraya que las imágenes, videos o audios de menores creados mediante tecnologías de IA, conocidos como deepfakes, no solo son cada vez más frecuentes, sino que pueden ser generados sin consentimiento, sexualizando a niños incluso mediante procesos de “nudificación”, donde se altera digitalmente una imagen para que aparezca desnuda o en poses sexualizadas. “El abuso mediante deepfakes es abuso, y no hay nada ficticio sobre el daño que provoca”, advierte la agencia de la ONU, que insiste en que cuando se usa la imagen o identidad de un niño, ese menor se convierte en víctima, aunque no se identifique personalmente en la imagen.
Un estudio conjunto liderado por UNICEF, ECPAT e INTERPOL en 11 países reveló que al menos 1,2 millones de niños y niñas reconocieron haber tenido sus imágenes manipuladas en deepfakes sexualmente explícitos durante el último año, lo que en algunos contextos equivale aproximadamente a uno de cada 25 menores. Estos resultados no solo muestran la magnitud del problema, sino también la preocupación de los propios niños, ya que, en varios lugares, hasta dos tercios de los menores encuestados expresaron temor a que sus imágenes pudieran usarse de esta manera. Además de la amenaza directa para las víctimas, UNICEF advierte que la circulación de este tipo de contenidos normaliza la explotación sexual infantil y alimenta la demanda de material abusivo, dificultando al mismo tiempo las labores de las fuerzas del orden para identificar y proteger a los menores que necesitan ayuda.
La agencia insta a los países a actualizar sus marcos legales para criminalizar expresamente la creación, adquisición, posesión y difusión de contenido sexual infantil generado por IA, un vacío que en muchas jurisdicciones todavía persiste. También reclaman que los desarrolladores de IA adopten medidas de “seguridad desde el diseño” (safety by design) para prevenir que sus modelos sean usados con fines dañinos. Por su parte, las empresas tecnológicas están bajo presión para mejorar la moderación de contenidos e invertir en tecnologías de detección que permitan eliminar de inmediato este tipo de material, y no días después de una denuncia. Este enfoque responde a la necesidad de actuar antes de que el daño se propague o se consolide en plataformas digitales. Un ejemplo de reacción política es el plan anunciado por el gobierno del Reino Unido para prohibir el uso de herramientas de IA que generen imágenes de abuso sexual infantil, lo que lo convertiría en el primer país en incorporar medidas de este tipo en su legislación.
Un reto que trasciende fronteras
La dificultad de rastrear y eliminar este tipo de material en un entorno digital globalizado hace que la cooperación internacional sea clave. Acuerdos previos entre INTERPOL y UNICEF para combatir la explotación y el abuso sexual de menores en línea evidencian que la colaboración entre entidades gubernamentales y organizaciones civiles será fundamental para enfrentar este desafío emergente. En definitiva, la alerta lanzada por UNICEF recalca que la sociedad, las leyes y la tecnología deben evolucionar de manera conjunta para proteger a la infancia frente a las nuevas amenazas digitales, porque, como afirman los expertos, “los niños no pueden esperar a que la legislación se ponga al día”.