En el marco del Día Internacional de Internet Segura, desde Grooming Argentina, organización a cargo de la línea de reporte de CSAM en Argentina (material de abuso sexual contra niñas, niños y adolescentes, comúnmente y erróneamente denominado “pornografía infantil”) y miembro de la Red Global INHOPE, nos unimos a la campaña “Unir voces en todo el mundo: No a las herramientas de desnudez artificial” o “Unifying Voices Worldwide: No to Nudify”, que tiene como objetivo alertar y generar conciencia sobre los graves riesgos que representan las herramientas de desnudez artificial (nudifying tools), tecnologías basadas en inteligencia artificial que permiten generar imágenes desnudas a partir de fotografías de personas vestidas y que son utilizadas para facilitar la violencia sexual, la explotación y el abuso, especialmente contra niñas, niños y adolescentes.
Las herramientas de desnudez artificial no tienen cabida en ninguna sociedad que aspire a proteger a sus niños y niñas. Nuestro mensaje es claro: esta funcionalidad no cumple ningún propósito legítimo y debe ser explícita y universalmente ilegal.
En el reciente encuentro de líderes mundiales en protección infantil en línea celebrado en Roma, el papa León XIV ofreció un poderoso recordatorio: la inteligencia artificial debe ser una aliada, no una amenaza, para nuestros niños. Para cumplir esta misión, necesitamos una prohibición inmediata y global de las herramientas de desnudez artificial.
Estas herramientas utilizan IA para generar imágenes desnudas a partir de fotografías de personas vestidas. Aunque se comercializan como productos para adultos y se dirigen principalmente a la desnudez artificial de mujeres y niñas, cada vez se usan más para crear imágenes indecentes de menores. Las empresas, desarrolladores e individuos que las crean o distribuyen deben rendir cuentas y enfrentarse a consecuencias legales y penales.
La tecnología que permite la creación de imágenes desnudas y abusivas está teniendo un impacto insidioso en la vida de los niños en todo el mundo. Imágenes de menores, incluidos sobrevivientes de abuso sexual infantil, están siendo manipuladas y transformadas en formas cada vez más extremas y abusivas.
Los deepfakes están ahora estrechamente vinculados a la coerción sexual, la extorsión y el chantaje. La alarmante facilidad de uso de estas herramientas de IA implica que los abusadores ya no necesitan obtener imágenes íntimas reales: pueden crearlas artificialmente, a gran escala y con una eficiencia aterradora. Los delincuentes, incluidos jóvenes, ya están monetizando estas imágenes, dando lugar a nuevas economías de abuso.
Esta tecnología no es solo una herramienta: es un nuevo vector de explotación que expone a mujeres y niños —especialmente a las niñas— a riesgos sin precedentes. No tiene cabida en ninguna sociedad que valore la seguridad y la inviolabilidad de la infancia.
En el marco del pacto por la dignidad y la protección de los más jóvenes, hacemos un llamado a gobiernos y legisladores para que adopten y apliquen con urgencia regulaciones, a más tardar en los próximos dos años, que prohíban las herramientas de desnudez artificial y garanticen que sean universalmente inaccesibles.
También instamos a instituciones, empresas y ciudadanía a actuar de inmediato para eliminar el uso de estas herramientas, comprometiéndose a lo siguiente:
Estamos fallando a nuestros niños —y a nosotros mismos— si seguimos ignorando estos riesgos. Debemos actuar ahora. Debemos mantenernos unidos. Debemos detener el abuso sexual facilitado por la IA antes de que se propague aún más.
- Reconocer que las herramientas de desnudez artificial causan un daño irreparable a las personas, facilitando el abuso y la explotación indefendibles, en particular de mujeres y niños.
- Reconocer el profundo daño social que esta funcionalidad provoca, incluida la normalización de imágenes explícitas y la violencia de género, así como la erosión de la confianza y la seguridad.
- Exigir responsabilidad e innovación, reclamando a las empresas tecnológicas que incorporen la seguridad desde el diseño, aceleren el desarrollo y despliegue de protecciones eficaces y ofrezcan una transparencia clara.
Nuestro llamado a gobiernos y legisladores: una agenda urgente para los próximos dos años.
Durante estos dos años, todas las jurisdicciones deben:
- Prohibir totalmente las herramientas de desnudez artificial. Declarar ilegales el desarrollo, la distribución, la posesión y el uso comercial de aplicaciones de desnudez artificial y de funcionalidades de desnudez en sistemas de IA.
- Establecer responsabilidad penal y civil. Exigir responsabilidades a las empresas, sus propietarios, desarrolladores, plataformas e individuos que faciliten o se beneficien de la creación o circulación de imágenes desnudas artificialmente.
- Imponer bloqueos universales de acceso. Obligar a plataformas, tiendas de aplicaciones, servicios de alojamiento e ISPs a impedir el acceso a tecnologías de desnudez artificial.
- Garantizar programas de alfabetización mediática (digital) en escuelas u otros formatos para personas de todas las edades, que incluyan orientación sobre los riesgos de las aplicaciones y herramientas de desnudez artificial.
Nuestro llamado a empresas tecnológicas, plataformas y desarrolladores.
Con efecto inmediato, las empresas deben:
- Aplicar la seguridad desde el diseño. Garantizar que ningún producto, modelo o funcionalidad capaz de generar deepfakes desnudos se lance sin protecciones demostradas.
- Detectar y bloquear contenido desnudo de menores. Implementar sistemas sólidos de detección, incluidos mecanismos de hashing entre plataformas, salvaguardas a nivel de modelo y escaneos proactivos.
- Prohibir las herramientas de desnudez artificial en todo su ecosistema. Vetarlas en tiendas de aplicaciones, servicios de alojamiento, plugins, APIs e integraciones de terceros.
- Desarticular la economía del abuso. Eliminar vías de monetización, denunciar a los infractores y colaborar con socios del sector para cortar los flujos de pago.
- Ofrecer transparencia. Publicar informes claros sobre detección, aplicación de medidas, salvaguardas de los modelos y cualquier uso indebido vinculado a sus herramientas.
Nuestro llamado a instituciones y ciudadanía.
- Reconocer el daño. Las herramientas de desnudez artificial causan daños graves y duraderos a las víctimas, facilitando el abuso, la humillación y violaciones digitales de por vida.
- Comprender el coste social. Estas herramientas normalizan las imágenes explícitas, fomentan la desensibilización, alimentan la violencia de género y erosionan la confianza y la seguridad en las comunidades.
- Negarse a tolerar su uso. Denunciarlas, condenarlas, (re)educar a otras personas y ayudar a cerrar los espacios sociales y comerciales donde prosperan.
- Y, especialmente, proteger a los niños de estas herramientas en cualquier ámbito profesional o personal. Para criar a un niño de forma segura, hace falta toda una comunidad.
Si te ha afectado una aplicación de desnudez artificial: no estás solo/a.
Tus derechos importan. Tienes derecho a ser escuchado/a, a la privacidad, a la protección y a recibir apoyo sin culpa ni vergüenza. Estos son algunos pasos que puedes dar ahora mismo:
Denuncia.
- Si alguien ha generado una imagen desnuda artificial tuya y eres menor de 18 años, puedes denunciarlo en la línea directa de tu país para que sea retirada. Encuéntrala en https://INHOPE.org Solo necesitas proporcionar la URL donde viste la imagen (no nombres ni datos de contacto).
Cuéntaselo a alguien de confianza.
- Habla con un adulto con el que te sientas cómodo/a: puede ser un padre o madre, un familiar, un profesor, un orientador escolar o un trabajador social. Ellos pueden ayudarte a mantenerte a salvo y a acceder al apoyo que necesitas.