La IA detrás del delito: cómo los "nudificadores" generan $36 millones de dólares al año Con más de 18 millones de visitas, los sitios que generan desnudos falsos con IA acumulan ganancias de hasta $36 millones de dólares anuales, según una investigación.

En los últimos años, el avance de la inteligencia artificial (IA) ha dado lugar a un fenómeno alarmante que está afectando la privacidad y seguridad de millones de personas: la creación de deepfakes, imágenes y videos falsos hiperrealistas, entre ellos desnudos generados sin el consentimiento de las personas involucradas.
Estas manipulaciones, conocidas como nudify o undress, forman parte de una tendencia creciente de contenido sintético no consensuado. Se generan a través de herramientas automáticas que utilizan algoritmos de IA para alterar fotografías, haciendo que las personas aparezcan desnudas de manera completamente ficticia.
A pesar de ser ilegal, la práctica de crear desnudos falsos a través de la manipulación de imágenes comenzó a ganar notoriedad en 2019. Aunque en sus primeros días requería conocimientos técnicos avanzados y la calidad de las imágenes generadas era baja, el rápido avance tecnológico ha hecho que estas herramientas sean cada vez más accesibles.
Hoy en día, plataformas y aplicaciones en línea permiten a los usuarios generar imágenes y videos hiperrealistas en solo unos pocos clics, sin necesidad de habilidades especiales.
El proceso es simple: el usuario sube una fotografía de cualquier persona, generalmente tomada de redes sociales, y la aplicación, mediante algoritmos de IA, la transforma en una imagen o video de desnudo. Estos materiales suelen ser tan realistas que es casi imposible detectar que se trata de una falsificación. De hecho, los avances en deep learning y técnicas generativas permiten que los resultados sean indistinguibles de una foto real.
La facilidad con la que se pueden crear y distribuir estos contenidos falsos ha generado un mercado clandestino millonario.
De acuerdo con una investigación realizada por Indicator, que analizó más de 80 sitios de este tipo, los cuales, de manera combinada, tuvieron más de 18 millones de visitantes, por lo que alcanzaron ganancias anuales de hasta $36 millones de dólares.
Originalmente, los "nudificadores" se limitaban a generar imágenes estáticas de personas desnudas, pero el avance de la tecnología ha dado lugar a la creación de videos completamente alterados. La manipulación de videos permite llevar esta práctica a una nueva y más peligrosa dimensión. Los videos creados con IA son más convincentes y difíciles de detectar, lo que los hace aún más peligrosos para las personas involucradas.
Estas plataformas utilizan modelos de deep learning que aprenden a seleccionar patrones en las imágenes y reconstruir partes del cuerpo que no estaban presentes en la foto original.
Al hacer esto, logran generar resultados tan realistas que las víctimas y quienes los ven no pueden identificar que se trata de un montaje.
Relacionado: Los retos de la seguridad digital en 2025: deepfakes y ciberataques más sofisticados
Los deepfakes al alcance de la mano: una actividad ilegal que requiere de legislación urgente
La creación y distribución de desnudos falsos generados con IA no solo es una violación grave a la privacidad, sino una práctica ilegal en muchas jurisdicciones. A medida que estas herramientas se vuelven más accesibles y sofisticadas, también aumentan los riesgos para las víctimas, así como los desafíos para detectarlas y sancionarlas. Urge una regulación clara y contundente que prohíba el desarrollo y uso de estas tecnologías con fines de explotación o violencia digital. La protección de la dignidad y los derechos de las personas no puede seguir rezagada frente al avance tecnológico.
Relacionado: Los retos de la seguridad digital en 2025: deepfakes y ciberataques más sofisticados