Generales

Adolescente demanda a la aplicación ClothOff por desnudarla sin su consentimiento con IA

...

El temor a la permanencia de imágenes íntimas generadas por inteligencia artificial (IA) ha marcado la vida de Jane Doe, una adolescente de 17 años que, junto a sus padres, ha presentado una demanda contra los responsables de la aplicación ClothOff.

La joven sostiene que la plataforma, capaz de crear desnudos hiperrealistas a partir de fotografías con ropa, no solo la expuso sin su consentimiento, sino que podría estar utilizando sus imágenes para entrenar modelos de IA, perpetuando el riesgo de nuevas vulneraciones.

Por qué la joven decidió demandar a la aplicación ClothOff

La demanda, presentada en el Tribunal de Distrito de los Estados Unidos del Distrito de Nueva Jersey, detalla que en 2023, compañeros de instituto de Jane Doe obtuvieron imágenes suyas y las cargaron en ClothOff. Con apenas tres clics, la aplicación generó desnudos digitales imposibles de distinguir de una fotografía real.

El texto judicial subraya que: “Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces”, según consta en la documentación presentada ante el tribunal.

La familia de la adolescente afectada dirige su acción legal contra AI/Robotics Venture Strategy 3, la empresa responsable de ClothOff, argumentando que su modelo de negocio facilita la creación, distribución y monetización de desnudos ilegales.

Qué alegan los demandantes sobre el funcionamiento de esta plataforma

La demanda sostiene que la compañía no solo permite la generación de este tipo de imágenes a través de planes de pago, provee la tecnología subyacente a otros desarrolladores y plataformas.

El escrito judicial afirma que “todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos”.

Esto hace referencia a la producción de imágenes hiperrealistas de desnudos sin consentimiento, tanto de menores, lo que constituye material de abuso sexual infantil, como de adultos, en forma de imágenes íntimas no consentidas. El texto califica a la aplicación como “un caldo de cultivo por pornografía infantil, explotación y abuso sexual”.

Cuál es el alcance de las imágenes generadas con inteligencia artificial

La incertidumbre sobre el alcance de la distribución de estas imágenes agrava el daño sufrido por la víctima. La demanda advierte que, “porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor de que su foto permanezca disponible en ClothOff y en otros lugares”.

La parte demandante alega que a la joven “le preocupa que esas imágenes puedan distribuirse a otras personas y que su imagen se haya utilizado y se siga utilizando para ayudar a entrenar el sistema de inteligencia artificial de ClothOff para mejorar generar CSAM de otras niñas”.

Además, los datos aportados en la demanda reflejan la magnitud del fenómeno: ClothOff produce cada día una media de 200.000 imágenes y recibe unas 27 millones de vistas.

La propia promoción de la app invita a los usuarios a “desnudar a cualquiera” mediante un servicio gratuito, lo que amplifica el potencial de daño y la facilidad de acceso a este tipo de productos.

Qué otros casos se han presentado alrededor del uso de IA para contenido adulto

El caso de Jane Doe no es aislado. En Córdoba, Argentina, un joven de 19 años fue procesado por usar inteligencia artificial para crear y difundir fotos pornográficas falsas de sus compañeras de colegio.

Según el requerimiento de elevación a juicio, el acusado descargó fotografías de menores de edad desde redes sociales y, mediante la técnica de face-swapping, que permite insertar rostros reales sobre cuerpos ajenos, generó deepfakes sexuales que luego publicó en el sitio Poringa, acompañadas de los nombres reales de las víctimas y descripciones denigrantes.

A pesar de que la Justicia ordenó la desindexación de estas imágenes en los sitios web implicados, el nombre de algunas de las jóvenes sigue vinculado a páginas pornográficas en navegadores webs, lo que prolonga el daño a su reputación y dificulta la reparación del perjuicio.

Asimismo, las consecuencias psicológicas para las víctimas han sido severas. La exposición a este tipo de contenidos provocó ansiedad, temor, vergüenza y síntomas compatibles con trastorno de estrés postraumático, lo que requirió tratamientos psicológicos prolongados.

Fuente: https://www.infobae.com/tecno/2025/10/22/adolescente-demanda-a-la-aplicacion-clothoff-por-desnudarla-sin-su-consentimiento-con-ia/

Volver arriba