Saturday 31 de January, 2026

SOCIEDAD | Ayer 15:14

Las tiendas de Google y Apple se llenan de apps que desnudan personas con inteligencia artificial

Un informe reveló la existencia de decenas de aplicaciones disponibles en Google Play y la App Store que utilizan IA para generar imágenes sexualizadas de personas reales sin su consentimiento. Pese a las normas que lo prohíben, muchas siguen activas y generan millones de dólares.

Las principales tiendas de aplicaciones del mundo alojan una cantidad creciente de apps que permiten “desnudar” a personas reales mediante inteligencia artificial. Así lo advirtió un informe del Tech Transparency Project, que detectó más de un centenar de aplicaciones disponibles tanto en Google Play como en la App Store de Apple, capaces de generar imágenes o videos sexualizados a partir de una simple fotografía.

Estas herramientas, conocidas como nudify apps, utilizan modelos de IA para simular cuerpos desnudos o escenas eróticas sin el consentimiento de la persona retratada. En muchos casos, el proceso requiere apenas subir una imagen y esperar unos segundos, sin controles efectivos sobre la identidad, la edad o la autorización de quienes aparecen en el contenido generado.

El estudio estimó que estas aplicaciones acumulan cientos de millones de descargas en todo el mundo y habrían generado ingresos por más de cien millones de dólares. Parte de ese negocio también beneficia a las propias plataformas, que se quedan con un porcentaje de las compras y suscripciones realizadas dentro de las apps.

Tech Transparency Project

Lo más llamativo es que tanto Google como Apple cuentan con políticas que prohíben el contenido sexual explícito, la explotación sexual y el uso abusivo de imágenes de personas reales. Sin embargo, el informe señala una aplicación laxa de esas normas: muchas de las apps detectadas permanecieron activas durante largos períodos y algunas incluso estaban categorizadas como aptas para todo público.

Otro punto crítico es el riesgo de que estas herramientas sean utilizadas para el acoso, la humillación o la violencia digital, especialmente contra mujeres y menores. La facilidad de uso y la falta de filtros sólidos amplifican el potencial daño, al permitir la creación de imágenes falsas pero altamente realistas.

Tras la difusión del informe, algunas aplicaciones fueron retiradas de las tiendas, aunque los investigadores advirtieron que es habitual que reaparezcan con otros nombres o descripciones engañosas. Para el Tech Transparency Project, el fenómeno expone una falla estructural en los sistemas de control de las grandes plataformas y reabre el debate sobre la responsabilidad de las empresas tecnológicas frente al avance de la inteligencia artificial.

Galería de imágenes

En esta Nota

Comentarios