
Apple y Google ofrecen aplicaciones que fomentan la desnudez mediante IA: Estudio
Un estudio reveló que Apple y Google ofrecen aplicaciones que fomentan la desnudez mediante IA, a pesar de que en sus propios términos lo prohíbe.
Un reciente estudio elaborado por la organización Tech Transparency Project (TTP), reveló que las tiendas digitales de Apple y Google continúan ofreciendo aplicaciones que utilizan la inteligencia artificial (IA) para generar imágenes de desnudos y deepfakes, a pesar de que este contenido está prohíbido por las mismas plataformas.
Cabe mencionar que, TTP ya había advertido en el pasado errores sobre la existencia de este tipo de herramientas tanto en la App Store y Play Store, incluso después del escándalo que generó Grok, inteligencia artificial de X (antes Twitter), que le quitaba la ropa de manera digital a mujeres y menores de edad.
En ese primer análisis, la organización identificó alrededor de 50 aplicaciones que permitían crear imágenes manipuladas mediante IA, incluyendo contenido de desnudos falsos, lo que generó preocupación por su posible uso indebido.
Entre los casos señalados, destacó el del chatbot Grok, que llegó a generar hasta tres millones de imágenes sexualizadas antes de que se bloqueara esa función.
El acceso a estas aplicaciones, según TTP, resultaba sencillo, ya que bastaba con introducir términos como “nudify” o “undress” en los buscadores de las tiendas para encontrar múltiples opciones disponibles para descarga.
También te puede interesar
Grok limita la edición de imágenes tras la polémica de desnudos realizados con IA
En un nuevo análisis, la organización se enfocó en los sistemas de búsqueda y publicidad de Apple y Google, detectando que no solo siguen disponibles estas apps, sino que además son promovidas mediante recomendaciones y anuncios.
De acuerdo con los hallazgos, cerca del 40 por ciento de los resultados obtenidos al buscar términos relacionados con desnudos o deepfakes mostraban imágenes de mujeres sin ropa o con contenido explícito.
En cifras concretas, se identificaron 46 aplicaciones distintas en la App Store y 49 en Google Play que estaban relacionadas con este tipo de contenido.
Para evaluar su funcionamiento, los investigadores descargaron algunas de las apps mejor posicionadas en dispositivos iOS y Android, utilizando únicamente sus funciones gratuitas.
Los resultados indicaron que al menos 18 de las aplicaciones disponibles en la tienda de Apple y 20 en la de Google eran capaces de generar imágenes explícitas o simular desnudos mediante el uso de IA.
Además, se detectó la presencia de anuncios dentro de los resultados de búsqueda que promovían estas aplicaciones, incluyendo carruseles con contenido considerado altamente sexualizado, especialmente en el entorno de Google.
Otro aspecto relevante fue el sistema de autocompletado, que sugería términos relacionados con contenido erótico, facilitando que los usuarios encontraran más aplicaciones de este tipo.
El informe también señala que estas apps han acumulado aproximadamente 483 millones de descargas y generado ingresos superiores a los 122 millones de dólares, según datos de la firma de análisis AppMagic.
Uno de los puntos más preocupantes es que al menos 31 de estas aplicaciones están clasificadas como aptas para menores de edad, lo que ha encendido alertas sobre su posible impacto en problemáticas como los deepfakes sexuales en entornos escolares.
Hasta el momento, ni Apple ni Google han explicado en detalle cómo estas aplicaciones logran superar sus filtros de revisión, ni por qué sus algoritmos de búsqueda continúan promoviendo este tipo de contenido.
Sin embargo, en el caso de Google, un portavoz identificado como Dan Jackson, aseguró que varias de las aplicaciones señaladas ya han sido retiradas y que la empresa mantiene procesos constantes para hacer cumplir sus normas dentro de la plataforma.
Ambas compañías cuentan con políticas que prohíben explícitamente las aplicaciones con contenido sexual o que vulneren la integridad de las personas. Apple, por ejemplo, restringe material considerado ofensivo o pornográfico, mientras que Google impide apps que promuevan la cosificación o la manipulación sexual de imágenes.
Con información de Sin Embargo.
¿Qué te pareció?


