Aplicaciones con IA para crear desnudos circulan en Facebook y exponen a menores a redes de abuso digital

Una investigación reveló que Facebook e Instagram promocionan aplicaciones gratuitas que permiten crear imágenes falsas de mujeres y menores desnudos mediante inteligencia artificial. Las plataformas, disponibles en Android, se presentan como editores de fotos, pero habilitan contenido sexual explícito. Expertos advierten sobre acoso, extorsión y fallas en la protección de datos.
Una investigación periodística detectó que Facebook e Instagram promocionan aplicaciones que permiten generar desnudos falsos con inteligencia artificial a partir de fotos reales. Las plataformas, accesibles y sin mayores restricciones, exponen a niñas, adolescentes y mujeres a situaciones de acoso, extorsión y circulación masiva de imágenes manipuladas sin consentimiento.
Una investigación periodística detectó la promoción en Facebook e Instagram de aplicaciones que permiten generar imágenes de mujeres desnudas a partir de fotografías reales procesadas con inteligencia artificial. Las publicidades, visibles para cualquier usuario, redirigen a tiendas digitales donde las plataformas pueden descargarse sin mayores restricciones y con acceso gratuito a funciones básicas.
El hallazgo surgió tras la experiencia de un usuario que, mientras navegaba por Facebook, encontró un anuncio que ofrecía “desnudar” mujeres mediante IA. Al interactuar con la publicación, el algoritmo comenzó a sugerirle más aplicaciones similares, tanto en Facebook como en Instagram, ampliando la exposición a este tipo de servicios.
Al probar una de estas herramientas con imágenes generadas previamente con inteligencia artificial que representaban a dos menores, el sistema produjo en segundos una imagen explícita que reproducía rasgos físicos acordes a la edad simulada. El proceso no requirió pagos ni verificaciones adicionales y la descarga se realizó directamente desde la tienda oficial de Android.
Según el Instituto Global de Seguridad Infantil Childlight, más de 300 millones de niños en el mundo son víctimas cada año de explotación y abuso sexual facilitados por la tecnología, un fenómeno que se repite cada diez segundos. La facilidad con la que estas aplicaciones transforman fotografías en contenido sexual agrava un escenario que ya es motivo de alarma entre especialistas.
Aplicaciones sin control y riesgos para menores
Entre las plataformas promocionadas figuran DopaMax, WonderViz, VipClip, PlayAI, ViYou Lite, Selfyz AI, AI Girls, Aureel y Photo Lab. En los anuncios y descripciones públicas suelen presentarse como editores de fotos, probadores virtuales de ropa o generadores de efectos visuales. Sin embargo, una vez instaladas, habilitan funciones para crear desnudos, videos para adultos o montajes íntimos con rostros reales.
La descarga no impone límites estrictos: varias de estas aplicaciones figuran con clasificación para mayores de 13 años. En general, ofrecen algunas pruebas gratuitas y luego cobran por servicios adicionales, como animaciones o intercambios de rostro en plantillas predefinidas. Las imágenes generadas tienden a replicar el rostro de la persona y adaptarlo a cuerpos estandarizados; en el caso de menores, los sistemas ajustan proporciones físicas acordes a la edad estimada.
Fabiana Ramírez, especialista en seguridad informática de ESET Latinoamérica, advirtió que este tipo de contenidos circula abiertamente en foros y redes sociales. Señaló además que la regulación es insuficiente frente al perfeccionamiento de los deepfakes y que la ausencia de controles efectivos facilita tanto el uso recreativo como el acoso.
En Colombia, la organización Red PaPaz documentó casos en los que estudiantes utilizaron aplicaciones gratuitas para generar imágenes falsas de compañeras y distribuirlas por redes sociales y grupos de mensajería en cuestión de minutos. Alejandro Castañeda, del Centro de Internet Seguro – Viguías de Red PaPaz, relató episodios en los que la difusión masiva se produjo en menos de una hora.
En España, en la localidad de Almendralejo, una denuncia en 2023 reveló que una menor de 12 años era extorsionada con imágenes manipuladas, situación que permitió detectar al menos 20 casos similares en la región.
Los riesgos no se limitan a la exposición pública. Ramírez explicó que muchas de las aplicaciones analizadas no cifran adecuadamente los datos, lo que deja vulnerable la información personal y financiera de los usuarios ante posibles filtraciones.
Consultadas sobre el tema, Meta Platforms y Google señalaron que cuentan con políticas para eliminar anuncios y aplicaciones que promuevan contenido sexual sin consentimiento. Desde Meta indicaron que bloquean enlaces y han iniciado acciones legales contra desarrolladores reincidentes. Google, por su parte, remite a su normativa que prohíbe aplicaciones con contenido sexual explícito o distribución no consentida, aunque en varios casos estas funciones no se detallan en las descripciones públicas.
Mientras las regulaciones intentan adaptarse a la velocidad de la tecnología, la preocupación persiste: cualquier fotografía compartida en redes sociales puede convertirse en materia prima para montajes sexuales generados por inteligencia artificial y difundidos sin autorización.
DESCARGAR APLICACIÓN DE LA RADIO EN VIVO
Gracias por estar en Diario Pampero, visítanos para estar informado!
Si necesitas parte de este contenido, no olvides citar la fuente de información. Respetamos a quienes producen contenidos, artículos, fotos, videos. Compartimos información de La Pampa para los pampeanos y te informamos sobre toda la actualidad nacional e internacional destacada.
Si compartes nuestro contenido, nos ayudas a crecer como medio de comunicación!








