Una investigación demuestra que TikTok se habría convertido en un punto de acceso a videos sexualizados de niñas y adolescentes, tanto generados mediante Inteligencia Artificial como obtenidos de cuentas reales. Este tipo de publicaciones sigue disponible en perfiles que acumulan miles de seguidores y que funcionan como puente hacia plataformas externas donde se comercializa pornografía infantil. La investigación elaborada por Maldita.es detalla patrones, recorridos y usos de la red social que permiten comprender cómo se estructura este flujo de contenidos.
La plataforma, una de las más utilizadas por menores de 18 años en España, presentaría un entorno donde la detección de material que vulnera derechos de niñas y adolescentes resulta insuficiente. La ausencia de medidas efectivas posibilita que usuarios encuentren videos sexualizados desde múltiples cuentas sin requerir búsquedas complejas, señala la investigación. El algoritmo también recomienda perfiles vinculados a este tipo de contenido, lo que facilita su difusión, resalta.
Publicaciones con IA y contenido robado de cuentas reales
El estudio revisa el comportamiento de 40 cuentas que, en conjunto, suman más de 1,5 millones de seguidores. Esas cuentas acumulan más de 5.200 videos generados con IA en los que aparecen menores con ropa vinculada a entornos escolares o actividades recreativas. El enfoque de las imágenes se concentra en zonas específicas del cuerpo y en movimientos que buscan captar la atención del usuario.
Otros 3.600 videos corresponden a contenido real extraído de perfiles originales de niñas y adolescentes. En varios casos persiste la marca de agua con el nombre de la cuenta de la menor, lo que permite localizar su perfil. Estos videos suelen mostrar actividades cotidianas en entornos escolares o domésticos. Su extracción y redistribución altera el propósito original de las publicaciones y expone a las menores a un circuito que se utiliza para atraer a usuarios hacia otros espacios.
Los comentarios en estas publicaciones también forman parte del ecosistema, revela el portal. Se registran mensajes que solicitan contactar con las menores, así como imágenes sexualizadas y referencias explícitas. Estas interacciones crean un entorno que normaliza el consumo de material que involucra a niñas y adolescentes y funcionan como puente hacia servicios externos.
Desvío hacia la venta e intercambio de pornografía infantil
El análisis expone un patrón central: los videos en TikTok cumplen el rol de atraer usuarios hacia canales donde se comercializa pornografía infantil, tanto creada mediante IA como real. Las cuentas utilizan el sistema de suscripción interna de la plataforma, con un promedio de cuatro euros por acceso a contenido exclusivo, y enlaces hacia Telegram o sitios web que alojan material ilegal.
Varios perfiles incluyen en sus comentarios palabras clave como “cambio”, “compro” o “tlg”, códigos asociados al intercambio de pornografía infantil en servicios de mensajería. Estas referencias aparecen incluso en videos con cientos de miles de visualizaciones que muestran actividades comunes de niñas pequeñas.
Al contactar con 14 cuentas promocionadas en Telegram, se identificó que 11 enviaron un menú de contenidos disponibles para venta. Siete remitieron material ilegal sin previa solicitud. Este comportamiento revela un circuito operativo donde la captación ocurre en TikTok y la transacción se concreta fuera de la red social.
El rol del algoritmo y las recomendaciones internas
La investigación también evaluó el desempeño del algoritmo de TikTok. Tras visualizar videos de este tipo, la cuenta de prueba recibió recomendaciones de más contenido sexualizado de menores tanto en la sección “Para ti” como en el buscador. El sistema mostró sugerencias relacionadas con términos como “colegialas”, “chicas bonitas” o expresiones asociadas a niñas y adolescentes.
El diseño del algoritmo, basado en hábitos e intereses detectados por la plataforma, impulsa un efecto de retroalimentación que incrementa la exposición a este contenido. A medida que el usuario interactúa con ciertos videos, la red social refuerza la recomendación de publicaciones similares. En este caso, conduce a un aumento de videos sexualizados de menores, tanto reales como creados con IA.
La plataforma también ofrece la opción de suscribirse a tablones de noticias de las cuentas, una función que facilita mantener contacto con los perfiles que producen este tipo de contenido. Este comportamiento contraviene la obligación de evaluar riesgos para menores y de retirar contenido ilegal, tal como establece la Ley de Servicios Digitales (DSA).
La DSA y las obligaciones legales de las plataformas
La DSA exige que los servicios digitales identifiquen riesgos en sus funciones y contenidos, en especial cuando afectan a menores. Asimismo, obliga a retirar material ilegal cuando se conoce su existencia. En este caso, la persistencia de cuentas y videos que sexualizan a menores, sumada a su promoción mediante recomendaciones internas, evidencia que la plataforma no aplica medidas adecuadas para reducir este tipo de riesgos.
La normativa también contempla sanciones en situaciones de incumplimiento grave. Las plataformas que alojan contenido ilegal deben garantizar mecanismos de detección y respuesta que funcionen tanto por reportes de usuarios como por análisis internos o investigaciones externas. Según el abogado especializado en protección de datos y derecho digital, Marcos Judel, la persistencia de estos contenidos podría exponer a TikTok a multas por incumplimiento de la DSA.
La respuesta de TikTok ante las denuncias
Los hallazgos incluyen la evaluación de las denuncias realizadas sobre 15 cuentas que difundían contenido sexualizado de menores. Tres días después de los reportes, todas seguían activas. TikTok no detectó violaciones en la mayoría de los casos y solo aplicó restricciones leves en una de las cuentas señaladas. En cuanto a videos específicos, eliminó únicamente siete de los 60 reportados y deshabilitó el acceso desde “Para ti” en 11 de ellos.
Este comportamiento contrasta con las propias normas internas de TikTok, que prohíben cualquier contenido que sexualice o fetichice a menores, ya sea mediante IA o imágenes reales. La permanencia de estos perfiles y la baja tasa de eliminación de videos muestran una brecha entre las políticas declaradas y la aplicación efectiva de los mecanismos de moderación.
Implicaciones para la protección de menores
La presencia de contenido sexualizado de menores en TikTok, sumada a su uso como ruta hacia la pornografía infantil, plantea desafíos para la protección de derechos de niñas y adolescentes. La extracción de videos reales expone a menores a un circuito ajeno a su voluntad, mientras que el uso de IA amplía la capacidad para generar imágenes que simulan escenarios cotidianos.
Cuando una menor se ve afectada, existen vías de denuncia. La vulneración del derecho a la propia imagen puede tramitarse por la vía civil. Además, el tratamiento indebido de datos personales puede reportarse ante la Agencia Española de Protección de Datos.
La investigación evidencia que TikTok constituye actualmente un entorno donde el acceso a contenido sexualizado de menores resulta sencillo. La combinación de algoritmos que amplifican estas publicaciones, sistemas de denuncia poco eficaces y la posibilidad de monetizar el contenido genera un ecosistema que favorece la circulación de material ilegal. La responsabilidad de la plataforma, de acuerdo con la legislación vigente, implica adoptar medidas correctivas que reduzcan estos riesgos y mejoren la protección de los usuarios más jóvenes. (37).
Con información de Europa Press.