NOTICIAS
aborto

728x90

header-ad

468x60

header-ad

🔞 Estas cuentas de TikTok ocultan material de abuso sexual infantil a plena vista (+18) ⎪ CULTURIZAR MEDIOS

Muchas cuentas de TikTok se han convertido en portales de algunos de los contenidos más peligrosos e inquietantes de Internet. Por más privados que sean, casi cualquiera puede unirse. 

El siguiente artículo contiene descripciones y discusiones sobre contenido gráfico de redes sociales, incluido material de abuso sexual infantil y pornografía para adultos. 

Fuente: Forbes* 


No seas tímida, niña.

Ven y únete a mi publicación en privado.

VAMOS A DIVERTIRNOS UN POCO.

Las publicaciones son fáciles de encontrar en TikTok. Por lo general, se leen como anuncios y provienen de cuentas aparentemente inofensivas. 

Pero a menudo, son portales a material ilegal de abuso sexual infantil literalmente escondido a simple vista: publicado en cuentas privadas usando una configuración que lo hace visible sólo para la persona que inició sesión. Desde afuera, no hay nada que ver; en el interior, hay videos gráficos de menores desnudándose, masturbándose y participando en otros actos de explotación. Entrar es tan sencillo como pedirle la contraseña a un desconocido en TikTok.  

Las políticas de seguridad de TikTok prohíben explícitamente a los usuarios compartir sus credenciales de inicio de sesión con otros. Pero una investigación de Forbes encontró que eso es precisamente lo que está sucediendo. El informe, que siguió la orientación de un experto legal, descubrió cómo las víctimas menores de edad de explotación sexual y los depredadores pueden reunirse y compartir imágenes ilegales en una de las plataformas de redes sociales más grandes del planeta. 

El gran volumen de cuentas de publicaciones privadas que identificó Forbes, y la frecuencia con la que aparecen nuevas tan rápido como se prohíben las antiguas, resaltan un importante punto ciego donde la moderación no es suficiente y TikTok está luchando por hacer cumplir sus propias pautas, a pesar de una política de “tolerancia cero” con el material de abuso sexual infantil.  


El problema de que los espacios cerrados de las redes sociales se conviertan en caldo de cultivo para actividades ilegales o violatorias no es exclusivo de TikTok; En Facebook también se han encontrado grupos que permiten la depredación infantil (Su matriz, Meta, se negó a hacer comentarios). 

Pero la creciente popularidad de TikTok entre los jóvenes estadounidenses (más de la mitad de los menores estadounidenses ahora usan la aplicación al menos una vez al día) ha hecho que la omnipresencia del problema sea lo suficientemente alarmante como para despertar el interés de las autoridades estatales. y autoridades federales.  

"Hay literalmente cuentas que están llenas de material de abuso y explotación infantil en su plataforma, y ​​se está escapando a través de su IA", dijo la creadora Seara Adair, una sobreviviente de abuso sexual infantil que ha conseguido seguidores en TikTok llamando la atención durante el año pasado. a la explotación de niños que ocurre en la aplicación. "No sólo sucede en su plataforma, sino que muy a menudo conduce a otras plataformas, donde se vuelve aún más peligroso". 


Adair descubrió por primera vez el problema de la “publicación en privado” en marzo, cuando alguien que había iniciado sesión en la cuenta privada de TikTok @My.Privvs.R.Open hizo público un video de un preadolescente “completamente desnudo y haciendo cosas inapropiadas”, y etiquetó a Adair. Adair inmediatamente utilizó las herramientas de informes de TikTok para marcar el video como "pornografía y desnudez". Más tarde ese día, recibió una alerta en la aplicación que decía "no encontramos ninguna infracción". 

Al día siguiente, Adair publicó el primero de varios videos en TikTok llamando la atención sobre cuentas privadas ilícitas como la que había encontrado. Ese video se volvió tan viral que llegó al feed de un hermano de un fiscal federal adjunto para el Distrito Sur de Texas. 


Después de enterarse, el fiscal se acercó a Adair para continuar con el asunto. (El abogado le dijo a Adair que no podían comentar para esta historia). 

Adair también avisó al Departamento de Seguridad Nacional. El departamento no respondió a una consulta de Forbes sobre si se está llevando a cabo una investigación formal sobre TikTok, pero el agente especial Waylon Hinkle se acercó a Adair para recopilar más información y le dijo por correo electrónico el 31 de marzo que “estamos trabajando en ello”. (TikTok no dijo si se ha comprometido específicamente con Seguridad Nacional o con fiscales estatales). 

@riadaaraes Tik Tok has to take notice of this. #csasurvivor #protectthechildren #onlinesafety #internetsafety #tiktok #help ♬ original sound - Riada


TikTok tiene “tolerancia cero con el material de abuso sexual infantil y este comportamiento abominable que está estrictamente prohibido en nuestra plataforma”, dijo el portavoz Mahsau Cullinane en un correo electrónico. "Cuando nos damos cuenta de cualquier contenido, lo eliminamos inmediatamente, prohibimos cuentas y presentamos informes [al Centro Nacional para Niños Desaparecidos y Explotados]". La compañía también dijo que todos los videos publicados en la plataforma, tanto públicos como privados, incluidos aquellos que solo pueden ver la persona dentro de la cuenta, están sujetos a la moderación de la IA de TikTok y, en algunos casos, a una revisión humana adicional. Los mensajes directos también pueden ser monitoreados . Según TikTok, las cuentas que intentan obtener o distribuir material de abuso sexual infantil se eliminan.

La aplicación ofrece herramientas que se pueden utilizar para marcar cuentas, publicaciones y mensajes directos que contengan material infractor. Forbes utilizó esas herramientas para informar sobre una serie de videos y cuentas que promocionaban y reclutaban para grupos de publicaciones privadas; todos respondieron "sin infracción". Cuando Forbes señaló a TikTok varios de estos aparentes descuidos por correo electrónico, la compañía confirmó que el contenido era infractor y lo eliminó de inmediato. 

La moderación de TikTok a menudo no actúa adecuadamente sobre el contenido "publicado en privado" que los usuarios marcan.  Muchos de estos informes resultan "sin violación". 


Peligro escondido a plena vista. 

Este fenómeno de “publicar en privado”, al que algunos llaman publicar en modo “Solo yo”, no es difícil de encontrar en TikTok. Si bien una búsqueda sencilla de "publicar en privado" devuelve un mensaje que dice "esta frase puede estar asociada con un comportamiento o contenido que viola nuestras pautas", algospeak evade fácilmente la advertencia . 

Errores tipográficos deliberados como “prvt”, jerga como “priv”, frases confusas como “postprivt” y hashtags como #postinprvts son solo algunos de los términos de búsqueda que arrojaron cientos de cuentas e invitaciones para unirse aparentemente infractoras. Algunas publicaciones también incluyen #viral o #fyp (abreviatura de “Página para ti”, el feed que ven más de mil millones de usuarios de TikTok cuando abren la aplicación) para atraer más miradas. TikTok le dijo a Forbes que prohíbe las cuentas y el contenido que mencionen "publicar en privado" o variaciones de esa frase. 

Sólo después de que Forbes señalara ejemplos de algohabla problemática, TikTok bloqueó algunos hashtags y búsquedas que ahora muestran una advertencia: “Este contenido puede estar asociado con contenido sexualizado de menores. Crear, ver o compartir este contenido es ilegal y puede tener consecuencias graves". 

Las cuentas de "publicación en privado" no son difíciles de encontrar en TikTok y, siguiendo unas pocas, se obtienen recomendaciones para muchas más. 


A los pocos días de que un usuario activo de TikTok siguiera una pequeña cantidad de estas cuentas privadas, el algoritmo de la aplicación comenzó a recomendar docenas más con biografías similares como "pos.tinprivs" y "logintoseeprivatevids". Las sugerencias comenzaron a aparecer con frecuencia en el feed "Para ti" del usuario acompañadas de música de ascensor de jazz y una opción para "Seguir" en la parte inferior de la pantalla. TikTok no respondió una pregunta sobre si se priorizan las cuentas con material sexual. 

Con poco esfuerzo, se envió al usuario información de inicio de sesión para varios identificadores de publicaciones privadas. El proceso de investigación, cuando lo hubo, se centró principalmente en el género y se comprometió a aportar imágenes. Una persona que estaba reclutando chicas para publicar en su cuenta privada recién creada envió un mensaje diciendo que estaba buscando chicas mayores de 18 años, pero que con chicas de 15 a 17 años serían suficientes. (“Le doy el correo electrónico y la contraseña [palabra] a personas en las que creo que se puede confiar”, dijo. “No siempre funciona”). Otras publicaciones reclutaron a niñas de “13+” y “14-18”. 


Acceder a una cuenta de publicación privada es una cuestión sencilla y no requiere verificación en dos pasos. Los usuarios de TikTok pueden activar esta capa adicional de seguridad, pero está desactivada de forma predeterminada. 

Una cuenta contenía más de una docena de vídeos ocultos, varios de los cuales mostraban a chicas jóvenes que parecían menores de edad. En una publicación, se podía ver a una joven quitándose lentamente el uniforme escolar y la ropa interior hasta quedar desnuda, a pesar de que TikTok no permitía "contenido que representara a un menor desnudándose". En otro, se podía ver a una niña follando con una almohada en una habitación con poca luz, a pesar de que TikTok prohíbe “contenido que represente o implique actividades sexuales menores”. Otros dos mostraban a niñas en los baños quitándose las camisas o los sujetadores y acariciándose los pechos. 

Las publicaciones de TikTok que promocionan estas cuentas privadas ilícitas a menudo se leen como anuncios.USUARIO DE TIKTOK. 


En estos grupos secretos también participan usuarios de TikTok que dicen ser menores. En una invitación reciente para unirse a una cuenta privada, niñas que decían tener 13, 14 y 15 años pidieron que se les permitiera ingresar. Sus edades y géneros no pudieron verificarse de forma independiente. 

Las biografías y comentarios de otros usuarios pedían a las personas que trasladaran las publicaciones privadas y el intercambio de TikTok a otras plataformas sociales, incluidas Snap y Discord, aunque TikTok prohíbe explícitamente el contenido que "dirija a los usuarios fuera de la plataforma para obtener o distribuir CSAM". En uno de esos casos, una comentarista llamada Lucy, que afirmó tener 14 años, tenía un enlace a un canal de Discord en su biografía de TikTok. "PO$TING IN PRVET / Únase a Priv Discord", decía la biografía. Ese enlace llevó a un canal de Discord de unas dos docenas de personas que compartían pornografía de personas de todas las edades, en su mayoría mujeres. Varias de las publicaciones de Discord tenían una marca de agua de TikTok, lo que sugería que se habían originado o compartido allí, y presentaban lo que parecían ser chicas desnudas menores de edad masturbándose o practicando sexo oral. El propietario del servidor Discord amenazó con expulsar a las personas del grupo si no aportaban material nuevo. 

El contenido que daña a niños "no tiene cabida en Discord ni en la sociedad", dijo en un comunicado John Redgrave, vicepresidente de confianza y seguridad de Discord. "Trabajamos incansablemente para mantener este contenido fuera de nuestro servicio y tomamos medidas inmediatas cuando nos damos cuenta de ello, incluida la prohibición de usuarios, el cierre de servidores y, cuando corresponda, la colaboración con las autoridades correspondientes". 


Estas actividades son inquietantemente comunes en las principales aplicaciones de redes sociales que apoyan entornos cerrados, según Haley McNamara, directora del Centro Internacional sobre Explotación Sexual. "Existe una tendencia a que los espacios cerrados o semicerrados se conviertan en vías fáciles para que los abusadores de niños establezcan redes, personas que quieran intercambiar materiales sobre abuso sexual infantil", dijo a Forbes. 

“Ese tipo de espacios también se han utilizado históricamente para preparar e incluso vender o publicitar a personas para el tráfico sexual”. Dijo que además de Snap y Discord, la organización ha visto un comportamiento comparable en Instagram, ya sea con grupos cerrados o con la función de amigos cercanos. 

La empresa matriz de Instagram, Meta, se negó a hacer comentarios. Snap le dijo a Forbes que prohíbe la explotación o el abuso sexual de sus usuarios y que cuenta con varias protecciones para dificultar que los depredadores y extraños encuentren adolescentes en la plataforma. 

Sobre el papel, TikTok tiene fuertes políticas de seguridad que protegen a los menores, pero “lo que sucede en la práctica es la verdadera prueba”, afirmó McNamara. Cuando se trata de vigilar proactivamente la sexualización de niños o el comercio de material de abuso sexual infantil, añadió, “TikTok está detrás”. 

"Estas empresas tecnológicas están creando nuevas herramientas o funciones y las implementan sin considerar seriamente el elemento de seguridad en línea, especialmente para los niños", añadió, pidiendo que se creen mecanismos de seguridad en proporción a la configuración de privacidad. "Esta función 'Solo yo' es el último ejemplo de empresas de tecnología que no dan prioridad a la seguridad infantil ni desarrollan formas proactivas de combatir estos problemas desde el principio". 


La Dra. Jennifer King, becaria de política de datos y privacidad del Instituto Stanford para la Inteligencia Artificial Centrada en el Humano, dijo que ve casos de uso legítimos para este tipo de configuración de privacidad. (TikTok dijo que los creadores pueden usar la función mientras prueban o programan su contenido). Pero King cuestionó la decisión de TikTok de no tener autenticación de dos factores predeterminada, un estándar de la industria, y por qué TikTok no detecta múltiples inicios de sesión que van en contra de la política de la plataforma. 

"Esa es una señal de alerta, [y] puedes estar absolutamente seguro de que esto está sucediendo", dijo King, quien anteriormente creó una herramienta para Yahoo para buscar material de abuso sexual infantil. 

"A menudo es una carrera contra el tiempo: creas una cuenta [y] publicas una tonelada de CSAM o consumes una gran cantidad de CSAM lo más rápido posible, antes de que la cuenta sea detectada, cerrada, reportada... se trata de distribuir lo más rápido posible". posible”, explicó. Las personas en este espacio esperan tener estas cuentas solo por un par de horas o días, dijo, por lo que detectar y bloquear inicios de sesión inusuales o frecuentes (lo cual no es técnicamente difícil de hacer) podría "reforzar esos objetivos o cerrar esas lagunas" que la gente está aprovechando las ventajas de esto. 

"Se puede saber absolutamente que esto está sucediendo". 

Dra. Jennifer King, Instituto Stanford para la Inteligencia Artificial Centrada en el Humano. 

A pesar de su política que prohíbe compartir credenciales de inicio de sesión, TikTok le dijo a Forbes que hay razones para permitir que varias personas accedan a la misma cuenta, como gerentes, publicistas o estrategas de redes sociales que ayudan a administrar los identificadores de los creadores. La compañía también señaló que se requiere autenticación de dos factores para algunos creadores con muchos seguidores.

Si bien las cuentas públicas populares con grandes audiencias tienden a atraer un mayor escrutinio, "una sola cuenta que no parece tener mucha actividad y que publica un par de videos" puede pasar desapercibida, dijo King. Pero TikTok sostiene que todos los usuarios, independientemente del número de seguidores, están sujetos a las mismas pautas comunitarias y que la plataforma intenta hacer cumplir esas reglas de manera consistente. 

Adair, la creadora y defensora de la seguridad de los niños, se ha quejado de que está haciendo el trabajo de moderación de contenido de TikTok para la compañía, manteniéndose al tanto de las formas siempre cambiantes en que las personas en la aplicación explotan la tecnología o la usan para cosas distintas a las previstas. Pero sus esfuerzos por contactar con TikTok han sido infructuosos. 

"Casi todos los menores que se han acercado a mí no les han contado a sus padres lo sucedido". 

Seara Adair, creadora de TikTok y sobreviviente de abuso sexual infantil. 

Adair dijo que se fue de “juerga en LinkedIn”, enviando mensajes a los empleados sobre confianza, seguridad y protección para agravar el problema.

"Pido disculpas si esto está cruzando un límite, pero estoy desesperada por darle la atención que necesita", le escribió a un empleado de TikTok, describiendo la "publicación privada" y la forma en que cree que los usuarios están engañando a la IA "al publicar una imagen negra". pantalla durante los primeros segundos” de estos videos. 

“Yo personalmente vi uno de los videos que habían sido desprivados y era un niño completamente desnudo y haciendo cosas indecentes. Denuncié el video y no encontré ninguna violación”, continuó. “Desde que publiqué mi video sobre esto, dos niños se acercaron y compartieron cómo fueron preparados por una de estas cuentas y luego se les informó que había un adulto detrás de las cuentas. Por favor. ¿Hay algo que puedas hacer para ayudar?" 

Adair "nunca recibió respuesta de nadie", le dijo a Forbes. "Ni una sola persona." 

Pero sigue escuchando a usuarios de TikTok, incluidas muchas chicas jóvenes, que han tenido problemas con las publicaciones en privado. “Casi todos los menores que se acercaron a mí no les contaron a sus padres lo sucedido”, dijo Adair. "Es el miedo y lo desconocido que experimentan, y la exposición que terminan teniendo en esta situación, lo que me rompe el corazón". 


*Fuente: Forbes. Alexandra S. Levine, Forbes Staff.

_____________

 CULTURIZ.AR   MEDIOS 

« ANTERIOR
SIGUIENTE »