[ad_1]
Por Morgan Sung – NBC News
TikTok ha puesto en marcha un sistema de clasificación de contenidos para evitar que los jóvenes vean vídeos considerados inapropiados, junto con nuevas funciones que permitirán a los usuarios personalizar sus páginas.
Al igual que las clasificaciones de edad utilizadas para las películas y los videojuegos, el sistema de clasificación de contenidos organizará los vídeos en función de la “madurez temática”, según anunció TikTok el miércoles.
En un “enfoque exclusivo de TikTok”, la plataforma marcará los vídeos que contengan “temas maduros o complejos” y les asignará una “puntuación de madurez”. La calificación del vídeo determinará si los usuarios de TikTok menores de 18 años pueden verlo o no mientras se desplazan por su canal.
[Una madre demanda a TikTok por la muerte de su hija de 10 años durante un reto viral]
Las Directrices de la Comunidad de TikTok no cambiarán, pero sí lo hará la forma de mostrar los contenidos a determinados públicos.
“Dentro de estas estrictas políticas, entendemos que la gente puede querer evitar ciertas categorías de contenido basándose en sus preferencias personales”, según el Jefe de Confianza y Seguridad de TikTok, Cormac Keenan, en el anuncio.
“O, para los miembros de nuestra comunidad adolescente, algunos contenidos pueden contener temas maduros o complejos que pueden reflejar experiencias personales o eventos del mundo real que están destinados a audiencias mayores”, detalló.
Las escenas de ficción consideradas “demasiado aterradoras o intensas para el público más joven”, por ejemplo, no aparecerán en las páginas de Para ti de los usuarios menores de 18 años.
[TikTok me hizo leerlo: cómo autores y lectores latinos aprovechan el algoritmo]
TikTok ha sido criticada por exponer a los niños a contenidos inapropiados. El año pasado, la Organización Europea de Consumidores (BEUC, por su sigla en inglés) presentó una denuncia contra la empresa, alegando que TikTok no protegía a los usuarios menores de edad de la publicidad oculta y los vídeos “potencialmente dañinos”.
En un comunicado de prensa, la BEUC acusó a TikTok de “no haber actuado con la debida diligencia” en la protección de los niños, ya que los vídeos sugerentes están “a unos pocos scrolls de distancia”.
No está claro cómo verificará TikTok si un usuario tiene o no 18 años. Los usuarios de TikTok deben tener al menos 13 años para utilizar la versión completa de la aplicación, según sus términos y condiciones de servicio.
En Estados Unidos, los usuarios menores de 12 años entran en la experiencia TikTok for Younger Users, que permite el control parental y una interacción limitada con otros usuarios.
Un estudio financiado por la Unión Europea (UE) y publicado este año concluyó que los controles de edad en las redes sociales son en gran medida ineficaces, ya que los usuarios de diversas plataformas pueden autodeclarar cualquier edad.
Los usuarios de TikTok solo tienen que presentar un documento de identidad con fotografía cuando solicitan cambiar su edad en una cuenta existente, pero no cuando se registran en una.
Además de las salvaguardias para evitar que los usuarios jóvenes vean contenido para adultos, TikTok está actualizando su algoritmo para diversificar las recomendaciones que muestra a los usuarios basadas en el contenido con el que han participado anteriormente, desde proyectos de bricolaje para inquilinos hasta conversaciones controvertidas sobre la actualidad.
Para evitar que los usuarios se queden viendo vídeos sobre los mismos temas una y otra vez, TikTok está introduciendo una herramienta que permite a los espectadores filtrar los vídeos con determinadas palabras clave o etiquetas.
[TikTok suspende el contenido nuevo y las transmisiones en vivo en Rusia]
Seguir viendo vídeos sobre determinados temas puede ser, en el mejor de los casos, agotador y, en el peor, desencadenante. El contenido sobre temas delicados como los trastornos alimenticios, la salud mental y el abuso doméstico, por ejemplo, es casi imposible de evitar mientras se desplaza en TikTok.
El año pasado, TikTok comenzó a probar formas de evitar que los usuarios vean contenidos que “pueden estar bien como un solo vídeo, pero potencialmente problemáticos si se ven repetidamente”.
Es probable que los espectadores vean menos vídeos sobre dietas, fitness extremo, tristeza y “otros temas de bienestar” que podrían ser “experiencias de visualización desafiantes o desencadenantes”. En su publicación en la sala de prensa, TikTok reconoció el matiz que supone la moderación de contenidos sensibles: la plataforma tiene un historial de supresión de contenidos de creadores que son “vulnerables al ciberacoso”, como los discapacitados y el colectivo LGBTQ creasaidTok también ha sido criticado por marcar y retirar de forma desproporcionada contenidos de creadores negros.
“A medida que continuamos construyendo y mejorando estos sistemas, estamos entusiasmados con la oportunidad de contribuir a los desafíos de toda la industria desde hace mucho tiempo en términos de construir para una variedad de audiencias y con sistemas recomendados”, continuó Keenan. “También reconocemos que lo que pretendemos conseguir es complejo y que podemos cometer algunos errores”, concluyó.
[ad_2]
Source link