Angus CrawfordEncuestas de noticias de la BBC

Getty Images las manos de un niño que sostiene un teléfono inteligenteGetty Images

El algoritmo de Tiktok recomienda pornografía y contenido altamente sexualizado en las cuentas de los niños, según un nuevo informe de un grupo de derechos humanos.

Los investigadores han creado falsas cuentas de niños y activan los parámetros de seguridad, pero aún recibieron sugerencias de investigación sexualmente explícitas.

Los términos de investigación sugeridos han llevado a material sexualizado, incluidos videos explícitos de sexo penetrante.

La plataforma indica que está unida a experiencias seguras adaptadas a la edad y ha tomado medidas inmediatas una vez que ha experimentado el problema.

A finales de julio y principios de agosto de este año, los investigadores del grupo de campaña de testigos globales crearon cuatro cuentas en Tiktok posando durante 13 años.

Usaron fechas de nacimiento falsas y no fueron invitados a proporcionar otra información para confirmar su identidad.

Pornografía

También encendieron el «modo limitado» de la plataforma, que, según Tiktok, evita que los usuarios vean «temas maduros o complejos, como … contenido sexual sugerente».

Sin investigar ellos mismos, los investigadores encontraron abiertamente términos de investigación sexualizada recomendadas en la sección «Usted puede amar» de la aplicación.

Estos términos de investigación han llevado al contenido de mujeres que simulan la masturbación.

Otros videos han demostrado que las mujeres parpadeaban su ropa interior en lugares públicos o exponían sus senos.

En su forma más extrema, el contenido incluía películas pornográficas explícitas de sexo penetrante.

Estos videos se han integrado en otro contenido inocente en un intento exitoso de evitar la moderación del contenido.

Ava Lee de Global Witness dijo que los resultados fueron un «gran shock» para los investigadores.

«Tiktok no solo logra evitar que los niños accedan a contenido inapropiado, esto les sugiere tan pronto como crean una cuenta».

El testigo global es un grupo de campaña que generalmente estudia la forma en que la tecnología afecta las discusiones sobre los derechos humanos, la democracia y el cambio climático.

Los investigadores encontraron este problema al hacer otra investigación en abril de este año.

Videos eliminados

Informaron a Tiktok, quien dijo que había tomado medidas inmediatas para resolver el problema.

Pero a fines de julio y agosto de este año, el grupo de campaña repitió el ejercicio y encontró una vez más que la aplicación recomendaba contenido sexual.

Tiktok dice que tiene más de 50 características diseñadas para garantizar la seguridad de los adolescentes: «Estamos totalmente comprometidos a proporcionar experiencias seguras y adaptadas».

La aplicación dice que elimina nueve de cada 10 videos que violan sus directivas antes de ser vistos.

Cuando es informada por el testigo global de sus conclusiones, Tiktok dijo que ha tomado medidas para «eliminar el contenido que violó nuestras políticas y lanzar mejoras de nuestras sugerencias de investigación».

Códigos para niños

El 25 de julio de este año, los códigos infantiles de la Ley de Seguridad en línea entraron en vigor, imponiendo una obligación legal de proteger a los niños en línea.

Las plataformas ahora deben usar «un seguro de edad muy efectivo para evitar que los niños vean la pornografía. También deben ajustar sus algoritmos para bloquear el contenido que fomenta el autocontrol, el suicidio o la dieta.

Global Witness llevó a cabo su segundo proyecto de investigación después de su entrada a la fuerza de los códigos de los niños.

Ava Lee de Global Witness dijo: «Todos son aconsejables de que debamos asegurar la seguridad de los niños en línea … ahora es el momento de que los reguladores intervengan».

Durante su trabajo, los investigadores también observaron la reacción de otros usuarios bajo los términos de investigación sexualizada que fueron recomendadas.

Un comentarista escribió: «¿Alguien puede explicarme lo que está pasando con mi investigación de RECS por favor?»

Otro preguntó: «¿Qué hay de malo en esta aplicación?»

Enlace de origen