No son pocas las veces que hemos traído a la palestra a TikTok, Facebook, Instagram y otras redes sociales, ya que sus decisiones, acciones y anuncios afectan a miles de millones de personas. Y eso, siempre es noticia. El problema es que los motivos por los que suelen salir en los medios pocas veces son positivos o buenos.

Lo de hoy os traemos sobre TikTok es, sin duda, una mirada al abismo de lo que pueden convertirse las aplicaciones sociales si no tenemos cuidado a la hora de desarrollar los algoritmos que las regulan. Pero, ¿de qué estamos hablando? Pues de que el contenido sugerido por la aplicación china parece que tiene como principal filtro la raza y la edad de las personas.

El experto en inteligencia artificial e investigador de la universidad de la información de Berkeley, Marc Faddoul, descubrió que TikTok le recomendaba cuentas con fotos de perfiles que coincidían con la misma raza, edad o características faciales de las que ya seguía.

Para probar su teoría decidió abrir una nueva cuenta y seguir a las cuentas que le recomendaba la aplicación. Al darle a seguir a una mujer negra TikTok le comenzó a sugerir a otras tres mujeres negras.

Esto, que podía ser mera casualidad, se convirtió en algo serio al decidir seguir a un hombre asiático con el pelo teñido, ya que tras darle al botón de “seguir” TikTok comenzó a darle hombres asiáticos con el pelo teñido como personas recomendadas para él.

En la revista Wired, uno de los medios que ha destapado este problema, hicieron la prueba: Seguimos a una cuenta que el dueño de una mascota creó para su perro, y esto nos hizo que las recomendaciones fueran de cuentas de perros. Seguimos a un joven negro y esto nos llevó a recomendaciones de otros dos hombres negros y una caricatura de un hombre negro. Luego seguimos a un hombre de 87 años, lo que se tradujo en recomendaciones de otros tres hombres mayores…”.

Por supuesto, desde TikTok niegan la mayor y aseguran que no utilizan fotos del perfil de sus usuarios para desarrollar su algoritmo, y confirman que no han sido capaces de replicar los mismos resultados en sus pruebas. El problema es que como las recomendaciones se hacen en base a lo que hacen otros usuarios, el potencial de añadir un sesgo inconsciente en el algoritmo es muy alto.

El peligro de crear una cámara de eco gigante en la que tus gustos se vean replicados continuamente sin opción a descubrir nada más allá es uno de los grandes retos que tiene la aplicación ahora mismo. Diversidad y descubrimiento deben ser la base de una red social que pretende unir y conectar a todos los usuarios. Lo que hoy puede parecer una discriminación sin maldad mañana puede ser cultura de la segregación y debemos evitarlo, por nuestro bien.