El potencial de la inteligencia artificial es enorme, pero todavía hay puestos en los que los humanos son indispensables. Buena prueba de ello es que YouTube ha anunciado esta semana que volverá a utilizar moderadores humanos para filtrar el contenido dañino, debido a la falta de criterio de la inteligencia artificial.

A finales de marzo, cuando la pandemia lo puso todo patas arriba, YouTube decidió dar prioridad a los sistemas automatizados como medida sanitaria para proteger a su personal, asumiendo que eso conllevaría fallos en el cribado de contenidos. “Al contar con una capacidad humana de revisión muy reducida debido a la COVID-19, nos vimos forzados a elegir entre una posible falta de aplicación o una aplicación excesiva [de la política]”, reconocía la filial de Alphabet en un comunicado a finales de agosto.

Como vale más pecar por exceso que por defecto, la plataforma se decantó por la segunda opción y, efectivamente, se confirmaron las predicciones. Entre abril y junio, YouTube eliminó 11,4 millones de vídeos, más de dos millones más que en el mismo periodo de 2019. “Incluso 11 millones es una fracción diminuta del total de vídeos de YouTube, pero es un número mayor que en el pasado”, ha reconocido el gerente de producto Neal Mohan en la entrevista a Financial Times en la que ha anunciado el retorno de los moderadores humanos.

Este incremento se debió a que el algoritmo de YouTube borró contenido que no violaba las normas de la plataforma, algo que ya se preveía que sucediera, por lo que la compañía había reforzado previamente el servicio de apelaciones. En el segundo trimestre de este año, YouTube registró 325.000 apelaciones por eliminación de contenido, más del doble que en el trimestre anterior, y finalmente tuvo que restaurar 160.000 vídeos.

Tal y como reconoce Mohan, el problema está en que la aprobación o eliminación de algunos vídeos exige “decisiones matizadas” que los algoritmos no son capaces de tomar. Aunque los sistemas de inteligencia artificial han avanzado en la detección de violencia y pornografía, la falta de criterio a la hora de tomar decisiones es especialmente acusada en temas relacionados con discursos de odio y acoso.

[ Créditos: Unsplash ]

El sistema identifica correctamente los vídeos “potencialmente dañinos”, pero falla al tomar la decisión de eliminarlos o no. “Ahí es donde entran en juego nuestros moderadores humanos, que toman decisiones que tienden a ser más matizadas, especialmente en áreas como el discurso de odio, la desinformación médica o el acoso”, explica Mohan.

En cambio, el directivo aplaude la rapidez del algoritmo: “más del 50% de esos 11 millones de vídeos [borrados entre abril y julio] fueron retirados sin que ningún usuario los viera y el 80% fueron eliminados con menos de 10 visualizaciones”. Por lo tanto, YouTube volverá a combinar moderadores humanos e inteligencia artificial para lograr una estrategia de filtrado de contenido dañino tanto eficaz como eficiente.