Contra la COVID-19 se ha combatido –y se sigue combatiendo– en muchos frentes. Mientras en los hospitales aumentaba el número de casos, en redes sociales se libraba otra batalla: la de la desinformación. Twitter, WhatsApp, YouTube, Facebook… a lo largo de estos meses todas las redes sociales han anunciado medidas para blindarse frente a las noticias falsas. ¿Cuál ha sido el resultado? ¿Se ha convertido Facebook en el templo de la rigurosidad y de la información contrastada? Spoiler: no.

La plataforma de activismo mundial Avaaz ha publicado este miércoles un estudio en el que analiza cómo Facebook actúa como difusor de noticias falsas. Según el informe, el algoritmo de Facebook ayudó a que redes de desinformación sanitaria –es decir, sitios web y páginas de Facebook– lograsen, solo en el último año, 3.800 millones de visualizaciones estimadas.

El estudio de Avaaz se ha centrado en 82 webs dedicadas a temas de salud y que, según News Guard (organización periodística que califica la credibilidad de portales de noticias), no son fiables por haber compartido contenidos falsos en repetidas ocasiones y en 42 páginas de Facebook que difundían estas informaciones falsas. Estas últimas acumulan más de 28 millones de seguidores, de manera que actúan como “superdifusores” de desinformación sanitaria.

El momento en el que estas redes de desinformación alcanzaron más visualizaciones fue cuando la COVID-19 estaba en pleno auge. Durante el mes de abril lograron 460 millones de visualizaciones. Evidentemente es una cifra muy elevada y, por tanto, preocupante. Pero no es de extrañar que el pico se diera precisamente en ese periodo. Por un lado, coincide con un momento en el que aumentó el tráfico de informaciones referidas a temas sanitarios y, por otro lado, el miedo y la incertidumbre nos debilitan frente a los bulos.

En total, el contenido de las diez principales páginas difusoras de desinformación fue cuatro veces más visto que el publicado en las páginas de las diez principales instituciones sanitarias. En este último grupo, se incluyen la Organización Mundial de la Salud (OMS), el Centro Europeo para la Prevención y Control de Enfermedades (ECDC) y las autoridades sanitarias de los cinco países en los que se centra el estudio (Estados Unidos, Reino Unido, Francia, Alemania e Italia).

En el lado opuesto de la balanza, dos de los mayores “superdifusores” de desinformación sanitaria son RealFarmacy, con más de un millón de seguidores en Facebook, y GreenMedInfo, con 540.000 seguidores. Estas dos páginas concentran el 43% de las visualizaciones estimadas. En estas redes, los bulos sobre la COVID-19 han corrido como la pólvora. Por ejemplo, un artículo en el que se afirmaba que la Asociación Médica Americana animaba a los médicos a contar al alza el número de casos consiguió 160,5 millones de visualizaciones.

Las noticias falsas analizadas no se limitan a la COVID-19. Por ejemplo, en otro artículo, con 8,4 millones de visualizaciones, se aseguraba que una vacuna contra la polio financiada por Bill Gates había dejado paralíticos a casi medio millón de niños en India. Y la lista continúa: 13,4 millones de visualizaciones para un artículo que relaciona el 5G con problemas de salud, 4,5 para otro sobre curas falsas para enfermedades mortales, 2,4 para otro que afirma que la cuarentena ha sido perjudicial para la salud pública… y esto analizando solo cinco países. Pero ¿Facebook no estaba luchando contra la desinformación?

El algoritmo se rebela

A pesar de que, con el avance de la pandemia, Facebook ha reforzado sus medidas para detener bulos, de los 147 artículos analizados solo el 16% estaban etiquetados como noticias falsas. Avaaz ha desvelado que una de las técnicas para eludir este etiquetado de advertencia –que hace que el algoritmo margine las publciaciones– es republicar el contenido que contiene información falsa, ya sea total o parcialmente, puesto que existe una brecha en la capacidad de Facebook para detectar copias y variaciones de contenidos ya verificados.

Esta no es la única técnica de las redes de desinformación sanitaria para saltarse los controles de Facebook y del resto de plataformas. A principios de esta semana, la secuela de Plandemic fue promocionada en redes bajo el nombre de “Pl@andemic”. De este modo, pretendían –y lograron– evitar que el vídeo repleto de teorías de la conspiración sobre la COVID-19 fuese detectado por los algoritmos, que probablemente buscaban el término “plandemic”. He ahí el problema: el algoritmo.

Según Avaaz, el algoritmo de Facebook está socavando los esfuerzos de la propia red social por luchar contra la desinformación sanitaria. De hecho, el título del informe es bastante esclarecedor (El algoritmo de Facebook: una gran amenaza para la salud pública). Facebook no es una plataforma neutral, sino que elige qué mostrar y en qué orden. El algoritmo es el responsable de sugerir contenido a los usuarios. Lo hace en base a una gran cantidad de variables, como la cantidad de reacciones o los intereses del usuario. El objetivo es sencillo: maximizar el compromiso de los usuarios y aumentar el tiempo que pasan en la plataforma.

Los investigadores sostienen que los consumidores de este tipo de contenidos falsos tienen un alto grado de compromiso y, por tanto, lo comentan y comparten, lo que hace que el algoritmo lo interprete como consistente. De este modo, el algoritmo a menudo prioriza el contenido emotivo o controvertido frente a la información pura y dura. Además, los 125 millones de cuentas falsas que existen en Facebook tampoco ayudan a que el algoritmo deje de estar sesgado.

La vacuna contra la desinformación

La censura y la eliminación de contenido en ocasiones resulta ser contraproducente en los casos de desinformación: el difamador se convierte en víctima y la polémica está servida. A principios de mes, por ejemplo, Facebook retiró un post del equipo de Donald Trump en el que se sugería que los niños son “casi inmunes” al coronavirus. La propia Casa Blanca reaccionó calificando la acción como una “muestra de la flagrante parcialidad de Silicon Valley”.

[Créditos: Unsplash]

Por ello, el estudio de Avaaz propone una solución en dos pasos. El primer paso sería rectificar la desinformación con las correcciones de los verificadores y notificarlo a los usuarios que hayan visto esos contenidos. Según un estudio de la Universidad George Washington y la Universidad Estatal de Ohio encargado por Avaaz, esta medida reduciría la confianza en la desinformación en un 50% de media. El segundo paso sería “desintoxicar el algoritmo” delimitando la distribución de las publicaciones con contenido falso y de los actores encargados de su difusión, “lo que disminuiría hasta un 80%” el alcance de la desinformación.

A Facebook le corresponde tomar nota de todo esto, pero, mientras tanto, la responsabilidad individual es crucial. La comunidad científica teme que la desinformación sanitaria de alas al movimiento antivacunas y que la reticencia infundada de unos pocos hacia la futura vacuna ponga en peligro la inmunidad de grupo. La lucha contra la COVID-19 pasa por atajar la desinformación.