En internet nada es lo que parece. Estamos acostumbrados a leer titulares que prometen sorprendernos con “lo que sucedió a continuación” y a encontrar noticias falsas y vídeos manipulados a diario en redes sociales. Ahora mismo cualquiera con un ordenador o móvil, y aún sin ningún conocimiento sobre edición, puede poner en boca de quien quiera palabras que nunca ha dicho o hacerlo protagonista de acciones que nunca ha hecho. Los deepfakes –vídeos falsos de personas aparentemente reales creados con inteligencia artificial– son la máxima expresión de la manipulación.

Esta técnica, que mezcla el deep learning de los sistemas de inteligencia artificial con la falsificación, se popularizó en 2017 a raíz de unos vídeos porno publicados en Reddit en los que los rostros de las actrices originales eran sustituidos por los de Gal Gabot, Taylor Swift, Emma Watson y Scarlet Johansson, entre otras. Sin embargo, dado su evidente potencial, el deepfake pronto empezó a utilizarse en todo tipo de vídeos.

Hemos visto a Jim Carrey suplantando a Jack Nicholson en El resplandor, a Barack Obama insultando a Donald Trump, a Mark Zuckenberg confesando la manipulación de información de los usuarios de Facebook, a Carrie Fisher en el papel de una joven Princesa Leia que no interpretó realmente, a Pedro Sánchez, Pablo Casado, Pablo Iglesias, Albert Rivera y Santiago Abascal convertidos en el Equipo A (o más bien en el Equipo E)… Esta técnica de inteligencia artificial no deja de ser un recurso más en las creaciones audiovisuales, aunque puede entrañar muchos riesgos, sobre todo relacionados con la desinformación.

Si vídeos reales sacados de contexto son carne de bulos y noticias falsas a diario y corren como la pólvora en Twitter y Facebook, cómo no van a tener peligro los vídeos falsos. El uso perverso de deepfakes no solo puede afectar al crédito de personajes públicos, sino que también puede minar la credibilidad del discurso político en general y corromper la confianza de la sociedad. Hay quien incluso pone el foco en un riesgo mayor a largo plazo: la distorsión del relato histórico.

¿Cómo contar la historia?

La historia es la disciplina que estudia los sucesos del pasado. Por lo tanto, lo que hoy acontece será estudiado en el futuro y parte de las fuentes históricas a través de las que se lleven a cabo las investigaciones serán vídeos, igual que ahora se recurre al nodo, por ejemplo. Hasta ahí todo bien. La cuestión es: teniendo en cuenta la proliferación de vídeos falsos y la difusión masiva de los mismos en redes sociales, ¿podrían los deepfakes adulterar el relato histórico que en el futuro se haga de los hechos del presente?

Los más pesimistas creen que sí. Sin embargo, esa afirmación demuestra poca confianza en las generaciones futuras, tanto en su capacidad de investigación como en los medios técnicos con los que contarán. Siempre ha habido falsificaciones y narraciones interesadas de la historia, y las seguirá habiendo. Es prácticamente imposible determinar en qué medida los deepfakes representarán un lastre para los futuros historiadores. A fin de cuentas, los vídeos falsos, como producto de nuestro tiempo, reflejan perfectamente las características de la sociedad contemporánea, atestiguan esa era de la posverdad sobre la que tantos ríos de tinta han corrido.

Lo que sí es una realidad son los riesgos que los deepfakes entrañan en el presente y existen ya medidas para plantarles cara. Evidentemente, ante cualquier vídeo sospechoso, lo primero es comprobar la fuente, rastrear su origen e incluso contrastarlo utilizando aplicaciones, sitios web y demás herramientas de verificación. Eso es algo que cualquiera como usuario puede hacer, pero no sustituye el papel de las grandes redes sociales, que tienen capacidad para controlar y evitar la difusión masiva de contenidos falsos. Facebook, por ejemplo, ya ha anunciado la prohibición de este tipo de montajes. Además, existen varios proyectos prometedores en la lucha contra los deepfakes.  

¿Cómo detectar deepfakes?

La estrategia más básica para evitar que cunda el pánico con los deepfakes es la potenciación de archivos digitales como el Internet Archive, una especie de biblioteca en la que se conservan capturas de sitios web, recursos multimedia y software. Este tipo de recopilaciones son el sustento con el que contrastar los contenidos y verificar si un vídeo es auténtico o si ha sido modificado.

Otro proyecto destacable, aunque con sus limitaciones, es la Content Authenticity Initiative (CAI), en la que participan Adobe, Twitter, New York Times y la BBC, entre otros. Esta iniciativa consiste en un sistema encriptado de etiquetas de metadatos que sirven para identificar la procedencia y al creador del vídeo o contenido en cuestión. La idea es que si el vídeo no ha sido manipulado y el creador es fiable, el contenido también lo será.

Evidentemente, los esfuerzos también están puestos en mejorar la capacidad de detección de deepfakes. Cuanto mayor desarrollo alcance la inteligencia artificial, más perfectas serán las falsificaciones, pero al mismo tiempo también mejorarán los sistemas de detección. La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), por ejemplo, trabaja en esta línea. Su programa SemaFor tiene como objetivo detectar deficiencias semánticas en las falsificaciones. Esas deficiencias semánticas podrían ser, por ejemplo, unos dientes anatómicamente incorrectos o una joya culturalmente fuera de lugar.

En definitiva, los deepfakes han llegado para quedarse. El potencial de esta técnica de inteligencia artificial es inimaginable. Pero si la tecnología nos trae el problema, recurramos también a ella para buscar la solución.