Allá por 2017 comenzó una nueva moda en el mundo de la informática: meter la cara de alguien en el cuerpo de otro. Pero no de forma burda, sino con la intención de hacernos creer que esa cara pertenecía, de verdad, a ese cuerpo. Y a esta técnica se le llamó deepfake. Por supuesto, hubo una industria que vio un filón ahí… y ahora ha llegado a la política.

Como bien sabéis en los lugares más oscuros de la red hay páginas repletas de vídeos falsificados donde pretenden engañar a los usuarios con que “esa actriz que tanto les gusta” ha protagonizado “este vídeo porno casero tan de moda”. Obviamente nada de esto es real, sino que se trata de deepfakes, los cuales proliferaron en el sector del porno y, casi siempre, con las mujeres como objetivo.

[Es chungo y burdo, pero si no fueran personas conocidas alguno caería]

Tal y como explican en la revista Wired, la empresa de seguridad cibernética Sensity, con sede en Ámsterdam y fundada en 2018 para luchar contra la falsificación en los medios visuales, el número de vídeos de pornografía que usan la falsificación profunda en línea (deepfakes) se duplica cada seis meses, y para el próximo verano habrá 180.000 disponibles para su visualización. Para 2022, ese número habrá alcanzado los 720.000 y muchos de ellos serán en el campo de la política.

Y si hacer creer que alguien ha protagonizado un vídeo porno es terrible, el engañar al mundo con declaraciones de políticos es aterrador, ya que entraríamos en un mundo donde los ciudadanos no podríamos diferenciar qué es verdad y qué es mentira… y mira que con Donald Trump ya se nos puso difícil la cosa.

[Pese a ser en clave de humor, este vídeo es el ejemplo perfecto de lo que se puede hacer]

Para luchar contra los deepfakes, muchas empresas están trabajando en soluciones que, una vez analizado el vídeo dudoso, es capaz de discernir si ha sido manipulado o no.

Y entre los proyectos en marcha tenemos: el de la Agencia de Proyectos de Investigación Avanzada de la Defensa de los Estados Unidos (más conocida como DARPA), la cual está desarrollando lo que llama su programa Media Forensics (MediFor), que utiliza la IA para detectar y exponer manipulaciones; y luego el de la Iniciativa de Autenticidad de Contenidos de Adobe, la cual busca desarrollar un estándar de la industria para la atribución de contenidos digitales.

[Seguir la huella del creador del deepfakes para perseguirlo a nivel legal]

Eso sí, como exponen en el artículo, este problema no se solucionará sólo con tecnología, sino que tendrá que llegar junto a la educación, ya que o bien enseñamos a la sociedad que no pueden creerse todo lo que vean, por muy creíble que sea, o será imposible atajar todos los vídeos manipulados que inunden la red. Y es que si esto ya nos pasa con falsificaciones burdas que nos llegan por redes sociales, imaginaos una acción bien ejecutada y coordinada. ¿Vienen tiempos difíciles?