Ya os hemos hablado en más de una ocasión sobre los deepfakes, vídeos hiperrealistas (o que pretenden serlo) que no son reales. Hoy volvemos a poner el tema sobre la mesa porque los deepfakes pornográficos están arruinando la vida de muchas personas, principalmente mujeres, y no solo de superfamosas.

Para empezar, hay que tener en cuenta que, si bien la palabra deepfake puede venir de la unión de Deep learning (aprendizaje profundo, usado por inteligencias artificiales) y fake (falso), también puede venir del usuario deepfakes de Reddit.

En diciembre de 2017 se denunció en Motherboard a este usuario porque estaba utilizando tecnologías de código abierto para crear videos pornográficos de actrices superfamosas. Teniendo en cuenta cómo hemos empezado, no es difícil imaginar cómo terminará.

Bots especializados

Sensity AI, una compañía de ciberseguridad, ha estado investigando estos videos deepfakes. En septiembre de 2019 publicaron un informe donde descubrían que el 96% de los vídeos deepfake que hay online son vídeos pornográficos. En el informe también hallaron que en las 5 páginas web pornográficas sobre deepfakes más populares, todos estos vídeos estaban protagonizados por mujeres.

Resultados en inglés de encuesta "¿En quién estás más interesado en desvestir?"
Estrellas, celebridades, actrices y cantantes: 16%
Modelos de Instagram: 8%
Familiares, niñas que conozco en la vida real: 63%
Simplemente diferentes niñas de internet: 7%
No estoy interesado en desvestir niñas: 6%
[63% de niñas que conocían en la vida real, 7% de otras niñas en internet. Fuente: Sensity AI]

Sensity AI realizó otro informe en octubre del año pasado donde se centraban en un bot de Telegram (ya eliminado) que “desnudaba a niñas” utilizando tecnologías como esta. En este bot, se habían editado las imágenes de 104 852 chicas para finales de julio de 2020. La gran mayoría (70%) de usuarios que habían utilizado este bot lo habían hecho con el objetivo de conseguir imágenes pornográficas de personas anónimas, la mayor parte con el objetivo de desnudar a niñas que conocían en la vida real.

Un caso real

Helen Mort es una poeta inglesa. En 2020 descubrió que había imágenes suyas pornográficas en internet que llevaban subidas desde hacía varios años. El problema es que ella nunca se había hecho esas fotografías. Habían sido creadas utilizando imágenes que había subido a sus redes sociales como Facebook, ella de vacaciones, embarazada o cuando era una adolescente. Algunas eran ediciones sencillas, se podía saber que no eran reales, pero otras eran deepfakes complejos e hiperrealistas, explícitas y violentas.

Mort intentó acudir a la policía, pero no se podía denunciar. No solo porque no hay legislación sobre ello, también estaba el hecho de que era imposible rastrear quién había creado esas imágenes. Ella explica que, a lo mejor, ya había pasado un año desde que dejaran de subir hasta que ella descubriera todo. Aún así, la policía le dijo que ella no era el único caso de este estilo.

Cambiar la ley

Aislinn O’Connell, profesora de derecho de la Universidad Royal Holloway, explicó a BBC News que este tipo de casos no están previstos en las leyes actuales. A pesar de que el revengeporn si está penado, el hecho de que no se distribuyeran imágenes sexuales privadas de Mort, solo se fusionaran con unas que sí eran, hace que no se pueda perseguir. Además, la pornovenganza, según las leyes inglesas, tiene el objetivo de “causar angustia a la persona representada”. Dado que las fotos no se compartieron con Helen directamente (de hecho, ella tardó años en descubrirlo) “la intención no era causarle angustia, aunque evidentemente la causó”.

De hecho, los únicos lugares donde Helen Mort podría haber recibido ayuda se encuentran en California y Virginia, Estados Unidos, donde sí están contempladas las ediciones y deepfakes pornográficos. Aunque en Reino Unido están revisando la ley para ver si se deberían incluir y habrá una consulta pública dentro de poco.

¿Y en España qué?

En España ha habido sentencias contra la pornovenganza. El artículo 197.7 del Código Penal establece que:

7. Será castigado con una pena de prisión de tres meses a un año o multa de seis a doce meses el que, sin autorización de la persona afectada, difunda, revele o ceda a terceros imágenes o grabaciones audiovisuales de aquélla que hubiera obtenido con su anuencia en un domicilio o en cualquier otro lugar fuera del alcance de la mirada de terceros, cuando la divulgación menoscabe gravemente la intimidad personal de esa persona.

Así, un hombre fue condenado en febrero de 2020 a pagar 6 euros al día durante seis meses por enviar a terceros fotos íntimas de su expareja. Fue condenado por descubrimiento y revelación de secretos. Pero, como se puede entender, los deepfakes pornográficos no entrarían dentro de este artículo, no son reales.

Sin embargo, para los deepfakes es algo más complicado. Hemos intentado hablar con una asociación de juristas y estamos esperando a obtener respuesta.

Si bien es cierto que este artículo no termina de gustar a todo el mundo por su abstracción: ¿y si el contenido se hubiera grabado en un hotel o hubiera habido terceros en el acto? De hecho, solamente se impondría el delito al primero que rompiera la confianza, pero si se formaran cadenas y se enviara este vídeo y se reenviara, a los siguientes no les pasaría nada.

Solo sí es sí

Sin embargo, para terminar, sería buena idea hablar de algo que comentó Helen Mort en su vídeo: “La sociedad me dijo que la mejor forma de evitar el revengeporn es no enviar imágenes comprometedoras. De la misma forma que para evitar el abuso sexual es controlar tu comportamiento, forma de vestir y el consumo de alcohol”. Sin embargo, eso no evitó que no se crearan esas imágenes atormentadoras. Al grabar el vídeo, también temía que pudiera suponer que más personas crearan este tipo de vídeos como venganza por llamar la atención sobre este tema.

Campaña de injuve: "No puedes compartirlas sin su consentimiento. Prevención de la "porno venganza" y otros delitos". 
Es un dibujo de dos personas desnudas sobre una cama, hay ropa tirada en el suelo. La chica tiene piel oscura y pelo marrón rizado. El chico tiene piel pálida y pelo corto y marrón. Están posando para un selfie o un vídeo. 
La cama tiene sábanas azules y las paredes son moradas. 
Otro cartel naranja más abajo indica que "Que ella haya consentido que os grabéis en vuestra intimidad no te da derecho a compartir, nunca, esas imágenes, aunque tú también las protagonices."

Marcelo Echevarría, especialista en derecho penal, escribió sobre esta sentencia del Tribunal Supremo (que establece Jurisprudencia, cómo interpretar una norma jurídica) que “deja aclarado que la víctima no renuncia ni a su intimidad ni a su privacidad al enviar una foto o grabación de carácter privado”.

Nos tendríamos que preguntar por qué se sigue culpabilizando a las víctimas y no tanto a los agresores.  Que si iba con ropa ajustada, que si iba borracha, que si envió esas fotos… Al final, nos tenemos que dar cuenta de que la culpa no es de las víctimas. Los deepfakes pornográficos se hicieron con fotos subidas a redes sociales, fotos familiares, ¿la culpa es de esas mujeres o es de los que manipularon las imágenes?