La clase política española como si fuese el Equipo A, Hitler y Stalin cantando Video Killed the Radio Star o Jennifer Lawrence recogiendo un premio con la cara de Steve Buscemi. Seguramente en los últimos meses usted se ha reído con alguno de estos hipnóticos deepfakes, vídeos manipulados digitalmente con las imágenes retocadas para colocar la cara de una persona en el cuerpo de otra, creando realidades paralelas confusas.

Aunque se habla mucho del potencial de esta tecnología para el engaño y la manipulación política, su principal amenaza es mucho más tangible: la pornografía sin consentimiento. Y es que, según el grupo de investigación Deeptrace, el 96% de los deepfakes detectados recrean escenas de sexo. Sensity, una compañía de inteligencia ubicada en Ámsterdam, alerta de que este 2020 estos vídeos se han popularizado, colgándose hasta 1.000 por mes.

Los primeros deepfakes aparecieron en 2017, pero mucho han cambiado desde entonces. La tecnología de inteligencia artificial es cada vez más precisa y compleja y el número de aplicaciones que facilitan la creación de esos vídeos se ha disparado. En 2016, se requirió a todo un equipo de expertos para que la princesa Leia –la ya fallecida Carrie Fisher– pudiese aparecer en la película Rogue One. Ahora, el fenómeno se ha popularizado y su accesibilidad ha llevado a que usuarios con conocimientos básicos puedan utilizar la tecnología para realizar parodias, pero también para explotar falsas recreaciones pornográficas.

Así, aplicaciones como DeepNude (ya eliminada) solo necesitan una fotografía de sus víctimas –fácilmente extraíble de su perfil de Facebook u otras plataformas– para recrear vídeos pornográficos más o menos creíbles. Eso es lo que le ha sucedido a más de 680.000 víctimas de un bot de un canal de Telegram que desnudaba las fotos que les mandaban otros usuarios. Según Sensity, antes de desarticularse la red contaba con 101.080 miembros, un 70% de los cuales residen en Rusia o el Este de Europa. En un 70% de los casos detectados, las fotos provenían de redes sociales o fuentes privadas.

Prácticamente todas las víctimas de esas manipulaciones pornográficas son mujeres famosas. Las páginas web de porno están plagadas de esos vídeos sexuales, algunos tan elaborados –gracias a la exposición mediática de esas celebridades– que son totalmente creíbles. Entre las más afectadas, según Sensity, están las actrices Scarlett Johansson, Gal Gadot y Angelina Jolie o la cantante Ariana Grande.

3.398 famosos víctimas

La envergadura del problema es difícilmente medible. Sensity trata de llevar la cuenta: en julio de 2019 había detectado 14.678 vídeos; este junio, 49.081, y a fecha de la publicación de este reportaje la cifra ya llega a los 82.266. Hasta 3.398 personajes públicos se han visto afectados por los deepfakes.

Pero los expertos advierten de que esas turbias prácticas golpean cada vez más a todo tipo de mujeres, que ni sospechan de su presencia en estos rincones oscuros de internet. Y es que, más allá de satisfacer perversas fantasías sexuales, los deepfakes de desnudos pueden servir para acosar o chantajear a sus víctimas, algo que puede traducirse en consecuencias que van desde la humillación pública a la pérdida del empleo o a la violencia de género.

“Todo esto forma parte del acoso al que las mujeres tienen que enfrentarse en el entorno digital, ya sea a través de troleo o del abuso sexualizado procedente de todos los rincones del espectro político”, explicaba la analista tecnológica Nina Jankowicz en declaraciones a BuzzFeed.

En febrero de 2018, el portal pornográfico Pornhub –cuyos vídeos se ven más de 100.000 millones de veces al año– aseguró que prohibiría la difusión de deepfakes. Sin embargo, dos años y medio después aún era sencillo encontrar una ingente cantidad de esas manipulaciones circulando por la página, violando sus propias políticas. Al visualizarlo, además, el algoritmo de Pornhub recomendaba más deepfakes con otras víctimas. A principios de diciembre, la página eliminó más de 13 millones de vídeos no consentidos de su plataforma tras destaparse que se había lucrado de la monetización de películas con violaciones o acoso a menores.

Algunos de estos canales sirven para redirigir al usuario a chats privados de Telegram, donde se venden vídeos personalizados o se dan tutoriales pagados para aprender a realizar esas manipulaciones. El fenómeno se repite en otras webs pornográficas como XVideos, xHamster o Mr. Deepfakes, donde las visualizaciones se cuentan por millones. En la última incluso se insta a los usuarios a compartir sus creaciones. Esas páginas no son residuales. XVideos y Pornhub están entre las diez webs más visitadas del mundo, más que Amazon, Netflix o Zoom.

A diferencia de lo que sucede en China o en Estados Unidos, en España no existe una legislación específica que regule los deepfakes y se utiliza la que ya regula el derecho de imagen, la protección de la privacidad y la suplantación de identidad, como explica Vanessa Alarcón, vocal de la sección de derechos de propiedad intelectual del Colegio de la Abogacía de Barcelona. En Europa, la reacción legal tiende a perseguir las consecuencias que tenga su uso, no la propia tecnología. “Regular todos los deepfakes podría llevar a censura previa”, advierte el abogado Sergio Carrasco Mayans.

Así, los vídeos manipulados con la intención de realizar parodias pueden recaer bajo el paraguas de la libertad de expresión, mientras que aquellos que atentan contra el honor y la propia imagen, como los pornográficos, pueden suponer un delito de injurias, difamación o calumnias y acarrear multas, indemnizaciones e incluso condenas. “Se te condena si eres falaz, si quieres engañar a la gente con esa manipulación”, explica el abogado Borja Adsuara.

Falsificar pruebas

La novedad de esta tecnología y los abusos que se cometen con ella hace que aún no haya respuestas claras. Consultados, los Mossos d’Esquadra confirman que no tienen un protocolo que contemple los riesgos de los deepfakes ni sus prevenciones. “A medida que vayan apareciendo nuevos casos, algo que desgraciadamente sucederá, se irán estableciendo nuevos protocolos”, señala Carrasco. Adsuara alerta de que esos métodos para manipular la realidad pueden extenderse a otros ámbitos como la falsificación de pruebas. “Aún no ha estallado, pero lo hará”, asegura.