Deepfakes: pornografía no consentida e inteligencia artificial

Hay algo común en la mayoría de partes de Internet que no quieren salir a la luz: un aire de complicidad, compañerismo en el crimen y sobre todo de banalización de prácticas que sólo con explicarlas hacen perder la fe en la humanidad.

La infracción se convierte en afición y los participantes intercambian alegremente detalles y técnicas para cosas que van desde lo inocuo hasta lo moralmente repugnante. Se puede construir una comunidad de usuarios en torno a cualquier cosa, y todo mensaje encuentra su audiencia. El último ejemplo son los llamados deepfakes.

La evolución del fake

La premisa de los deepfakes, popularizados en Reddit -cómo no- por una cuenta con el mismo nombre, es emplear algoritmos de inteligencia artificial para cambiar caras en vídeos, específicamente, poner la cara de actrices famosas sobre el cuerpo de actrices pornográficas. Tal como se puede deducir del nombre, pretende ser una manera de llevar más allá el fake, la dudosa ¿tradición? de Internet de retocar fotografías pornográficas o eróticas para atribuirlas a actrices famosas.

Como el ejemplo anterior con la cara de Nicolas Cage -que por cierto, utilizaremos para ilustrar todo el artículo, porque probablemente sea lo único bueno que ha salido del invento- estos cambios no engañarán a nadie que se fije de cerca, y caen de lleno en el llamado uncanny valley, pero una falta de calidad de imagen no detendrá a nadie dispuesto a invertir el tiempo y el esfuerzo necesarios para crear pornografía con la caras de quien llene sus obsesiones.

Tampoco es que se necesite demasiado tiempo y esfuerzo, sea como sea. La técnica, que popularizó el usuario que antes mencionábamos, se puede ejecutar con cualquier ordenador razonablemente potente y se basa en código libre como el de TensorFlow, una herramienta de aprendizaje máquina que Google distribuye gratuitamente. Para acabarlo de redondear, otro usuario de Reddit ha creado la llamada "FakeApp", que hace que el proceso sea tan simple como introducir un vídeo donde se quiere cambiar la cara, un banco de imágenes de la cara que se quiere insertar, pulsar un botón y esperar unas horas.

La IA aprende por sí misma y entrega un resultado más o menos pulido dependiendo de la extensión del banco de imágenes que se le aporte y del vídeo objetivo del cambio. El resultado es que resulta trivial crear vídeos de gente haciendo y diciendo cosas que nunca han hecho o dicho. Obviamente, la primera aplicación que se le dio en Internet es hacer videos pornográficos.

Actrices como Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza o Gal Gadot aparecen pegadas sobre los cuerpos de estrellas porno practicando sexo. Ni que decir tiene que aquí nadie ha dado su consentimiento ni para que se haga el vídeo ni para que se empleen sus imágenes. Y si pensáis que sólo pasará esto con actrices famosas, deteneos un momento a pensar cuántos selfies habéis colgado en Internet últimamente. Si el acoso por Internet ya es una pesadilla ahora, las posibilidades con la FakeApp son inimaginables.

Los objetos no es necesario que den consentimiento

Si ya es problemático que mucho del contenido pornográfico que se produce de manera legal termine colgado en webs que se aprovechan económicamente y no retribuyen a los participantes, los deepfakes no sólo apropian este contenido sino que además invisibilizan las actrices sobre las que se pegan las caras de las actrices mainstream.

Más allá de la obvia falta de consentimiento por parte de las dos personas que ven sus imágenes combinadas en el vídeo, que ponen los deepfakes a la altura de la pornovenganza, resulta una muestra más de objetivación femenina -la producción de deepfakes es, en la vasta mayoría, sobre pornografía dirigida a hombres heterosexuales cisgénero-. Estamos ante, literalmente, mujeres separadas por piezas intercambiables al servicio de la fantasía masculina.

En Motherboard, la hermana especializada en tecnología de Vice, entrevistaron al creador de la tecnología, y su respuesta ante las implicaciones para el consentimiento, el chantaje y la pornovenganza de su programa fueron tan decepcionantes y ambiguas como era de esperar:

"Toda tecnología se puede usar con malas motivaciones, es imposible de detener [...] la diferencia de mi algoritmo es su facilidad de uso. No creo que sea algo malo que más gente normal se interese por la investigación en aprendizaje máquina"

Pero la entrevista sería la primera gota del diluvio de atención mediática que se llevaría la comunidad de los deepfakes por delante.

Saliendo a la luz

A partir del momento en que los medios fueron a empezar a dar información sobre el tema, sobre todo en Estados Unidos -el New York Times, Vice o Forbes hicieron piezas al respecto-, el foro de la aplicación explotó: hasta 100.000 usuarios se registraron, creando y compartiendo vídeos a un ritmo incesante. La fiesta estaba a punto de acabarse. El siete de febrero, Reddit, el sitio web que amparaba este foro, actualizó sus normas sobre pornografía no consensuada:

"Hemos llevado a cabo una serie de actualizaciones a las normas aplicables a toda la web contra la pornografía no consensual y el contenido sexual o sugestivo protagonizado por menores [...] Tal como hemos dicho en anteriores comunicaciones, queremos hacer de Reddit un entorno más acogedor para todos los usuarios. Continuaremos actualizando y revisando nuestras políticas como sea necesario ".

Reddit procedería a cerrar y eliminar hasta veinte foros en su web dedicados a la elaboración de deepfakes y su distribución. La reacción de los usuarios ha sido, bien, la típica. Los participantes en los foros se amparan en la -mal entendida- libertad de expresión, acusan a los administradores de estar al servicio de la conspiración políticamente correcta, y uno de los moderadores responsables del cierre ha abierto un nuevo foro en el que comparte capturas de pantalla del acoso y las amenazas que recibe a diario. Es otro día normal en Internet.

Tras la prohibición de Reddit de este tipo de contenido, otras plataformas como Gyfcat o Pornhub la han prohibido, aunque resulta fácil de encontrarlo buscando términos como "deepfake" en estas webs. Parece que los administradores esperan -en vano- que los usuarios denuncien el contenido ellos mismos para retirarlo, o sea que su gesto ha quedado en papel mojado.

La actitud crítica como defensa

Los deepfakes han llegado para quedarse. Hay que difundir su existencia y crear una discusión relevante a su alrededor: no se puede normalizar o ignorar un contenido que ataca la dignidad de todas las implicadas de esta manera. Más allá del impacto en el mundo de la pornografía, hay que ser conscientes de que si la técnica sigue avanzando a este ritmo, dentro de unos meses será realmente difícil diferenciar estos vídeos de material real a simple vista. La herramienta más eficiente para convivir, al menos, con esta tecnología es de nuevo la actitud crítica de la sociedad. Informaos e informad a los que tenéis cerca. Tras la posverdad, llega la posrealidad.


T'agrada la nostra feina?

Marc Bellmunt

Marc Bellmunt

Doctorando en periodismo, realiza una investigación sobre la relación entre los consumidores de videojuegos y sus prácticas comunicativas. Colabora en La Garriga Digital.

Deja un comentario

Us de cookies

Aquest lloc web utilitza cookies perquè vostè tingui una millor experiència d'usuari. Si continua navegant està donant el seu consentiment i l'acceptació de la nostra política de cookies TANCAR