Deepfakes: pornografia no consentida i intel·ligència artificial

Hi ha quelcom comú a la majoria de parts d’Internet que no volen sortir a la llum: un aire de complicitat, companyonia en el crim i sobretot de banalització de pràctiques que només d’explicar-les fan perdre la fe en la humanitat.

La infracció es converteix en afició i els participants intercanvien alegrement detalls i tècniques per a coses que van des de l’inocu fins al moralment repugnant. Es pot construir una comunitat d’usuaris en torn a qualsevol cosa, i tot missatge troba la seva audiència. El darrer exemple són els anomenats deepfakes.

L’evolució del fake

La premissa dels deepfakes, popularitzats a Reddit –com no- per un compte amb el mateix nom, és emprar algoritmes d’intel·ligència artificial per canviar cares en vídeos. Específicament, per posar la cara d’actrius famoses sobre el cos d’actrius pornogràfiques. Tal com es pot deduir del nom, pretén ser una manera de dur més enllà el fake, la dubtosa ¿tradició? d’Internet de retocar fotografies pornogràfiques o eròtiques per a atribuir-les a actrius famoses.

Com a l’exemple anterior amb la cara d’en Nicolas Cage -que per cert, farem servir per a il·lustrar tot l’article, perquè probablement sigui l’únic de bo que ha sortit de l’invent- aquests canvis no enganyaran a ningú que s’hi fixi de prop, i cauen de ple en l’anomenat uncanny valley, però una manca de qualitat d’imatge no aturarà ningú disposat a invertir el temps i l’esforç necessaris per crear pornografia amb la cara de qui ompli les seves obsessions.

Tampoc és que calgui massa temps i esforç, sigui com sigui. La tècnica, que va popularitzar l’usuari que abans esmentàvem, es pot executar amb qualsevol ordinador raonablement potent i es basa en codi lliure com el de TensorFlow, una eina d’aprenentatge màquina que Google distribueix gratuïtament. Per acabar-ho d’arrodonir, un  altre usuari de Reddit ha creat l’anomenada “FakeApp”, que fa que el procés sigui tan simple com introduir un vídeo on es vol canviar la cara, un banc d’imatges de la cara que es vol inserir, prémer un botó i esperar unes hores.

La IA aprèn per si mateixa i lliura un resultat més o menys polit en funció de l’extensió del banc d’imatges que se li aporti i del vídeo objectiu del canvi. El resultat és que resulta trivial crear vídeos de gent fent i dient coses que mai han fet o dit. Òbviament, la primera aplicació que se li va donar a Internet és fer-ne vídeos pornogràfics.

Actrius com Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza o Gal Gadot apareixen enganxades sobre els cossos d’estrelles porno practicant sexe. No cal dir que aquí ningú ha donat el seu consentiment ni per a que es faci el vídeo ni per a que s’emprin les seves imatges. I si penseu que només passarà això amb actrius famoses, atureu-vos un moment a pensar quants selfis heu penjat a Internet darrerament. Si l’assetjament per Internet ja és un malson ara, les possibilitats amb la FakeApp són inimaginables.

Els objectes no cal que donin consentiment

Si ja és problemàtic que molt del contingut pornogràfic que es produeix de manera legal acabi penjat a webs que se n’aprofiten econòmicament i no retribueixen als participants, els deepfakes no només apropien aquest contingut sinó que a més a més invisibilitzen les actrius sobre les quals s’enganxen les cares de les actrius mainstream.

Més enllà de l'òbvia manca de consentiment per part de les dues persones que veuen llurs imatges combinades al vídeo, que posen els deepfakes a l’alçada de la pornovenjança, resulta una mostra més d’objectificació femenina –la producció de deepfakes és, en la vasta majoria, sobre pornografia dirigida a homes heterosexuals cisgènere-. Estem davant de, literalment, dones separades per peces intercanviables al servei de la fantasia masculina.

A Motherboard, la germana especialitzada en tecnologia de Vice, van entrevistar al creador de la tecnologia, i la seva resposta davant de les implicacions pel consentiment, el xantatge i la pornovenjança del seu programa van ser tan decebedores i ambigües com era d’esperar:

“Tota tecnologia es pot fer servir amb males motivacions, és impossible d’aturar [...] La diferència del meu algoritme és la seva facilitat d’ús. No crec que sigui una cosa dolenta que més gent normal s’interessi per la investigació en aprenentatge màquina”

Però l’entrevista seria la primera gota del diluvi d’atenció mediàtica que s’emportaria la comunitat dels deepfakes per endavant.

Sortint a la llum

A partir del moment en que els mitjans van a començar a donar informació sobre el tema, sobretot a Estats Units –el New York Times, Vice o Forbes van escriure sobre la qüestió-, el fòrum de la aplicació va explotar: fins a 100.000 usuaris s’hi van registrar, creant i compartint vídeos a un ritme incessant. La festa estava a punt d’acabar-se. El set de febrer, Reddit, el lloc web que emparava aquest fòrum, va actualitzar les seves normes sobre pornografia no consensuada:

“Hem dut a terme una sèrie d’actualitzacions a les normes aplicables a tot el web contra la pornografia no consensuada i el contingut sexual o suggestiu protagonitzat per menors [...] Tal com hem dit en anteriors comunicacions, volem fer de Reddit un entorn més acollidor per a tots els usuaris. Continuarem actualitzant i revisant les nostres polítiques com sigui necessari”.

Reddit procediria a tancar i eliminar fins a vint fòrums al seu web dedicats a l’elaboració de deepfakes i la seva distribució. La reacció dels usuaris ha estat, bé, típica. Els participants als fòrums s’emparen en la –mal entesa- llibertat d’expressió, acusen els administradors d’estar al servei de la conspiració políticament correcta, i un dels moderadors responsables del tancament ha obert un nou fòrum al que comparteix captures de pantalla de l’assetjament i les amenaces que rep a diari. És un altre dia normal a Internet.

Després de la prohibició de Reddit d’aquest tipus de contingut, altres plataformes com Gyfcat o Pornhub l’han prohibit, tot i que resulta fàcil de trobar-lo buscant termes com “deepfake” a aquestes webs. Sembla que els administradors esperen –en va- que els usuaris denunciïn el contingut ells mateixos per a retirar-lo, o sigui que el seu gest ha quedat en paper mullat.

L’actitud crítica com a defensa

Els deepfakes han arribat per quedar-se. Cal, per tant, difondre la seva existència i crear una discussió rellevant al seu voltant: no es pot normalitzar o ignorar un contingut que ataca la dignitat de totes les implicades d’aquesta manera. Més enllà de l’impacte al món de la pornografia, cal ser conscients que si la tècnica segueix avançant a aquest ritme, d’aquí a uns mesos serà realment difícil diferenciar aquests vídeos de material real a ull nu. L’eina més eficient per conviure, si més no, amb aquesta tecnologia és de nou l’actitud crítica de la societat. Informeu-vos i informeu als que teniu a prop. Després de la postveritat, arriba la postrealitat.


T'agrada la nostra feina?

Marc Bellmunt

Marc Bellmunt

Doctorand en periodisme, realitza una investigació sobre la relació entre els consumidors de videojocs i les seves pràctiques comunicatives. Col·labora a La Garriga Digital.

Deixa un comentari

Us de cookies

Aquest lloc web utilitza cookies perquè vostè tingui una millor experiència d'usuari. Si continua navegant està donant el seu consentiment i l'acceptació de la nostra política de cookies TANCAR