Deze website maakt gebruik van cookies. Voor meer informatie over de cookies waarvan deze website gebruik maakt klik hier.
Door verder op deze website te surfen geeft u de toestemming aan Minoc Data Services om cookies te gebruiken. verder gaan Created with Sketch.

16 juli 2019

Door Valérie Deridder

Fake en faker: hoe deepfakes onze perceptie vormen

Een AI-video die Donald Trump toont terwijl hij een bedenkelijke uitspraak doet; we zouden het maar al te graag geloven – en vaak tart de werkelijkheid daar onze verbeelding, maar dat is een andere zaak.

In het beste geval daalt een wereldleider in onze achting bij het zien van zo’n video, in het slechtste geval kan het ervoor zorgen dat een verkiezing een hele andere wending krijgt, dat er geweld uitbreekt op straat, of dat er zelfs een internationaal gewapend conflict ontstaat.  

Politici en hollywoodsterren  

Maak kennis met deepfakes, waarbij je iemand alles kan laten zeggen wat je maar wil. Het is een probleem waar wereldleiders en hollywoodsterren steeds vaker mee te kampen krijgen. De laatste tijd wordt het namelijk alsmaar makkelijker om video’s te manipuleren aan de hand van kunstmatige intelligentie. Fake nieuwsberichten, sociale media-accounts die gerund worden door een bot of video’s waar overduidelijk aan gesjoemeld werd; steeds vaker maken ze hun opmars in onze publieke sfeer. Geen probleem wanneer het duidelijk is dat het om een gemanipuleerde video gaat, maar steeds vaker vervaagt de grens tussen leugen en waarheid. 

Er zijn al een aantal tools beschikbaar waarmee je de deepfakers bij de lurven kan vatten. Maar de technologie evolueert snel. Zo was het ooit mogelijk om een deepfake-video te spotten aan de hand van de oogbewegingen van de spreker, die redelijk onnatuurlijk overkwamen in een deepfake. Kort nadat die methode aan het licht kwam, werden deepfake-video’s gefinetuned met meer natuurlijk knipperende ogen. 

Wapenwedloop 

“We ervaren momenteel een wapenwedloop tussen digitale manipulaties en de mogelijkheid om ze te detecteren enerzijds, en de vooruitgang op het gebied van AI-algoritmen anderzijds.” Aan het woord is Hao Li, professor aan de University of Southern California en tegelijk ook CEO van Pinscreen.  

Volgens Li wordt het steeds moeilijker voor deepfake-producenten om zich aan te passen aan de nieuwe detectietechnieken. Hij waarschuwt er wel voor dat deepfakes steeds couranter gebruikt worden, en raadt aan dat iedereen zich ertegen begint te beschermen. “Tot nu toe waren de belangrijkste doelwitten steeds politici of hollywoodsterren. Maar het zou me niet verbazen als we binnen een tweetal jaar kunstmatige mensen zouden zien die de eindgebruiker al lang niet meer kan onderscheiden.”  

De gewone vrouw in de straat  

Het gaat echter lang niet alleen over politici en hollywoodsterren. Ook de gewone man in de straat is een doelwit geworden voor deepfake-video’s. Of zeg maar liever, de gewone vrouw in de straat.  

Recent ontstond er commotie omtrent de app “DeepNude”, een applicatie die vrouwen “uitkleedde” en die spijtig genoeg aantoonde hoe kwetsbare groepen in de samenleving sterk geraakt kunnen worden door de ontwikkeling.

Recent ontstond er commotie omtrent de app “DeepNude”, een applicatie die vrouwen “uitkleedde” en die spijtig genoeg aantoonde hoe kwetsbare groepen in de samenleving sterk geraakt kunnen worden door de ontwikkeling. De app werd ondertussen al offline gehaald, maar het is maar een kwestie van tijd voor een ontwikkelaar weer op het idee komt om het idee te revampen. 

DeepNude had veel weg van de fantasie van een puisterige universiteitsstudent die nog nooit een vrouw van dichtbij gezien had. De app maakte gebruik van GAN-netwerken om zo de kledij van de vrouwen te verwisselen met extreem realistische naakte lichamen.  

De app was specifiek gericht op vrouwen. Vice ontdekte namelijk dat de software enkel beelden van een naakt vrouwelijk lichaam genereerde, zelfs wanneer op de oorspronkelijke foto een man te zien was. De anonieme ontwikkelaar van de app gaf aan dat hij het algoritme enkel getraind had op beelden van vrouwen – in dit geval meer dan 10.000 – omdat die nu eenmaal “gemakkelijker te vinden waren online”. Hij gaf wel te kennen dat hij ook van plan was een mannelijke versie te maken. 

Hoewel de deepfakes niet het echte naakte lichaam van de vrouw in kwestie weergaven, konden ze nog steeds heel veel emotionele- en reputatieschade toebrengen. De beelden konden makkelijk aanzien worden als echt, en konden op die manier gebruikt worden als wraakporno of als een manier om vrouwen het zwijgen op te leggen. Voor wie dat nu als overdreven feministisch klinkt; zulke scenario’s hebben zich al eerder afgespeeld. In India werd een vrouwelijke journaliste te kijken gezet in een deepfake-video toen ze op het punt stond en grootschalig corruptieschandaal van de overheid bloot te leggen. De video ging meteen viraal en de journaliste in kwestie kreeg te maken met online pesterijen en kreeg zelfs bedreigingen dat ze verkracht zou worden. Voor een tijdlang moest ze al haar accounts afsluiten en zich gedeisd houden. 

Geen nieuwe trend  

Deepfakes zijn geen nieuwe bedreiging. Het fenomeen van foto- en videomanipulatie bestaat namelijk al veel langer dan AI zelf. Wie kent misschien nog de foto’s van de communistische massabijeenkomsten van Stalin? Er waren daar heus niet zoveel toeschouwers aanwezig, en een paar individuen op de foto zie je duidelijk een paar keer terugkomen om het publiek wat aan te dikken. Vandaag de dag zijn de methodes echter veel geloofwaardiger geworden, en loopt de media de kans om een tentoonstelling te worden van de beste deepfake-artiesten. 

Vrouwen zijn echter niet het enige slachtoffer van deepfakes. Ook de holebigemeenschap en etnische minderheidsgroepen worden naar alle waarschijnlijkheid ook slachtoffer van de technologie.

Minderheden  

Vrouwen zijn echter niet het enige slachtoffer van deepfakes. Ook de holebigemeenschap en etnische minderheidsgroepen worden naar alle waarschijnlijkheid ook slachtoffer van de technologie. In 2016 gebruikten Russische techneuten fake Afro-Amerikaanse personas als een onderdeel van een Facebookcampagne die de culturele spanningen tussen Amerikanen zou moeten opstoken. Deepfake-video’s worden zo weer een uitgelezen manier om de publieke opinie aan je kant te krijgen. 

Deepfake op Instagram 

En dan is er nog Instagram, het platform bij uitstek om je van je meest fake kant te tonen. Recent zijn daar de zogenaamde “avatar-accounts” enorm populair geworden. Zo is er “lil Miquela”, oftewel Miquela Sousa. Miquela is een negentienjarig Braziliaans-Amerikaans model. Daarnaast is ze ook muziekartieste en met meer dan een miljoen volgers op Instagram mag ze zich ook een influencer noemen. Op het eerste zicht zou je Miquela makkelijk kunnen aanzien voor een echte persoon. Ze draagt merkkledij van Chanel en is te zien met echte muzikanten, artiesten en influencers in bestaande en vooral trendy restaurants in New York en Los Angeles, waar ze ‘woont’. Miquela heeft allergieën en krijgt het regelmatig te koud. 

deepfake
Lil Miquela

In selfies kan je de sproetjes op haar gezicht makkelijk zien, evenals het spleetje tussen haar tanden. Van dichtbij ziet haar huid er – net als die van Kim Kardashian – er geairbrushed uit. Miquela is niet echt, maar heeft toch een miljoen volgers. Ze is het geesteskind van Brud, een mysterieuze start-up uit L.A. die gespecialiseerd is in AI en robotica. a 

Hoewel Miquela er ontegensprekelijk prachtig uitziet, lijkt ze de voorbode van een wereld waarin de realiteit steeds vaker niet te onderscheiden valt van een simulatie. En daar lijken we ook collectief steeds minder om te geven.