Groeiend probleem: nepbeelden niet meer van echt te onderscheiden

SPEEL DE QUIZWie weet nog wat er online te geloven is? Amper van echt te onderscheiden nepvideo’s en -foto’s worden steeds makkelijker te maken. ,,De waarde van informatie daalt, je weet niet meer wat je moet geloven.’’

 

Het leek hem wel interessant: een app bouwen die vrouwen binnen een mum van tijd virtueel kan uitkleden. Zijn businessplan: abonnees betalen vijftig dollar per maand en maker Alberto (een schuilnaam) zou al programmerend rijk worden. Alles wat je nodig hebt is een foto van een dame. Invoeren. Klik. Kleren weg. Kassa.

Maar dat liep allemaal even anders. Toen vorige maand zijn app DeepNude online ging, stak een storm van verontwaardiging op en duurde het maar een paar dagen voordat zijn concept dood en begraven was.

Slimme software

Alberto verontschuldigde zich per e-mail tegenover het Amerikaanse technologieplatform Vice: ,,Ik ben geen voyeur, ik ben een technologieadept.’’ Pakweg twee jaar geleden begon hij zich te verdiepen in kunstmatige intelligentie, leerde hij de basisprincipes kennen van beeldmanipulatie. Daarbij wordt een programma ‘getraind’ om steeds betere beelden te produceren, gebaseerd op databases van bestaand materiaal – blote vrouwen zijn er online genoeg. Zo voorspelt de software steeds realistischer hoe een geklede vrouw er bloot uit kan zien. ,,Toen ik erachter kwam hoe je een foto bij daglicht in een nachtfoto kan veranderen, realiseerde ik me dat het mogelijk moet zijn om een gekleed persoon in een naakt iemand te veranderen. Eureka!’’

Alberto’s eurekamoment leverde misschien maar korte euforie op; de techniek wordt veel breder en massaler toegepast, en is gebaseerd op razendsnel lerende en creërende computernetwerken, die gevoed worden met databases vol voorbeelden van goed en fout.

Met vergelijkbare kunstmatige intelligentie wordt kanker opgespoord, kreeg een ALS-patiënt zijn stem terug, leren zelfrijdende auto’s allerlei verkeerssituaties te voorspellen en worden doden tot leven gewekt – virtueel dan.

© Originele foto: Olivier Laban-Ma, montage Mark Reijntjens

Nep-Obama

Trucage verovert de wereld in rap tempo. Op pornosites worden hoofden van bekende filmactrices geplakt op lichamen van hun pornocollega’s, op Youtube staat een reeks video’s waarin wereldleiders of andere beroemdheden doelwit zijn van manipulatie. Kijk maar eens naar de video  waarin de Amerikaanse oud-president Barack Obama waarschuwt voor nepvideo’s (die is dus ook nep). En recenter: een filmpje van zijn opvolger Donald Trump die vertelt hoe slecht de Amerikaanse voetbalvrouwen het doen: ,,Ik hou van winnen, de Nederlandse voetbalvrouwen zien er goed uit in oranje. Net als ik’’, zie en hoor je Trump zeggen.

Alleen die woorden zijn natuurlijk niet van de Amerikaanse president. Comedian Greg Shapiro heeft ze ingesproken, Trumps naadloos bewegende mond wordt verzorgd door Theo Gevers, hoogleraar Computer Vision (Universiteit van Amsterdam) en dé Nederlandse autoriteit op dit gebied. Zijn team bij de start-up 3DUniversum regelt dat je Trumps mond zo ziet bewegen alsof Shapiro’s teksten inderdaad van de lippen van de president van de VS rollen. ,,Het is niet zo heel moeilijk, hoor’’, zegt Gevers in een klein kamertje op het Amsterdamse Science Park, aan de rand van de stad. ,,Als je Trump eenmaal als doelwit hebt, dan is het een kwestie van de mondbewegingen opnemen en de tekst inspreken.’’ Om een goede nepvideo te maken heb je een paar minuten beeldmateriaal van je doelwit nodig, en software die de video’s maakt.

Nep of echt?

Al jaren storten Gevers en zijn wetenschappers zich op de wereld van algoritmes en gezichtsanalyses. Met 3DUniversum maakt hij nu ook serieus werk van het herkennen van nep. Zo bieden ze een ‘detectietool’ aan die je meteen vertelt of een foto echt is.

De behoefte daaraan is groot. Want wat ooit alleen was weggelegd voor Hollywood is nu op iedere telefoon mogelijk: gezichten wisselen, maskers opzetten, iemand anders wat raars laten roepen – manipulatie is beschikbaar voor de massa, bijvoorbeeld via allerlei apps op je telefoon. Gevers: ,,Het gaat zó snel: iedereen kan het nu, en het is met het blote oog niet meer te detecteren.’’

Gefabriceerde portretten

Ter illustratie presenteert Gevers’ collega Sezer Karaoglu een paar dia’s met portretfoto’s. Sommige mensen op de foto’s bestaan, anderen zijn gefabriceerd. ,,Welke zijn echt? Kun je dat zien?’’ Het eerlijke antwoord: amper. Wie inzoomt, ziet misschien een rafelrandje langs het gezicht, een verkeerde schaduw of een onzuiver gebit, maar dan moet je heel goed opletten.

En dan zijn dit nog slechts foto’s. De techniek gaat even zo snel met video’s, en straks ook geluid. Gevers: ,,En hier, kijk. Dit is wat nu ontwikkeld wordt: iemand danst, de camera filmt het en op beeld lijkt het alsof het totaal iemand anders is die beweegt.’’ Magie.

Fotomanipulatie met FaceApp

Grote gevolgen

Zo kun je van gezicht wisselen, jezelf een paar generaties ouder laten lijken en je baas of buurman dingen laten zeggen en doen die het daglicht niet kunnen verdragen. Met potentieel ontregelende gevolgen, beseffen Karaoglu en Gevers. Wie wereldleiders oorlogstaal in de mond legt, kan zomaar een rel ontketenen, of erger. Sezer: ,,En als je een relatief onbekend iemand iets raars laat zeggen is dat ook gevaarlijk. Als je een video toont van een moord die nooit gepleegd is, kan dat tot rellen leiden, het kan problemen geven.’’

En dat gebeurt soms al. Zie DeepNude van ‘Alberto’. De officiële app mag dan verwijderd zijn, de code en database slingeren online nog rond, dus er duikt vast weer een variant op, binnenkort. Daarbij is nep niet altijd onschuldig en dus onschadelijk. Noem het het Ajax-effect: als je driemaal daags een reclame ziet over Ajax-schoonmaakmiddel (sterker dan vuil!) geloof je het misschien niet meteen, maar het zaadje wordt wel geplant.

Je kunt je baas of buurman dingen laten zeggen en doen die het daglicht niet kunnen verdragen

Manipulatie en propaganda

Zo was de Amerikaanse politica Nancy Pelosi heus niet dronken, zoals een massaal gedeelde nepvideo onlangs nog wel suggereerde. Maar helemaal zonder effect is deze desinformatie niet: ,,Zulke manipulatie en framing zijn feitelijk de basis van propaganda’’, zegt onderzoeker Pim Haselager (Radboud Universiteit Nijmegen). Haselager bestudeert de maatschappelijke gevolgen van kunstmatige intelligentie, bekijkt het vooral vanuit de ethiek: ,,Bij die Pelosi-video is de emotionele reactie al opgewekt bij de kijker, het gevoel is veroorzaakt. En het is lastig strijden tegen gevoelens.’’ De mogelijk ontwrichtende gevolgen van nepvideo’s in verkiezingscampagnes staan buiten kijf. Maar ook in kleine kring kan het nare consequenties hebben, bijvoorbeeld als je niet zeker weet of die leuke datingpartner uit de app überhaupt wel bestaat.

Daarom maakt Gevers nu ook serieus werk van het herkennen van nepbeelden, met de ‘detectietool’. En Adobe – het concern achter Photoshop – werkt eveneens aan een instrument dat trucage detecteert en watermerkt. In de VS klagen onderzoekers ondertussen dat de stortvloed aan nep de detectiecapaciteit overschaduwt. ,,We zijn kansloos’’, zei Hany Farid, hoogleraar aan de Universiteit van Berkeley in Californië vorige maand. ,,Het aantal mensen dat zulke video’s produceert tegenover de mensen die ze detecteren is 100 tegen 1.’’ Dat klinkt als vechten tegen een enorme virtuele bierkaai.

Collage van neppe en echte portretten

Collage van neppe en echte portretten © bewerkt door AD

Potentieel gevaarlijk

Is het dan alleen maar kommer en kwel als het gaat om gezichtsanalyses en beeldmanipulatie? Zeker niet. DeepNude, nepvideo’s en andere kwaadaardige voorbeelden zijn slechts de zure vruchten van mensen die de techniek met slechte intenties gebruiken, stelt Gevers. ,,Er worden nu boeken geschreven met hulp van kunstmatige intelligentie, laatst is er een schilderij geveild bij Christie’s, dat bracht vier ton op. Gemaakt met algoritmes! Het opsporen van kanker op scans met hulp van vergelijkbare techniek doet het zoveel beter dan het menselijk oog. En de zelfrijdende auto: als die zich goed ontwikkelt, dan wordt het leven zoveel mooier.’’

Psychologie

En dan moet het beste nog komen, denkt de hoogleraar. Een terrein waar ze in Amsterdam nu mee experimenteren is de psychologie, traumaverwerking bijvoorbeeld. Veel wil Gevers er niet over kwijt. ,,Het staat nog in de kinderschoenen, het is glad ijs. Maar je kunt mensen ‘tot leven wekken’ met deze techniek. Neem rouwverwerking: hoe bijzonder kan het zijn om met je overleden vader te spreken, of met je zus die heel vroeg gestorven is? Een andere toepassing is dat je Anne Frank zelf een rondleiding kan laten geven in Het Achterhuis, om maar iets te noemen. Maar het is heel precair: het luistert heel nauw wat je wel en niet kan zeggen en doen.’’

Het luistert heel nauw wat je wel en niet kan zeggen en doen

Wetten en regels

Om alle ontwikkelingen rond beeldmanipulatie in goede banen te leiden, moeten wettenmakers en toezichthouders aan de slag, vindt de hoogleraar. ,,Want de techniek is potentieel gevaarlijk.’’

D66-Tweede Kamerlid Kees Verhoeven erkent dat: ,,Nepvideo’s zijn een vorm van desinformatie, maar dan nog veel geraffineerder dan we gewend zijn. Wetten en regels over smaad en portretrecht moeten we echt toepassen op dit nieuwe gebied. Al is de sleutel ook bewustwording. Zoals we weten dat je niet elk bericht kunt geloven uit een roddelblad, moet je ook weten dat niet elke foto of video echt is.’’ Haselager: ,,De waarde van informatie daalt door zulke ontwikkelingen – alles kan waar zijn, of juist niet.’’