Gepubliceerd op dinsdag 20 juni 2023
IT 4300

Onderzoek WODC Deepfakes: voldoen onze juridische kaders?

Het zal niemand ontgaan zijn dat de toepassing van AI met grote stappen vooruit is gegaan. De vooruitgang van de technologie brengt onder meer mee dat tegenwoordig gebruik kan worden gemaakt van zogenaamde 'deepfakes'. Dit zijn imitaties van mensen die, door geavanceerde technologie, nauwelijks van echt te onderscheiden zijn. De toepassing van deze technologie kan op legio doelen worden losgelaten. Zowel voor entertainment als medisch onderzoek, maar eveneens voor meer kwade doeleinden. De filmpjes van ex-president Donald Trump waarin hij rare uitspraken doet zijn misschien nog humoristisch, maar de sfeer kan al snel grimmig worden. Deepfakes maken eindeloze soorten fraude en misleiding mogelijk, om nog maar te zwijgen over meer lugubere doeleinden. De WODC doet onderzoek en draagt reguleringsopties aan.

De vraag die het WODC onderzoekt is of de huidige wetgeving - en dan met name de Nederlandse AVG, het burgerlijk procesrecht en het strafrechtelijke procesrecht - nog toereikend zijn om de huidige en toekomstige onrechtmatige en strafbare uitingsvormen van deepfaketechnologie te ondervangen. In het beantwoorden van deze vraag zijn de onderzoekers met een vuistdik rapport gekomen waarin de moeilijkheden en onvolkomenheden van de samenloop tussen huidige wetgeving en deepfaketechnologie onder de loep worden gelegd. Hoe moet bijvoorbeeld worden omgegaan met deepfakes die puur voor eigen gebruik worden gemaakt? 

De conclusie van de onderzoekers is dat het huidge recht grotendeels toereikend is. Grotendeels, omdat de Nederlandse AVG voor enige obstakels zorgt. De onderzoekers stellen dat er een legitieme verwerkingsgrond moet zijn voor het maken van een deepfake. Iemand die een deepfake wil maken kan daar natuurlijk toestemming voor vragen, maar daarvoor moet de verwerker bekend zijn met de betrokkene wiens deepfake wordt gemaakt. Het kan heel goed dat de belangen van de maker van de deepfake zwaarder wegen dan die van de betrokkene. Het voorbeeld dat de onderzoekers noemen is politieke satire. Toch is ook daar de vraag hoe breed wij als maatschappij het kader willen rekken. Een deepfake is, uit zijn aard, een collectie van verzamelde data. Hoe staat dat tegenover het recht om vergeten te worden, of het recht op rectificatie?

Er wordt verwezen naar de botsingen tussen art. 8 EVRM en art. 10 EVRM. De eerste waarborgt het recht op privacy, de tweede het recht op meningsuiting. Aan die laatste wordt door het Europees Hof voor de Rechten van de Mens een wijde werking toegekend. Vrijheid van meningsuiting bevat ook een ruimte om te schokken, beledigen en verwarren. De onderzoekers durven geen algemene regels op te stellen voor de manier waarop deepfakes berecht moeten worden, maar stellen dat het Hof per zaak zal moeten bepalen of er sprake is van een onrechtmatige deepfake. Een belangrijk punt dat de onderzoekers hierbij maken is dat techniek nimmer neutraal is. Sprekend is het dat uit onderzoek blijkt dat 95% van deepfakes wordt gebruikt voor het vervaardigen van pornografisch materiaal van iemand die daar geen toestemming voor heeft gegeven. Andere negatieve gevolgen van deepfakes is dat zij fraude, misleiding, nepnieuws en een meer algemeen uit het oog verliezen van de grens tussen werkelijkheid en fictie faciliteren. Deepfakes zijn een afspiegeling van de huidige maatschappelijke tendensen, luidt de treurige noot van het onderzoek. 

Hoewel de studie een grote hoeveelheid aan reguleringsopties aandraagt,  is de conclusie dat het grootste gedeelte van de (problematische) toepassing van deepfakes al verboden zijn of juridisch zijn ingekaderd. 'Het kernprobleem is daarom niet de wetgeving zelf, maar de handhaving daarvan.'