Artikel

Deep fake… deep trouble? 

3 februari 2026

Geschreven door Famke Algera

Na een stortvloed aan negatieve reacties besloot McDonalds vorige maand zijn kerstreclame offline te halen. In de commercial zijn alleen door AI gegenereerde mensen te zien, wat bepaald niet in de smaak viel bij het publiek.[1] Terwijl het aandeel ‘fake’ content in onze dagelijkse informatiestroom hard groeit. Als het op dit tempo doorgaat is binnen een aantal jaar het merendeel van de online content ‘gemanipuleerd’.[2]

Mijn collega Sander heeft eerder het fenomeen ‘voice clones’ uiteengezet en beoordeeld in hoeverre en onder welke voorwaarden de verwerking daarvan onder de AVG valt.[3] In de komende twee blogs bespreek ik de problematiek rond deepfakes[4] en de wijze waarop Nederlandse en Europese wetgevers proberen dit fenomeen te reguleren. In dit eerste artikel beschrijf ik de risico’s van deepfakes en reageer ik op het voorstel van Kamerlid Rosemarijn Dral om de Wet op de naburige rechten uit te breiden, zodat deze ook bescherming kan bieden tegen deepfakes.

De opmars van synthetische content
Op sociale media is het manipuleren van content al jaren de norm. Instagram- en TikTok-gebruikers hebben toegang tot filters en tools waarmee zij foto’s en video’s van zichzelf en anderen kunnen retoucheren. Met generatieve AI wordt dat bewerken steeds geavanceerder. Een treffend voorbeeld is Mia Zelu, het model dat opdook op Wimbledon en viraal ging — ze bleek volledig door AI te zijn gegenereerd.[5]

Dit soort ‘deepfakes’ worden ook vaak ingezet voor politieke beïnvloeding en desinformatie. Denk aan de gemanipuleerde video waarin president Zelensky ogenschijnlijk opriep tot overgave. Even sprekend is het fenomeen van door AI gegenereerde ‘getuigen’: zo circuleerden video’s van een door AI gegenereerde National Guard-soldaat Bob, die dreigde demonstranten te zullen vergassen—de soldaat bleek niet te bestaan.[6] Door het inzetten van herkenbare autoriteitsmarkeringen in deepfakes (zoals in dit geval een uniform) wordt de inhoud door de ontvanger als afkomstig van een gezagsdrager aangemerkt. 

Ook financiële fraude en seksuele deepfakes zijn een groot probleem: naar schatting zijn meer dan 95% van de deepfakes pornografisch van aard en zonder toestemming van de betrokkene gegenereerd.[7]  De consequentie van dit alles is dat het steeds lastiger wordt om uit te maken of iets echt of nep is. Dat geldt voor socialemediagebruikers, voor wie zijn nieuws van het internet af haalt, en – klaarblijkelijk – voor degene die nietsvermoedend voor de televisie naar een McDonalds-reclame kijkt. Ook voor journalisten en zelfs rechters is dit een uitdaging. Deepfakes worden steeds vaker als bewijsmateriaal ingebracht.[8]

Wetgeving in Nederland
Er bestaan in het Nederlands recht al manieren om problematische deepfakes tegen te gaan, maar een samenhangend kader ontbreekt: de bescherming is versnipperd. Alleen wanneer deepfakes worden gebruikt voor het plegen van een strafbaar feit, zoals afpersing, smaad, of seksuele exposing,[9] bestaat strafrechtelijke bescherming. Het portretrecht[10] zou bescherming kunnen bieden, maar beschermt alleen de herkenbare afbeelding van iemand. Helaas is het zo dat lichaam en stem ook vaak gebruikt (misbruikt) worden voor het maken van een deepfake – dit zou in de meeste gevallen niet onder de bescherming van het portretrecht vallen. 

In oktober werd daarom een initiatiefwetsvoorstel gepubliceerd om een nieuw naburig recht met betrekking tot deepfakes te creëren.[11] Eerder dit jaar begon Denemarken ook al met de regulering van deepfakes door het auteursrecht uit te breiden naar de bescherming van iemands uiterlijk en stem.[12]

Om te begrijpen wat een naburig recht is, is het handig om op hoofdlijnen te weten hoe het auteursrecht werkt. Bescherming via het auteursrecht werkt zo: een componist die een muziekstuk componeert, kan dankzij het auteursrecht bepalen wie het werk mag  exploiteren (bijvoorbeeld door een vergoeding te vragen voor gebruik). Wanneer een artiest besluit de compositie te gebruiken in een optreden, krijgt deze artiest over die uitvoering een naburig recht. Dat recht bestaat dus naast het auteursrecht van de componist. 

Naburig recht als middel tegen deepfakes
Een aantal juristen is kritisch over het wetsvoorstel. Het creëren van een intellectueel eigendomsrecht impliceert -de naam zegt het al- dat je het eigendom op jouw uiterlijk en stem hebt: en eigendom is overdraagbaar. Het zou het exploiteren van AI gegenereerde content in de hand werken. 

Naburige rechten worden niet zelden door artiesten verkocht of gelicentieerd. Een platenmaatschappij of uitgever kan dan bijvoorbeeld makkelijker ‘handelen’ met tracks. Kan dit wel met iemands uiterlijk of stem? Juristen waarschuwen voor oneerlijke situaties. Een jong model zou bijvoorbeeld haar naburige rechten kunnen ‘wegtekenen’ bij een modellenbureau. Het bureau krijgt dan het exclusieve recht om over deepfakes van haar gezicht te beslissen.[13]

Maar dergelijke knelpunten zijn niet nieuw: ze spelen al lange tijd binnen het auteursrecht. In de muziekindustrie is marktwerking nu eenmaal een gegeven; makers werken samen met producenten, labels en andere intermediairs. In ruil voor de rechten op de muziek bieden ze financiering, distributie en professionele ondersteuning. Deze partijen staan vaak sterker dan de artiest bij het optreden tegen inbreuk op intellectueel eigendom. Een uitbreiding van rechten in het kader van deepfakes legt de verantwoordelijkheid dus grotendeels bij deze partijen. Producenten, labels en (bijvoorbeeld) modellenbureaus zullen hun contracten daarop moeten inrichten en zorgvuldig moeten omgaan met het verkrijgen van rechten rondom deepfake-toepassingen.

Doorbraak in de strijd tegen deepfakes?
Een naburig recht voor deepfakes houdt in dat je zelf kunt bepalen óf, en zo ja, op welke manier jouw stem of uiterlijk in fake content mag worden gebruikt. Dat lijkt mij een wenselijke ontwikkeling. Het creëert immers een duidelijk rechtsmiddel voor iedereen die zichzelf plotseling terugziet (of terug hoort) in content waarvoor geen toestemming is gegeven. Het is nog maar de vraag of deze uitbreiding van het naburig recht de doorbraak vormt in de strijd tegen online misleiding. De bescherming werkt vooral ex post: tegen de tijd dat iemand ontdekt dat er een deepfake is gemaakt en naar de rechter stapt, is de content doorgaans al wijdverspreid. En probeer maar eens achter de maker van zo’n deepfake te komen

Bovendien ziet bescherming via het auteursrecht uitsluitend op situaties waarin een deepfake is gemaakt van een identificeerbare persoon. Daarmee adresseert de wet individuele belangen – niet het publieke belang om niet te worden blootgesteld aan fake content. Denk aan de eerdergenoemde Mia Zelu of soldaat Bob: deepfakes imiteren niet altijd een bestaande persoon. In deze gevallen is er geen rechthebbende die zich op het auteursrecht kan beroepen, terwijl het misleidende effect voor het publiek wel degelijk blijft bestaan.

De volgende stap
De afgelopen jaren heeft de Europese Unie een omvangrijk regelgevingskader ontwikkeld voor nieuwe technologische ontwikkelingen. In mijn volgende blog verken ik de Europese rechtsmiddelen die zijn ontworpen om de verspreiding van deepfakes en online misleiding tegen te gaan. Daarbij sta ik ook stil bij handhavingsinitiatieven en bespreek ik wat deze ontwikkelingen betekenen voor jouw organisatie. 


 voetnoten:
1 L. Verhagen, ‘McDonald’s haalt AI-kerstreclame offline na kritiek’, de Volkskrant 10 december 2025

2 Van der Sloot, Wagensveld en Koops, ‘Deepfakes: de juridische uitdagingen van een synthetische samenleving’, Tilburg University, november 2021, geraadpleegd via https://www.tilburguniversity.edu/sites/default/files/download/Deepfakes%20NL.pdf
3 https://www.lexdigitalis.nl/adele-zingt-een-nieuw-nummer-maar-ze-weet-van-niets/
4 In dit artikel beperk ik de definitie van ‘deepfake’ tot: door AI gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal. Er bestaan online ook veel teksten (denk aan blogs, marketingteksten en productomschrijvingen) die door AI zijn gegenereerd: die laat ik hier buiten beschouwing. 
5 De Telegraaf, ‘Viraal instagrammode blijkt gegenereerd door AI’, 2025 
6 The Observers, ‘AI-powered disinformation spreads online amid Los Angeles protests’, 12 juni 2025
7 Van der Sloot, Wagensveld en Koops, ‘Deepfakes: de juridische uitdagingen van een synthetische samenleving’, Tilburg University, november 2021, geraadpleegd via https://www.tilburguniversity.edu/sites/default/files/download/Deepfakes%20NL.pdf
8 L. Marshall, ‘Deepfakes and AI in the courtroom: Report calls for legal reforms to address a troubling trend, CU Boulder Today, 17 november 2025
9 Artikel 254ba WvSr
10 Art 21 Aw
11 Het voorstel voor de Wet naburig recht deepfakes van personen
12 NOS, ‘In de strijd tegen deepfakes krijgen Denen copyright op eigen gezicht en stem’, 13 juli 2025
13 E. Valk, ‘Optreden tegen deepfakes is een goed idee, maar doe dat dan wel via het portretrecht’, NRC 29 juli 2025