Artikel

Adele zingt een nieuw nummer (maar ze weet van niets)

2 oktober 2025

Geschreven door Sander Smit


Je zet je koptelefoon op en speelt een nummer af. Je hoort een weergaloze vibrato. De warme, indringende stem van Adele herken je uit duizenden. Je deelt het nummer direct met je vrienden, tot iemand reageert dat dit nummer nergens in de officiële discografie van Adele staat. Dan pas dringt het tot je door: je bent misleid door een AI-gegenereerde deepfake.

Hoor jij het verschil nog?

In 2023 werd de muziekwereld opgeschrokken door het nummer ‘Heart on my Sleeve’. Hoewel de stemmen van Drake en The Weeknd duidelijk te horen waren, bleek het nummer afkomstig van een TikTok-account die hun stem had nagebootst met behulp van een AI.[1] De stemmen bleken zogenaamde ‘voice clones’ te zijn. Het nummer is van alle platforms verwijderd, maar is desondanks tientallen miljoenen keren beluisterd.

Anno 2025 wemelen platforms als Spotify, TikTok en Instagram van dit digitale fenomeen. Platenlabel Sony greep afgelopen jaar in en diende meer dan 75.000 verzoeken in om AI-nummers te verwijderen die de stemmen van hun artiesten gebruikten. Met tools als Suno en Udio is het immers een koud kunstje om de stem van Adele, Ed Sheeran of Beyoncé te klonen – zonder toestemming. Voor de luisteraar betekent dit dat je niet meer zeker kunt zijn of waar je naar luistert écht is.

Vergeet auteursrecht, dit is een privacykwestie

Als juristen het hebben over muziek, dan gaat het al gauw over het auteursrecht. Dit auteursrecht is echter niet goed in staat om tegen voice clones op te treden, omdat een voice clone vaak geen bestaand werk kopieert.[2] In Denemarken heeft men het auteursrecht uitgebreid om ook stemmen te beschermen; en ook in Nederland is er een wens om dit te gaan doen.[3] Deze wens is echter nog niet omgezet in wetgeving. Daarnaast zal ook het portretrecht geen uitkomst kunnen bieden: dit beschermt namelijk alleen afbeeldingen, geen audio.[4] Toch is er voor deze artiesten een rechtsgebied dat uitkomst kan bieden: het privacyrecht!

Maar waarom is een nagemaakte stem een privacyprobleem? Het antwoord is simpel: je stem is data. En niet zomaar data, maar uiterst persoonlijke data die onlosmakelijk met jou verbonden is. Wanneer een AI jouw stemgeluid kloont, wordt dit unieke kenmerk zonder toestemming gekopieerd en verwerkt. Dit raakt de kern van je privacy: het recht om zelf te bepalen wie jouw persoonlijke kenmerken gebruikt en waarvoor. Het is het digitale equivalent van iemand die zonder te vragen met jouw vingerafdruk aan de haal gaat.

De ontwikkelingen rond AI-deepfakes gaan razendsnel. Dit roept de klassieke juridische vraag op: heeft de technologie de wet inmiddels ingehaald? Of biedt de AVG, die bewust technologieneutraal ontworpen is, voldoende aanknopingspunten om je te beschermen? Benieuwd hoe het echt zit en wat dat betekent voor jouw luisterervaring? Lees verder en ontdek het.

Leeswijzer

Dit artikel ontleedt de juridische puzzel achter AI-stemmen door de regels stapsgewijs te behandelen. Eerst wordt vastgesteld óf een stem wel een persoonsgegeven is. Vervolgens wordt uitgelegd welke juridische bescherming een stem krijgt en waarom dit meestal niet onder de strenge regels voor biometrische gegevens valt. Ten slotte lees je onder welke strikte voorwaarden het namaken van een stem is toegestaan en waar de juridische grenzen liggen.

Is stemgeluid eigenlijk een persoonsgegeven?

Kort gezegd: ja. De AVG noemt een persoonsgegeven “alle informatie over een geïdentificeerde of identificeerbare natuurlijke persoon”.[5] Dat klinkt abstract, maar komt neer op vier simpele vragen:

  1. Is het informatie? Geluid is nog altijd data, net als tekst of beeld.
  2. Gaat het over iemand? Een voice clone is gemaakt om precies die ene artiest te imiteren, dus het gaat duidelijk ‘over’ die persoon. Daarvoor is overigens niet vereist dat de gegevens direct van de betrokkene afkomen. Ook data dat door iemand anders is gecreëerd kan een persoonsgegeven zijn.[6]
  3. Kun je de persoon herkennen? Hoewel een stem veranderlijker is dan een vingerafdruk en niet iedereen elke stem herkent, kan stemgeluid iemand in veel contexten toch voldoende identificeren. Dit is zeker het geval bij voice clones, waarbij de maker bewust een specifieke stem kiest en weet wie er wordt nagebootst. Vaak kunnen ook een platform of het publiek de koppeling maken via de context, zeker als de stem van een bekend persoon wordt gebruikt. Niet vereist is dat ‘iedereen’ het kan; voldoende is dat identificatie met redelijke middelen door de verwerkingsverantwoordelijke of een derde mogelijk is.[7]
  4. Hebben we het over een mens van vlees en bloed? Hier is sprake van als de nagebootste stem afkomstig is van een natuurlijk persoon. Kunstmatige stemmen die niet herleidbaar zijn tot een mens vallen niet onder het begrip ‘persoonsgegeven’.

Voldoet het geluid aan alle vier? Dan betreft het een persoonsgegeven en gelden de gewone privacyregels.

Is stemgeluid ook een bijzonder persoonsgegeven?

De AVG geeft in artikel 9 een strengere categorie voor extra gevoelige data (zoals medische gegevens). Biometrische gegevens, zoals een gezichtsscan, vingerafdruk of stem horen daar óók bij, maar alleen als ze worden gebruikt om iemand te identificeren. Het doel van de deepfake is dus van doorslaggevend belang om te bepalen of het onder de strengere regels valt.[8]

Rechtbanken en toezichthouders erkennen dat stemmen biometrische gegevens kunnen zijn; de rechtbank Midden‑Nederland deed dat in 2020[9] en ook de Europese privacywaakhond EDPB noemt de stem als voorbeeld van bijzondere persoonsgegevens.[10] De manier waarop de rechterbank Midden-Nederland invulling geeft aan het begrip ‘biometrische persoonsgegevens’ roept overigens wel vraagtekens op en is mijns inziens niet in overeenstemming met de AVG. Voor de kwalificatie van stemgeluid als bijzonder persoonsgegeven is het oogmerk van de verwerking volgens de wet namelijk van groot belang. De rechter lijkt aan dit constitutieve vereiste voorbij te gaan; er wordt niet getoetst of de verwerking daadwerkelijk dit specifieke doel dient. Bovendien wordt de keuze om de gegevens desondanks als bijzonder te kwalificeren, niet nader onderbouwd.

De extra bescherming van artikel 9 AVG is vooral bedoeld voor verwerkingen waarbij stemgegevens worden gebruikt voor identificatie- of authenticatiedoeleinden, zoals in spraakgestuurde beveiligingssystemen.[11] Die verwerking is vrijwel altijd verboden, tenzij je ondubbelzinnig instemt of een andere strikte uitzondering geldt. Bij de meeste voice clones is het doel niet om iemand te identificeren, maar om een persoon te imiteren. Een deepfake wordt juist gemaakt omdat iedereen al weet wie de artiest is. Daarom valt een voice clone meestal niet in de strengere categorie.

Dus:

  • Wordt jouw stemgeluid gekloond om in te loggen bij de bank? Dan is het een bijzonder
  • Wordt jouw stem alleen nagebootst om een liedje mee te zingen? Dan is het een ‘gewoon’ persoonsgegeven: het doel is imitatie, niet identificatie.

Mag iemand jouw stem zomaar nabootsen?

Om jouw stem na te bootsen moet de maker eerst over een geldige basis uit artikel 6 lid 1 AVG beschikken. Dat lukt pas wanneer één van de volgende situaties zich voordoet:

  • Je hebt vooraf uitdrukkelijk toestemming gegeven.[12]

Toestemming is een van de belangrijkste juridische grondslagen, maar is aan strikte voorwaarden verbonden. Zo moet toestemming vrijelijk, specifiek, geïnformeerd en ondubbelzinnig zijn. Dit houdt in dat de persoon niet onder druk mag staan, de toestemming voor een duidelijk omschreven doel moet worden gegeven en dat de persoon vooraf weet wie de gegevens verwerkt en dat de toestemming weer kan worden ingetrokken. Bovendien is een actieve handeling vereist; stilzwijgen volstaat niet. Ontbreekt jouw ‘ja’? Dan is het gebruik van je stem alleen toegestaan als het aan een van de andere rechtsgronden voldoet.

  • Het gebruik vloeit rechtstreeks uit een overeenkomst.[13]

Deze grondslag geldt alleen als het klonen van de stem essentieel is voor de uitvoering van een contract waarbij de persoon zelf partij is. De verwerking moet objectief gezien onmisbaar zijn om een specifieke, contractueel vastgelegde dienst te leveren aan de betrokkene. Denk aan een contract met een stemacteur voor het inspreken van een luisterboek; het opnemen en verwerken van de stem is dan een kernonderdeel van de uitvoering van die overeenkomst. Bij de meeste deepfakes is er echter geen overeenkomst met de artiest. De maker kan zich er daarom niet op beroepen, omdat de geïmiteerde artiest geen partij is bij een contract dat de verwerking noodzakelijk maakt. Het eenzijdig creëren van een AI-nummer is dan ook geen uitvoering van een overeenkomst.

  • Er bestaat een gerechtvaardigd belang dat zwaarder weegt dan jouw privacy.[14]

Dit is de meest flexibele en complexe grondslag, die een driestappentoets vereist. Eerst moet de maker een gerechtvaardigd belang aantonen, zoals een commercieel of ideëel doel. Vervolgens moet de verwerking noodzakelijk zijn, wat betekent dat het doel niet met minder ingrijpende middelen bereikt kan worden. Ten slotte moet de belangenafweging in het voordeel van de maker uitvallen. Diens belang moet zwaarder wegen dan het privacyrecht van de persoon, waarbij gekeken wordt naar de impact, redelijke verwachtingen en eventuele waarborgen.

In de praktijk komt het er dus hierop neer: bij een ongevraagde deepfake is het ‘gerechtvaardigd belang’ de enige mogelijke uitweg voor de maker. Dit is echter geen gemakkelijke route. Een beroep hierop vereist een zorgvuldige afweging, waarbij de belangen van de maker zwaarder moeten wegen dan het privacybelang van de persoon in kwestie. Voor deepfakes die puur bedoeld zijn voor bedrog, fraude of intimidatie, zal die balans vrijwel nooit in het voordeel van de maker doorslaan. De lat ligt echter anders wanneer er andere fundamentele rechten in het spel komen.

Het spanningsveld tussen kunst en privacy

Het privacyrecht laat voor kunst, satire en journalistiek extra ruimte om de vrijheid van meningsuiting te beschermen. Dit is zeer relevant voor voice clones, omdat deze vaak worden ingezet voor muziek. Ook is het denkbaar dat deze technologie wordt gebruikt voor satirische doeleinden. Denk daarbij aan een satirisch programma dat de stem van een politicus gebruikt voor een sketch. Deze bijzondere positie is zelfs van toepassing als men winst maakt met de activiteit.[15]

Een beroep op de uitzonderingen voor kunst, satire en journalistiek heeft een belangrijk praktisch gevolg. Het geeft de vrijheid van meningsuiting namelijk een ‘duwtje in de rug’ bij de belangenafweging die noodzakelijk is voor de rechtsgrond ‘gerechtvaardigd belang’. Europese rechtspraak toont aan dat artistieke, satirische en journalistieke belangen zwaar wegen.[16] Het zijn immers grondrechten die essentieel zijn voor een democratische samenleving. Een rechter zal een inbreuk op iemands privacy daarom eerder gerechtvaardigd vinden als deze een duidelijk maatschappelijk, kritisch of satirisch doel dient.

Toch is dit geen vrijbrief. Deze uitzonderingen zijn niet absoluut en er moet altijd een belangenafweging plaatsvinden.[17] Het gebruik van de voice clone moet noodzakelijk en proportioneel zijn voor het artistieke of journalistieke doel. Een AI-nummer dat enkel wordt gemaakt om streaming-inkomsten te genereren, zal deze toets niet snel doorstaan. De artistieke of journalistieke waarde moet opwegen tegen de privacy-inbreuk die wordt gemaakt.

Commerciële belangen: mag iemand winst maken met mijn stem?

Wie zonder toestemming of overeenkomst iemands stem gebruikt, kan dat alleen baseren op het ‘gerechtvaardigd belang’. In de wereld van deepfakes is dat belang vaak (deels) commercieel. Uit rechtspraak van het Europese Hof van Justitie volgt dat ook commerciële belangen een legitieme grond voor verwerking kunnen zijn.[18]

Maar hoe zwaar wegen die belangen? Dat is sterk casuïstisch en verschilt per geval. Hoewel commerciële motieven een rechtvaardiging kúnnen dragen, lijkt daaraan doorgaans minder gewicht te worden toegekend dan aan belangen als vrijheid van meningsuiting of kunst. Dat hangt samen met de manier waarop de rechter de afweging maakt.

De rechter legt de belangenafweging van het ‘gerechtvaardigd belang’ (uit artikel 6, lid 1, sub f van de AVG) namelijk uit in het licht van het EVRM.[19] Uit vaste EHRM-rechtspraak volgt dat zuiver commerciële uitingen minder zwaar wegen dan uitingen die het publieke debat raken. Zo stelt het EHRM dat lidstaten een zeer ruime beoordelingsmarge toekomt als het gaat om beperkingen op de vrijheid van meningsuiting wanneer er (zuiver) commerciële belangen spelen.[20]

In de praktijk zal het gebruik van voice clones dus gebaseerd zijn op óf de vrijheid van meningsuiting en kunst, óf op commerciële belangen. Van die twee is het commerciële belang juridisch gezien duidelijk de zwakkere. Anders gezegd: in de belangenafweging zal een commercieel belang minder snel opwegen tegen de inbreuk op privacy dan een beroep op journalistieke, satirische of artistieke vrijheid.

Is dit nou echt nodig?

Een laatste voorwaarde voor rechtmatige verwerking is noodzakelijkheid: persoonsgegevens mogen alleen worden verwerkt als dat nodig is om het gestelde doel te bereiken.[21] Bestaat er een minder ingrijpende manier om hetzelfde doel te halen, dan mag je de persoonsgegevens niet op die manier verwerken.[22] Bij voice clones is de noodzakelijkheid vaak een struikelblok.

Soms kan het nabootsen van een stem wél noodzakelijk zijn, bijvoorbeeld bij satire. Een programma dat de wereld vanuit het perspectief van Donald Trump verbeeldt, kan goed onderbouwen dat nabootsing van zijn stem noodzakelijk is voor het artistieke doel.Voor voice clones van zangers ligt dat lastiger. De maker van de deepfake kan een (commercieel) belang hebben, maar dat doel is meestal ook te bereiken zonder de stem van Adele na te bootsen. Er zijn immers alternatieven die de privacy van de betrokkene minder schaden, zoals zelf de tekst inzingen of een vocalist inschakelen. Ook is het een mogelijk om een AI-stem te gebruiken die niet is gebaseerd op een bestaand persoon. In veel gevallen ontbreekt de noodzakelijkheid voor het gebruiken van Voice clones en is de verwerking dus niet rechtmatig.

Conclusie

Voice clones zullen vrijwel altijd als een persoonsgegevens worden gekwalificeerd omdat een stem naar een herkenbaar persoon terugleidt. Meestal gaat het ‘slechts’ om gewone persoonsgegevens; pas wanneer de verwerking wordt gebruikt om iemand te identificeren, treedt het strengere regime voor bijzondere persoonsgegevens gegevens in werking.

Volgens de AVG mag een verwerking alleen plaatsvinden als er een solide grondslag voor is en deze noodzakelijk is. De belangenafweging kan in het voordeel van artistieke of journalistieke projecten uitvallen, maar dit is geen garantie. Commerciële belangen kunnen ook als grondslag dienen, maar krijgen niet dezelfde mate van bescherming als belangen die bijdragen aan het publieke debat of kunst. Daarnaast moet de verwerking ook noodzakelijk zijn; als het doel kan worden behaald zonder iemand anders stem te imiteren is de verwerking onrechtmatig. In de muziekwereld zal de noodzakelijkheid vaak ontbreken.

Kortom: wie jouw stem wil imiteren moet eerst door een stevig juridisch filter. Zonder duidelijke toestemming, contractuele basis of zwaarwegend belang houdt het op. Hoewel voice clones in principe niet bedoeld zijn voor het identificeren van personen, kan men stellen dat zodra een AI voice clone wél wordt ingezet met als doel iemand uniek te identificeren, het stemgeluid een biometrisch gegeven wordt. In dat geval is er op grond van de AVG een aanvullende verwerkingsgrond (bijvoorbeeld uitdrukkelijke toestemming) vereist voor het gebruik er van.

Het juridisch kader is dus toereikend: de AVG is technologieneutraal en laat weinig ruimte om op heimelijke wijze stemmen te kopiëren. Toch wemelt het op het internet van deepfakes van stemmen. De oplossing hiervoor zit echter niet in het aapassen van de AVG, maar in effectieve handhaving – door platforms, toezichthouders en waar nodig de rechter.

[1] Mark Savage, ‘AI-generated Drake and The Weeknd song goes viral’, https://www.bbc.com/news/entertainment-arts-65298834.

[2] D. Visser, ‘AI (Act) en Auteursrecht’, Bb 2024/12, par. 8.

[3] Hicham Abarkan, ‘Kamer wil burgers auteursrecht geven op gezicht en stem: David versus Goliath?’, https://nos.nl/artikel/2575181-kamer-wil-burgers-auteursrecht-geven-op-gezicht-en-stem-david-versus-goliath.

[4] Etienne Valk, ‘Rechtsbeschermingsmogelijkheden van het stemgeluid onder Nederlands portretrecht in de context van audio-deepfakes’, AA 2023/6.

[5] Artikel 4 lid 1 AVG.

[6] HvJ EU 20 december 2017, C-434/16, r.o. 34-42 (Nowak).

[7] HvJ EU 19 oktober 2016, C-582/14, r.o. 42-44 (Breyer).

[8] Kranenborg & Verhey 2024, ‘De algemene verordening gegevensbescherming in Europees en Nederlands perspectief’, par. 9.9.

[9] Rb. Midden-Nederland 9 januari 2020, ECLI:NL:RBMNE:2020:24, r.o. 4.2-4.4 (X/Ali B).

[10] EDPB, ‘Guidelines 02/2021 on Virtual Voice Assistants versie 2.0’, 7 juli 2021, p. 29-30.

[11] EDPB, par. 3.4.4. Zie ook overweging 51 AVG.

[12] Artikel 6 lid 1 sub a AVG.

[13] Artikel 6 lid 1 sub b AVG.

[14] Artikel 6 lid 1 sub f AVG.

[15] HvJ EG 16 december 2008, C-73/07, r.o. 59 (Satakunnan).

[16] Vgl. EHRM 25 januari 2007, ECLI:NL:XX:2007:BA2629 (Bildender Künstler), EHRM 7 februari 2012, ECLI:CE:ECHR:2012:0207JUD003995408 (Axel Springer) en EHRM 7 februari 2012, ECLI:CE:ECHR:2012:0207JUD004066008 (Caroline von Hannover II).

[17] HvJ EG 16 december 2008, C-73/07, r.o. 54 en 55 (Satakunnan).

[18] HvJ EU 4 oktober 2024, C-621/22, r.o. 48 (KNLTB).

[19] HvJ EU 14 februari 2019, C-345-17, r.o. 66 (Buivids).

[20] HvJ EU 10 januari 2013, ECLI:CE:ECHR:2013:0110JUD003676908, r.o. 39 (Ashby Donald).

[21] Artikel 6 lid 1 sub f AVG.

[22] Overweging 39 AVG.