Grip op de feed? Gedeelde verantwoordelijkheid, maar gebrekkige uitvoering: gebruikers staan er alleen voor

19 mei 2025 / in Nieuws / door Tijn Iserief

Inleiding
In de digitale arena bepaalt niet alleen de technologie wat zichtbaar is, maar ook welke keuzes gebruikers hebben om die technologie te begrijpen en te beïnvloeden. De Europese Unie onderkent dat de strijd tegen desinformatie niet alleen via regulering van platformen moet verlopen, maar ook via versterking van gebruikers. De versterkte Code of Practice on Disinformation, geïntegreerd in de Digital Services Act (DSA), richt zich daarom nadrukkelijk op mediageletterdheid en autonomie. Het beginsel is helder: in een digitale democratie hoort verantwoordelijkheid net zo goed bij platforms als bij de gebruikers hiervan. De vraag is of platforms zich wel aan hun verantwoordelijkheden houden.

Wat behandelt dit artikel?
In dit tweede artikel staat de vraag centraal hoe de Code gebruikers versterkt in hun rol als kritische ontvangers van online-informatie. We bespreken maatregelen uit de Code omtrent ‘empowering users’, waaruit maatregelen voortvloeien zoals safe design, meldings- en bezwaarprocedures, educatieve elementen en het aanbieden van gezaghebbende context. Ook wordt gekeken naar de mate waarin grote platformen deze verplichtingen serieus nemen.

Autonomie en mediageletterdheid van gebruikers
De Code bevat verplichtingen die gebruikers direct of indirect in staat stellen om zelfstandig en kritisch met online-informatie om te gaan. De Code zet daartoe verschillende maatregelen uiteen die de autonomie van de gebruiker vergroten. Het hoofdstuk is dan ook getiteld ‘Empowering Users’.[1] Hierin gaat het bijvoorbeeld om transparantie, keuzevrijheid en educatie als middelen om de autonomie en mediageletterdheid van gebruikers te bevorderen.

Deze maatregelen vullen de algemene beginselen uit de DSA aan, zoals transparantie over aanbevelingssystemen[2] en het uitvoeren van een systeemrisico-assessment.[3] Wel gaan zij een stap verder in hun concretisering en uitvoering.

Safe design
Een belangrijk uitgangspunt van hoofdstuk V is de idee van safe design: digitale diensten moeten zo zijn ingericht dat gebruikers niet onbewust worden blootgesteld aan misleidende informatie. Ondertekenaars ontwerpen hun diensten op zo’n manier dat gebruikers op een transparante en veilige manier kunnen omgaan met informatie.[4] Platforms moeten gebruikers inzicht geven in de werking van aanbevelingssystemen en hen de mogelijkheid te geven deze te beïnvloeden of alternatieve opties te kiezen, zoals chronologische feeds.[5]

De DSA verplicht VLOPs al om enige transparantie te bieden over aanbevelingssystemen, waaronder het vermelden van de belangrijkste parameters en gebruikersopties, en de mogelijkheid om voorkeursopties altijd te selecteren en te wijzigen.[6] De Code verplicht niet alleen VLOPs, maar ook andere onlineplatforms die de Code hebben ondertekend, om gebruikers meer transparantie te bieden. Dit houdt in dat gebruikers beter inzicht krijgen in hoe aanbevelingssystemen werken. Daarnaast moeten deze platforms gebruikers de mogelijkheid geven om hun voorkeuren voor algoritmes aan te passen.

Desinformatie flaggen
Ook de meldmechanismen voor desinformatie worden verder uitgewerkt. Waar de DSA platforms verplicht om meldingsprocedures te hebben voor illegale content,[7] stelt de Code aanvullende eisen voor legale maar schadelijke desinformatie. Gebruikers hebben de mogelijkheid om desinformatie specifiek te flaggen als desinformatie, met verschillende categorieën om een duidelijk onderscheid te maken tussen soorten misleidende inhoud.[8]

Dit gaat verder dan de neutrale meldingsknoppen die de DSA vereist. Deze knoppen zijn immers gericht op illegale inhoud.[9] De Code vergroot daarmee het handelingsvermogen van gebruikers in situaties waarin content weliswaar niet onrechtmatig is, maar wel misleidend of manipulatief.

Bezwaarmechanismen
Verder voorziet de Code in een transparant bezwaarmechanisme voor wanneer content van gebruikers wordt verwijderd of gemarkeerd. Gebruikers moeten worden geïnformeerd over de reden van de verwijdering of demotie van inhoud, en moeten toegang hebben tot een systeem waarmee zij deze beslissing kunnen betwisten.[10]

De DSA verplicht platforms al tot het inrichten van een intern klachtenafhandelingssysteem.[11] Ook verplicht de DSA platforms tot het verstrekken van informatie over de reden en de mogelijkheid tot bezwaar bij inhoudsmoderatie.[12] Wat de Code hieraan toevoegt, is dat deze verplichting uitdrukkelijk ook geldt voor niet-illegale maar mogelijk schadelijke inhoud, zoals desinformatie.

Daarnaast verplicht de DSA platforms de gebruiker te informeren over het bestaan en de mogelijkheid van bezwaar.[13]De Code voegt hieraan toe dat de gebruiker geïnformeerd moet worden over de exacte stappen of vormgeving van het bezwaarproces.[14] Daarmee concretiseert de Code de eisen uit de DSA in operationele zin.

Mediageletterdheid
Een andere belangrijke aanvulling van de Code betreft de ondersteuning van mediageletterdheid. De DSA benoemt het begrip ‘mediageletterdheid’ niet expliciet in de wettekst. Toch kunnen sommige risicobeperkingsmaatregelen uit de DSA daar indirect aan bijdragen.[15] De Code gaat een stap verder door platforms expliciet te verplichten om het kritisch denkvermogen van gebruikers te versterken.[16] Zo roept zij op tot samenwerking met experts om initiatieven op het gebied van mediageletterdheid te ontwikkelen en om educatieve activiteiten op te zetten zoals campagnes over desinformatie.[17]

Daarnaast stimuleert de Code het direct in de dienst opnemen van tools die mediageletterdheid bevorderen, zoals waarschuwingen bij twijfelachtige inhoud, uitlegvideo’s over hoe algoritmes werken, of interactieve quizzes.[18]Daarmee concretiseert de Code het streven om gebruikers actief te ondersteunen bij het herkennen en begrijpen van online desinformatie.

Gezaghebbende bronnen
Tot slot roept de Code platforms op om gebruikers actief te leiden naar gezaghebbende bronnen. Diensten moeten gebruikers alternatieve of aanvullende informatie bieden wanneer zij in aanraking komen met potentieel misleidende berichten (measure 20.1 Code of Conduct).[19] Denk aan het tonen van informatiepanelen, bronvermeldingen of verwijzingen naar onafhankelijke factcheckers.

De DSA schrijft niet expliciet voor dat dergelijke correctieve context moet worden aangeboden. Alhoewel de DSA VLOPs verplicht om passende risicobeperkende maatregelen te treffen, laat zij de invulling daarvan grotendeels aan het platform zelf (Artikel 35 DSA).[20] De Code vult deze leemte door platforms te stimuleren om gebruikers proactief context te bieden. Het doel hiervan is gebruikers ondersteunen in het maken van geïnformeerde keuzes.

Implementatie door platforms?
Tussen 2022 en 2025 hebben de vier grootste platforms (Google, Microsoft, Meta en Tiktok) hun ambities binnen de Code sterk teruggeschroefd.[21] Deze platforms hebben hun toezeggingen in verschillende mate teruggedrongen. De meeste terugtrekkingen betreffen maatregelen rond fact-checking, politieke advertenties en mediageletterdheid.[22]

Deze trend staat op gespannen voet met de Code, die juist inzet op gebruikersversterking en verantwoord design van aanbevelingssystemen. Dit heeft invloed op de mogelijkheden van gebruikers om zich tegen misinformatie te wapenen en op het verbeteren van hun vaardigheden in het beoordelen van digitale inhoud.

LinkedIn
LinkedIn, onderdeel van Microsoft, trok zich volledig terug uit alle fact-checkingmaatregelen, ondanks dat het platform in zijn eigen risicoanalyse verkiezingsgerelateerde desinformatie als een ‘hoog risico’ bestempelt.[23] Ook maatregelen die gebruikers meer controle geven over de herkomst of betrouwbaarheid van digitale inhoud liet LinkedIn vallen. De termen ‘mediageletterdheid’ en ‘safe design’ zouden volgens het platform te vaag zijn. Daarmee ontbreekt het gebruikers aan ondersteuning bij het beoordelen van de betrouwbaarheid van gedeelde informatie.[24]

Ironisch genoeg raakte LinkedIn vorig jaar zelf verwikkeld in een spraakmakende desinformatiezaak. Zoals de BBC berichtte, speelde een LinkedIn-bericht een belangrijke rol bij het verspreiden van valse informatie over de fatale steekpartij tijdens een dansles voor kinderen op 29 juli in het Verenigd Koninkrijk. In het bericht werd ten onrechte beweerd dat de verdachte een illegale immigrant was. Nadat het bericht op andere platforms viraal ging, leidde het tot rellen in Engeland en Noord-Ierland.[25]

YouTube en Google Search
YouTube en Google Search beëindigen al hun toezeggingen op het gebied van fact-checking en gebruikerseducatie. Google stelt dat hun bestaande maatregelen effectiever zijn, maar benoemen geen concrete alternatieven. Zij stellen dat hun bestaande maatregelen effectiever zijn, maar noemen geen concrete alternatieven.

Ook de transparantie over aanbevelingssystemen is versoberd: het platform trok zich terug uit de verplichting om de belangrijkste parameters daarvan openbaar te maken.[26] Het controleerbaar maken van algoritmische aanbevelingen, neemt hiermee af. De afwezigheid van duidelijke instrumenten voor gebruikers om informatie te verifiëren, heeft een negatieve invloed op hun vermogen om weloverwogen keuzes te maken en zichzelf te beschermen tegen misleiding.

Facebook en Instagram
Facebook en Instagram, beide onderdeel van Meta, behouden het grootste deel van hun fact-checkingmaatregelen, maar trokken zich terug van verplichtingen die gericht zijn op het informeren van gebruikers bij gemarkeerde desinformatie. Zo is Meta gestopt met het bieden van contextuele uitleg bij bepaalde vormen van gemarkeerde inhoud. Gebruikers krijgen daardoor minder ondersteuning bij het zelfstandig beoordelen van de betrouwbaarheid van informatie die zij tegenkomen.[27]

Daarnaast is Meta gestopt met deelname aan een aantal initiatieven die transparantie en externe toetsing bevorderen, zonder dat duidelijk is of daar voor gebruikers bruikbare alternatieven voor in de plaats zijn gekomen. Dit beperkt de mogelijkheden voor gebruikers om misleidende patronen te herkennen en bewust om te gaan met digitale inhoud.[28]

TikTok
Tiktok heeft zich teruggetrokken van een groot aantal maatregelen met betrekking tot fact-checking en het ondersteunen van mediageletterdheid van gebruikers. Educatieve content, context bij gemarkeerde berichten, en hulpmiddelen voor bronverificatie zijn grotendeels geschrapt. Hoewel enkele fact-checkingverplichtingen zijn behouden, stelt TikTok deze afhankelijk van het gedrag van andere platforms.[29]

Hierdoor ontbreekt een structureel aanbod aan gebruikers om zelfstandig inhoud te beoordelen of aanbevelingssystemen aan te passen. De afhankelijkheid van externe factoren ondermijnt niet de effectiviteit en maakt het moeilijker voor jou als gebruiker om zelf te controleren of de informatie die je tegenkomt betrouwbaar is.

En nu? Wat kan jij doen?
Daar waar platforms zich terugtrekken uit verschillende verplichtingen, nemen anderen het initiatief om fact-checking websites op te zetten. Dit biedt gebruikers verschillende mogelijkheden om zelf te controleren in hoeverre berichtgeving op feiten berust. In dit artikel lichten we enkele voorbeelden toe. We beginnen met een aantal fact-checkers uit de Verenigde Staten en gaan daarna in op fact-checkers die deel uitmaken van het Europese Netwerk voor Fact-Checking Standaarden.

PolitiFact.com
PolitiFact staat bekend als een toonaangevende website voor het controleren van politieke uitspraken. PolitiFact is aangesloten bij de International Fact-Checking Network (IFCN), een wereldwijd samenwerkingsverband dat kwaliteit en onafhankelijkheid in factchecking bevordert.[30] De IFCN werd opgericht door het Poynter Institute, een gerenommeerd Amerikaans centrum voor journalistieke ethiek en opleiding. De IFCN is genomineerd voor de Nobelprijs voor vrede.[31] Volgens de Berkeley Library van de University of California is PolitiFact bekroond met een Pulitzerprijs vanwege de grondigheid waarmee het feiten onderzoekt.[32] Vooral tijdens verkiezingstijd in de VS is PolitiFact een veel geraadpleegde bron. Hun bekende “Truth-O-Meter” geeft in één oogopslag aan hoe waarheidsgetrouw een uitspraak is. Een team van ervaren journalisten onderzoekt iedere claim zorgvuldig en onderbouwt hun bevindingen met duidelijke bronnen, zodat lezers zelf kunnen nagaan of de beweringen kloppen en de feiten kunnen toetsen.

Snopes
Volgens de bibliotheek van het College of Staten Island (onderdeel van The City University of New York) behoort Snopes tot de bekendste en meest betrouwbare factcheck-websites.[33] Snopes is lid van de IFCN. Het platform staat bekend als dé plek om bizarre verhalen, broodje-aapverhalen en dubieuze geruchten te ontkrachten. Waar Snopes zich in eerste instantie richtte op het doorprikken van moderne folklore en internetmythes, richt het zich tegenwoordig ook op het checken van het nieuws, politiek en de entertainmentwereld. Een toegewijd redactieteam beoordeelt zorgvuldig de feitelijke juistheid van uiteenlopende claims en nieuwsberichten.

FactCheck.org
Het Annenberg Public Policy Center van de University of Pennsylvania beheert FactCheck.org, een non-profit en onafhankelijk initiatief.[34] Ook FactCheck is lid van de IFCN. De organisatie richt zich op het ontkrachten van virale beweringen, uiteenlopend van uitspraken in verkiezingsdebatten tot misleidende reclames op televisie. Daarnaast nemen ze politieke toespraken onder de loep, waardoor FactCheck.org vaak in één adem wordt genoemd met toonaangevende sites als PolitiFact. Dankzij heldere en toegankelijke uitleg op de site helpt FactCheck.org het publiek om desinformatie beter te herkennen en draagt het bij aan mediawijsheid. De organisatie brengt complexe thema’s terug tot begrijpelijke informatie voor een breed publiek.

Reuters Fact Check
Reuters Fact Check houdt zich aan de richtlijnen van de IFCN. Net als andere fact-checkers controleert Reuters Fact Check uitspraken in het nieuws en op sociale media, met name door publieke en politieke figuren.[35] De factcheckers bij Reuters maken gebruik van grondige journalistieke methodes: ze nemen waar nodig contact op met primaire bronnen of raadplegen deskundigen om claims zorgvuldig te verifiëren. Reuters heeft een internationale reputatie als betrouwbare en onafhankelijke nieuwsorganisatie.

Ground News
Ground News is een onafhankelijk mediaplatform dat zich richt op mediawijsheid en het blootleggen van nieuws-bias. In plaats van zelf fact-checks te doen, vergelijkt Ground News hoe eenzelfde nieuwsfeit wordt gebracht door verschillende media, variërend van links tot rechts, nationaal en internationaal. Het platform laat zien welke politieke invals hoek een bron mogelijk heeft, of een verhaal onderbelicht is, en of het grotendeels wordt genegeerd door bepaalde media. Een opvallend kenmerk is de zogeheten ‘Bias Distribution’: een visuele weergave van hoe links-, centrum- en rechtsgeoriënterende nieuwsorganisaties verslag doen van hetzelfde onderwerp. Ook biedt Ground News een functie die laat zien of je als lezer vooral bronnen uit één kamp leest. Het is een hulpmiddel om uit je informatie-bubbel te ontsnappen.

Hoewel Ground News geen fact-checker in traditionele zin is, draagt het bij aan het bestrijden van desinformatie door context, perspectief en een kritische blik op bronnen centraal te stellen. Het platform wil gebruikers bewust maken van hun nieuwsconsumptie, en hen helpen een vollediger en evenwichtiger beeld van de werkelijkheid te vormen.

Europese fact-checkers
Het Europese Netwerk voor Fact-Checking Standaarden (EFCSN) beoordeelt fact-checkers op naleving van de Europese Code voor Standaarden voor Onafhankelijke Fact-Checking Organisaties. Het EFCSN verstrekt een certificaat aan uitgevers die slagen voor de audit van twee onafhankelijke beoordelaars. Dit certificaat is twee jaar geldig, en fact-checkers moeten na afloop van hun certificering opnieuw worden beoordeeld om het certificaat te behouden. Het lidmaatschap van het EFCSN staat open voor organisaties die zich in aanzienlijke mate richten op landen die lid zijn van de Raad van Europa.[36] De fact-checkers zijn actief in verschillende talen, maar de pagina’s kunnen eenvoudig naar het Nederlands worden vertaald.

Conclusie
De versterkte Code of Practice on Disinformation biedt een belangrijke stap richting meer transparantie en controle voor gebruikers van grote onlineplatforms. Door de nadruk te leggen op autonomie, mediageletterdheid en verantwoorde algoritmes, bevat de Code concrete aanknopingspunten om gebruikers weerbaarder te maken tegen desinformatie.

In de praktijk blijkt echter dat grote platformen zich in toenemende mate terugtrekken uit juist die onderdelen van de Code die gebruikers ondersteunen. Maatregelen gericht op educatie, inzicht in aanbevelingssystemen en bronverificatie worden vaak als te vaag of te belastend bestempeld. Daarmee komt de empowerment van gebruikers in het gedrang, juist op een moment dat digitale informatievoorziening steeds bepalender wordt voor publieke meningsvorming. In een digitale democratie is verantwoordelijkheid een gedeelde taak – maar alleen als die verantwoordelijkheid ook daadwerkelijk wordt genomen.

Toch staan burgers niet met lege handen. Indien gewenst, kunnen burgers het heft in eigen handen nemen door gebruik te maken van betrouwbare fact-checkplatforms zoals PolitiFact, FactCheck.org, Reuters Fact Check, Snopes of Ground News. Op deze manier kunnen zij zichzelf beter informeren, desinformatie herkennen en bewuster omgaan met nieuwsbronnen.

[1] Hoofdstuk V Code of Conduct on Disinformation.

[2] Artikel 27 DSA.

[3] Artikel 34 DSA.

[4] Commitment 18 en 19 Code of Conduct on Disinformation.

[5] Measure 19.2 Code of Conduct on Disinformation.

[6] Artikel 27 lid 1 en lid 2 DSA.

[7] Artikel 16 DSA.

[8] Commitment 23 Code of Conduct on Disinformation.

[9] Artikel 16 DSA.

[10] Commitment 24 Code of Conduct on Disinformation.

[11] Artikel 20 DSA.

[12] Artikel 17 DSA.

[13] Artikel 16 lid 5 en artikel 20 DSA.

[14] Measure 24.1 Code of Conduct on Disinformation.

[15] Bijvoorbeeld artikel 35 lid 1 onder i DSA.

[16] Commitment 17 Code of Conduct on Disinformation.

[17] Measure 17.3 en 17.2 Code of Conduct on Disinformation.

[18] Measure 17.1 Code of Conduct on Disinformation.

[19] Measure 20.1 Code of Conduct on Disinformation.

[20] Artikel 35 DSA.

[21] Democracy Reporting International, “DRI Statement on Platforms Reducing Commitments Ahead

of Strengthened Code of Conduct on Disinformation”, 22 January 2025.
Link: https://democracy-reporting.org/en/office/EU/publications/dri-statement-on-platforms-reducing-commitments-ahead-of-strengthened-code-of-conduct-on-disinformation.

[22] Het aantal maatregelen waaraan platformen zich hebben gecommitteerd in de Code of Practice (CoP) is met 31% gedaald. In 2022 onderschreven platformen gemiddeld 78 van de 132 maatregelen (59%), maar in 2025 is dit gedaald naar 53 (40%). De grootste afname betreft maatregelen die de fact-checkinggemeenschap ondersteunen (afname van 64%).

[23] Linkedin, “Systemic Risk Assessment”, August 2024, pp. 34, 40.
Link:https://content.linkedin.com/content/dam/help/tns/en/2024_LinkedIn_DSA_SRA_Report_23_Aug_24.pdf.

[24] D. Alvarado Rincón & M. Meyer-Resende, ‘Big tech is backing out of commitments countering disinformation: What’s Next for the EU’s Code of Practice?’, Europen Union, Democracy Reporting International, 7 februari 2025, p. 6 – 7.

Link: https://democracyreporting.s3.eu-central-1.amazonaws.com/pdf/67ac7d8316ca4.pdf.

[25] Ed Thomas & Shayan Sardarizadeh, ‘How a deleted LinkedIn post was weaponised and seen by millions before the Southport riot’, BBC, 25 oktober 2024.
Link: https://www.bbc.com/news/articles/c99v90813j5o.

[26] D. Alvarado Rincón & M. Meyer-Resende, ‘Big tech is backing out of commitments countering disinformation: What’s Next for the EU’s Code of Practice?’, Europen Union, Democracy Reporting International, 7 februari 2025, p. 8 – 9.

[27] D. Alvarado Rincón & M. Meyer-Resende, ‘Big tech is backing out of commitments countering disinformation: What’s Next for the EU’s Code of Practice?’, Europen Union, Democracy Reporting International, 7 februari 2025, p. 9.

[28] D. Alvarado Rincón & M. Meyer-Resende, ‘Big tech is backing out of commitments countering disinformation: What’s Next for the EU’s Code of Practice?’, Europen Union, Democracy Reporting International, 7 februari 2025, p. 9.

[29] D. Alvarado Rincón & M. Meyer-Resende, ‘Big tech is backing out of commitments countering disinformation: What’s Next for the EU’s Code of Practice?’, Europen Union, Democracy Reporting International, 7 februari 2025, p. 10.

[30] https://ifcncodeofprinciples.poynter.org/about

[31] https://www.poynter.org/about/

[32] https://guides.lib.berkeley.edu/c.php?g=620677&p=4333407

[33] https://library.csi.cuny.edu/c.php?g=619342&p=4310783

[34] https://www.snopes.com/about/

[35] https://www.reuters.com/fact-check/.

[36] https://members.efcsn.com/signatories.