Nieuws

HLN: documenten suggereren Meta verbergt causaal bewijs voor mentale schade

Geschreven door Matthijs

November 23, 2025 11:27

Meta ligt opnieuw onder vuur vanwege de impact van sociale media op jongeren. Nieuwe stukken uit een lopende rechtszaak in de VS stellen dat het bedrijf ‘causaal’ bewijs van negatieve effecten heeft verborgen. De documenten kwamen deze week naar buiten en richten zich op Instagram en Facebook. Dat roept vragen op voor Europese digitalisering en de gevolgen voor het bedrijfsleven, omdat strengere regels gelden voor online platforms.

Documenten tonen harde signalen

In de vrijgegeven stukken wordt gesproken over intern onderzoek bij Meta naar de effecten van gebruik door jongeren. Daarbij zou sprake zijn van ‘causaal’ bewijs, wat betekent dat gebruik van het platform leidt tot een negatief gevolg en niet alleen samenhang vertoont. Het draait vooral om mentale gezondheid, zoals somberheid en problematisch gebruik. De stukken suggereren dat deze bevindingen intern bekend waren, maar niet volledig zijn gedeeld met buitenstaanders.

Het verschil tussen correlatie en causaliteit is belangrijk in dit debat. Correlatie betekent dat twee zaken samen voorkomen; causaliteit betekent dat het één het ander veroorzaakt. Als er daadwerkelijk causaliteit is gevonden, heeft dat zwaardere beleidsgevolgen. Het zet druk op bedrijven om hun systemen, zoals aanbevelingsalgoritmen, aan te passen.

Aanbevelingsalgoritmen bepalen welke posts gebruikers te zien krijgen. Zulke algoritmen zijn ontworpen om betrokkenheid te vergroten, maar kunnen ook leiden tot verslavingsachtig gedrag. In de stukken wordt juist die dynamiek als risicofactor genoemd. Dat maakt de claims relevant voor toezicht in zowel de VS als Europa.

Meta betwist eenduidig verband

Meta stelt al langer dat onderzoek naar sociale media en mentale gezondheid wisselende uitkomsten heeft. Het bedrijf wijst erop dat er geen wetenschappelijk consensus is over een eenduidig negatief causaal verband. Ook zegt het te investeren in functies die het welzijn van jongeren moeten beschermen. Voorbeelden zijn tijdslimieten, notificatiepauzes en strengere standaardinstellingen voor minderjarigen.

Het bedrijf benadrukt dat context, gebruiksduur en persoonlijke factoren een rol spelen. Niet elke gebruiker ervaart dezelfde effecten, en positieve ervaringen komen ook voor. Tegelijk houdt de kwestie de vraag open of ontwerpkeuzes het risico vergroten. Die vraag staat centraal bij toezichthouders die naar systeemrisico’s kijken.

De mogelijke kloof tussen interne kennis en externe communicatie is nu onderwerp van juridisch onderzoek. Als blijkt dat schadelijke effecten bekend waren, kan dat zwaar wegen in boete- en aansprakelijkheidskwesties. Het procesverloop in de VS kan indirect gevolgen hebben voor Europese handhaving. Bedrijven zullen hun documentatie en risicobeoordelingen scherper op orde moeten hebben.

DSA verplicht risicobeperking

In de EU geldt de Digital Services Act (DSA), die zeer grote online platforms extra plichten oplegt. Zij moeten jaarlijks een risicobeoordeling uitvoeren en maatregelen nemen tegen systemische risico’s, zoals schade voor minderjarigen. Ook moeten zij transparant zijn over aanbevelingssystemen en onderzoekers toegang geven tot data, binnen privacykaders. Dit raakt Meta direct, omdat Instagram en Facebook als zeer grote diensten zijn aangewezen.

De DSA classificeert diensten met meer dan 45 miljoen EU-gebruikers als ‘zeer groot’ en legt extra plichten op.

Daarnaast verbiedt de DSA gerichte advertenties op basis van profilering bij minderjarigen. Dat sluit aan op de AVG, die extra bescherming biedt aan kinderen en dataminimalisatie vereist. Toezicht ligt bij de Europese Commissie voor de grootste platforms, met steun van nationale autoriteiten. Bij tekortkomingen kunnen hoge boetes volgen, oplopend tot 6% van de wereldwijde omzet.

De huidige onthullingen vergroten de druk op naleving en transparantie. Als interne studies bestaan, zullen toezichthouders die willen zien als onderdeel van de DSA-risicobeoordeling. Ook kan het leiden tot strengere mitigaties, zoals aanpassingen in rangschikking en aanbevelingen. Daarbij is documentatie over effectiviteit van maatregelen onmisbaar.

Gevolgen voor EU-bedrijfsleven

Voor adverteerders en mediabedrijven in Europa kan strikter toezicht op algoritmen de zichtbaarheid van content veranderen. Minder nadruk op engagement kan de prestaties van campagnes beïnvloeden. Bedrijven moeten daarom breder plannen en niet leunen op één kanaal. Dit is een direct gevolg van Europese digitalisering en de gevolgen voor het bedrijfsleven.

Ook voor EdTech, zorg en jeugdorganisaties kan het debat gevolgen hebben. Zij werken steeds vaker met digitale platforms en moeten risico’s voor jongeren meenemen in beleid. Transparantie-eisen maken samenwerking met platforms formeler en beter controleerbaar. Dat kan de kwaliteit van evaluaties en interventies verhogen.

In Nederland kijken de Autoriteit Persoonsgegevens en de Autoriteit Consument & Markt naar respectievelijk privacy en concurrentie. Bij zeer grote platforms ligt DSA-handhaving bij de Europese Commissie, maar nationale inbreng blijft belangrijk. Overheden en scholen zullen vragen om duidelijke productinstellingen voor minderjarigen. Denk aan standaard privacy, beperkingen in direct berichten en minder dataverzameling.

Wat verandert op korte termijn

Gebruikers kunnen meer opties verwachten om tijd en meldingen te sturen. Denk aan standaard ‘rustmodi’, grotere pauzes en minder pushberichten tijdens nachturen. Ook zullen instellingen voor jongeren strenger worden, bijvoorbeeld bij privacy en contact. Voor onderzoekers komt er stapsgewijs meer toegang tot platformdata onder de DSA.

Voor ontwikkelaars en productteams wordt het cruciaal om risico’s meetbaar te maken. Dat betekent experimenten met duidelijke evaluatiecriteria en documentatie van effecten op minderjarigen. Regulators vragen daarbij om toetsbare causaliteit, niet alleen correlaties. Interne bevindingen moeten dus consistent zijn met externe rapportages.

Voor ouders en scholen is heldere uitleg over functies belangrijk. Simpele hulpmiddelen, zoals tijdslimieten en inhoudsfilters, werken alleen als ze zijn geactiveerd en begrijpelijk zijn. Transparante informatie over algoritmen helpt verwachtingen bij te stellen. Zo ontstaat meer grip op digitale gewoonten zonder platforms volledig te verbieden.

Andere bekeken ook

December 9, 2025

Nederland onderschat ruimtevaartpotentieel: doorbraak voor tech-economie

December 9, 2025

Deze 5 technologische trends bepalen 2026 volgens top-vermogensbeheerders