Nieuws

Van Stasi tot Big Tech: waarom onze privacy nog steeds onder druk staat

Geschreven door Matthijs

December 21, 2025 11:27

Historici en privacy‑experts trekken op het moment van schrijven een stevige parallel tussen de Stasi en de dataverzameling door Big Tech zoals Meta en Google. In Nederland en Europa groeit de zorg dat onzichtbare tracking en profilering onze vrijheid beperken. Het debat raakt direct aan Europese digitalisering gevolgen bedrijfsleven en burgers. De kern: onze privacy staat onder druk en regels alleen zijn niet genoeg.

Van Stasi naar datahandel

De Stasi bouwde in de DDR gedetailleerde dossiers met informanten en papieren kaarten. Vandaag doen advertentieplatformen en datahandelaren iets soortgelijks met clicks, locaties en contacten. Het verschil is schaal en snelheid: algoritmen maken profielen in seconden. Het lijkt minder zichtbaar, maar het effect is vergelijkbaar: gedragssturing en zelfcensuur liggen op de loer.

Bedrijven als Meta en Google koppelen inloggegevens, app‑gebruik en webcookies aan een advertentie‑ID. Ook zonder cookies kan een techniek als device fingerprinting een gebruiker herkennen op basis van unieke apparaatinstellingen. Die profielen voeden gepersonaliseerde advertenties en aanbevelingen. Voor de gebruiker is nauwelijks te zien wie welke data verzamelt en waarom.

Datahandelaren (data brokers) kopen en verkopen segmenten zoals “jonge ouders” of “sportliefhebbers”. Zulke labels lijken onschuldig, maar kunnen leiden tot uitsluiting of prijsdiscriminatie. In combinatie met locatiegegevens ontstaat een nauwkeurig beeld van iemands leven. Dat maakt misbruik en datalekken extra risicovol.

Ook overheden gebruiken digitale hulpmiddelen, van ANPR‑camera’s (kentekenherkenning) tot telecommunicatiemetagegevens. Juridische waarborgen beperken dat gebruik, maar niet elke toepassing is vooraf helder getoetst. De les uit het verleden is dat informatieverzamelingen vaak groter worden dan oorspronkelijk beoogd. Transparantie en strikte doelen zijn daarom essentieel.

Europese regels zetten grenzen

De Algemene verordening gegevensbescherming (AVG) schrijft voor dat organisaties alleen noodzakelijke data verwerken en die goed beveiligen. De Digital Services Act (DSA) legt grote platforms extra plichten op, zoals advertentietransparantie en een verbod op gepersonaliseerde advertenties voor minderjarigen. De Digital Markets Act (DMA) dwingt “gatekeepers” om data‑koppelingen te beperken. De AI‑verordening (AI Act) voegt daar risicoregels voor algoritmen aan toe.

De AVG verplicht tot dataminimalisatie: verwerk niet meer persoonsgegevens dan nodig is voor een concreet doel.

Voor burgers betekent dit meer inzage, het recht op bezwaar en betere opties om tracking uit te zetten. Voor bedrijven betekent het documenteren van datastromen, het uitvoeren van DPIA’s (risicoanalyses) en het versleutelen van gevoelige data. Platforms moeten duidelijk maken waarom iemand een advertentie ziet en welke kenmerken daarbij zijn gebruikt. Bij hoge risico’s kan de toezichthouder vooraf advies of ingrijpen eisen.

Op het moment van schrijven houdt de Europese Commissie rechtstreeks toezicht op de grootste platforms onder de DSA. Nationale toezichthouders, zoals de Autoriteit Persoonsgegevens (AP), zien toe op AVG‑naleving in Nederland. Die verdeling moet snelle handhaving mogelijk maken. Toch blijft de praktijk weerbarstig door complexe advertentieketens en internationale datastromen.

De AI‑verordening werkt met risicoklassen voor toepassingen. Systemen die rechten sterk kunnen raken, zoals biometrische identificatie in publieke ruimtes, staan onder strikte voorwaarden of zijn verboden. Dat legt de lat hoger voor inzet door zowel bedrijven als overheden. Het doel is innovatie mogelijk maken, zonder fundamentele rechten te schaden.

Handhaving blijft kwetsbaar

In de EU zijn hoge boetes uitgedeeld aan grote platformen, onder meer aan Meta en TikTok, voor schendingen rond advertentiewerking en minderjarigen. Zulke boetes zetten druk, maar veranderen niet meteen de structuur van de advertentie‑industrie. Data stromen nog altijd via talloze tussenpartijen. Dat maakt controle, ook voor toezichthouders, zeer lastig.

De AP waarschuwt regelmatig voor dark patterns: misleidende ontwerpkeuzes die mensen richting “akkoord” duwen. Dergelijke trucs ondermijnen echte toestemming en kunnen in strijd zijn met de AVG. Naarmate cookiebanners strenger worden, verschuift tracking naar minder zichtbare technieken. Daardoor wordt naleving toetsen nog ingewikkelder.

Rechtszaken spelen een groeiende rol bij het verduidelijken van regels. Collectieve klachten leggen druk op grote adtech‑ketens. Tegelijk duurt procederen lang, terwijl de technologie snel verandert. Dat gat tussen rechtspraak en praktijk blijft het grootste handhavingsrisico.

Ook overheidsprojecten komen onder het vergrootglas, bijvoorbeeld bij koppeling van databestanden of automatische risicoscores. Impactassessments en onafhankelijke audits zijn verplicht bij hogere risico’s, maar worden niet overal even volwassen uitgevoerd. Zonder heldere doelen en bewaartermijnen ontstaat sluipende functie‑uitbreiding. Dat is precies wat Europese regels willen voorkomen.

Biometrie en AI beperkt

Gezichtsherkenning is een vorm van biometrie: het herkennen of identificeren van mensen op basis van unieke lichaamskenmerken. De AI‑verordening beperkt het gebruik van realtime gezichtsherkenning in de openbare ruimte tot uitzonderlijke gevallen, met strikte waarborgen. Gemeenten en vervoerders in Nederland moeten daarom kritisch kijken naar “slimme” camera’s. Niet elke analyse van gedrag of emoties is toegestaan.

Partijen die biometrie inzetten moeten een wettelijke grondslag hebben en de noodzaak kunnen aantonen. Vaak zijn er minder ingrijpende alternatieven, zoals toegangspassen of pincode. Als biometrie toch nodig is, geldt versleuteling en strikte toegangscontrole als minimum. Bovendien vraagt de AVG om duidelijke informatie aan betrokkenen.

Voor bedrijven is het risico niet alleen juridisch, maar ook reputatief. Onzorgvuldige inzet kan leiden tot klachten, boetes en verlies van vertrouwen. Voor de overheid geldt dat publieke acceptatie cruciaal is voor legitimiteit. Openheid en onafhankelijke toetsing helpen om grenzen helder te houden.

Nieuwe AI‑functies, zoals gedragsvoorspelling, vallen sneller in een hogere risicoklasse. Dat betekent meer documentatie, menselijke controle en testen op bias. Europese toezichthouders ontwikkelen hiervoor op het moment van schrijven handreikingen. De boodschap is simpel: eerst toetsen, dan uitrollen.

Gevolgen voor bedrijfsleven

Europese digitalisering gevolgen bedrijfsleven zijn concreet: minder datakoppeling, strengere toestemming en hogere eisen aan transparantie. Marketingteams moeten werken met kleinere, eigen datasets (first‑party data). IT‑afdelingen investeren in consent‑management, logboeken en versleuteling. Juridische teams maken DPIA’s en bewaartermijnen leidend.

Dat dwingt organisaties om waarde te halen uit kwaliteit in plaats van volume. Minder maar betrouwbaardere data levert vaak betere modellen op. Ook performance‑marketing verschuift naar context in plaats van gedrag. Meetmethoden gaan meer richting geaggregeerde statistiek en privacyvriendelijke API’s.

Samenwerking met leveranciers verandert ook. Contracten bevatten strengere clausules over subverwerkers en doorgifte buiten de EU. Bedrijven vragen dataverwerkers om technische en organisatorische maatregelen te bewijzen. Zonder die zekerheid drogen deals op of lopen risico’s op boetes op.

Tot slot wordt privacy by design een concurrentievoordeel. Producten die standaard weinig data nodig hebben, zijn sneller uit te rollen in Europa. Dat scheelt kosten en reputatierisico’s. Het is daarmee niet alleen een compliance‑vraag, maar ook een strategische keuze.

Wat burgers nu kunnen

Zet waar mogelijk gepersonaliseerde advertenties uit bij Meta, Google en TikTok en herhaal dat na updates. Gebruik privacyvriendelijke browsers en blokkeer third‑party tracking. Controleer app‑machtigingen op locatie, contacten en camera. Minder delen betekent minder risico.

Vraag met het AVG‑inzagerecht op welke data een organisatie jouw profiel baseert. Verwijder historische data die niet meer nodig is en maak gebruik van het recht op bezwaar. Activeer tweefactorauthenticatie op accounts met gevoelige informatie. Een datalek is dan minder snel fataal.

Wees kritisch op cookiebanners met misleidende knoppen. Kies voor “weigeren” als er geen duidelijke noodzaak is. Let op of diensten blijven werken zonder tracking; vaak is dat zo. Is toestemming nodig, vraag dan naar het doel en de bewaartermijn.

Bewustwording is de eerste stap, maar niet de laatste. Blijf organisaties aanspreken op duidelijke uitleg en veilige keuzes. Privacy is geen luxe, maar een randvoorwaarde voor een vrije samenleving. Die les geldt van de Stasi tot en met Big Tech.

Andere bekeken ook

January 22, 2026

Wattmeters en data-analyse: hoe technologie Jay Vine aan dubbelslag hielp

January 22, 2026

EU-tegenmaatregelen bedreigen Amerikaanse techreuzen: wat staat hen te wachten?