Nieuws

Westmallenaar in finale: mensenrechten beschermen tegen techmisbruik

Geschreven door Matthijs

October 15, 2025 11:34

Een onderzoeker uit Westmalle heeft de finale gehaald van de Vlaamse PhD Cup met onderzoek naar mentale rechten in het digitale tijdperk. De studie vraagt hoe mensenrechten onze geest kunnen beschermen tegen misbruik door kunstmatige intelligentie en neurotechnologie. Het onderwerp is actueel door snelle Europese digitalisering met gevolgen voor burgers en bedrijfsleven. De finale vindt plaats in Vlaanderen en brengt wetenschap en samenleving dichter bij elkaar.

Onderzoek koppelt recht en tech

De kernvraag van het onderzoek is hoe bestaande mensenrechten toepasbaar zijn op nieuwe technologie. Het gaat om rechten zoals privacy, gedachtenvrijheid en lichamelijke en geestelijke integriteit. Deze rechten worden gelegd naast systemen als algoritmen voor emotieherkenning en brain-computer interfaces (BCI’s), die hersensignalen lezen.

Het doel is duidelijke grenzen te trekken voor data over gedachten, emoties en neurale activiteit. Zulke gegevens zijn gevoeliger dan gewone persoonsgegevens, omdat ze iets zeggen over de binnenkant van ons brein. De studie onderzoekt waar toestemming, proportionaliteit en dataminimalisatie niet meer genoeg zijn en extra bescherming nodig is.

De onderzoeker kijkt daarbij naar concrete situaties, zoals monitoring in de klas of op de werkvloer en neurotoepassingen in de zorg. In die contexten botsen innovatie en autonomie snel. De vraag is wanneer een technologie helpt en wanneer zij de mentale vrijheid onder druk zet.

EU-regels bieden startpunt

De Europese AI-verordening (AI Act) is in 2024 aangenomen en wordt gefaseerd ingevoerd. Die wet verbiedt onder meer manipulatietechnieken die kwetsbaarheden uitbuiten en begrenst emotieherkenning in gevoelige omgevingen zoals werk en onderwijs. Systemen in de zorg, het onderwijs en de arbeidsmarkt vallen vaak in hoge risicoklassen en kennen strengere eisen.

De AVG blijft tegelijk de basis voor bescherming van hersendata, biometrie en gezondheidsgegevens. Dat betekent dataminimalisatie, duidelijke doelen, sterke beveiliging en impactanalyses (DPIA’s) als uitgangspunt. De Digital Services Act (DSA) pakt misleidende online ontwerptrucs aan en beperkt advertentietargeting met gevoelige data, wat manipulatie via platforms terugdringt.

Daarnaast heeft de Raad van Europa in 2024 een verdrag over AI, mensenrechten en rechtsstaat aangenomen. Dit verdrag vraagt toezicht en rechtsbescherming over landsgrenzen heen. Voor Europese bedrijven betekent dit: risicobeoordelingen, transparantie en documentatie komen centraal te staan.

Mentale privacy centraal

Mentale privacy gaat over bescherming van gedachten, emoties en aandacht tegen ongewenze toegang of sturing. In de EU sluiten dit aan bij gedachtenvrijheid en menselijke waardigheid. De vraag is hoe deze waarden praktisch werken bij dataverzameling door sensoren, camera’s en headsets.

Nieuwe apparaten kunnen oogbewegingen, hartslag of hersengolven meten en daaruit stemming of stress afleiden. Zulke afleidingen zijn foutgevoelig en kunnen leiden tot verkeerde conclusies of discriminatie. Daarom zijn transparantie en het recht om niet te worden geprofileerd op mentale kenmerken belangrijk.

Beveiliging is cruciaal, zoals versleuteling en waar mogelijk verwerking op het apparaat zelf (on-device). Toegang tot ruwe hersendata moet tot het minimum worden beperkt. Toezichthouders zoals de Autoriteit Persoonsgegevens en de Gegevensbeschermingsautoriteit kunnen, op het moment van schrijven, handhaven als organisaties te ver gaan.

“Mentale privacy is het recht om je innerlijke leven — gedachten, emoties en neurale signalen — te houden buiten ongevraagde meting, analyse of sturing door technologie.”

Toepassingen en risico’s nu

In de zorg helpen BCI’s mensen met verlamming communiceren of bewegen. Die toepassingen leveren duidelijk voordeel, maar vallen onder strenge regels voor veiligheid, kwaliteit en dataprotectie. De AI Act en medische hulpmiddelenwetgeving vragen testbaarheid en uitlegbaarheid van het systeem.

Op werk en school verschijnen tools die productiviteit of aandacht proberen te meten. De AI Act begrenst emotieherkenning in deze omgevingen, en arbeids- en onderwijsrecht stellen extra eisen aan proportionaliteit. Organisaties doen er goed aan alternatieven te kiezen die niet op emotie- of gedragsafleiding sturen.

Ook consumentenproducten, zoals VR- en AR-brillen, verzamelen signalen over blikrichting en reacties. Dat kan handig zijn voor bediening, maar is risicovol voor profiling en advertenties. Heldere instellingen, opt-in en een verbod op het hergebruik van ruwe sensorgegevens verminderen die risico’s.

Nederland en België aan zet

In Nederland en België gelden de AVG en nationale richtsnoeren voor biometrie en gezondheidsdata. De Autoriteit Persoonsgegevens en de Gegevensbeschermingsautoriteit geven guidance en kunnen boetes opleggen. Organisaties die hersen- of emotiedata willen verwerken, moeten aantonen dat dit noodzakelijk en proportioneel is.

De publieke sector werkt aan transparantie over algoritmen, onder meer via algoritmeregisters en verplichte impacttoetsen. Aankoopvoorwaarden kunnen leveranciers verplichten te voldoen aan de AI Act en aan privacy by design. Zo worden risico’s al bij inkoop en ontwerp teruggedrongen.

Voor bedrijven betekent dit investeren in governance: dataminimalisatie, versleuteling, menselijke toetsing en documentatie van modelkeuzes. Training van personeel over menselijke autonomie en manipulatieverboden hoort daarbij. Wie nu inzet op veilige en uitlegbare innovatie, kan straks Europees vooroplopen in verantwoorde neuro- en AI-technologie.

Andere bekeken ook

November 6, 2025

Data en AI achter transfers: XDS-Astana promoveert, EF blijft aankopen doen