Nieuws

FD waarschuwt: Onderbuikgevoel mag digitale transformatie niet bepalen

Geschreven door Matthijs

January 4, 2026 19:19

In Nederland woedt een discussie over hoe we besluiten nemen bij digitalisering en algoritmen. Bedrijven en overheden sturen op data en kunstmatige intelligentie, maar herwaarderen ook ervaring en intuïtie. Met de Europese AI-verordening (AI Act) in aantocht groeit de druk om dat evenwicht te vinden. Dit raakt Europese digitalisering en de gevolgen voor het bedrijfsleven direct.

Data zonder context hapert

De stelling “onderbuik = slecht” klinkt logisch, maar sturen op alleen data werkt niet altijd. Data laten het verleden zien en missen vaak nuance. Zonder context ontstaan schijnzekerheid en fouten in besluitvorming. Dat vergroot risico’s bij technologieprojecten.

Algoritmen en AI-systemen geven uitkomsten op basis van de input die ze krijgen. Als de data scheef zijn, is de uitkomst dat ook; dit heet ‘garbage in, garbage out’. Domeinkennis en praktijkervaring blijven daarom nodig. Zij helpen verkeerde aannames tijdig te vinden.

De Autoriteit Persoonsgegevens (AP) wijst al langer op risico’s bij profilering en geautomatiseerde besluitvorming. Organisaties moeten daarom vooraf helder maken wat een model wel en niet kan. Ook moeten zij vastleggen welke besluiten mensen zelf blijven nemen. Zo blijft het systeem uitlegbaar en corrigeerbaar.

Intuïtie als tweede check

Intuïtie is vaak samengebalde ervaring van professionals. Het werkt als vroegtijdig alarmsignaal als de uitkomst van een systeem wringt met de werkelijkheid. In nieuwe of zeldzame situaties is die signalering extra belangrijk. Data zijn daar immers schaars of onvolledig.

Wel moet intuïtie transparant en toetsbaar worden gemaakt. Leg in een beslislogboek vast waarom een medewerker afwijkt van een modeladvies. Evalueer die keuzes periodiek met data en collega’s. Zo wordt gevoel een gecontroleerde tweede check.

Combineer datagedreven werken met kleine, omkeerbare stappen. Test besluiten via A/B-testen of pilots voordat ze breed ingaan. Stel duidelijke stopcriteria in als resultaten tegenvallen. Daarmee beperk je schade en leer je sneller.

AI Act vraagt toezicht

De AI Act introduceert risicoklassen voor AI-systemen in de EU. Hoog-risico-systemen krijgen strenge eisen, zoals kwaliteitsmanagement, logging en menselijk toezicht. Organisaties moeten kunnen uitleggen hoe het systeem werkt en wanneer een mens ingrijpt. Dit geldt ook voor Nederlandse aanbieders en gebruikers.

Op het moment van schrijven gelden verboden praktijken snel na inwerkingtreding, terwijl regels voor hoog-risico-systemen binnen ongeveer twee jaar volgen. Bedrijven doen er goed aan nu al rollen en processen in te richten. Denk aan het aanwijzen van een toezichthouder per AI-toepassing. En aan training voor medewerkers die beslissingen controleren.

De Europese Commissie en nationale toezichthouders zien toe op uitvoering. Dat betekent audits, technische documentatie en post-market monitoring. Nederlandse organisaties moeten hun modelkeuzes en aannames dus aantoonbaar maken. Zo voldoen zij aan de Europese regels en beperken zij risico’s.

Definitie: Menselijk toezicht betekent dat een persoon kan ingrijpen, het systeem kan pauzeren en een automatiseringsbesluit kan overrulen.

AVG begrenst dataverzameling

De AVG stelt grenzen aan hoeveel en welke data je mag gebruiken. Dataminimalisatie en doelbinding betekenen: verzamel alleen wat nodig is voor een helder doel. Bij profilering of geautomatiseerde besluitvorming is vaak een Data Protection Impact Assessment (DPIA) verplicht. Zo wordt privacyrisico vooraf in beeld gebracht.

Beveiliging is ook een plicht. Versleuteling, pseudonimisering en strikte toegangscontrole zijn basismaatregelen. Leg vast wie data ziet, voor welk doel en hoe lang. Daarmee verklein je schade bij lekken of misbruik.

Burgers houden rechten, zoals inzage, correctie en bezwaar. Organisaties moeten begrijpelijk uitleggen hoe een algoritme tot een besluit komt. En zij moeten een mens aanbieden die het besluit kan herzien. Dit vermindert juridische en reputatierisico’s.

Beslisregels moeten uitlegbaar

Uitlegbaarheid betekent dat je in gewone taal kunt vertellen waarom een advies uit het systeem rolt. Gebruik eenvoudig te begrijpen kenmerken en redeneer stap voor stap. Werk met modeldocumentatie en impactrapporten die niet alleen voor specialisten zijn. Dat vergroot vertrouwen bij klanten en toezichthouders.

In de publieke sector helpt het Algoritmeregister van de overheid bij transparantie. Overheidsorganisaties beschrijven daar hun algoritmen en doelen. Burgers en onderzoekers kunnen zo meekijken en vragen stellen. Dat bevordert verantwoord gebruik van technologie.

Ook logging is essentieel. Leg vast welke data zijn gebruikt, welke versie van het model draaide en wie heeft ingegrepen. Met die sporen kun je fouten herleiden en verbeteren. Dit sluit aan op de AI Act en de AVG.

Stappenplan voor bestuurders

Begin met governance: beleid, rollen en controles voor AI en data. Gebruik een managementsysteem voor AI, zoals NEN-ISO/IEC 42001, als raamwerk. Koppel dit aan bestaande normen voor informatiebeveiliging. Zo wordt AI geen eiland naast IT en compliance.

Maak afspraken over ‘mens in de lus’. Definieer wanneer een medewerker moet ingrijpen en hoe hij dat doet. Train teams in vooringenomenheid herkennen en in escaleren. Toets regelmatig of besliscriteria nog kloppen.

Meet uitkomsten, niet alleen modelnauwkeurigheid. Kijk naar foutklassen, impact op doelgroepen en herstelprocessen. Voer periodiek een onafhankelijke audit uit. Hiermee wordt intuïtie geborgd als gecontroleerde tegenkracht naast data en algoritmen.

Andere bekeken ook

January 22, 2026

Wattmeters en data-analyse: hoe technologie Jay Vine aan dubbelslag hielp

January 22, 2026

EU-tegenmaatregelen bedreigen Amerikaanse techreuzen: wat staat hen te wachten?