De Vlaamse overheid zet kunstmatige intelligentie in om subsidies beter te controleren. Het systeem bekijkt dossiers en markeert risico’s om fraude en fouten op te sporen. De proef start in Vlaanderen in de komende maanden bij geselecteerde regelingen. Doel is snellere controles, lagere kosten en een eerlijkere verdeling, met oog voor Europese digitalisering en de gevolgen voor bedrijfsleven en burgers.
Algoritme toetst subsidieaanvragen
De controle gebeurt met een AI-algoritme dat patronen in data herkent. Het systeem vergelijkt nieuwe aanvragen met eerdere dossiers en signalen uit open bronnen. Zo kan het afwijkingen vinden die op fouten of misbruik wijzen.
De technologie werkt met risicoscores, een eenvoudige uitkomst die aangeeft hoeveel aandacht een dossier vraagt. Zo’n score is een hulpmiddel, geen oordeel. Een medewerker kan de signalen bekijken en extra bewijs vragen.
Machinelearning-modellen leren van eerdere, gecontroleerde casussen. Ze combineren vaste regels met statistische patronen. Daarmee worden zowel bekende als nieuwe risico’s zichtbaar.
Mens houdt eindbeslissing
Bij publieke diensten mag een burger niet te maken krijgen met een volledig geautomatiseerde beslissing met grote gevolgen. Dat principe volgt uit de AVG en geldt ook hier. Daarom is menselijk toezicht nodig bij elke afwijzing of terugvordering.
In de praktijk betekent dit dat een behandelaar het dossier beoordeelt en kan afwijken van de AI-score. De motivatie hoort vastgelegd te worden in het dossier. Aanvragers moeten een besluit kunnen laten herzien.
Transparantie naar aanvragers is cruciaal. Wie subsidie aanvraagt, hoort te weten dat een algoritme meeleest. Ook moet duidelijk zijn welke gegevens worden gebruikt en hoe lang ze worden bewaard.
AI Act stelt eisen
De Europese AI-verordening (AI Act) ziet systemen die toegang tot publieke voordelen beïnvloeden als hoog-risico. Zulke systemen moeten aan strenge regels voldoen. Denk aan risicobeheer, documentatie, kwaliteitsdata en continue monitoring.
Voor de Vlaamse overheid betekent dit dat de leverancier en de gebruiker aantoonbaar controle inbouwen. Logbestanden, modeldocumentatie en validatietests zijn verplicht. Ook moeten bias en foutmarges meetbaar zijn.
“De AI-verordening classificeert AI die toegang tot publieke diensten of voordelen beïnvloedt als hoog-risico en vereist menselijk toezicht, robuuste data en duidelijke documentatie.”
Toezicht loopt via nationale autoriteiten die de AI Act handhaven, op het moment van schrijven in opbouw. Registratie in de Europese databank voor hoog-risico AI kan verplicht zijn bij ingebruikname. Dat maakt audits en publieke controle eenvoudiger.
Privacy en datagebruik
De inzet van AI voor controles valt onder de AVG. Dat vraagt om dataminimalisatie, een duidelijke grondslag en een Data Protection Impact Assessment (DPIA). Alleen gegevens die nodig zijn voor het controle-doel mogen worden verwerkt.
Data moeten correct, actueel en beveiligd zijn. Versleuteling en strikte toegangsrechten zijn hierbij standaard. Delen van gegevens met andere overheden moet beperkt en verantwoord zijn.
In Vlaanderen houdt de Vlaamse Toezichtcommissie voor de verwerking van persoonsgegevens toezicht, naast de Belgische Gegevensbeschermingsautoriteit. Zij kunnen maatregelen eisen of boetes opleggen. Burgers behouden het recht op inzage en correctie.
Gevolgen voor aanvragers
Voor bedrijven en burgers kan de doorlooptijd korter worden bij lage risicoscores. Bij hogere scores volgen meer vragen of een extra controle. De verwachting is dat steekproeven gerichter worden ingezet.
Goede dossiervorming helpt: volledige facturen, heldere activiteitenverslagen en consistente gegevens. Zo daalt de kans op onnodige vertraging. Aanvragers doen er goed aan wijzigingen tijdig te melden.
De overheid moet tegelijk waken voor ongewenste effecten, zoals onterechte risicoprofilering. Daarom zijn uitlegbaarheid en bezwaarprocedures belangrijk. Heldere communicatie vergroot het vertrouwen.
Kwaliteit en verantwoording
De prestaties van het model moeten regelmatig gemeten worden. Denk aan foutpercentages, verschillen tussen doelgroepen en impact op wachttijden. Resultaten horen publiek verantwoord te worden zonder gevoelige details prijs te geven.
Onafhankelijke audits zijn wenselijk, bijvoorbeeld door Auditdiensten of academische partners. Zij kunnen de methode, data en uitkomsten toetsen. Waar nodig kan het model worden bijgesteld of tijdelijk gepauzeerd.
Dit past in bredere Europese digitalisering van publieke processen. Efficiëntie en rechtsbescherming moeten daarbij in balans blijven. Met duidelijke regels en toezicht kan AI bijdragen aan een eerlijker subsidiesysteem.
