Blog
Gebruikt DUO discriminerende risicoprofielen?
NOSop3 en Ivestico hebben in 2023 onderzoek gedaan naar DUO. Het bleek dat DUO een algoritme gebruikt, dat mogelijk discriminerend is. Dit algoritme wordt gebruikt om te zoeken naar fraudeurs. Met zelfbedachte risico-indicatoren zouden studenten met een migratieachtergrond opvallend vaak worden aangewezen als mogelijke fraudeur.
Het controlesysteem werd stilgelegd en onderwijsminister Robbert Dijkgraaf kondigde een onderzoek aan. DUO stelde dat hierover niet eerder is geklaagd, maar onze advocaten hebben hierover wel degelijk eerder aan de bel getrokken, zo berichten naast de NOS ook Trouw en De Groene Amsterdammer. Al in 2020 kwamen we erachter dat het opvallend vaak studenten met een ‘niet-Nederlandse’ achternaam zijn die worden gecontroleerd. Maar op basis waarvan worden ze eigenlijk uitgekozen voor bijvoorbeeld een huisbezoek?
Het verhaal van Jaïr is hetzelfde als van veel van de studenten die NOS op 3 de afgelopen tijd sprak. DUO vindt het niet aannemelijk dat Jaïr bij zijn oom en tante woont in Amsterdam, terwijl zijn ouders zo dichtbij in Amstelveen wonen. Hij is er nog steeds “pissig” over, vertelt hij. Hij wil anoniem blijven, want hij wil niet dat dit verhaal zijn naam bezoedelt.
In de rechtbank krijgt hij gelijk en hij hoeft het bedrag niet te betalen. Waarin zijn verhaal verschilt met de andere studenten: zijn advocaat kaart nóg iets aan in de rechtszaal. Eerst tijdens het bezwaar, daarna tijdens het beroep. “Uit de lijst met geadresseerden komt een beeld naar voren dat met betrekking tot de risicoprofielen gebruik is gemaakt van etnische kenmerken”, zo schrijft advocaat Rudolf van der Ham in het bezwaarschrift.
“We wilden weten waarop mijn cliënt was geselecteerd”, licht Van der Ham toe. “Ik heb het gebruikte risicoprofiel opgevraagd, maar dit nooit ontvangen. DUO reageerde erg verontwaardigd tijdens de zitting. De rechter vond wel dat het terechte vragen waren, maar toch is er niets mee gedaan. Mijn cliënt werd in het gelijk gesteld, dus daarmee was het klaar. Achteraf gezien is dat jammer.”
Steeds vaker algoritmes
Bestuursorganen, zoals de gemeente, het UWV, de Belastingdienst of de SVB, gebruiken steeds vaker data om burgers te selecteren voor onderzoek naar fraude. Het UWV bijvoorbeeld blijkt jarenlang op onrechtmatige (onwettige) wijze mensen met een WW-uitkering te bespioneren. Zonder dat dit toegestaan is, werden bezoekers van UWV-websites met cookies gevolgd, om te achterhalen of ze misschien in het buitenland verbleven. Dat was voor UWV een signaal van mogelijke fraude (terwijl bij het merendeel dat niet het geval was).
Gebruik maken van data, risicoprofielen en algoritmes kan tijd schelen om fraude op te sporen. Het kan daardoor efficiënter. Maar met verkeerd gebruik, kan het ertoe leiden dat ten onrechte bepaalde groepen mensen op voorhand extra kans maken om onderzocht te worden. Bijvoorbeeld omdat de data een vertekend beeld geven. Of omdat met bepaalde ‘objectieve criteria’ toch sprake kan zijn van discriminatie of vooroordelen. Of omdat een bepaalde focus een zelfversterkend effect kan hebben.
Het is dus erg belangrijk om te weten waarom een bestuursorgaan je onderzoekt of heeft onderzocht? Is daar een redelijke aanleiding voor? Of ben je ‘willekeurig’ geselecteerd? Dat maakt nogal uit! Weliswaar mag de overheid in het algemeen wel fraudeonderzoek doen, maar als je bent geselecteerd voor onderzoek op onjuiste gronden, kan dat betekenen dat het hele onderzoek onrechtmatig is. En dus van tafel wordt geveegd door een rechter. Het is dus zaak om een gespecialiseerde advocaat naar je zaak te laten kijken als er een fraudeonderzoek is geweest.
Vragen? Neem gerust contact met ons op
Snel antwoord op je vragen. Dat is wat je graag wilt