Ditigale transparantie

Het bewustzijn over data-ethiek groeit bij de overheid, maar het resultaat moet nog komen

null Beeld Fadi Nadrous
Beeld Fadi Nadrous

Het toeslagenschandaal, een rechterlijk verbod op een algoritme tegen uitkeringsfraude. Grote affaires hebben de afgelopen jaren duidelijk gemaakt dat het toezicht op geautomatiseerde beslissingen tekortschiet. Maar om daar ook echt iets aan te doen, is nog heel wat nodig.

Joost van Egmond

“Het is een gekke tijd”, zegt Iris Muis van de Data School van de Universiteit Utrecht. De expert data-ethiek merkt aan alle kanten een toenemend bewustzijn van het belang van transparantie over het gebruik van data. Overheden, van lokaal tot rijksniveau, onderschrijven het, en toezichthouders willen hen graag controleren. “Maar het is moeilijk om deze extra taak goed uit te voeren”, merkt ze ook.

Dat blijkt ook weer uit het algoritmeregister, waarin de overheid geautomatiseerde beslisprocedures die burgers kunnen raken opneemt. ‘Op basis daarvan’, schreef staatssecretaris van digitalisering Alexandra van Huffelen eind vorig jaar aan de Tweede Kamer, ‘kunnen burgers de overheid desgewenst kritisch volgen en bevragen of zij zich aan de regels houdt’.

Dat werd breed toegejuicht. Muis noemt het een goede ontwikkeling en ook andere experts zijn vol lof over het voornemen. Vanaf het begin was ook duidelijk dat dit ‘werk in uitvoering’ is. Welke procedures burgers dermate raken dat ze in het register thuishoren, en welke gegevens dan moeten worden opgenomen, daar is nog volop discussie over. “Ze wachten niet tot het is uitgekristalliseerd voor ze ermee naar buiten treden. Dat is een mooie aanpak”, vindt Joost Visser, hoogleraar grootschalige software en datawetenschappen aan de Universiteit Leiden.

Werken met algoritmes is controversieel

De druk om transparanter te zijn over automatische selectieprocedures is voor een groot deel ingegeven door twee affaires waarbij de overheid fout zat. Berucht werd de selectie op nationaliteit die de Belastingdienst gebruikte om potentiële fraudeurs te vinden, wat zou uitmonden in de toeslagenaffaire. ‘Discriminerend’, oordeelde de Autoriteit Persoonsgegevens over die selectie.

Niet veel later ging de overheid de mist in met een ander systeem om fraude op te sporen, SyRI. De rechter droeg de staat drie jaar geleden op hiermee te stoppen, omdat het fundamentele mensenrechten schond. Gebrek aan transparantie over hoe SyRI werkte, was daarbij een belangrijke overweging. Het maakte het onmogelijk het overheidshandelen te controleren.

Maar het wil nog niet echt vlotten. Slechts een handvol gemeenten, ministeries en andere overheden hebben het afgelopen half jaar algoritmes ingestuurd. Er staan er 177 op de site, uiteenlopend van een risicoscan op fraude van het UWV tot een voorspelmodel voor gladheid in Noord-Brabant. Veel beschrijvingen zijn heel vaag, zo heeft de gemeente Utrecht alvast tientallen algoritmes aangemeld, maar die nog nauwelijks beschreven. ‘Meer specifieke informatie volgt’, is de vaste tekst.

Het kritisch volgen en bevragen waar Van Huffelen op mikte, is dus nog erg lastig. Hoe komt dat, en wat is ervoor nodig om te zorgen dat het register op termijn wel aan de verwachtingen voldoet?

“Data-ethiek is nu nog nice to have”, concludeert Muis. “Er wordt niet echt doorgepakt, want er zit geen druk op.” Eerder onderzoek bij gemeenten leerde haar dat het ook sterk afhangt van de digitale geletterdheid van ambtenaren. De impact van een procedure wordt bijvoorbeeld niet altijd onderkend. “Je wilt zo’n afweging niet maken voor elk algoritme, maar juist voor de belangrijke. Maar dat begint met herkennen welke de belangrijke zijn.”

Overzicht van de knelpunten

De middelen daarvoor zijn er wel. Muis is zelf een van de makers van een beslislijst die moet helpen de gevolgen van een algoritme voor mensenrechten in kaart te brengen, het Impact Assessment Mensenrechten en Algoritmes (Iama). Het document telt maar liefst 94 pagina’s, maar als je het doorloopt, heb je wel direct een goed overzicht van mogelijke knelpunten.

Geen overbodige luxe, aangezien de overheid juist daarmee zowel in de toeslagenaffaire als in de rechtszaak over fraudeopsporingssysteem SyRI fout zat. Muis helpt graag iedereen die het wil gebruiken, ook al omdat de Tweede Kamer een motie heeft aangenomen om het Iama verplicht te stellen voor algoritmes die ‘beslissingen over mensen maken’.

Te oordelen naar het algoritmeregister is dat nog niet zo’n succes. Keer op keer is het vakje voor toelichting op de Iama leeg. Dat belooft veel extra werk als de Tweede Kamer straks zijn zin krijgt en de verplichting er komt, waar het wel naar uitziet.

Dat de informatie in het register onvolledig is, wil natuurlijk niet zeggen dat die informatie er ook echt niet is. De inzet van een algoritme heeft heus wel een doel, ook als het daarvoor bestemde veld in het register leeg blijft. Sommige organisaties, zoals de gemeente Amsterdam, hadden al een eigen algoritmeregister met eigen invulvelden. Die sloten niet altijd aan op wat het nationale algoritmeregister vroeg. Het ministerie van binnenlandse zaken noemt dat als belangrijkste reden dat er velden leeg bleven.

Muis, die veel ervaring heeft met het ondersteunen van zulke processen in de praktijk, geeft aan dat het ook belangrijk is wie er invult. Dat hoeft niet altijd iemand te zijn die goed op de hoogte is van het betreffende algoritme. Ze weet bijvoorbeeld van algoritmes waarvoor wél een Iama is gedaan, ze was daar zelf bij betrokken, maar dat blijkt niet uit het register. “Ik ben heel benieuwd hoe dat er achter de schermen aan toe is gegaan”, zegt ze.

Het zou dus goed kunnen dat veel van de gaten in de transparantie gemakkelijk te vullen zijn. Dat roept ook weer de volgende vraag op: als het register kennelijk belangrijk genoeg wordt gevonden om in te vullen, waarom wordt het dan niet gelijk goed gedaan?

We zien de primitieve kant

“Misschien is er weinig over nagedacht. Of misschien zijn ze vergeten het in te vullen of misschien weten ze het nu, jaren later, niet meer.” Cynthia Liem, universitair hoofddocent aan de technische universiteit in Delft, kan tal van redenen bedenken voor de gebrekkige verantwoording. Voor haar conclusie maakt het niet eens zoveel uit. “Dit register geeft waarschijnlijk goed weer hoe we nu met algoritmes omgaan. Juist ook de primitieve kant van die omgang.”

Ook Liem, een expert op het gebied van verantwoorde inzet van kunstmatige intelligentie, wordt geregeld gevraagd om overheden te adviseren over de omgang met algoritmes. Zij merkt dat overheidsorganisaties vaak tegen een cluster van problemen aanlopen. Tekort aan expertise is er zeker een van, maar ook gebrek aan menskracht, leiderschap en toezicht helpen niet mee. “Het onderwerp wordt wel belangrijk gevonden, maar niet altijd op een doordachte manier. We verliezen ons soms in details.”

De overheid, maar ook de samenleving in bredere zin, heeft nog weinig grip op wat ze wil bereiken met transparantie, merkt ze. Het draait uiteindelijk om betrouwbaarheid, Liem gebruikt daarvoor vaak de keukenmetafoor. “We willen graag verantwoord eten, maar op dit moment zitten we op het niveau dat we precies willen weten hoe een airfryer in elkaar zit. Dat is niet zo relevant voor degene die komt eten.

“Een eter wil erop kunnen vertrouwen dat de kok geen gekke dingen doet. Daarvoor is transparantie op hoofdlijnen nodig. Je moet de keuzes die je maakt kunnen verantwoorden. In een professionele setting worden de eisen hoger, dan moet de kok ook formeel verantwoording kunnen afleggen.”

Dat je vervolgens niet iedere klant de keuken binnen laat lopen kan Liem begrijpen. “Ik snap prima dat sommige gegevens niet publiek worden, maar dan hebben we toezicht van een onafhankelijke partij nodig. In een restaurant is dat de voedsel- en warenautoriteit. Die moet je wel in je keuken binnenlaten.”

Die transparantie op hoofdlijnen, dat is wat een register volgens Liem zou moeten bieden. Dat vraagt dan wel om een systematische aanpak. Als eerste stap naar transparantie is het register een goede, vindt Liem. “Het ziet er raar uit, dat kan iedereen zien. Dan is de vraag: wat doe je nu? Dat is waar het om gaat spannen. Is dit de transparantie die we willen bereiken, of gaan we vragen stellen en de stap maken om systematischer te beschrijven wat we doen en waarom?”

Hoe concreet worden we?

Hoe je dat laatste kunt doen, daar had Floor Terra wel ideeën over. Hij is privacy-expert met een grote staat van dienst en leverde als betrokken burger bijdragen op het forum van het algoritmeregister. Daar kan iedereen een account aanmaken en meepraten. Terra is een enthousiast voorstander van zo’n register. Juist dát het werk in uitvoering is, sprak hem aan. “Ik wil graag meedoen aan het experiment om te kijken wat er nodig is voor een goed register.”

Voor hem was dat vooral om verwerkingen concreet controleerbaar te maken. “Er moet dus voldoende transparantie zijn om te kunnen controleren of iets misschien onrechtmatig is. En daarvoor is het handig om de informatie in zo’n register aan te laten sluiten bij de wettelijke verplichtingen die gelden.” Dan heb je het niet alleen over specifieke verplichtingen om het register in te vullen, of om een toets als Iama te doen, maar ook over bredere wetten zoals de wet gelijke behandeling, of de algemene verordening gegevensbescherming, die beide flinke impact hebben op wat je met een algoritme mag doen.

Dat werd een wat moeizame discussie, merkte hij. ‘Concreet controleerbaar’, zoals Terra voorstond, werd het niet. Het team sprak liever van het ‘bevorderen van de controleerbaarheid’ en over de ‘versterking’ van de autonomie van burgers ten opzichte van de overheid. “Zo kun je er ook instaan”, zegt Terra. “Je kunt proberen om wat overzicht te creëren, waarbij alle verbetering is meegenomen. Die kant gaat het nu een beetje op.”

Aan goede wil ligt het niet, benadrukt hij. Maar hij is wel bezorgd dat pragmatische keuzes die nu worden gemaakt, doorwerken in hoe een definitief register eruit komt te zien. “Ik zie het heel graag slagen, en ik denk ook dat dat kan. Maar ik maak me wel zorgen dat er een soort halve norm komt, die niet aan de wettelijke verplichtingen voldoet.”

Het nadeel van pionieren

De komende maanden en jaren zullen leren welke kant het uitgaat, want dat het register nog lang niet zijn definitieve vorm heeft bereikt, zullen de makers als eerste benadrukken. Een woordvoerder van staatssecretaris Van Huffelen weet dat veel overheidsorganisaties op dit moment druk bezig zijn algoritmes te inventariseren en de verantwoordelijkheden eromheen intern te regelen. Als dat lukt, zullen er de komende tijd meer registraties komen. Bestaande registraties worden aangepast en verbeterd en ook de hele opzet wordt tegen het licht gehouden. Van Huffelen zal daar dit najaar de Tweede Kamer over informeren.

Ook staat de wetgeving niet stil. Verplicht stellen van registratie, zoals de Tweede Kamer wil, zou vanaf volgend jaar kunnen komen en ook een mogelijke verplichting van het Iama hangt boven de markt. Op Europees niveau wordt bovendien gewerkt aan een verordening die nog meer eisen zal stellen. Dát het register er over een jaar heel anders uit zal zien, staat wel vast.

Welke vorm dat dan wordt, moeten we nu gaandeweg leren. “Als je kritisch naar algoritmes wilt kijken”, zegt Joost Visser, “en je wilt door transparantie zorgen dat ze geen schade berokkenen, dan zul je informatie naar voren moeten halen. Welke informatie precies, daar is nog geen consensus over. Het platform zou moeten helpen die discussie verder te brengen en moet flexibel genoeg gebouwd zijn om de uiteindelijke informatiebehoefte te kunnen ondersteunen.” Dus fijn dat het er is, concludeert hij, maar “om de belofte waar te maken moet er nog heel wat gebeuren”.

Iris Muis merkt dat Nederland, door het toeslagenschandaal en SyRI, nu internationaal voorop loopt met aandacht voor ethische risico’s van datagebruik. “Wij maken er in vergelijking met andere landen veel tijd en geld voor vrij”, zegt Muis. “Maar het nadeel van pionier zijn is dat er ook dingen misgaan. Misschien zijn dit kinderziektes en lossen we deze problemen op als bewustzijn en expertise toenemen. Maar dat is geen reden om de aandacht te laten verslappen, want er is echt een grote verbetering nodig. Het bewustzijn moet over de hele linie omhoog.”

Cynthia Liem het register zeker niet afschrijven. We komen immers van ver. “Het is goed om nu even publiek te constateren dat dit niet is wat we willen”, zegt ze. “Jarenlang zijn we vrij kritiekloos geweest in het gebruik van data. Het perspectief dat dit mensen echt raakt, is niet altijd meegenomen. Zo’n register is een poging om wel verantwoordelijkheid te nemen en verantwoording af te leggen. Dat is een startpunt.”

Lees ook:

Transparantie algoritmes wil nog niet vlotten

De overheid wil inzichtelijk maken welke algoritmes ze gebruikt en waarvoor. Maar een speciaal register daarvoor is een half jaar na oprichting nog zeer karig gevuld.

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden