InterviewSjaak Brinkkemper

Bedrijven, denk goed na over ethiek bij je dataverwerking. De gevaren zijn groot

Het lijkt een historische stad, maar is een datacentrum van de Chinese telecomgigant Huawei in Guiyang. Beeld Getty Images
Het lijkt een historische stad, maar is een datacentrum van de Chinese telecomgigant Huawei in Guiyang.Beeld Getty Images

Bedrijven en ICT-leveranciers gaan nog niet altijd ethisch om met hun data. Het is tijd dat dit verandert, zegt hoogleraar Sjaak Brinkkemper.

Bedrijven hebben weinig kennis over hoe ze data verwerken, bleek deze week uit een onderzoek van Impact Centre Erasmus. Bij managers ontbreekt begrip van algoritmen, waardoor fouten kunnen worden gemaakt. Informatica hoort een grotere plek te krijgen in de samenleving, vindt Sjaak Brinkkemper, hoogleraar software production aan de Universiteit Utrecht.

Bedrijven verzamelen zelf data, maar besteden de analyses ervan vaak uit aan ICT-leveranciers, die daar speciale systemen voor bouwen, legt Brinkkemper uit. Hierdoor hebben bedrijven zelf steeds minder kennis over ICT en algoritmen in huis. Ze zijn afhankelijk van anderen en van de keuzes van anderen. Vergelijk het met bedrijven die auto’s huren. Brinkkemper: “Of de stoelbekleding is gemaakt met kinderarbeid, heeft een bedrijf niet zelf in de hand. Het bedrijf moet erop vertrouwen dat de autofabrikant dat niet toestaat.”

Gedeelde verantwoordelijkheid

ICT-leveranciers en organisaties hebben een gedeelde verantwoordelijkheid in het goed verwerken van data, benadrukt de hoogleraar. Daar zijn nog stappen te maken. ICT-bedrijven leveren algemene systemen aan bedrijven, die voor meerdere toepassingen te gebruiken zijn. Hierdoor zijn ze zich niet of nauwelijks bewust van de ethische consequenties van hun systemen voor een specifiek bedrijf. De systemen kunnen namelijk voor verschillende data-analyes worden gebruikt.

“Een winkel verkoopt een hamer aan een klant, zodat die ermee kan timmeren. Maar die klant kan er ook zijn vrouw mee vermoorden”, zegt Brinkkemper. Wat hij wil zeggen: producten kunnen door klanten op een verkeerde manier worden gebruikt. Dat kan bij dataverwerking ook en de hoogleraar vindt dat ICT-leveranciers daarop moeten worden aangesproken. Ook moeten ze hun klanten, de organisaties, opvoeden in het ethisch gebruik van data.

Toevallige, niet-oorzakelijke verbanden

Hoe kunnen leveranciers en bedrijven die verantwoordelijkheid nemen? En wat is ethisch gebruik van data? Dataverzamelaars en -analisten moeten kritischer zijn op zichzelf en de op uitkomsten, vindt Brinkkemper. Algoritmen zijn ingewikkeld en onderzoekers werken lang om er iets uit te krijgen. Dus zijn ze al snel tevreden, zonder de uitkomst nader te bevragen.

Brinkkemper: “Als een data-analist van fraudeclaims bij verzekeraars ziet dat claims allemaal in hetzelfde postcodegebied vallen, moet hij zich afvragen of hij niet iets fout heeft gedaan. Anders zal de verzekeraar wellicht onterecht mensen als fraudeur bestempelen. Of neem de kindertoeslagaffaire, waar ouders met een migratieachtergrond etnisch werden geprofileerd, omdat de algoritmes ingebouwde vooroordelen versterkten. Bij grote databestanden kunnen toevallige verbanden worden gelegd, die niet oorzakelijk zijn. Als je alle Nederlanders in een grote database stopt, kun je bijvoorbeeld ontdekken dat alle mensen met rood haar elke zondag theedrinken, maar dat komt niet doordat zij rood haar hebben.”

Spraakherkenningstechnologie

Brinkkemper ziet dat algoritmes veel worden gebruikt voor innovatieve oplossingen. Hij doet zelf onderzoek naar het gebruik van spraakherkenning voor medische rapporten, zodat artsen minder tijd kwijt zijn aan het bijhouden van hun patiëntenadministratie. Des te belangrijker, vindt hij, dat er wordt gewaarschuwd voor de gevaren. Zo mag zijn spraakherkenningstechnologie niet worden gebruikt om te beoordelen of een arts zijn werk goed doet. Die conclusie valt te trekken als uit het medisch rapport blijkt dat een arts iets vergat te vragen, maar dat gaat in tegen privacywetgeving. Dus waakt hij als onderzoeker voor dergelijk ‘misbruik’ van zijn technologie.

Omdat de digitale samenleving steeds verandert en er steeds nieuwe toepassingen komen, zijn telkens nieuwe ethische normen nodig, meent Brinkkemper. De overheid moet het kader scheppen voor die nieuwe normen, maar het is goed als bedrijven ook hun verantwoordelijkheid nemen. In Nederland is in 2019 al een code voor dataverzameling en algoritmen geïntroduceerd. Deze ethische code is in overeenstemming met principes en afspraken die zijn opgesteld door de Europese Unie. Zo moet er transparantie zijn over de toegepaste technologie en mogen de algoritmen geen groepen uitsluiten.

‘Digibetisme’

Over het algemeen vindt Brinkkemper dat mensen die zich bezighouden met computerwetenschap, waar algoritmen onder vallen, weinig aan het woord komen in het maatschappelijk debat. Dat draagt bij aan ‘digibetisme’. “Terwijl digitalisering een bijzonder maatschappelijk fenomeen is, dat dit tijdsgewricht in een stroomversnelling heeft gebracht”, zegt hij.

In landen waar de digitale revolutie sterk is, zoals in China, India en de Verenigde Staten, is meer aandacht voor digitalisering. Brinkkemper vindt het Nederlandse onderwijs op dat vlak nogal conservatief. Er is wel aandacht voor wiskunde en natuurkunde, maar niet voor wat algoritmes zijn en doen. Er is nog veel verbetering mogelijk in digitale educatie.

Lees ook:

Een algoritme is niet neutraal, ook een overheidsalgoritme niet

Dat de overheid volop gebruikmaakt van algoritmes is bekend. Maar deugen de data wel die daarvoor worden gebruikt?

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2021 DPG Media B.V. - alle rechten voorbehouden