null Beeld Ilse van Kraaij
Beeld Ilse van Kraaij

Kunstmatige intelligentie

Is AI het buskruit van de 21ste eeuw? ‘Er zijn zeker parallellen’

Buskruit was een geweldig slimme uitvinding en kent goede én slechte toepassingen. Zullen we later op dezelfde manier naar kunstmatige intelligentie kijken?

Nienke Schipper

Eureka! Toen het buskruit werd bedacht, had de uitvinder vast niet voor ogen dat het explosieve poeder voor dood en verderf zou zorgen. Volgens ChatGPT 4, de chatbot die werkt met kunstmatige intelligentie (AI), werd buskruit rond de negende eeuw uitgevonden in China: ‘Waarom buskruit is uitgevonden is niet met zekerheid te zeggen, maar er zijn enkele theorieën. Zo zou buskruit oorspronkelijk zijn ontdekt door alchemisten die op zoek waren naar een levenselixer. Een nuttige toepassing is bijvoorbeeld gecontroleerde explosies bij mijnbouw en sloopwerkzaamheden. Volgens een andere theorie werd buskruit ontwikkeld voor militaire doeleinden. De uitvinding van buskruit had grote invloed op de wereldgeschiedenis. Het veranderde de manier waarop oorlogen werden uitgevochten en speelde een cruciale rol in militaire strategie en technologische vooruitgang.’

Zou ChatGPT zichzelf over vijftig jaar ook omschrijven als ‘heeft grote invloed gehad op de wereldgeschiedenis’? Internationale experts onder wie Twitter-eigenaar Elon Musk en mede-oprichter van Apple Steve Wozniak denken van wel. In een open brief roepen inmiddels meer dan 27.000 prominenten uit de techindustrie op tot een pauze van zes maanden in de ontwikkeling van AI. Eerst regels, dan weer verder met de controversiële techniek. Verschillende briefschrijvers, onder wie de bekende auteur Yuval Harari, geloven zelfs dat AI in staat is de mensheid uit te roeien.

Robotstofzuigers

Kunstmatige intelligentie, in het Engels artificial intelligence, is veel meer dan ChatGPT die leuke tekstjes maakt. Het zijn systemen die op basis van bestaande data zoals beelden, gegevens en teksten, zelf conclusies kunnen trekken. Denk bijvoorbeeld aan de aanbevelingen voor leuke filmpjes op YouTube; als u eerder deze filmpjes keek, dan vindt u deze misschien ook wel leuk. AI zit in allerlei systemen waar we dagelijks gebruik van maken, zoals zoekmachines en zelfs in robotstofzuigers.

AI wordt ook gebruikt bij het analyseren van medische beelden om ziektes zoals kanker in een vroeg stadium te herkennen, bij banken om fraude te detecteren, in zelfrijdende auto’s en in militaire systemen. AI-systemen kunnen dus heel behulpzaam zijn, maar ook onschuldige systemen kunnen in de verkeerde handen catastrofale gevolgen hebben. De vergelijking met buskruit dringt zich op: nuttig, maar gevaarlijk. Moeten we ons zorgen maken? AI-experts uit verschillende disciplines geven antwoord.

Ja, we moeten ons zorgen maken, zegt Oumaima Hajri. Volgens de docent-onderzoeker, die zich aan de universiteit van Cambridge en de Hogeschool van Rotterdam bezighoudt met de verantwoorde inzet van AI-systemen, kan AI zeker gevaarlijk zijn, vooral in militaire systemen. Hajri is de initiatiefnemer van een alliantie van mensenrechtenorganisaties die willen dat de overheid stopt met het ontwikkelen van AI in militaire systemen totdat er meer duidelijkheid is over hoe de overheid mensenrechten wil waarborgen.

Geen moraliteit

“AI hoeft niet het buskruit van de 21ste eeuw te zijn, maar kán dat zeker wel worden”, denkt Hajri. “We proberen met AI technologische oplossingen te vinden voor sociaal-maatschappelijk complexe problemen, en dat terwijl we weten dat AI-toepassingen geen moraliteit kennen. Vooral in militaire toepassingen is dat problematisch. Stel je voor dat we AI gaan toepassen bij zaken waarin het letterlijk gaat over leven en dood.”

Mensen die te maken krijgen met militaire AI-systemen zullen voornamelijk gemarginaliseerde groepen zijn, voorspelt Hajri. “Bijvoorbeeld in landen als Libië of Syrië, of in conflictgebieden zoals Oekraïne. De heftige gevolgen van AI zijn bijvoorbeeld al te zien bij grensbewaking, daar zouden we lessen uit moeten trekken.” Zo worden via drones vluchtelingenschepen op de Middellandse Zee in kaart gebracht, en die informatie werd gebruikt bij pushbacks.

Pertinente onzin

Ook Trouw-columnist Ilyaz Nasrullah ziet de gevaren van AI, maar een existentiële crisis en de uitroeiing van de mensheid is volgens de opiniemaker en consulent digitale strategie ‘echt pertinente onzin’ en ‘doemdenken’.

“Als ik denk aan buskruit, dan denk ik aan oorlog. Dat is zeker een mogelijkheid van AI, maar het zal echt niet de hoofdtoepassing zijn. Je kunt een chatbot niet vergelijken met een autonome gevechtsdrone. Het is belangrijk om er genuanceerd naar te kijken. Maar ook aan de nuttige toepassingen van AI zoals aanbevelingsalgoritmes zitten gevaren, zoals het versterken van desinformatie. Je kunt ChatGPT gebruiken met een miljoen goede bedoelingen en misschien maar een paar verkeerde, maar dat kan wel zo slecht uitpakken dat het enorme schade kan aanrichten.

“Denk aan het creëren van nepbeelden: de paus in een witte donsjas is lollig, maar een Franse staatssecretaris als Playboy-covermodel is lasterlijk. Het maken van dit soort desinformatie is alleen maar makkelijker geworden met AI-programma’s als Midjourney. En die nepbeelden worden razendsnel verspreid via sociale media en vinden ook hun weg naar traditionele media.

“Desinformatie kan zeer schadelijk zijn en we moeten ons afvragen of deze technologie zonder beperkingen toegankelijk moet zijn voor iedereen. Misschien moet je mensen vooraf leren hoe het werkt en wat je ermee kunt, denk aan een soort rijbewijs. Met een auto kun je ook op een groep mensen inrijden, daarom krijg je eerst rijlessen.”

Verbod op gezichtsherkenning

Wat we nodig hebben is dus een bewijs van bekwaamheid én regels. Die regels in de vorm van de Europese AI-verordening zijn al een tijdje in de maak en zitten inmiddels in de afrondende fase. Hoe gaat die wet er eigenlijk uitzien?

De AI-act werkt als een soort keurmerk, legt Hind Dekker-Abdulaziz (D66) uit. Het Kamerlid houdt zich bezig met de ontwikkelingen van AI-systemen en de gevolgen daarvan voor de samenleving. “Elke toepassing wordt beoordeeld op mogelijke risico’s, op een schaal met vier stappen: verboden systemen, hoog-, middelmatig- en laagrisicosystemen. Gezichtsherkenning wil het Europees Parlement bijvoorbeeld verbieden.”

Europa loopt voorop met het maken van regelgeving en het doel van de AI-verordening is om AI-systemen te toetsen aan de mensenrechten, zegt Dekker-Abdulaziz. “Elk systeem of algoritme met AI dat wordt toegelaten op de Europese markt moet voldoen aan de AI-verordening. Dat geldt dus ook voor Chinese systemen.”

“AI is niet het buskruit van de 21ste eeuw, maar er zijn wel parallellen. Een systeem hoeft niet eens in verkeerde handen te vallen om toch al schade aan te kunnen richten. Een AI-systeem dat is getraind met de verkeerde data kan ook al vervelend uitpakken.”

Vuur of elektriciteit

Techbedrijven hebben dan ook een verantwoordelijkheid bij het ontwikkelen van AI-systemen, erkent Martijn Bertisen, directeur van Google Nederland. “Wij erkennen dat er risico’s zijn. Bij Google vergelijken we AI weleens met vuur of elektriciteit. Beiden hebben veel goeds betekend voor de mensheid, maar we moesten wel leren omgaan met de gevaren ervan. Elk AI-project dat we naar buiten brengen moet dusdanig zijn ingericht dat je niet alleen de voordelen benut, maar ook de nadelen goed begrijpt en daardoor kunt beperken. Dat is soms een moeilijke balans: hoe kun je gedurfd en verantwoord tegelijk zijn?

“In 2018 heeft Google eigen AI Principles opgesteld. Daarin staat bijvoorbeeld dat onze AI een maatschappelijk belang moet dienen en geen stereotypes of vooroordelen mag creëren of versterken. Onze eigen AI-chatbot, Bard, hebben we eerst met 80.000 medewerkers intern getest en daarna met 10.000 externe experts. Nu is Bard beperkt beschikbaar in de Verenigde Staten en het Verenigd Koninkrijk. We zijn dus voorzichtig met uitbrengen en leren van onze fouten.”

Volgens Bertisen zijn er ook voldoende positieve voorbeelden van AI waar we al dagelijks mee werken. “Mijn favoriet is Google Translate; Google vertaalt 150 miljard woorden per dag in zo’n 130 talen, waardoor AI mensen elke dag weer dichter bij elkaar brengt.”

Je krijgt de geest echt niet meer in de fles

Het is wel zaak dat die afspraken nu snel van de grond komen zegt Claes de Vreese. Het is volgens de hoogleraar AI en Maatschappij onvermijdelijk dat de nieuwe AI-regelgeving, net als alle regelgeving over technologie, enigszins achterloopt. “Daarom moeten de mensen die nu roepen om regelgeving zich eens gaan verdiepen in de voorstellen die er al liggen. Dan krijg je een andere discussie, dan gaat het niet meer over dát er regels moeten komen, maar over of het voorstel dat er ligt wel goed is.

“Net als buskruit kunnen veel technologieën worden ingezet voor goede en kwade zaken. Het is aan makers, overheden, gebruikers en bedrijven om hier goed mee om te gaan. Politiek en toezichthouders moeten spelregels en afspraken maken, net zoals we dat in het verleden deden voor andere technologieën als televisie- of telecominfrastructuur, vliegverkeer of nucleaire technologie. Dat vereist wel kennis en kunde van AI die we nu nog onvoldoende hebben. Daar ligt wel een uitdaging.”

Dat de discussie over AI nu in volle hevigheid is losgebarsten komt volgens De Vreese vooral omdat sommige toepassingen nu plotseling voor iedereen beschikbaar zijn. “Net als met een gewone computer of telefoon. Iedereen kan nu teksten maken met ChatGTP. Maar een pauze in de ontwikkeling van AI inlassen is volstrekt onrealistisch. Die open brief van techontwikkelaars is vooral een grote stunt. Je krijgt de geest echt niet meer in de fles.”

Lees ook:

Klöpping, Harari en andere prominenten zijn in AI-fuik gelopen

Het hysterische gehype van kunst­matige ‘intelligentie’ (AI) is gevaarlijker dan AI zelf, betoogt columnist Ilyaz Nasrullah

Kunstmatige intelligentie is een spiegel van de maatschappij. ‘Je krijgt terug wat je erin stopt’

Wie brengt een systeem met kunstmatige intelligentie normen en waarden bij. De Verenigde Staten, China, of Europa?

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden