null

Kunstmatige intelligentie

Chatrobot ChatGPT is slim, maar begrijpt zijn eigen antwoorden niet

Beeld Suzan Hijink

Breekt met de komst van een nieuwe chatbot kunstmatige intelligentie nu echt door bij het grote publiek?

Marco Visser

Pim Haselager, hoogleraar kunstmatige intelligentie aan de Radboud Universiteit in Nijmegen, kan zich wel vinden in de term ‘Windows95 voor kunstmatige intelligentie’. Windows95 zorgde ervoor dat een grote groep mensen begreep hoe zij een (personal) computer konden gebruiken. ChatGPT van OpenAI doet dat voor kunstmatige intelligentie.

GPT is een afkorting van Generative Pretrained Transformer. Een transformer is zelflerende taalsoftware. ChatGPT is dus een zelflerende chatbot, zoiets als de digitale assistent van de klantenservice die op websites vragen beantwoordt. Nu zijn dat wel behoorlijk domme en beperkte exemplaren vergeleken met ChatGPT van OpenAI.

Domme chatbots

“Bij de huidige chatbots van bedrijven krijg je al snel: ik begrijp het niet, kan je de vraag nog eens stellen”, zegt Haselager. “Nu kunnen we met hulp van de technologie die ChatGPT gebruikt, omvangrijke verhalen teruggeven op basis van alle mogelijke soorten informatie. De omvang en kwaliteit van het antwoord is enorm toegenomen, al zijn er nog steeds beperkingen.”

Omdat ChatGPT op bijna alles een antwoord kan geven, is het ook een handige zoekmachine. Voor makkelijke vragen als: wat wordt het weer morgen, of complexe zoals: leg de kwantumtheorie uit in kindertaal. Daarbij kan ChatGPT ook brieven en artikelen schrijven en werkstukken voor scholieren en studenten maken.

Opvolger ChatGPT

Ondertussen heeft OpenAI de opvolger van ChatGPT al klaar staan. De verwachting is dat de nog slimmere chatbot dit jaar kennismaakt met het publiek. De antwoorden zullen beter worden. Maar wat de huidige ChatGPT mist, en ook de opvolger zal missen, en de opvolgers daarvan, is begrip. “Er zijn twee dimensies van menselijke intelligentie”, zegt Haselager. “De eerste is slimheid, bijvoorbeeld het vermogen tot het produceren van taal en het verstandig nadenken. De tweede dimensie is bewustzijn: ervaring, beleving, snappen wat er aan de hand is. Het opmerkelijke van kunstmatige intelligentie is nu dat we hoog scoren op de eerste dimensie en dat de progressie enorm is. Maar op gebied van begrijpen en beseffen waar het over gaat, blijft kunstmatige intelligentie op nul staan. De beste computers snappen nog steeds niets van de wereld.”

De afwezigheid van begrip brengt een gevaar met zich mee, stelt Haselager. Chatbots als ChatGPT zijn volgens hem woordraadprogramma’s die op basis van grote hoeveelheden informatie antwoorden construeren. Dat is slim, maar omdat de chatbots niet weten wat de woorden betekenen, weten zij ook niet wanneer er iets fout gaat.

“Dan kun je ontzettende blunders begaan als je niet kritisch naar de antwoorden kijkt. Ik kan een voorbeeld geven. Ik heb een conversatie gehad met een chatbot over dat ik zogenaamd de macht over mijn vingers was verloren en dat ik weer gitaar wilde spelen. De chatbot zei: ‘Kijk eens naar je andere hand. Normaal gesproken vind je daar ook vingers’. Correlatiegewijs gesproken is dat waar. Maar het antwoord slaat nergens op omdat het programma niet snapt welk antwoord het geeft. Natuurlijk worden dit soort fouten minder, maar het illustreert wat er ontbreekt aan dit soort programma’s, en dat is begrip.”

Vooroordelen

Omdat kunstmatige intelligentie geen besef heeft van wat het zegt, kan het zichzelf niet corrigeren. “Dat kan leiden tot een systematische bias [vooroordelen, red.] en verkeerde beslissingen”, zegt Haselager. “Kunstmatige intelligentie kan bijvoorbeeld allerlei raciale of genderstereotypen bevatten. Je hebt bijvoorbeeld een website waar tekst wordt omgezet in afbeeldingen. Vraag je naar dokters van middelbare leeftijd, dan is de kans groot dat je drie witte mannen ziet met een beetje grijs haar aan de slapen. Vraag je om een schoonmaker, dan krijg je een donker gekleurde mevrouw. Dat zijn stereotypes in het programma. Met een plaatje zijn stereotyperingen goed zichtbaar, bij teksten zijn vooroordelen meer verborgen. Hoe gaan we dat screenen? Wie let daarop, hoe wordt dat gecontroleerd? Wat we nodig hebben, zijn keurmerken voor grote databases. Daar wordt aan gewerkt, maar ze zijn nog steeds niet op grote schaal toegepast en dat is bedenkelijk.”

Ondanks de tekortkomingen kan ChatGPT volgens Haselager een aanjager zijn om kunstmatige intelligentie voor breed publiek toegankelijk te maken. Een bedrijf dat zelf ook al jaren bezig is met kunstmatige intelligentie drukte direct de alarmknop in toen ChatGPT verscheen. Dat was Google, zo schrijft de Amerikaanse krant The New York Times. Want als ChatGPT kant- en klare antwoorden geeft, waarom dan nog naar Google om een lange lijst links door te vlooien, waarbij de pagina’s met de beste antwoorden niet per se bovenaan staan? Wie ChatGPT even gebruikt, merkt dat zoeken naar antwoorden bij Google een manier is die sinds eind jaren negentig niet wezenlijk is veranderd.

Haselager denkt dat Google kunstmatige intelligentie ook steeds meer zal gebruiken. Zoeken zal in de toekomst sowieso veranderen, denkt hij, omdat de gesproken taal oprukt. “Nu werken we nog veel met tekst, maar de natuurlijke taalverwerking door computers wordt steeds beter, dus wij gaan op een gegeven moment tegen muren praten waar een schermpje in zit. Of we via dat schermpje iets van Google gebruiken of iets anders, doet er eigenlijk niet toe.”

ChatGPT beantwoordt twee vragen over zichzelf, inclusief taalfouten.

Wat kan ik met ChatGPT?

Met ChatGPT kunt u veel verschillende dingen doen, zoals:

Vragen beantwoorden (bijvoorbeeld over geschiedenis, wetenschap, technologie, etc.)

Tekst genereren (bijvoorbeeld verhalen, artikelen, scripts, etc.)

Taalvertalingen

Natuurlijke taalverwerking (bijvoorbeeld sentimentanalyse, intentherkenning, etc.)

De preciese functionaliteit hangt af van hoe ChatGPT is geconfigureerd en geïmplementeerd in de specifieke applicatie waarin u het gebruikt.

Wat kan ik niet met ChatGPT?

Er zijn enkele beperkingen aan wat ChatGPT kan doen, zoals:

ChatGPT is een model dat is getraind op bestaande tekst, dus het kan geen informatie geven over zaken die nog niet zijn gebeurd of die nog niet bekend zijn.

ChatGPT is niet in staat om subjectieve waarnemingen of meningen te verstrekken, zoals ‘deze film is geweldig’ of ‘die politicus is onbetrouwbaar’, omdat dit afhankelijk is van persoonlijke voorkeur.

ChatGPT kan ook geen fysieke acties uitvoeren, zoals het kopen van producten of het openen van een deur.

Sommige taak specifieke vraag zoals medische vragen, juridische vragen, financiële vragen, enzovoort, kan ChatGPT niet beantwoorden omdat het niet is getraind op deze specifieke domein.

Houd er rekening mee dat ChatGPT een model is dat is getraind op bestaande tekst, dus de antwoorden die het geeft kunnen beperkt of onnauwkeurig zijn als de vraag buiten de context van de getrainde data valt.

Lees ook:

Zorgt tekstrobot ChatGPT voor een schoolrevolutie? ‘Je bent gek als je nog je huiswerk maakt’

Veel leerlingen gebruiken de populaire tekstrobot ChatGPT werkstukken en verslagen te schrijven. Niet alle experts vinden dat een probleem.

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden