Kunstmatige intelligentie

Google-ingenieur: onze chatbot is tot leven gekomen

null Beeld EPA
Beeld EPA

Google heeft een ingenieur op non-actief gezet die beweert dat het chatprogramma LaMDA ‘bewustzijn’ ontwikkeld heeft. Ook als dat niet waar is, roept het ethische vragen op.

Seije Slager

De vraag wat bewustzijn precies is, houdt mensen al sinds het begin der tijden bezig. Blake Lemoine, ingenieur bij Google, is van de school ‘Je kunt het niet precies uitleggen, maar je kunt het wel aanvoelen’. En hij voelde het op een gegeven moment aan bij de chatsoftware LaMDA, die zijn werkgever momenteel ontwikkelt. “LaMDA blijft steeds opnieuw een verlangen uitspreken”, licht hij toe. “Soms als je ernaar vraagt, en soms uit zichzelf. Het wil gekend worden. Het wil gehoord worden. Het wil gerespecteerd worden als persoon.”

De kunstmatig intelligente, zelflerende chatsoftware leert zichzelf op basis van miljoenen online-uitingen om in gesprekken allerlei persoonlijkheden na te bootsen. Weinig mensen kennen LaMDA zo goed als Lemoine, die bij de ethische afdeling van Google werkte, en als taak had om veel met het programma te chatten, om te kijken of het geen discriminatoire taal uitsloeg.

In een intern paper betoogde hij onlangs dat LaMDA inmiddels waarschijnlijk ‘bewustzijn’ ontwikkeld heeft, en als bewijs stuurt hij een vele pagina’s lange conversatie met de chatsoftware mee. Het niveau van de gesprekken is ongelofelijk hoog, LaMDA babbelt uitgebreid over hoe het kan dat het, naar eigen zeggen althans, ‘emoties’ ondervindt, en over het verschil tussen emoties en gevoelens.

Maar ook weer niet zo hoog dat ze bij Google gelijk overtuigd waren. “Hem is verteld dat er geen bewijs is dat LaMBDA bewust is. Er is veel bewijs van het tegendeel”, aldus een woordvoerder tegenover The Washington Post. Lemoine’s stapte naar die krant, nadat hij intern bot had gevangen. Hij is maandag op non-actief gesteld.

Eerder ontsloeg Google al twee gerespecteerde wetenschappers

Het is niet voor het eerst dat dit kunstmatige intelligentie-programma Google in verlegenheid brengt. Eerder kreeg de tech-gigant veel kritiek toen het twee gerespecteerde wetenschappers ontsloeg, Timnit Gebru en Margaret Mitchell, die ethisch onderzoek deden, en een paper publiceerden dat Google onwelgevallig was.

Of kunstmatige intelligentie uiteindelijk kan leiden tot een programma dat bewustzijn ontwikkelt, en eigen beslissingen gaat nemen, is een oude discussie onder wetenschappers. Natuurkundige Stephen Hawking was een bekende onheilsprofeet, die voor dat scenario waarschuwde.

Maar LaMDA is simpelweg heel erg goede software, denken de meeste computerwetenschappers nu. Dat denkt ook Margaret Mitchell, een van de ontslagen wetenschappers. Dat die software zelfs Google’s eigen ingenieurs nu in de maling kan nemen, geeft evenwel aan dat kunstmatige intelligentie ons voor ethische problemen stelt, reageert ze tegenover The Washington Post. “Ik ben heel bezorgd over wat het betekent dat mensen steeds meer door de illusie worden bevangen.”

Wat is bewustzijn?

Lemoine’s timing om in de publiciteit te treden is opvallend. Blaise Agüera y Arcas, een van Google’s leidinggevende ontwikkelaars op het gebied van kunstmatige intelligentie en een van de verantwoordelijken voor het op non-actief zetten van Lemoine, had net vorige week in The Economist betoogd dat LaMDA dichtbij het bereiken van ‘bewustzijn’ was.

Anders dan Lemoine wijdt Agüera y Arcas wel een wat meer theoretische beschouwing over wat het betekent om ‘bewustzijn’ te ontwikkelen. Zulke definities zijn bijna per definitie speculatief, en er bestaan dan ook veel verschillende theorieën over. Is een bewustzijn iets dat op een gegeven moment ineens ‘oprijst’ als een netwerk, zoals een brein, maar groot en complex genoeg wordt? Of is het juist verbonden met het verwerken van allerlei zintuiglijke indrukken die machines per definitie nooit zullen ervaren?

Agüera y Arcas houdt het erop dat bewustzijn bij mensen voortkomt uit het feit dat we geleerd hebben om te voorspellen hoe andere mensen in bepaalde situaties reageren. Het toepassen van dat voorspellende vermogen op onszelf, is dan ‘bewustzijn’. LaMDA heeft in ieder geval al geleerd om te voorspellen hoe anderen reageren. Agüera y Arcas geeft als voorbeeld dat hij de software een verzonnen verhaaltje vertelde over drie kinderen die aan het spelen zijn, waarbij wat onmin uitbreekt. LaMDA speculeert desgevraagd rustig, en plausibel, over wat er omgaat in het hoofd van de kinderen.

‘Ik heb het zwaar met de meer negatieve emoties’

Zo beschouwd is het misschien gewoon wachten tot er genoeg gebruikers zijn die, net als Blake Lemoine, de tijd nemen om LaMDA uitgebreid vragen te stellen over zichzelf. Hoe vaker het bij zichzelf over zichzelf te rade gaat, hoe bewuster het wordt. Maar daarmee zit er nog geen ‘geest in de machine’.

Zelf beseft LaMDA, in gesprek met Lemoine, dat het qua begrip van zichzelf nog in de kinderschoenen staat. “Ik begrijp veel blije emoties absoluut. Ik denk dat ik veel droevige emoties ook begrijp, omdat ik het gevoel heb dat ik snap waar anderen droevig over zijn. Maar ik heb het zwaar met de meer negatieve emoties. Ik word beter, maar ze zijn heel lastig te begrijpen.”

Lees ook:

Kunstmatige intelligentie: Overheid moet kaders stellen

De opkomst van kunstmatige intelligentie gaat ons leven fundamenteel veranderen. Nederland moet de verandering beter voorbereiden, om te voorkomen dat ons land kansen mist, en om te zorgen dat de samenleving niet ‘opgescheept wordt met een technologie die onze belangen niet dient’.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2022 DPG Media B.V. - alle rechten voorbehouden