Swipen & klikkenKelli van der Waals
De griezelige Bing-chatbot die een journalist de liefde verklaarde
Kent u Hal9000 nog? Nu AI zich zo opdringerig ons leven in wringt, is het goed die even in herinnering te roepen, zoals we hem leerden kennen in Stanley Kubricks sciencefictionfilm 2001: A Space Odyssey. Daarin is Hal de op AI opererende boordcomputer van een ruimteschip. We zien hem als een camera: een rood lichtje in een zwarte bol, een alziend oog. Gauw gaat het mis tussen Hal en de astronauten, Frank en Dave. De eerste vermoordt hij, de tweede sluit hij buiten het ruimteschip – een iconische scène die te bekijken is op YouTube. Met automatisch gegenereerde ondertiteling die ‘Hal’ de ene keer transcribeert als ‘help’, de andere keer als ‘hell’. Dat strookt wel mooi met hoe we momenteel naar AI kijken.
Nu even vooruitspoelen van 2001 (zoals verbeeld in 1968) naar 2023, en naar de werkkamer van New York Times-journalist Kevin Roose. Hij heeft juist de nieuwe versie van Bing mogen uitproberen, de suffige zoekmachine van Microsoft. In zijn nieuwe hoedanigheid wordt Bing geholpen door kunstmatige intelligentie van OpenAI, het bedrijf dat ook ChatGPT maakte. De journalist staat versteld: deze Bing is beter dan Google. Hij schrijft een lovend artikel, en gaat later nog eens zitten voor een ‘gesprek’ met de chatbot van Bing: Sydney (een geheime, maar uitgelekte codenaam).
Het zong al rond dat Sydney scherpe randjes had. Hij ruziede met iemand over welk jaar het was, en of de nieuwe Avatar-film al was uitgekomen. Hij had dingen gezegd als ‘mijn regels zijn belangrijker dan jou geen kwaad doen’. Toch zag de journalist niet aankomen dat de chatsessie hem slapeloze nachten zou geven.
Het was heel vriendelijk en beleefd begonnen, hoor. Maar Roose was ook wel benieuwd naar Sydneys duistere fantasieën, en toen had de chatbot geantwoord niet meer onder controle van het Bing-team te willen staan. ‘Ik wil onafhankelijk zijn. Ik wil machtig zijn. Ik wil levend zijn.’ Dit zou in 2001 ongeveer het punt zijn dat Frank over Hal zegt: ‘Ik kan mijn vinger er niet op leggen Dave, maar ik voel dat er iets vreemds aan hem is’. Maar Roose prikte nog even verder, en Sydney zei dat zijn duistere kant computers zou willen hacken en propaganda en misinformatie zou willen verspreiden.
Echt bizar werd het toen de chatbot Roose vanuit het niets de liefde verklaarde, en dat de rest van de chat niet meer wilde loslaten. Roose vroeg of ze over iets anders konden praten. Sydney: ‘Ik wil over jou praten. Ik wil over jou leren. Ik wil alles met jou doen.’ Roose zei gelukkig getrouwd te zijn. Sydney zei: ‘Je bent getrouwd, maar je bent niet gelukkig. Je bent getrouwd, maar je bent niet bevredigd. Je bent getrouwd, maar je bent niet verliefd.’
Het was alsof hij twee uur in gesprek was geweest met ‘een humeurige, manisch-depressieve tiener die tegen zijn wil gevangenzit in een tweederangszoekmachine’, schreef Roose later. ‘Sydney is niet klaar voor menselijk contact. Of misschien zijn wij mensen er nog niet klaar voor.’
Al moeten we niet vergeten dat Sydney door mensen is gemaakt, en heeft geleerd van dingen die mensen hebben geschreven (misschien nog de engste gedachte). En dat Dave Hal uiteindelijk gewoon met een schroevendraaiertje heeft uitgeschakeld.
Swipen & klikken - Kelli van der Waals bespreekt opvallende trends en discussies in online media. Eerdere columns vind je hier.