Uw profiel is aangemaakt

U heeft een e-mail ontvangen met een activatielink. Vergeet niet binnen 24 uur uw profiel te activeren. Veel leesplezier!

Robots kunnen over duizend jaar alles beter dan wij. Dat vinden deze experts geen rampscenario

Samenleving

Joep Engels

Op schermen in een elektronicazaak in Seoul is de tweekamp te zien tussen Google-computer AlphaGo en de Zuid-Koreaanse wereldkampioen go Lee Sedol. De tweekamp eindigde in 2016 in een 4-1 overwinning voor AlphaGo. © AP

Zelflerende computersystemen streven de mens aan alle kanten voorbij. En doen dan ineens heel domme dingen. De grenzen van kunstmatige intelligentie? Nee hoor, zeggen deskundigen. ‘Geef ons nog een paar jaar.’

Hoe moeilijk kan het zijn? Het is langwerpig, krom en geel met hier en daar een bruin vlekje. Laat een computersysteem flink wat foto’s zien met dit beeld, stop er plaatjes van andere vergelijkbare objecten tussen zoals slakken of slangen en dan weet hij wel hoe een banaan eruitziet. Onderzoekers van Google hadden hun systeem inderdaad zo ver gekregen. Maar toen ze in een hoek van een bananenfoto een kleurig stickertje plakten, raakte het in de war. ‘Dit is een broodrooster’, zei de computer.

Lees verder na de advertentie
Als een moeder met haar kind door de weilanden loopt, hoeft ze niet
10.000 keer te zeggen: Dit is een koe

Geoffrey Hinton, Universiteit van Toronto

Het Amerikaanse wetenschapsblad PNAS haalde dit voorbeeld onlangs aan om te onderstrepen hoe dom intelligente computers kunnen zijn. Hoewel zogeheten zelflerende systemen de laatste tijd indrukwekkende prestaties hebben laten zien – drie jaar geleden werd de wereldkampioen go verpletterd – hebben ze nog een lange weg te gaan eer ze de mens kunnen evenaren. “Ik dacht altijd dat dergelijke foutjes slechts hinderlijk waren”, zei Geoffrey Hinton van de Universiteit van Toronto, een pionier op dit vakgebied, tegen de PNAS. “Maar het probleem zit dieper. We doen iets fundamenteel fout.”

Ondoorzichtig

Het is niet de enige tekortkoming. Zelflerende systemen of neurale netwerken heten zo ingericht te zijn dat ze het menselijk brein kunnen imiteren. Ze zijn niet voorgeprogrammeerd, maar krijgen informatie aangeboden – ‘dit is een banaan, dat niet’ – en leren al doende waar ze op moeten letten en hoe ze die kenmerken moeten wegen. Standaard hebben ze daar 10.000 voorbeelden voor nodig. “Maar als een moeder met haar kind door de weilanden loopt”, zei Hinton, “hoeft ze niet 10.000 keer te zeggen: ‘Dit is een koe’. Een kind heeft het na één of twee keer wel door.”

En dan is er nog de ondoorzichtigheid. Er zijn zelflerende systemen op het gebied van de rechtspraak of medische diagnose. Ze werken vaak beter dan een menselijke rechter of arts, maar het is veelal onduidelijk hoe ze tot hun oordeel zijn gekomen. Amerikaanse banken gebruiken ze om de kredietwaardigheid van klanten te bepalen. Maar, schrijft de PNAS: “In veel staten zijn de banken verplicht uit te leggen waarom ze iemand afwijzen.”

Subtiele patronen

Max Welling ziet dat niet als een beperking van zelflerende systemen. “Stel dat je een computer wilt leren om met hulp van MRI-beelden de ziekte van Alzheimer op te sporen”, zegt de hoogleraar machine learning aan de Universiteit van Amsterdam. “Je kunt op één kenmerk testen, de grootte van de hippocampus bijvoorbeeld, maar een algoritme kan op heel veel subtiele patronen letten. Dat maakt de diagnose sterker, maar ook ondoorzichtiger en moeilijker te herleiden.”

Die spanning is niet inherent aan computersystemen, zegt hij, maar aan complexe ­afwegingen. “Dat zie je bij menselijke beslissingen ook. Een dokter weet vaak ook niet precies waar hij zijn diagnose op heeft gebaseerd. Of een schaker zijn volgende zet. Op intuïtie, zullen ze zeggen. Of op vage signalen als het patroon op een schaakbord of het lichtelijk kromlopen van de patiënt.”

Maar zo’n stomme fout met een banaan zal een mens niet maken. Niemand die zich door een stickertje in verwarring laat brengen en dan een banaan voor een broodrooster aanziet. Welling: “Dat is echt een probleem. Mensen maken die fout niet, wij merken dat stickertje soms zelfs niet op. Dat wijst erop dat ons brein anders functioneert dan zo’n computersysteem. We weten nog niet precies hoe anders.”

Het heeft met de context te maken, zegt hij. “Wij zien een koe in de wei. Bij een plaatje van een dier hoog in de lucht, weten we al dat het geen koe kan zijn. Bovendien zien we de koe bewegen waardoor we weten dat het om een koe gaat. Anders zouden ook wij kunnen gaan denken dat we bij al die plaatjes op het gras moeten letten.”

Stomme fouten

Met context is de computer al een heel eind geholpen, zegt Aske Plaat, hoogleraar data science aan de Universiteit Leiden. “Als zo’n medisch systeem naast een foto ook informatie over de patiënt heeft – al zijn het maar basale zaken als diens leeftijd of geslacht – zal hij zulke stomme fouten niet maken. Dan kan hij met logica opties uitsluiten.”

Bovendien ervaren wij in een echte wereld wat iets is en wat voor functie het heeft, vult Catholijn Jonker aan. “Een baby leert in de juiste context wat een stoel is. Hij wordt in een stoel aan tafel gezet. En beseft: daar is een stoel dus voor”, zegt de hoogleraar kunstmatige intelligentie aan de TU Delft. “Daarnaast ­ervaart de baby met zijn lichaam wat zitten is.”

Ons brein is met ons mee geëvolueerd en heeft zich gespecialiseerd in taken die voor ­onze overleving van belang zijn. Jonker: “Zien is voor ons belangrijk, daarom zijn onze hersenen gespecialiseerd in beeldverwerking. Bij een mol is dat veel minder, maar een duif is weer veel beter dan wij in het herkennen van voorwerpen die in de ruimte zijn gedraaid. Zo kunnen ze vanuit de lucht voorwerpen herkennen. Bij elke taak past een hersenstructuur. De ontwikkeling daarvan staat bij zelflerende systemen nog in de kinderschoenen. Geef ons nog een paar jaar, zou ik zeggen.”

Ik verwacht dat robots op de heel lange termijn, over duizend jaar, alles beter kunnen. Ik zie dat niet als een rampscenario

En dan is er nog de manier van leren. Een mens leert de wereld niet kennen door heel veel foto’s van bananen te vergelijken met ­andere voorwerpen. Of heel lang te oefenen op één taak. “Als het zo zou gaan, moesten wij misschien ook tienduizend keren te horen krijgen wat een banaan is”, zegt Plaat. “Wij leren ons hele leven lang. Jij zit op een stoel en doet iets. En leert intussen van alles. Iets van die kennis komt morgen van pas, in een heel andere situatie. De indrukken die jij voortdurend opdoet, leren jou wat zwaartekracht is, wat kleuren zijn, kortom, geven jou kennis van de wereld. Waardoor jij veel minder voorbeelden nodig hebt om iets te leren.”

Wegwerkzaamheden

Max Welling vertelt over de wegwerkzaamheden bij hem in de buurt. De twee rijbanen waren in drie stroken verdeeld. “Er liepen witte en gele strepen over de weg. Als mens snapte ik meteen het idee, omdat ik in de huid van de wegbeheerder kon kruipen. Maar voor een ­algoritme is dit een ingewikkelde situatie.”

Precies, constateerde de PNAS al, hij ­begrijpt het niet. ‘Als een computer eindelijk ­geleerd heeft om een stoel te herkennen, snapt hij nog altijd niet dat je erop kunt zitten’, schreef het blad. Logisch, reageert Jonker. “Wat je er niet in stopt, komt er ook niet uit. Zonder input geen output. Ook wij zouden uit de plaatjes van stoelen niet kunnen afleiden wat hun functie is. Voor begrip is een hoop ­extra informatie nodig. We weten nog niet goed hoe we die moeten inpassen.”

Het zijn heterogene gegevens die we moeten samenvoegen, zegt Plaat. “Cijfers, teksten en logische regels. Maar ook bakken pixels en geluidsfragmenten. Daar zijn we pas sinds kort mee begonnen. Ik verwacht dat we daar de komende vijf jaar veel resultaten van gaan zien.”

Specialisaties

Neem een zelfrijdende auto, zegt Welling. Daar kun je informatie in stoppen over verkeersregels, je kunt hem sensoren geven die hem op de weg houden. “Maar dan kan hij nog niet autorijden. Dat leert hij in een simulator. Daarin kun je alles verwerken wat er tijdens een autorit gebeurt. Welke krachten spelen er? Wat is de invloed van de weg? Dan leert het systeem bijvoorbeeld sneller dat het niet in volle vaart het stuur kan omgooien.”

Over één kwestie zijn de drie hoogleraren het eens. Ze zien geen principiële beperkingen voor intelligente systemen. “Een superintelligent systeem dat alles kan, een algemene ­intelligentie, wordt een hele uitdaging”, zegt Jonker. “In de natuur zie je ook diverse specialisaties. Wij zijn nu bezig met de eerste stapjes. Maar ik denk dat als we die drie factoren onder de knie krijgen – een goede structuur, kennis van de wereld en levenslang leren – dat we dan een heel eind komen.”

Bedreiging

En dat zien ze niet als een bedreiging? Vreemd, zegt Welling, dat bij kunstmatige intelligentie altijd die vraag wordt gesteld. ­“Natuurlijk zullen robots taken overnemen. Dat hebben nieuwe technologieën altijd ­gedaan. Dat biedt ook weer nieuwe kansen. Ik verwacht dat robots op de heel lange termijn, over duizend jaar, alles beter kunnen. En dat wij helemaal niets meer hoeven doen. Daar kun je over somberen, en sommige mensen zullen het bedreigend vinden, maar ik zie dat niet als een rampscenario.”

Ook Aske Plaat ziet die bedreiging niet. “Ik heb nog nooit een intelligent systeem gezien dat iets tegen de wil van de mens deed. Hoewel, Microsoft heeft ooit een chatbox ontwikkeld die zichzelf leerde praten aan de hand van de teksten die hij op het internet voorbij zag komen. Binnen de kortste keren begon hij te vloeken en verderfelijke taal uit te slaan. ­Logisch, het systeem dacht dat dat de werkelijkheid was. Waar het in zekere zin ook gelijk in had. In zo’n geval trek je de stekker eruit en verbeter je het systeem.”

Negatieve scenario’s zijn niet ondenkbaar, zegt Welling. “Theoretisch is het mogelijk dat robots de macht overnemen. Het is wel erg onwaarschijnlijk. Ik maak me meer zorgen over genetische technieken waarmee je een nieuw, dodelijk virus zou kunnen maken. Maar ja, daar sta ik dan weer op enige afstand van.”

Lees ook:

Hoe computer waar de wereldkampioen go van verloor, werd verpletterd door eigen opvolger

Een nieuwe go-computer heeft het moeilijkste bordspel ter wereld geleerd zonder hulp van de mens. En wint alles.

De keuzes van de zelfrijdende auto

De auto die alles zelf kan moet bij gevaar kunnen kiezen wiens leven wordt gespaard. De uitkomst verschilt per land. 

Deel dit artikel

Als een moeder met haar kind door de weilanden loopt, hoeft ze niet
10.000 keer te zeggen: Dit is een koe

Geoffrey Hinton, Universiteit van Toronto

Ik verwacht dat robots op de heel lange termijn, over duizend jaar, alles beter kunnen. Ik zie dat niet als een rampscenario