Google wil noodknop voor kunstmatige intelligentie

De Zuid-Koreaanse professionele Go-speler Lee Sedol legde het af tegen AlphaGo, het kunstmatige intelligente programma van Google DeepMind. Beeld AP

De angst dat robots de wereld overnemen is niet geheel onrealistisch. Dat blijkt uit de maatregelen die Google DeepMind heeft aangekondigd voor zijn kunstmatige intelligentie (KI). Het bedrijf heeft studie gemaakt hoe een noodknop kan worden ingebouwd in programma's, zonder dat die programma's zelf leren hoe ze die knop moeten omzeilen.

Dat Google het nodig vindt om een programma in geval van nood te kunnen stoppen komt voort uit het feit dat computerprogramma's op een zeker moment slimmer zullen zijn dan mensen. Dat moment is nog niet aangebroken, maar komt snel dichterbij, zeggen wetenschappers.

Grenzen
Op dit moment leert DeepMind nog voornamelijk computerspelletjes. Onlangs won het programma het bordspel Go van de wereldkampioen. De overwinning kwam ongeveer tien jaar eerder dan verwacht en toont aan dat het tijd is om te bepalen waar de grenzen liggen van kunstmatige intelligentie. Vorig jaar spraken experts als Elon Musk van Tesla en wetenschapper Stephen Hawking hun zorgen uit over de gevaren van zelflerende programma's.

Musk, die zelf het bedrijf OpenAI heeft, zwengelde de discussie onlangs weer aan en waarschuwde dat 'als mensen kunstmatig intelligente programma's kunnen ontwikkelen die prachtige dingen kan doen, ze kunnen ook software kunnen maken die gruwelijke dingen doet'.

Tetris
Dat DeepMind onverwachte dingen kan doen bleek al eerder toen het programma een spelletje Tetris op pauze zette omdat het dreigde te verliezen. Het was voor de ontwikkelaars van DeepMind reden om te onderzoeken hoe bij KI een noodstop kan worden ingebouwd. 'Veilige onderbreking kan nuttig zijn om de controle terug te krijgen over een robot die zich misdraagt en wat onomkeerbare consequenties tot gevolg kan hebben', is te lezen in het onderzoek waarin een raamwerk wordt voorgesteld hoe mensen algoritmes kunnen stoppen. Belangrijk is dat de KI niet zelf een manier leert om de noodknop uit te schakelen.

Op basis van wiskundige formules laten de onderzoekers zien hoe kan worden voorkomen dat een intelligent systeem menselijk ingrijpen kan tegen gaan. Een andere mogelijkheid is om het proces van de software regelmatig te onderbreken, bijvoorbeeld elke nacht een uur. De wetenschappers kunnen niet met zekerheid stellen dat de noodknop voor alle systemen geschikt is.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2019 de Persgroep Nederland B.V. - alle rechten voorbehouden