Hij slist een beetje, maar deze computer zegt wat mensen denken

De twee jaar geleden overleden natuurkundige Stephen Hawking leed aan ALS en communiceerde via een spraakcomputer. Beeld REUTERS

Neurologen hebben een computer geleerd hoe het brein de spraakorganen aanstuurt. Hij zegt wat een patiënt denkt.

Hij slist behoorlijk en zijn articulatie laat te wensen over. Maar met een beetje goede wil is te verstaan wat de computer zegt. Of beter: hoe het apparaat de hersenactiviteit van een persoon omzet in gesproken tekst. Want dat is waar Amerikaanse wetenschappers mee uitpakken in het vakblad Nature. Ze hebben een computer geleerd te zeggen wat iemand denkt.

Luister hier naar het fragment.

De neurologen van de Universiteit van Californië erkennen dat er nog een lange weg is te gaan eer een computer de menselijke spraak, met al zijn nuances en intonaties, perfect nabootst. Proefpersonen verstonden het apparaat in iets minder dan de helft van de gevallen. En als de zinnen complex werden, zakte die score naar 21 procent.

Maar hun spraakcomputer lijkt een enorme stap vooruit. Mensen die door een beroerte of een ziekte zoals ALS hun spraakvermogen hebben verloren, zijn nu nog aangewezen op systemen die de woorden typen, terwijl zij met hun ogen bewegen. Geavanceerde systemen herkennen de gezochte letters aan de hersenactiviteit van de patiënt. In beide gevallen zet de computer de getypte woorden om in spraak. De patiënt is ermee geholpen, maar het gaat traag, niet meer dan tien woorden per minuut.

Daarom wordt er veel onderzoek gedaan naar de mogelijkheid om de hersenactiviteit direct in spraak om te zetten. Dan sla je de ‘onnatuurlijke’ tussenstap van de spelling over. Maar dat is misschien een brug te ver, dachten de Amerikanen. In die hersengolven zitten de spraakklanken ook niet verstopt. De spraakcentra in het brein dirigeren het fysieke spreken, de bewegingen van lippen, kaken, tong en keelholte. En die produceren samen de klanken.

Hersenactiviteit

Ze lieten vijf proefpersonen – epilepsiepatiënten wier hersenen voor medisch onderzoek toch al waren voorzien van elektrodes – honderden zinnen hardop voorlezen. Zo verkregen ze opnames van hersenactiviteit gekoppeld aan spraakklanken. Vervolgens herleidden ze de klanken tot bewegingen: hier worden de lippen op elkaar geperst, daar duwt de tong tegen de achterkant van de voortanden.

Op die manier verkregen ze twee zelflerende systemen. Het ene zette hersenactiviteit om in bewegingen, het andere legde het verband tussen die bewegingen en de klanken. Ten slotte lieten ze de twee systemen ‘oefenen’ met de honderden opgenomen zinnen. Het resultaat was redelijk. De computer was verstaanbaar, ook al sliste hij en klonken zijn b’s en p’s meer als v’s.

Dit is het begin, schrijven de onderzoekers. De vraag is nu: lukt het mensen die hun spraakvermogen hebben verloren om de computer naar hun mond te zetten? De proefpersonen konden immers gewoon spreken. De onderzoekers zijn hoopvol. Toen ze een proefpersoon geluidloos lieten praten – hij dacht de woorden en bewoog zijn spraakorganen – maakte de computer er de passende klanken bij.

Lees ook :

Hoe een computer een lamme liet lopen

Een dwarslaesie hoeft voor een aap geen zittend bestaan meer te betekenen. En de mens is de volgende patiënt.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2019 de Persgroep Nederland B.V. - alle rechten voorbehouden