AI wordt gevaarlijk, waarschuwen Elon Musk, Yuval Harari en anderen. ‘Stop er tijdelijk mee’
De mensheid loopt gevaar als AI ongecontroleerd wordt losgelaten, schrijven honderden tech-experts onder wie Elon Musk, Steve Wozniak en Yuval Noah Harari.
Het moment om tijdelijk te stoppen met de ontwikkeling van Kunstmatige Intelligentie (KI) is aangebroken. Dat schrijven honderden deskundigen op het gebied van kunstmatige intelligentie in een open brief, onder wie Twitter- en Tesla-eigenaar Elon Musk en mede-oprichter van Apple Steve Wozniak. Volgens hen kan de mensheid gevaar lopen als geavanceerde kunstmatige intelligentie ongecontroleerd in de samenleving terecht komt.
De brief was aanvankelijk vooral ondertekend door Amerikaanse deskundigen en directeuren van technologiebedrijven, later sloten ook deskundigen uit andere landen zich bij de oproep aan. De ondertekenaars zien dat KI-laboratoria werken aan almaar complexere en slimmere systemen, zonder bezig te zijn met de vraag hoe een product een positieve bijdrage kan leveren.
Die vraag is des te urgenter omdat 2023 het jaar is van de echte doorbraak voor KI. Dat komt vooral door ChatGPT, een soort combinatie van een zoekmachine en een slimme chatrobot. Ook Google en Microsoft werken aan snelle invoering van KI in hun zoekmachines.
Black-boxmodellen
Nu zijn deze ontwikkelingen geen reden om tijdelijk te stoppen met KI. Sterker, de ondertekenaars schrijven dat zij geen pauze willen in de ontwikkeling van KI in het algemeen, maar “slechts een stap terug willen in de gevaarlijke race naar steeds grotere, onvoorspelbare black-boxmodellen met opkomende mogelijkheden.”
Met black-boxmodellen bedoelen de KI-deskundigen de geavanceerde systemen die een stap verder gaan dan de huidige KI-modellen. Deze systemen zijn zelflerend, daarom voor ontwikkelaars moeilijk te begrijpen en nog lastiger onder controle te houden.
Onwaarheden
“Moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid?”, vragen de KI-deskundigen zich af. “Moeten we alle banen automatiseren? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal kunnen overtreffen, te slim af zijn, ons overbodig maken en ons kunnen vervangen?
Moeten we het risico lopen de controle over onze beschaving te verliezen? Dergelijke beslissingen mogen niet worden gedelegeerd aan niet-gekozen technologieleiders. Krachtige KI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico’s beheersbaar zullen zijn.”
De KI-deskundigen willen dat ontwikkelaars samenwerken met overheden om ervoor te zorgen dat nieuwe geavanceerde KI individuen en de democratie niet schaadt. Het gevaar is namelijk dat straks het onderscheid tussen nep en echt niet meer is te maken. De persoon die in een videogesprek om geld vraagt, kan er wel echt uitzien als uw zoon of dochter, en met dezelfde stem spreken, maar is hij of zij het echt? Niet alleen voor criminelen, ook voor verspreiders van nepnieuws opent geavanceerde KI nieuwe deuren, wat gevaarlijk kan zijn voor de democratie.
Lees ook:
Kunstmatige intelligentie is een spiegel van de maatschappij. ‘Je krijgt terug wat je erin stopt’
Wie brengt een systeem met kunstmatige intelligentie normen en waarden bij. De Verenigde Staten, China, of Europa?