OpinieBig Tech
Als de politiek niet optreedt, bepalen AI-techneuten onze digitale beschaving
In de discussie over Big Tech vergeten we de engineers. Deze technici bouwen in stilte aan systemen die nooit ethisch doordacht zijn, waarschuwen Leon Dohmen en Arda Gerkens.
Bij de razend populaire ChatGPT bepalen 40 moderatoren voor meer dan 100 miljoen gebruikers wat ethisch verantwoord is, wat mag en niet mag, wat bijvoorbeeld discriminatie is en wat niet.
Dat is natuurlijk veel te weinig. Maar het echte probleem ontstaat daarvoor al, bij de engineers die digitale oplossingen ontwerpen. Zij coderen en configureren, maar het is zeer de vraag of ze zich ook bewust zijn van de belangen en rechten van de mensen die met die digitale oplossingen te maken krijgen. Het zijn tenslotte pas de moderatoren die het systeem controleren op ongepaste werking en output.
Zowel bij engineers als bij moderatoren groeien hierover de laatste tijd gewetensbezwaren. Een bekend voorbeeld is Jack Poulson. Hij ruilde zijn baan bij de universiteit van Stanford in voor een baan bij Google, waar hij werkte aan het Dragonfly-project. Dit project omvatte een geheime zoekmachine die voldeed aan de strenge regelgeving en wetten van censuur in China. Google hielp daarmee de Chinese regering om mensen te onderdrukken. Zoekwoorden zoals democratie en mensenrechten werden geblokkeerd. Toen Jack Poulson begreep waar hij aan meewerkte, kreeg hij wroeging en stapte uit het project.
Jack Poulson staat bepaald niet alleen. Andere medewerkers van Google en Facebook verlieten hun bedrijf omdat ze moeite hadden met wat ze ‘toezichtskapitalisme’ of ‘surveillancekapitalisme’ noemen vanwege de niet te stillen datahonger van hun bedrijven. Het verzamelen van steeds meer persoonsdata is de aanjager van extreme verdienmodellen en drijft winsten van grote techbedrijven naar exorbitante hoogten.
Big Tech-bedrijven benadrukken meestal dat ze de samenleving juist een dienst willen bewijzen. ‘Don’t be evil’ is het credo van Google. Dat klinkt mooi, maar intussen weten we beter. Geld speelt meestal een grotere rol dan ethiek. Microsoft ontwikkelt technieken die in onze berichten zoeken naar mogelijke pogingen tot grooming (waarbij volwassenen aan minderjarigen vragen om seksuele handelingen te verrichten voor hun webcam). Dat deze techniek ook ingezet kan worden voor andere doeleinden wordt er niet bij verteld.
Digitalisering wordt gedreven door innovatie, maar weinig bedrijven realiseren zich ook de maatschappelijke verantwoordelijkheid die dit met zich mee brengt. Of ze negeren die. Bij het bedrijf Babylon Health bijvoorbeeld, leidde onvoldoende of gebrekkige ethische controle van triage-app Babylon tot foutieve diagnoses en verkeerde medische beslissingen. De artsen die het algoritme trainden, waren niet voldoende gekwalificeerd om medisch advies te geven. Er was weinig tot geen toezicht op de kwaliteit van hun werk, commercieel belang stond boven alles.
En eerder dit jaar verliet AI-pionier Geoffrey Hinton Google, omdat hij zich zorgen maakt over de manier en snelheid waarop AI zich ontwikkelt. Ook Kamala Harris, vice-president van de Verenigde Staten, gaat zich met de AI-discussie bemoeien.
De engineer bepaalt
De keuze tussen respecteren of negeren van menselijke waarden bij de voortschrijdende digitalisering legt een bijzondere en steeds grotere verantwoordelijkheid neer bij de engineers (en moderatoren).
De politiek laat hier een belangrijke verantwoordelijkheid liggen. Ze legt de oplossing van een maatschappelijk vraagstuk nu neer bij technische bedrijven, zonder ethische grenzen te stellen. Het gevolg is dat de engineer bepaalt wat de foutmarges mogen zijn, moderatoren kunnen alleen nog wat bijsturen. Daarmee is onbedoeld een deel van de trias politica in handen van het bedrijfsleven gelegd.
De engineers (en ook de moderatoren) van de tech-bedrijven zijn daarmee uitgegroeid tot de poortwachter van de digitale beschaving. Hun keuzes 0 of 1, yes or no, true or false, melden of niet-melden, bepalen of onze samenleving verder afglijdt naar een soort digitaal ‘dystopia’ of dat het pad van de digitale beschaving wordt ingeslagen.
Het is zeer de vraag of engineers (en moderatoren) wel toegerust zijn om hun rol te nemen. Ethiek speelt een grote rol in het werk van bijvoorbeeld medische professionals, maar bij veel tech-bedrijven is er amper aandacht voor. Om engineers (en moderatoren) te ondersteunen in hun taak als poortwachter, zou dat wel moeten.
De politiek moet zich veel bewuster zijn van de gevaren: talloze engineers (en moderatoren) bouwen in opdracht van hun werkgever (stilzwijgend?) aan dubieuze digitale oplossingen. Die oplossingen tonen weinig respect voor bijvoorbeeld privacy, autonomie en menselijke waardigheid.
Leon Dohmen
Consultant bij DiVetro en Voorzitter interessegroep Onderzoek en Onderwijs ICT bij de KNVI
Arda Gerkens
Lid Eerste Kamer en directeur van het Expertisebureau Online Kindermisbruik
Lees ook:
De uitvinder van AI heeft spijt. Wat moeten we daarmee?
Wat hebben we eraan als een grote naam in de wetenschap spijt betuigt over zijn uitvinding, vraagt Marli Huijer in haar column.
Lees ook:
Kamala Harris buigt zich over de ‘risico’s en gevaren’ van AI
Het Witte Huis mengt zich in de discussie rondom kunstmatige intelligentie (AI). Kamala Harris spreekt donderdag CEO’s van Google, Microsoft, OpenAI en Anthropic over kansen, maar ook ‘risico’s en gevaren’.
Lees ook:
Robots kunnen over duizend jaar alles beter dan wij. Dat vinden deze experts geen rampscenario
Zelflerende computersystemen streven de mens aan alle kanten voorbij. En doen dan ineens heel domme dingen. De grenzen van kunstmatige intelligentie? Nee hoor, zeggen deskundigen. ‘Geef ons nog een paar jaar.’