In januari reed een vrouw met auto en al de fietsenstalling onder Utrecht Centraal binnen. Ze had simpelweg haar navigatiesysteem gevolgd, zo luidde haar verklaring. Het is een treffend voorbeeld van hoe we soms blind vertrouwen op technologie, zegt onderzoeker Daan Weggemans van de Universiteit Leiden. ‘We geven technologie steeds meer autoriteit, terwijl we ons nauwelijks afvragen of dat terecht is.’

Het gezag van de machine

Vorige maand promoveerde universitair docent Weggemans op zijn proefschrift Computer Says No, een knipoog naar een sketch uit de bekende televisieserie Little Britain. Voor zijn onderzoek verzamelde hij voorbeelden waaruit ons grote vertrouwen in technologie blijkt.

Zo kwam hij verhalen tegen over toeristen die door het volgen van hun navigatiesysteem met de auto op de landingsbaan van een vliegveld belandden. ‘Om daar te komen, moet je talloze waarschuwingssignalen, verkeersborden en afzettingen hebben genegeerd,’ vertelt Weggemans. ‘Toch blijven mensen stug de aanwijzingen van hun gps volgen.’

Leestip: Hoe herken je een AI-foto? Een expert geeft tips

Het fenomeen dat we eerder vertrouwen op technologie dan onszelf, noemen we de automation bias. ‘De mens is cognitief behoorlijk lui. We kiezen meestal de makkelijkste weg. Als technologie zegt dat het kan, dan gaan we ervan uit dat dat klopt.’ Maar waarom doen we dat? Een wetenschappelijke verklaring ontbrak, en dat is precies waar Weggemans een antwoord op probeerde te vinden.

Waar komt het vertrouwen in technologie vandaan?

‘Enerzijds speelt kennisongelijkheid een rol,’ legt Weggemans uit. We beschouwen technologie snel als slimmer dan wijzelf. ‘Er zit zo veel data achter, denken we, dus het zal wel kloppen. Wie zijn wij om dat in twijfel te trekken?’

Leestip: Sommige van deze gezichten zijn door AI gegenereerd. Zie jij welke?

Maar het draait niet alleen om kennisongelijkheid, ook hiërarchie speelt een rol. Weggemans ziet het concept van ‘autoriteit’ als een belangrijke factor in onze volgzaamheid. ‘We leren van jongs af aan om gezag te gehoorzamen: je leraar, je ouders, de politie. We zien steeds vaker dat technologieën de schijn wekken dat ze een autoritaire positie vervullen.’

‘De mens is cognitief behoorlijk lui. We kiezen meestal de makkelijkste weg. Als technologie zegt dat het kan, dan gaan we ervan uit dat dat klopt.’ – onderzoeker Daan Weggemans.

Onze hersenen zijn gewend dat sociaal gedrag alleen wordt vertoond door wezens van vlees en bloed. Maar digitale technologieën nemen steeds menselijkere trekken aan. AI-chatbots zoals ChatGPT praten op een manier die bijna niet te onderscheiden is van een echt gesprek. ‘Onze hersenen trappen daar gemakkelijk in,’ legt Weggemans uit.

Compassie met computers

Door de autoriteit die we toekennen aan technologie, accepteren we verstrekte informatie als absolute waarheid. Bovendien verwerken we steeds vaker sociale componenten in interacties met machines, zoals vertrouwen, respect en gehoorzaamheid.

Leestip: Iedereen heeft een dubbelganger. Is daar een wetenschappelijke verklaring voor?

Weggemans deelt een voorbeeld van een experiment waarin mensen feedback gaven op de computer die hen had geholpen bij een aantal tests. De proefpersonen die hun beoordeling van de computer op papier noteerden, bleken veel kritischer. Maar mensen die feedback gaven op de computer waarover ze hun oordeel velden, waren positiever. Mensen gingen rekening houden met ‘de gevoelens’ van de computer.

‘We leren van jongs af aan om gezag te gehoorzamen: je leraar, je ouders, de politie. We zien steeds vaker dat technologieën de schijn wekken dat ze een autoritaire positie vervullen.’ – Daan Weggemans.

We behandelen een machine alsof het een mens is, ook al weten we dat we te maken hebben met een apparaat. Zo wordt het verschil tussen mens en machine steeds kleiner in ons gedrag.

Kunnen we kritischer zijn?

Of de mens kritischer kan zijn, is een ‘lastige vraag maar belangrijke vraag’, oordeelt Weggemans. ‘Technologie helpt ons beslissingen te nemen die we anders niet zouden kunnen maken, maar ook technologie maakt fouten.’

Leestip: Telen we in de toekomst de perfecte aardappel dankzij AI?

Om dat punt te illustreren, haalt Weggemans een voorbeeld aan. In 1983, midden in de Koude Oorlog, had de Rus Stanislav Petrov de taak om Amerikaanse langeafstandsraketten te detecteren. Wanneer de alarmbellen van het verdedigingssysteem afgingen, zou Rusland reageren met een verwoestende tegenreactie. Maar Petrov koos ervoor de melding als technische storing te beschouwen – en hij had gelijk.

‘Het is cruciaal om te weten wanneer je het advies van een computer moet opvolgen, en wanneer niet,’ vertelt hij. ‘Houd er rekening mee dat technologie fouten maakt en richt de maatschappij daarop in.’ Als individu kun je ook een steentje bijdragen: ‘Leer het systeem kennen dat je gebruikt: wat kan het wel, en wat niet? Durf in te grijpen. Stel je voor dat Petrov dat niet had gedurfd.’

Steun de missie van National Geographic en krijg onbeperkt toegang tot National Geographic Premium. Word nu lid!