Column Mieke Ketelaars – ChatGPT

door Mieke Ketelaars
2 minuten leestijd

We kennen ChatGPT als de geweldige supermachine die feiten spuugt en berekende beslissingen neemt. En voor het overgrote deel klopt dat ook. Als er een formule of berekening bestaat, dan heeft ChatGPT het antwoord voordat jij je laatste vraagteken hebt ingetikt. Maar uit onderzoek van Chen en collega’s1 blijkt dat ChatGPT ook een andere kant van zichzelf kan laten zien. Daar waar feiten ontbreken, in het mistige land van interpretatie en inschatting, gedraagt ChatGPT zich ineens opvallend als… onszelf. Inclusief allerhande denkfouten.

De menselijke kant van ChatGPT begint bij een sterke vorm van spijtparanoia. We kennen allemaal het unheimische gevoel dat je bekruipt als je wegrent van je auto om op tijd bij een afspraak te zijn. Had je die auto nou op slot gedaan? Beter nog even checken, toch? Ook ChatGPT laat zich graag tot dat soort spijtgedrag verleiden, wat best vreemd is voor een model zonder aardse bezittingen.

Een even menselijk trekje vinden we in de zelfverzekerdheid van ChatGPT. Sterker nog, ChatGPT is zekerder van zichzelf dan de gemiddelde mens. Waar wij met al ons bravoure geneigd zijn nog een slag om de arm houden, antwoordt het model steevast met de zelfverzekerdheid van een puber die het ‘op TikTok heeft gezien, en dan is het waar’. En dan is er nog de sterke neiging tot confirmation bias. Eenmaal een richting opgestuurd, zoekt ChatGPT driftig naar alles wat die keuze bevestigt. Daarover stelt het model zelf dat het bij hem ‘anders werkt’ dan bij mensen, omdat hij geen overtuiging heeft of emotionele investering. En daar heeft-ie absoluut gelijk in, want waar mensen ernstig koppig zijn in hun overtuiging, kun je ChatGPT in een vloek en een prompt verleiden tot het pleiten voor het tegenovergestelde.

Door de oogharen bekeken zitten we dus niet met een superieure denkmachine, maar met een uit de kluiten gewassen internetverslaafde neurotische tiener met narcistische trekjes. Misschien moeten we helemaal niet bang zijn voor een toekomst waarin AI ons vervangt. Wie weet ligt het wel veel meer voor de hand dat het onze volgende cliënt in de behandelkamer wordt.

Bron

1. Chen, Y., Kirshner, S. N., Ovchinnikov, A., Andiappan, M., & Jenkin, T. (2025). A manager and an AI walk into a bar: does ChatGPT make biased decisions like we do?. Manufacturing & Service Operations Management, 27(2), 354-368.

Dit artikel kun je terugvinden in het VGCt magazine op pagina 41.

Misschien ook interessant voor jou

Focus Mode