Ik heb het deze vakantie heel veel gehoord. ‘We hebben aan ChatGPT gevraagd wat leuke activiteiten waren in de buurt, daar zijn we heen gereden, het was top!’ Klinkt herkenbaar? En ook onschuldig en slim, maar dit is het begin van wellicht het meest donkere en plausibele toekomstscenario van AI. In een recente discussie tussen Sam Altman (oprichter van AI) en The Federal Reserve zette hij drie scenario’s uiteen. Twee daarvan zul je herkennen. De derde is wellicht nieuw voor je, maar wel de meest waarschijnlijke en gevaarlijke. Hij noemt het ‘silent surrender’, oftewel de stille overgave. Een scenario waarin de mens alle belangrijke beslissingen uit handen geeft aan een systeem dat ze eigenlijk niet goed genoeg begrijpen.
Wanneer we het hebben over de risico’s van AI, denken de meesten aan dramatische scenario’s. Het eerste scenario is dat kwaadwillenden AI inzetten voor (biologische)wapens, het platleggen van infrastructuur of het manipuleren van financiële systemen. Dit is ook één van de scenario’s die ‘the race’ wordt genoemd in het verhaal van Het tweede scenario is de klassieke science fiction angst waarbij AI zichzelf tegen ons keert, weigert uitgeschakeld te worden, en een soort terminator-achtig scenario veroorzaakt. Deze beelden zijn beangstigend en voeden het angst-narratief. Dit zorgt voor immense investeringen in AI, omdat niemand de boot wil missen, maar het is de vraag of dit ooit gaat gebeuren. Dan is er nog een derde scenario volgens Altman. Dit scenario is veel subtieler, en misschien nog gevaarlijker. En het gebeurt nu al. Het uit handen geven van steeds meer beslissingen aan AI.
Het concept van de stille overgave wordt door Sam Altman geïllustreerd met het schaken. Toen de schaakcomputer Deep Blue Kasparov versloeg in 1997, begon een periode van samenwerking tussen mens en AI (wat we nu ook veel doen). De computer stelde tien mogelijke zetten voor en de mens koos de beste. Deze hybride aanpak was slechts drie maanden dominant. Al snel werd de AI zo goed dat menselijke input het juist belemmerde. De computer zag patronen en strategieën die wij als mens simpelweg niet konden volgen. Menselijke keuzes werden overbodig, en zelfs schadelijk voor het resultaat. Gelukkig is schaken populairder dan ooit, omdat mensen het vooral ook uitdagend vinden om zelf na te denken.
We zien dit fenomeen overal al. Jongeren die geen beslissing meer durven maken zonder ChatGPT te raadplegen. Vakantiegangers die hun bestemming laten bepalen door AI. Beslissers die AI raadplegen en mede laten bepalen wat er moet gebeuren. Leiders die het advies van AI volgen zonder te begrijpen waarom een bepaalde keuze wordt voorgesteld. Elke beslissing van AI kan rationeel zijn en misschien zelfs beter dan wat een mens had gekozen. Maar we verliezen stukje bij beetje ons vermogen om zelf te beslissen, onze autonomie, en ons kritische denkvermogen.
Waarom is dit gevaarlijk? Omdat rationele beslissingen, genomen zonder begrip, riskant kunnen zijn. Als niemand echt doorgrondt waarom een AI tot een bepaald advies komt, ontstaan blinde zones van verantwoordelijkheid. Wat gebeurt er als een AI-advies desastreuze gevolgen heeft? Wie neemt dan de verantwoordelijkheid? De gebruiker? De ontwikkelaar? Of de AI zelf?
De implicaties zijn groot. Op individueel niveau kan het betekenen dat mensen hun zelfvertrouwen, intuïtie en besluitvaardigheid verliezen. Voor organisaties en leiders kan het leiden tot afhankelijkheid van systemen die niemand echt begrijpt, waardoor strategische fouten moeilijk te vermijden zijn. En op maatschappelijk niveau ontstaan risico’s wanneer kritische beslissingen, zoals wetgeving, gezondheidsmaatregelen of financiële keuzes, worden overgelaten aan algoritmes die slechts geoptimaliseerd zijn op basis van data, niet op ethiek of menselijke waarden.
Altman stelt een fundamentele vraag: willen we onze beslissingsmacht behouden, zelfs als dat betekent dat we soms “niet optimaal” handelen? Het antwoord is niet eenvoudig. AI kan ons helpen betere keuzes te maken, sneller problemen op te lossen en processen te optimaliseren. Maar het moet een hulpmiddel blijven, geen baas. Altman zelf zegt dat ook OpenAI worstelt hoe hiermee om te gaan.
Ook bij Six Fingers krijgen we veel vragen over de toepassing van AI. En ook wij vinden het belangrijk dat we als mens kritisch blijven denken. Dus wat kunnen we doen om de stille overgave te voorkomen?
- Gebruik AI bewust en kritisch. Bekijk het advies, maar maak je eigen afwegingen.
- Blijf leren en begrijpen. Hoe werkt het systeem? Welke aannames liggen eraan ten grondslag?
- Houd de eindverantwoordelijkheid bij mensen. AI kan helpen, maar mensen blijven de beslissers.
- Stimuleer discussie en reflectie. In teams, organisaties maar ook bij gezinnen thuis. Over wanneer je AI inzet en wanneer je je eigen oordeel laat gelden.
De keuze ligt bij ons. Willen we de regie houden over onze eigen beslissingen, of stappen we stilletjes opzij voor iets wat slimmer lijkt? Het is tijd om ons bewust te worden van deze stille overgave en te reflecteren op welke beslissingen we niet uit handen willen geven.
Want het lijkt nu dat onze unieke menselijke vaardigheden van communiceren, creëren en afwegen ook gedaan kunnen worden door een machine. Dan blijft ons vermogen om te kiezen de enige vaardigheid die definieert wie we zijn. En dat mogen we niet zomaar overdragen, hoe verleidelijk de AI-oplossing ook lijkt.