Naar de content

Wat zegt onze taal over hoe we ons tot AI verhouden?

Vijf vragen over hoe we praten over AI

Pam Werlotte voor NEMO Kennislink

We zeggen dat AI kan denken, leren en zelfs voelen. Maar AI is geen mens. Waarom gebruiken we toch zulke woorden wanneer we het hebben over AI?

12 december 2025

“Goedemiddag ChatGPT. Ik heb een vraag: kun je nadenken?” Na even, uhm, ‘nadenken’ heeft de app een antwoord in elkaar geknutseld: “Goedemiddag! Het korte antwoord is: nee, ik ‘denk’ niet op dezelfde manier als mensen dat doen.” Vervolgens valt te lezen wat het systeem dan wel doet: “Het lijkt alsof ik nadenk. Maar mijn antwoorden komen voort uit het herkennen van patronen in taal en kennis, niet uit een innerlijk denkproces of intuïtie.” Conclusie, volgens ChatGPT: “Ik simuleer nadenken – vrij goed zelfs – maar ik ervaar het niet.” 

Wij mensen ervaren dat toch anders. We zeggen: “Ik vraag het even aan ChatGPT”. Alsof het een collega is in plaats van een chatbot die wat antwoorden bij elkaar rommelt. Waarom praten we in menselijke termen over AI? Vijf vragen, met antwoorden van echte mensen, over AI en taal.

Kan AI denken?

Nee, legde Piek Vossen eerder uit aan Kennislink. ChatGPT, het bekendste voorbeeld van AI, is gebouwd op een zogeheten ‘taalmodel’, aldus de hoogleraar computationele lexicologie aan de Vrije Universiteit Amsterdam. De ontwikkelaars hebben het programma heel veel teksten gevoerd. Daaruit ‘leerde’ de software welke woorden vaak bij elkaar horen en na elkaar komen. Na ‘kopje’ komt bijvoorbeeld vaak ‘koffie’. En na ‘appeltaart’ staat vaak ‘met slagroom’. Met dat in het digitale achterhoofd kan het programma zinnen afmaken. En de app verzamelt antwoorden die mogelijk bij een vraag horen die je stelt. Maar nadenken kan de software niet.

En voelen?

“Nee”, reageert ChatGPT zelf. “Ik heb geen gevoel in de menselijke zin van het woord – ik ervaar geen emoties, pijn of plezier.” Dat het systeem het woord ‘ik’ gebruikt, werkt misleidend: het zet het algoritme neer als persoon, terwijl het niet meer is dan wat software. Aan Tilburg University onderzoekt Jan de Wit de interacties tussen mens en AI. “Voor mijn gevoel is ChatGPT zo ingericht dat je steeds een optimistisch antwoord krijgt.” Als gebruiker hoef je van ChatGPT geen kritiek te verwachten. De antwoorden zijn vaak juist bevestigend. Het lijkt wel alsof het algoritme je begrijpt. “Daardoor voelt het heel veilig.” Er ontstond ophef toen OpenAI, het bedrijf achter ChatGPT, de nieuwe versie GPT5 minder menselijk had gemaakt, vertelt De Wit. “Je kon er minder goed een band mee opbouwen. Mensen waren daaraan gehecht geraakt.” Tegen betaling konden liefhebbers terug naar het oude systeem.

Waarom zeggen we toch dat AI kan ‘denken’, ‘leren’ en zelfs ‘voelen’?

Omdat we nou eenmaal graag woorden gebruiken die we al hebben, aldus Mark Dingemanse. Hij is hoogleraar AI: taaldiversiteit en communicatietechnologieën aan de Radboud Universiteit. “Dus ‘voelt’ de sensor van mijn achterlicht dat het donker is. En onze robotstofzuiger Stoffel ‘wil’ naar zijn laadstation.” In werkelijkheid voelt het achterlicht van je fiets helemaal niets. En een stofzuiger heeft geen eigen wil. ChatGPT voelt exact even veel als je achterlicht. En wil precies hetzelfde als je stofzuiger. De Wit: “De manier waarop ChatGPT met ons communiceert, stimuleert dat we het programma menselijke eigenschappen toedichten.” Je krijgt mooie volzinnen. Het is alsof je berichten uitwisselt met iemand die je kent. Het is alleen een beetje vreemd dat diegene geen typfouten maakt. Het helpt natuurlijk ook dat ChatGPT met emoji’s strooit.

Wat zegt de taal die we gebruiken over onze verhouding met AI?

Alles, aldus Dingemanse. “Iets beschrijven in menselijke termen betekent dat je er makkelijker menselijke kwaliteiten aan toekent.” Daarin schuilt een gevaar, waarschuwt Dingemanse. “Hoe complexer de technologie, hoe groter de kans dat we te veel waarde gaan toekennen aan de woorden die we gebruiken.” Straks denken we nog dat kunstmatige intelligentie echt intelligent is. “Vorig jaar hoorde ik van een psychiater dat een paar patiënten waren gestopt met hun therapie omdat ChatGPT ‘tenminste wel luisterde’ en hen ‘wel gelijk gaf’”, geeft Dingemanse als verontrustend voorbeeld. Het is dus niet onschuldig om te zeggen dat AI ‘slim’ is, ‘leert’ of ‘nadenkt’.

Welke woorden moeten we dan gebruiken?

Misschien moeten we nieuwe woorden verzinnen voor ‘denken’ en ‘voelen’ wanneer het om AI gaat. We zouden kunnen zeggen dat ChatGPT aan het knutselen is wanneer het algoritme een antwoord op je vraag bij elkaar schraapt van internet. Of dat AI niet nadenkt, leert of voelt, maar smurft. “Hoe je praat over iets bepaalt voor een deel hoe je erover denkt”, aldus Dingemanse. Toch zijn de woorden niet het grootste probleem, volgens Dingemanse. “Gedachteloosheid is het probleem.” AI wordt gevaarlijk wanneer we het achteloos gaan gebruiken en stoppen met nadenken. “Daarom zet ik ‘AI’ vaak tussen aanhalingstekens. Als herinnering dat het maar een term is, en geen Almachtige Intelligentie.” We moeten, kortom, zelf goed nadenken. Want AI kan het niet.

ReactiesReageer