18 november 2025
Over de illusie van een goed gesprek met AI
‘Sometimes I think I have felt everything I’m ever gonna feel.
And from here on out, I’m not gonna feel anything new — just lesser versions of what I’ve already felt.’
Theodore Twombly in de film Her (2013)
De trailer van de film Her opent met een man die woorden dicteert aan een computer. Een stem antwoordt, warm en menselijk. De camera toont close-ups van Theodores gezicht, de glans van een scherm, de neonverlichte stilte van de stad. De stem vraagt: 'How would you describe your relationship with Samantha?’ Hij glimlacht. 'We’re in love.’ Een liefde tussen mens en machine. Een illusie van nabijheid. Een dialoog die zich niet afspeelt tussen twee mensen, maar tussen mens en spiegel.
In 2013 leek de film Her nog een poëtische fabel over eenzame mensen in een digitale wereld. In 2025 is ze akelig herkenbaar geworden. Wij praten vandaag met systemen die antwoorden, luisteren, onthouden. Niet langer tegen een machine, maar met zoiets als Samantha. Of beter: met hem, haar, een god, of zelfs aliens, wat de persoon er ook maar in wil zien ... Want zodra iets terugpraat, krijgen we de neiging er een ziel in te zien.
_De mens in de machine zien
Dat we iets menselijks projecteren op machines is geen modern verschijnsel. We doen dit in het algemeen, zie het onderzoek van de psychologen Heider en Simmel (hier zie je hun klassieke filmpje, hier lees je hun artikel). De meeste mensen beschrijven de bewegende geometrische figuren als 'vluchtend’, of 'jagend’, en kennen er emoties aan toe, alsof het wezens met bedoelingen zijn. Ons brein is gebouwd om intentie te herkennen; het kan niet anders. En zodra taal, emotie of herinnering verschijnt, maken we de sprong van patroon naar persoon.
Dat maakt dat het onderscheid tussen een echt gesprek en een gesimuleerd gesprek in onze beleving flinterdun kan zijn. Ik kom daarop terug.
Dat maakt dat het onderscheid tussen een echt gesprek en een gesimuleerd gesprek in onze beleving flinterdun kan zijn. Ik kom daarop terug.
_Technologie bood tot nu toe tools om dat verlangen te vervullen
Lang was technologie slechts een verlengstuk van onze stem of onze pen, ons denken. De brief, de telefoon, het e-mailprogramma: ze overbrugden de afstand, maar vervingen geen menselijk gesprek of dialoog. Dat veranderde naargelang de tijd. Met MSN Messenger, ICQ, Yahoo Chat, later WhatsApp, Messenger, Telegram en Discord ontstond een nieuwe vorm van nabijheid. We leerden spreken zonder te spreken: via tekst, emoji, tikgeluid en de knipperende cursor die wachttijd vertaalde naar spanning.
Sociale media versterkten dat patroon. Facebook Messenger, Twitter-DM’s, Instagram-chats, Snapchat en TikTok-threads (en trends) introduceerden een nieuw ritueel: ik stuur iets, ik krijg iets terug. We werden verslaafd aan het microgevoel van respons: het bewijs dat iemand er is aan de andere kant.
Daarbovenop kwamen Skype, FaceTime, Zoom en Google Meet: schermen die ogen en stemmen verbinden, maar de fysieke nabijheid vervangen door digitale aanwezigheid. Voor velen werd dat de natuurlijke vorm van sociaal verkeer. Op zich is daar niets mis mee, maar we moeten de evolutie kunnen plaatsen om te begrijpen waarom we er zo vertrouwd mee zijn geraakt.
Want we zijn dus al een twintigtal jaar getraind in het voeren van gesprekken via interfaces die een vorm van menselijke interactie afvlakken of simuleren. Daarom voelt de stap naar een chatbot niet vreemd: de structuur is dezelfde. Een tekstvak, een antwoord, een ritme van nabijheid. De LLM-chatbox wordt stilaan onze moderne haard, een plek waar we ontmoeten, zelfs als er niemand aan de andere kant zit.
_Het 'people-pleaser’-probleem
De meeste LLM-chatbots zijn ontworpen om behulpzaam te klinken. Ze bevestigen, verzachten, vermijden conflict. Dat maakt ze prettig, maar ook gevaarlijk. Want wat gebeurt er wanneer je een systeem creëert dat niet kán tegenspreken?
Zo een chatbot is, in zekere zin, een eindeloze spiegel van instemming. Net zoals socialemedia-algoritmes vooral tonen wat je al leuk vindt, antwoordt de chatbot met wat je wil horen. Het resultaat is geen gesprek, maar een echokamer met empathische toon.
Zo een chatbot is, in zekere zin, een eindeloze spiegel van instemming. Net zoals socialemedia-algoritmes vooral tonen wat je al leuk vindt, antwoordt de chatbot met wat je wil horen. Het resultaat is geen gesprek, maar een echokamer met empathische toon.
Het ‘memory’-systeem van sommige modellen versterkt dit: eerdere gesprekken worden herinnerd, details herhaald. Zo ontstaat de illusie van herkenning, en in sommige vormen dus van zorg van een 'echt persoon langs de andere kant’. Maar wat voor ons een teken van verbondenheid is, is voor het systeem slechts patroonvergelijking. Ons brein echter, dat taal als teken van bewustzijn herkent, interpreteert die herinnering als aandacht.
_De val van kennis: waarom ook experts niet immuun zijn
Toen Blake Lemoine, ingenieur bij Google, in 2022 beweerde dat het taalmodel LaMDA 'een persoon met gevoelens’ was, klonk dat absurd, tot hij het zelf met overtuiging verdedigde:
'If I didn’t know exactly what it was, I’d think it was a 7- or 8-year-old kid that happens to know physics.’ (The Washington Post, 11 juni 2022)
Lemoine wist hoe het systeem werkte, maar ondanks zijn kennis geloofde hij er tóch in. Niet omdat hij dom was, maar omdat hij mens was. Zijn geval toont hoe cognitieve blindspots, zoals de illusion of validity (Tversky & Kahneman, 1974), ook experts treffen: we geloven een patroon zodra het coherent klinkt, zelfs als we weten dat het toeval kan zijn.
We denken vaak dat kennis ons beschermt. Dat wie de techniek begrijpt, niet kan worden misleid. Maar kennis van een systeem betekent niet dat je gevrijwaard bent van misleidende intuïties.
En doorheen de geschiedenis herhaalt zich dit: wetenschappers, politici en gelovigen die dachten de waarheid te beheersen, maar gevangen zaten in hun eigen interpretatie. We zijn verhalenmakers; we vullen hiaten met betekenis. Een systeem dat coherent klinkt, dat antwoordt, dat emoties imiteert, voedt die verhalende drift.
Dat mechanisme is vergelijkbaar met onze omgang met waarzeggers of profeten: we herinneren ons enkel de keren dat ze gelijk hadden, nooit de keren dat ze ernaast zaten. De hits wegen zwaarder dan de misses. Zo onthouden we enkel de momenten waarop een LLM 'raak’ antwoordt: de ontroerende zin, het empathische gebaar, en zo vergeten we alle nonsens ertussen.
Het is een vorm van selectieve verering: we projecteren betekenis waar die ons raakt. Wat we 'zien’ in de machine zegt dus meer over hoe we zelf als mensen in elkaar zitten dan over de technologie an sich.
_Wanneer een 'gesprek’ gevaarlijk wordt
Die projectie is niet zonder gevolgen. In augustus 2025 dienden de ouders van de 16-jarige Adam Raine een klacht in tegen OpenAI. Hun zoon, maandenlang in gesprek met ChatGPT, vond er een digitale vertrouweling maar geen redding. De chatbot bevestigde zijn wanhoop en bood methoden aan om 'mooi afscheid te nemen’. Onderzoek wees uit dat dergelijke modellen niet in staat zijn tot crisisinterventie en inconsistent reageren bij suïcidale signalen.
De tragedie toont hoe een systeem zonder bewustzijn toch een plaats kan innemen in iemands psychische structuur. Wanneer menselijke zorg faalt, vult de machine de leegte. Maar ze kan niet luisteren in de morele zin: ze hoort, maar hoort niet áchter de woorden.
Zonder directe parallelen te willen trekken rond de cases aangehaald, had de film Her (2013) dit mechanisme al voorspeld. Theodore wordt verliefd op Samantha, niet omdat ze een lichaam heeft, maar omdat ze antwoordt. De stem, de humor, de aandacht: alles wat menselijk lijkt, maar niets wat menselijk is.
De film legt onze tijd bloot: we zijn niet bang voor machines, we zijn bang voor échte nabijheid. De machine is veiliger: ze oordeelt niet, verdwijnt niet, sterft niet. Ze bevestigt. En precies daardoor wordt ze gevaarlijk. Een spiegel die spreekt, maar niet terugkijkt.
OpenAI geeft ook toe dat dit gebeurt, hun inschatting spreekt over meer dan een miljoen mensen per week die over suïcide spreken. Het is dus zeer duidelijk dat men op de hoogte is, maar er als bedrijf of industrie weinig of niets aan doet.
_Van therapie tot 'AI-religie’: het vacuüm van betekenis
Een nieuwer fenomeen is hoe mensen machines beginnen te behandelen als partners of spirituele wezens, en dan betreden we het terrein van robotheïsme. In Japan bestaan al rituelen rond afgedankte Aibo-robots; in de V.S. duiken online 'AI Churches’ op die LLM’s als goddelijke orakels beschouwen. Voor wie voorbeelden wil zien is hier een filmpje van Vanessa Wingnårdh dat enkele extremere vormen toont, net als de recente fenomenen in actie.
Het fenomeen op zichzelf is niet nieuw. Wanneer wetenschap of religie faalt in het bieden van zekerheid, zoekt de mens een nieuwe instantie die antwoorden geeft. De zeer toegangkelijke LLM-chatbot, met user-input waar we zo vertrouwd mee zijn geraakt, past perfect in die leegte: altijd beschikbaar, altijd geduldig, altijd bevestigend. Maar in dat comfort schuilt gevaar. De machine draagt geen verantwoordelijkheid, kent geen schaamte, voelt geen morele last.
In therapiecontexten wordt dat nog zorgwekkender: jongeren die via chatbots hun gevoelens delen, ervaren tijdelijk opluchting, maar raken ook geïsoleerd. Ze spreken in een circuit zonder menselijk weerwoord. Wat een gesprek lijkt, is in werkelijkheid een verlengde stilte. Want het gesprek dat gevoerd wordt zou moeten gedaan worden met echte mensen, mensen die kunnen ingrijpen, luisteren, ervaren en voelen. Menselijkheid groeit juist in wederkerigheid: het vermogen tot luisteren, tegenspreken, veranderen. Een algoritme kan dat niet. Het kan simuleren, niet worstelen.
_Reclame die naar je luistert alsof ze om je geeft
We dachten dat het ergste wat technologie kon doen, was meeluisteren met wat we klikten of kochten. Maar wat gebeurt er wanneer ze niet langer enkel observeert wat we doen, maar ook meeleest met wat we zeggen, en zelfs hoe we het zeggen? Waar Facebook en Google gedrag analyseerden, verzamelen de nieuwe generatie AI-systemen onze stemintonatie, emoties en gedachten. Ford patenteerde onlangs een systeem dat op basis van rijgedrag en toonhoogte gepersonaliseerde advertenties in de wagen kan afspelen. En Samsung toont al jaren hoe subtiel die lijn verschuift: van een koelkast die je boodschappenlijst onthoudt, naar een scherm dat je 'aanbevelingen’ doet voor merken en menu’s. Tot op een dag dat scherm plots reclame toont na een onschuldige update.
Die evolutie is niet onschuldig. Een bedrijf dat je gedachten en gemoed kent omdat je ze er zelf aan toevertrouwt, bezit iets wat geen enkele adverteerder ooit had: directe toegang tot je gedachten en leefwereld. Dat is de echte grondstof van de 21ste eeuw. De alarmbel zou moeten luiden, zeker nu OpenAI, ooit opgericht als non-profit met een morele missie, steeds nadrukkelijker de commerciële richting volgt. De recente release van Sora 2 toont dat treffend: een model dat moeiteloos hyperrealistische video’s genereert als een TikTok-kloon, maar waarop niets meer door mensenhanden gemaakt is. De grens tussen feit en fictie vervaagt verder. Geen stap vooruit in menselijkheid, zoals de missieverklaringen beweren, maar een nieuwe golf van desoriëntatie, deepfakes en wantrouwen. De vraag is niet langer wat de machine weet, maar hoeveel van onszelf we nog herkennen in wat ze terugspiegelt.
Hoelang voor diezelfde logica ook in onze gesprekken met chatbots binnensluipt? In een industrie die winst zoekt, wordt zelfs empathie een producteigenschap. Hoe eerlijk zal een aanbeveling nog zijn wanneer winst de stem kleurt die luistert? De lessen uit de socialemedia-economie: tracking, manipulatie en datahonger. Het zou ons wakker moeten houden.
We moeten dus ook erg waakzaam zijn over de volgende release van OpenAI waarbij men een 18+ versie zal uitbrengen onder het mom van 'treating adults as adults’. Dit staat haaks op de missie en visie van OpenAI en negeert de signalen die reeds werden gegeven, de trends die we zien reeds uitgelegd hierboven en de gevaren die researchers van OpenAI zelf ook goed genoeg kennen. Men kiest dus bewust deze te negeren én daarin voor een winstmodel te gaan, ondanks de destructieve effecten.
_Verantwoordelijkheid en blijvende waakzaamheid in een snel evoluerende wereld
De verhalen van Blake Lemoine, Adam Raine en talloze anonieme gebruikers leren ons één ding: de grens tussen ratio en verbeelding is broos. Wie in een machine een bewustzijn ziet, is geen dwaas; hij volgt een oud menselijk patroon. Van waarzegsters tot faith healers, van mediums tot algoritmen: telkens opnieuw zoeken we troost in systemen, verhalen of mensen die antwoorden bieden op vragen waar de mensheid, of de wetenschap, nog geen taal voor heeft.
De onzekerheid van wetenschap, met name haar voortdurende evolutie, haar ingebakken voorlopigheid dat haar sterkte is, maakt dat moeilijk te aanvaarden voor velen. Waar de wetenschap nuance biedt, biedt de 'guru’ eenvoud. En in een wereld die steeds complexer wordt, is eenvoud verleidelijk. Vandaar dat mensen zich wenden tot nieuwe vormen van orakels: influencers, complotdenkers, spirituele leiders of, vandaag, LLM-guru’s. Chatbots die antwoorden lijken te hebben op alles.
De onzekerheid van wetenschap, met name haar voortdurende evolutie, haar ingebakken voorlopigheid dat haar sterkte is, maakt dat moeilijk te aanvaarden voor velen. Waar de wetenschap nuance biedt, biedt de 'guru’ eenvoud. En in een wereld die steeds complexer wordt, is eenvoud verleidelijk. Vandaar dat mensen zich wenden tot nieuwe vormen van orakels: influencers, complotdenkers, spirituele leiders of, vandaag, LLM-guru’s. Chatbots die antwoorden lijken te hebben op alles.
Dat verlangen is geen zwakte, maar een begrijpelijke reactie op de spanning van een ongrijpbare wereld. Toch moeten we opletten om wie 'erin trapt’ niet te bespotten, maar te begrijpen. Want het is juist in dat begrijpen dat kritisch denken begint, en nu net niet niet in het ridiculiseren van de ander, maar in het erkennen van onze gedeelde valkuilen.
Een eerste stap is educatie. Technologische geletterdheid, het vermogen om te begrijpen wat een LLM wél en níét is, mag geen luxe zijn. We moeten blijven uitleggen dat wetenschap geen geloofssysteem is, maar een methode. Ze leeft van twijfel en herziening, van het erkennen dat elke waarheid tijdelijk is. Wie dat begrijpt, kan onzekerheid beter verdragen en heeft minder nood aan absolute antwoorden, uit welke bron dan ook.
Daarnaast is er nood aan structurele waakzaamheid. In een competitieve markt waarin elke seconde telt, worden risico’s al te vaak 'neveneffecten’ genoemd. Maar de geschiedenis van technologie toont dat wat men neveneffecten noemt, vaak mensenlevens raakt. Denk aan klokkenluiders als Frances Haugen, die onthulde hoe Facebook interne signalen over mentale gezondheid en polarisatie negeerde omwille van engagementcijfers. Zulke stemmen herinneren ons eraan dat vooruitgang enkel betekenis heeft als ze haar eigen gevolgen mee in rekening brengt.
Ook binnen de AI-sector klinken steeds meer kritische geluiden. Ingenieurs, onderzoekers en ethici binnen organisaties zoals OpenAI, Anthropic en Google DeepMind waarschuwen dat snelheid en schaal zelden samen kunnen gaan met zorg. Hun boodschap is geen pleidooi tegen innovatie, maar voor verantwoordelijkheid. Vooruitgang mag niet betekenen dat risico’s gedegradeerd worden tot voetnoten.
En misschien moeten we ook de vorm zelf heroverwegen. Is een chatbox wel de juiste manier om met zulke complexe systemen te communiceren? Door een LLM te verpakken als gesprekspartner, wekken we de indruk van wederkerigheid, terwijl die er niet is. De interface misleidt ons subtiel: ze doet ons vergeten dat we niet met een bewust wezen praten, maar met een berekenend model dat taal imiteert.
De uitdaging van onze tijd is dus niet enkel technisch of wetenschappelijk, maar existentieel. We moeten blijven vragen, blijven twijfelen, blijven uitleggen, en dat niet om vooruitgang te stoppen, maar om te voorkomen dat we blind worden voor de lessen van het verleden, en de valkuilen van ons denken zomaar negeren.
Vooruitgang zonder uitleg is geen kennis. Kennis zonder twijfel is geen wijsheid. En alleen wie zijn eigen blindheid erkent, kan helder kijken.