6 januari 2026
AI in zorg en rouw: 'the willing suspension of (dis)belief'
Onbehagen. Dat is ongetwijfeld de eerste reactie die steevast opduikt bij berichten over en experimenten met zich in sneltempo ontwikkelende AI-toepassingen.
'Bevreemdend en raar' – zo omschrijft Vlaanderens bekendste psychiater Dirk De Wachter zijn ervaring wanneer hij in de Pano-reportage Mijn vriend AI geconfronteerd wordt met een AI-versie van zichzelf – een experiment dat even fascinerend als ongemakkelijk blijkt. Onderzoekers van het team van Tom Van Daele van Thomas More Hogeschool bouwden een AI-chatbot die praat, klinkt en reageert als De Wachter. De stem is treffend, de antwoorden empathisch. Toch voelt de echte De Wachter zich 'gedepersonaliseerd' bij het zien van zijn digitale dubbelganger. De AI-versie geeft herkenbare, maar vaak voorspelbare en overdreven positieve antwoorden – iets wat De Wachter 'toxische positiviteit' noemt. De kern van De Wachters kritiek ligt in het verlies van 'echte' menselijke verbinding. Hoe echter de bot, hoe enger het wordt. De grens tussen mens en machine vervaagt, en dat roept vragen op over authenticiteit, ethiek en vertrouwen.
Kan AI echt begrijpen wat het betekent om mens te zijn? En wat als kwetsbare mensen hun diepste zorgen delen met een algoritme? Het zijn vragen die de laatste jaren almaar prangender worden. Toch erkent De Wachter dat AI een aanvullende rol kan spelen. In een sector met lange wachtlijsten en beperkte capaciteit kan een empathische chatbot drempels verlagen. Dat die AI-bot hem én zijn patiënten het leven gemakkelijker zou kunnen maken sluit aan bij de hedendaagse efficiëntiegeest – al is dat beeld wellicht te rooskleurig. Zoals testpersoon Karina zegt: 'Ik voelde me begrepen, zelfs meer dan bij sommige mensen.' Maar het gevoel was tijdelijk. De bot kon haar niet echt begeleiden, al verwees hij wel correct door bij acute situaties.
Het experiment toont aan dat AI in de geestelijke gezondheidszorg technisch mogelijk is, maar dat we moeten blijven vragen of het ook wenselijk is. De Wachter pleit voor een gouden standaard: een therapeut die fysiek aanwezig is, met wie je echt contact maakt. Want menselijkheid is geen algoritme.
Het experiment toont aan dat AI in de geestelijke gezondheidszorg technisch mogelijk is, maar dat we moeten blijven vragen of het ook wenselijk is. De Wachter pleit voor een gouden standaard: een therapeut die fysiek aanwezig is, met wie je echt contact maakt. Want menselijkheid is geen algoritme.
Maar wat wanneer de mens achter AI niet meer aanwezig kán zijn? De vraag naar wenselijkheid wordt nog urgenter en de ervaring des te bevreemdender wanneer AI niet de therapeut vervangt, maar de overledene. Sinds enkele jaren kunnen rouwenden via deepfaketechnologie praten met overledenen. In Nederland wordt hier al mee geëxperimenteerd. Onder begeleiding van een rouwtherapeut voeren nabestaanden een interactief videogesprek met hun overleden dierbaren. Ze halen herinneringen op, stellen dringende vragen en gaan de confrontatie aan met wat onafgewerkt of onuitgesproken bleef. Deepfake is een technologie die bestaand beeldmateriaal, in dit geval van de overledene, manipuleert. Terwijl de videobeelden zich aanpassen aan het gezicht van de overledene, horen we de stem van een therapeut of stemacteur die antwoordt op de vragen van de nabestaanden en met hen in een live gesprek treedt.
Roshan Nejal is documentairemaker en een van de ontwikkelaars van de deepfakerouwtechnologie. Hij ontwikkelde het als afstudeerproject aan de Nederlandse filmacademie en dit in samenwerking met onder andere hoogleraar Computer Vision Theo Gevers van de Universiteit van Amsterdam. Nejal benadrukt in een interview voorafgaand aan een documentaire over deze nieuwe tool dat mensen ervoor betalen om 'bedonderd' te worden. Hij noemt zichzelf dan ook een 'goochelaar'. 'We wéten dondersgoed dat het nep is', zo zegt Nejal, ‘als ik een truc heb gedaan dan zijn mensen vol van verbazing. Ze kiezen ervoor om in de magie te geloven, want als ze weten hoe de truc werkt vinden ze er (sic) geen reet meer aan'. Hoewel meer onderzoek naar de psychologische en emotionele effecten van dergelijke experimenten met AI-tools noodzakelijk is en de nood aan een ethisch en juridisch kader zich hier duidelijk opdringt, benadrukt Nejal de goede therapeutische bedoelingen van zijn experiment: wie het gebruikt, kan er toch, of het nu nep is of niet, troost en steun uit halen.
En daar wringt nu net het schoentje. Deepfake- en andere AI-ontwikkelaars – ik durf niet te zeggen: goochelaars – lijken tegemoet te komen aan een eeuwenoud menselijk verlangen: via media communiceren en verbinding tot stand proberen brengen met wat niet live aanwezig is, en dan in het bijzonder met de absolute afwezige, de dode. AI-technologie raakt aan oeroude menselijke verlangens – zoals het zoeken naar troost, verbinding en betekenis –, maar roept tegelijk nieuwe ethische en existentiële vragen op over wat het betekent om mens te zijn, te rouwen en te herinneren. Communiceren met overleden geliefden is iets van alle tijden, zo heb ik elders al herhaaldelijk betoogd. Al in de oudste geschreven bronnen vinden we sporen van pogingen om de grenzen van tijd en ruimte, en bovenal die tussen leven en dood te overschrijden. In cultuurreligieuze praktijken en in de literaire verbeelding – van het Gilgamesj-epos tot de Odyssee, van de Divina Commedia tot Hamlet – zoeken levenden contact met overledenen via necromantische rituelen, spreuken en offers of blijven de doden in contact met hun nabestaanden via allerhande kanalen of spreken ze hen aan – d'outre-tombe. Wat AI vandaag doet, is die eeuwenoude fictieve verbeelding technologisch performatief maken: de dode – of afwezige – spreekt niet alleen in ons hoofd, via brieven of de telefoon, maar op een scherm, met een gezicht, een stem, een antwoord.
AI mag dan vandaag een bijzonder geavanceerd en niet te onderschatten medium zijn, het functioneert in de fond zoals alle mediale ingrepen die eraan zijn voorafgegaan: als een technologie die ons het leven gemakkelijker maakt en ons biedt wat de werkelijkheid ons (eventueel tijdelijk) onthoudt. Daarbij vraagt het van ons, gebruikers of rouwenden, een bijzondere overeenkomst, die we kennen uit de wereld van fictie, met name een 'willing suspension of disbelief': de bereidheid om tijdelijk en bewust te geloven in de geconstrueerde (onechte) werkelijkheid die AI ons voorschotelt. Hierbij weerklinkt onwillekeurig wat Nejal 'de trucs', de 'magie' achter de technologie noemde – of ook wel de therapeut achter het deepfakescherm. Kunnen en willen media, dus ook AI, ons – als we Nejal moeten geloven – bewust 'bedonderen' en tegelijk troosten en tegemoetkomen in ons verlangen de doden (of afwezigen) te horen praten? Dat kan volgens hem zolang we bereid zijn om bewust en tijdelijk onze twijfel op te schorten en mee te gaan in de illusie – zonder kritisch na te vragen hoe de truc werkt.
Hoewel we in België, bij mijn weten, (nog) niet met deepfake experimenteren in rouwtherapie, past de trend binnen een bredere culturele dynamiek die de laatste decennia aan kracht wint, maar in feite al is voorbereid in de loop van de twintigste eeuw: een dynamiek die men in Vlaanderen zelfs als een 'rouwrevolutie', gematigder ook een 'rouwevolutie', omschrijft en waarbinnen het continueren van een band met overledenen centraal staat. Sinds enkele jaren spoort de Vlaamse rouworganisatie Réveil mensen aan om in de aanloop naar 1 november via een QR-code nog één laatste ‘SM-Mis-je' te sturen naar een overleden dierbare. Deze boodschap 'aan de overkant' wordt dan realtime geprojecteerd in het stadsbeeld van deelnemende Vlaamse steden. Sinds de coronapandemie lijkt ook de testamentaire traditie ongeziene intieme en populaire vormen aan te nemen door de ontwikkeling van meer mediale mogelijkheden (ik denk aan video- en stemopnames, waarmee in palliatieve zorgafdelingen wordt geëxperimenteerd). Desalniettemin doen ook traditionele media, zoals het schrift, het nog steeds goed: meer en meer mensen anticiperen op de mogelijkheid om over de grenzen van leven en dood heen met nabestaanden te communiceren – stervenden (die uiteraard zelf ook rouwen) worden bijgestaan door hulpverleners, biografen, vrijwilligers om levensverhalen op te tekenen en in een artistiek boekje, een podcast of video aan nabestaanden te overhandigen. De verhalen krijgen zo een semantische – en niet zelden dirigerende – conditie in het leven van nabestaanden – als teken van een aanwezige afwezigheid. Hilde Ingels van de organisatie Amfora die levensverhalen van mensen aan het einde van hun leven optekent, voelt zich naar eigen zeggen in haar boek Afscheid dat verbindt een 'tussenpersoon' (iemand achter de schermen) die – en ik citeer – 'zo onzichtbaar mogelijk' wil zijn wanneer de stervenden hun verhaal dicteren (p. 35; 32).
Dat dit om vormen van toekomstige dodencommunicatie gaat, wordt niet met zoveel woorden gezegd. Het is nog steeds taboe, zo verduidelijkt Vinciane Despret in haar gevatte analyse Au bonheur des morts (2015). Immers, het communiceren met overledenen is niet compatibel met onze 'moderne', 'rationele' en 'hoogtechnologische' maatschappij. Wij geloven niet meer in magie. Of toch? Hoe gesofisticeerder de communicatiemedia en de technologie, des te groter lijkt de droom of het experiment om met de doden te praten.
Dat dit om vormen van toekomstige dodencommunicatie gaat, wordt niet met zoveel woorden gezegd. Het is nog steeds taboe, zo verduidelijkt Vinciane Despret in haar gevatte analyse Au bonheur des morts (2015). Immers, het communiceren met overledenen is niet compatibel met onze 'moderne', 'rationele' en 'hoogtechnologische' maatschappij. Wij geloven niet meer in magie. Of toch? Hoe gesofisticeerder de communicatiemedia en de technologie, des te groter lijkt de droom of het experiment om met de doden te praten.
Het spreekt voor zich dat de grens tussen troost en bedrog, tussen betekenis en manipulatie flinterdun wordt en de vraag naar een opschorting van het ongeloof – het meegaan in de truc – in sommige gevallen moeilijk op te heffen valt. Wat gebeurt er als we vergeten en niet meer geloven dat het een truc is? De ontwikkelaars van de De Wachter-bot, die van de deepfakerouwtherapie en levenseindeschrijvers bedoelen het natuurlijk absoluut goed. Maar het mag duidelijk zijn: misbruik en minder goede bedoelingen loeren mee om de hoek.
De documentaire Eternal You van de Duitse filmmakers Hans Block en Moritz Riesewieck toont hoe AI-applicaties in rouwcontexten op z'n minst problematisch kunnen worden genoemd. Ze belichten praktijken van bedrijven zoals YOV (You, Only Virtual) die AI-chatbots ontwikkelen die op basis van persoonlijke data — zoals foto's, gesprekken en video's — een digitale representatie maken van een overleden geliefde. Net zoals de deepfake-experimenten in Nederland willen zij nabestaanden de mogelijkheid geven om te blijven communiceren met hun overleden dierbaren – en dit tegen betaling. Oprichter Justin Harrison van YOV stelt het radicaal: 'Fuck death! We can change reality.' Maar de vraag is: veranderen we de realiteit, of ontkennen we haar? De documentaire toont hoe gebruikers zoals de jonge Joshua dag en nacht praten met een AI-versie van hun overleden verloofde – of zoals het ooit Don Quichot overkwam: hij blijft zijn ongeloof opschorten. Hoewel hij zich begrepen voelt, belemmert deze digitale relatie zijn vermogen om verder te gaan met zijn leven. De technologie biedt troost, maar ook het risico op emotionele stagnatie. Het verlies wordt niet verwerkt, maar gesimuleerd; de pijn gestimuleerd. Een aangrijpend voorbeeld is het verhaal van de Zuid-Koreaanse moeder Jang Ji-Sung, die haar overleden dochter virtueel ontmoet in een televisie-experiment met VR-tools. De scène is filmisch en ontroerend, maar roept meteen de vraag op: helpt dit haar echt verder, of houdt het haar gevangen in het verleden en in haar verdriet? Welke psychologische begeleiding krijgt zij van 'echte' mensen? Tegelijk worden wij – als kijkers – voyeurs van haar verdriet. De makers van Eternal You leggen op scherpe wijze bloot hoe winstmakende techbedrijven zich vaak achter het algoritme verschuilen. De verantwoordelijkheid voor het gebruik van deze technologie ligt bij de klant, bij ons, terwijl de bedrijven winst maken op rouw en kwetsbaarheid. Experts waarschuwen voor het gebrek aan regelgeving: er zijn geen ethische richtlijnen of vergunningen nodig om zulke ingrijpende AI-producten op de markt te brengen. De vraag naar wie spreekt is een vraag naar wie macht uitoefent. In een tijd waarin algoritmes stemmen genereren en verhalen construeren, moeten we ons afvragen: wie schrijft het script? En wie wordt er geacht te luisteren? Van wie is nu eigenlijk die controlerende hand – de achterliggende technologie – die we voor de duur van het experiment moeten negeren, willen we in het spel kunnen geloven en willen we dat het experiment lukt? Tot waar reikt de agency, de betrokkenheid en bevoegdheid van AI in het simuleren van beelden en de stemmen van overledenen? Wie bepaalt de grenzen waarbinnen we de overledenen in ons leven toelaten of hen het leven laten dicteren?
Binnen het brede kader van de gezondheidszorg, bieden Tom Van Daele en zijn team, Nejal en Ingels mensen via AI een hedendaags farmakon om dat wat er niet (meer) is (nog even of herhaaldelijk) aanwezig te maken. Het is een troost- en heilmiddel, maar tegelijk de illusie ervan. Het is een technologie die ons helpt omgaan met verlies, die ons tijdelijk zorg en soelaas biedt, maar ook het risico draagt om ons te vervreemden van de werkelijkheid en van elkaar. De vraag is op welk moment, hoe en voor wie het tot een onbruikbaar, schadelijk en zelfs gevaarlijk fenomeen 'verwordt'.
Niet alles wat mogelijk is, is ook wenselijk. Wenselijk bij het gebruik van AI-toepassingen in zorg- en rouwcontexten is vooral de bereidwilligheid om juist elk blind of onkritisch geloof in technologie bewust op te schorten.