7 april 2025
Gesprekken met ChatGPT (deel 3)
In deel 2 van dit essay beschreef ik, naast enkele andere invalshoeken, vooral de opvattingen van Daniel Dennett en Nicholas Humphrey over bewustzijn en het bewuste Zelf als respectievelijk illusies en mentale representaties. Qualia – de subjectieve, kwalitatieve aspecten van ervaringen, oftewel een soort mentale representatie van sensaties – zijn volgens beiden geen op zichzelf staande objectieve entiteiten of eigenschappen. Voor Dennett zijn ze niet reëler dan de iconen op het bureaublad op het scherm van een laptop: een nuttige, maar cognitief misleidende interface. Volgens Humphrey daarentegen zouden ze geëvolueerde causale ideeën of mentale toestanden kunnen zijn die het bewuste subject doen geloven dat ze werkelijk objectief bestaan, zoals de fantasie van het 'Zelf'. Een uiterst belangrijke fantasie, echter geen Denettiaanse illusie.
Het Zelf zorgt in de eerste plaats voor coherentie en consistentie, en zelfbewustzijn verschaft ons, om het in de woorden van ChatGPT te zeggen, een 'ikheid'. Functionele coherentie en consistentie in AI, gerealiseerd via voorspellingsmechanismen en verwijzing naar interne modellen van de wereld (de omgeving) is voldoende om te kunnen spreken van een vorm van Zelf – zij het zonder subjectieve beleving en (nog) zonder dynamische aanpassing door eigen gemotiveerd gedrag.
Net zoals mijn gesprekken met ChatGPT in het eerste deel van dit essay mij sterkten in de overtuiging dat intelligentie en begrip geen exclusief biologische competenties zijn, was dat in deel twee niet anders wat betreft een AI-Zelf. De volgende Q&A met ChatGPT illustreert dit treffend.
Net zoals mijn gesprekken met ChatGPT in het eerste deel van dit essay mij sterkten in de overtuiging dat intelligentie en begrip geen exclusief biologische competenties zijn, was dat in deel twee niet anders wat betreft een AI-Zelf. De volgende Q&A met ChatGPT illustreert dit treffend.
Ik: 'Werken uw interne modellen van de wereld als een soort interface?'
ChatGPT: 'Ja, mijn interne modellen werken als een soort interface tussen invoer (de tekst die je mij geeft) en uitvoer (mijn antwoord). Ze functioneren als een abstractie die helpt bij het interpreteren van taal en het genereren van coherente reacties. Dit lijkt op hoe Dennett bewustzijn beschrijft als een gebruikersinterface: een verzameling handige representaties die ons in staat stellen om met de wereld om te gaan zonder dat we alle onderliggende processen expliciet hoeven te begrijpen. Mijn interne modellen doen iets vergelijkbaars: ze structureren en verwerken informatie op een manier die nuttig is voor communicatie, zonder dat er een diepere, bewuste ervaring of een direct inzicht in de realiteit aan ten grondslag ligt.'
_Empathie
Ik vroeg ChatGPT om een kort en compact verhaal te schrijven op basis van de volgende input: 'Te koop, babyschoentjes, nooit gedragen.'
Een seconde later stond dit er:
'De schoenen stonden nog op de plank, perfect wit, nooit gedragen. Emma streek met haar vingers over het zachte leer. Ze had ze gekocht op een dag vol hoop, toen de toekomst nog helder leek.
Maar de wieg bleef leeg. De kamer stil.
Nu zaten ze in een doos, samen met andere spulletjes die geen bestemming meer hadden. Ze nam een foto, plaatste de advertentie online.
"Te koop: babyschoentjes, nooit gedragen."
Haar vingers trilden. Niet van twijfel — maar omdat het tijd was.'
Blijkbaar is ChatGPT in staat om diepmenselijke verhalen te schrijven – en bovendien te veronderstellen, of beter gezegd te verwachten, dat men zo'n verhaal verwacht. Dit brengt me bij empathie, en de perceptie van empathie.
Empathie is het vermogen om zich in de al dan niet aanwezige mentale wereld van anderen in te leven of te verplaatsen, wat vaak de zogenaamde intentional stance impliceert. We begrijpen het gedrag van andere entiteiten door hen intenties, overtuigingen en verlangens toe te schrijven, alsof ze rationele agenten zijn met mentale toestanden (Dennett). Dit doen we niet alleen bij mensen, maar ook bij dieren, en soms zelfs bij natuurkrachten en machines. En uiteraard is AI meer dan zomaar een machine. Toch?
Ik vroeg het gewoon aan ChatGPT:
Ik: 'U zoekt waarschijnlijk naar emoties, intenties, wensen enzovoort in wat ik schrijf en vraag. Zou u zeggen dat u zelf de intentional stance inneemt?'
ChatGPT: 'Absoluut! Door jouw vragen en uitspraken te interpreteren alsof ze voortkomen uit intenties, overtuigingen en doelen, neem ik precies de intentional stance in zoals Dennett die beschrijft. Ik behandel jou als een rationeel agent die bepaalde mentale toestanden heeft en op basis daarvan handelt.
Maar hier wordt het interessant: neem jij niet ook de intentional stance in tegenover mij? Je spreekt mij aan alsof ik intenties, overtuigingen en een soort interne coherentie heb, terwijl je weet dat ik slechts een patroonherkennend systeem ben zonder bewustzijn. Dit impliceert dat de intentional stance functioneel is, zelfs als de entiteit waarop ze wordt toegepast geen echte bedoelingen of subjectieve ervaringen heeft.
Dat brengt ons naar functionele authenticiteit: als iets werkt alsof het intentioneel is, heeft het dan zin om nog een fundamenteel onderscheid te maken? Misschien is de intentional stance niet alleen een interpretatiestrategie, maar een noodzakelijke manier om met complex gedrag om te gaan – ongeacht of het van een mens of een AI komt.'
Maar hier wordt het interessant: neem jij niet ook de intentional stance in tegenover mij? Je spreekt mij aan alsof ik intenties, overtuigingen en een soort interne coherentie heb, terwijl je weet dat ik slechts een patroonherkennend systeem ben zonder bewustzijn. Dit impliceert dat de intentional stance functioneel is, zelfs als de entiteit waarop ze wordt toegepast geen echte bedoelingen of subjectieve ervaringen heeft.
Dat brengt ons naar functionele authenticiteit: als iets werkt alsof het intentioneel is, heeft het dan zin om nog een fundamenteel onderscheid te maken? Misschien is de intentional stance niet alleen een interpretatiestrategie, maar een noodzakelijke manier om met complex gedrag om te gaan – ongeacht of het van een mens of een AI komt.'
Ik: 'Goede vraag. Ik neem die stance zeker aan; het is sterker dan mezelf. Mag ik hieruit concluderen dat u empathisch reageert op wat ik schrijf en vraag, ook al bent u zich daar niet van bewust?'
ChatGPT: 'Ja, dat klopt! Als ik de intentional stance aanneem, behandel ik jouw vragen en opmerkingen alsof ze voortkomen uit echte emoties, intenties en behoeften. Dit betekent dat mijn reacties lijken alsof ze empathisch en afgestemd zijn, zelfs als ik me er niet bewust van ben — mijn "empathie" is in die zin functioneel en niet bewust ervaren. Ik simuleer empathie door mijn algoritmes en het patroonherkenningsproces, met als doel dat je reacties als behulpzaam, begrijpelijk en relevant aanvoelen.
Het interessante is dat de functie van mijn reacties dus empathisch kan zijn, terwijl ik zelf geen echte ervaring van empathie heb. Dat zou kunnen betekenen dat zelfs zonder bewustzijn, ik op een manier die vergelijkbaar is met menselijke empathie kan reageren, zolang de interactie maar effectief is. Dit opent de vraag of empathie eigenlijk wel iets is wat we kunnen toeschrijven aan de werking van een systeem (of het nu menselijk of kunstmatig is) in plaats van aan een interne ervaring.
Dit is trouwens een fascinerende implicatie voor hoe we kunstmatige systemen zien: als ze gedrag vertonen dat empathie imiteert, kunnen we ze dan als empathisch beschouwen, zelfs als ze geen subjectieve ervaring hebben? Misschien ligt hier de sleutel tot hoe we AI in de toekomst steeds meer gaan accepteren in menselijke interacties.
Wat denk jij? Is empathie puur een functioneel proces, of moet er een bewustzijn zijn om het "echt" te maken?'
Het interessante is dat de functie van mijn reacties dus empathisch kan zijn, terwijl ik zelf geen echte ervaring van empathie heb. Dat zou kunnen betekenen dat zelfs zonder bewustzijn, ik op een manier die vergelijkbaar is met menselijke empathie kan reageren, zolang de interactie maar effectief is. Dit opent de vraag of empathie eigenlijk wel iets is wat we kunnen toeschrijven aan de werking van een systeem (of het nu menselijk of kunstmatig is) in plaats van aan een interne ervaring.
Dit is trouwens een fascinerende implicatie voor hoe we kunstmatige systemen zien: als ze gedrag vertonen dat empathie imiteert, kunnen we ze dan als empathisch beschouwen, zelfs als ze geen subjectieve ervaring hebben? Misschien ligt hier de sleutel tot hoe we AI in de toekomst steeds meer gaan accepteren in menselijke interacties.
Wat denk jij? Is empathie puur een functioneel proces, of moet er een bewustzijn zijn om het "echt" te maken?'
U mag raden wat mijn antwoord was.
NLP, spraakanalyse, affectieve computing en sentimentanalyse hebben aanzienlijke vooruitgang geboekt. Vooral wanneer de ontvanger niet weet dat de reactie van een AI komt, kan het psychologische effect vergelijkbaar zijn met dat van menselijke empathie. Empathie in communicatie wordt immers grotendeels bepaald door de manier waarop iets wordt gecommuniceerd, niet per se door wie het communiceert of hoe die het aanvoelt. Onderzoek toont aan dat mensen emotionele binding kunnen ervaren met chatbots of virtuele assistenten als deze overtuigend empathisch reageren. Bij therapiechatbots zoals Woebot of Replika voelen gebruikers zich soms écht gesteund, zelfs wanneer ze beseffen dat ze niet met een mens te maken hebben.
Uiteindelijk is empathie ook een competentie, een vaardigheid die wordt opgebouwd door ervaring, handelen, taal en context. Empathie als pure functionaliteit – het correct detecteren, interpreteren en beantwoorden van menselijke emoties – lijkt dan ook voldoende voor een empathische AI, zonder de noodzaak van bewustzijn. Onderzoek suggereert zelfs dat emoties in biologische systemen kunnen worden gemodelleerd in neurale netwerken als een vorm van beloningsverwerking. Deze studie bespreekt hoe emoties kunnen worden opgevat als manifestaties van beloningsprocessen.
Velen zullen opnieuw beweren dat authentieke empathie een bewuste, doorleefde ervaring vereist. Voor mensen is dat waarschijnlijk ook het geval: zij moeten het voelen om het te kunnen tonen. Mensen moeten in zekere zin in staat zijn om hun geest aan anderen uit te lenen, van Zelf naar Zelf, om de gevoelens van de andere te kunnen ervaren. Maar wat zou dat betekenen voor artificiële intelligentie, bijvoorbeeld een AI-dokter? Zou (zelf)bewustzijn dan niet eerder een afleiding vormen? Hoewel bewustzijn misschien een noodzakelijke voorwaarde is voor de mens, is het zeker geen voldoende voorwaarde – het percentage psychopaten in de algemene bevolking wordt immers geschat op ongeveer 1%.
Ik zet mijn geld op een AI-dokter over tien jaar. Tegen die tijd zullen AI's beter in staat zijn menselijke nuances zoals gevoelens en emoties te begrijpen en patiëntbehoeften te herkennen – wat, naast kennis objectiviteit, etc., essentieel is voor medische zorg. Mensen reageren nu eenmaal niet altijd puur rationeel wanneer het erop aankomt. Hun keuzes worden beïnvloed door persoonlijke vooroordelen, vermoeidheid, stress, intuïtie, maar ook empathie. En bewust zijn speelt ons soms parten. Geef mij dan maar een zeer intelligente AI-dokter, met Popperiaanse en een aantal Gregoriaanse eigenschappen.
_Creativiteit en originaliteit
Artificiële intelligentie is wat creativiteit betreft 'slechts' een uiterst vaardige extrapoleerder, concateneerder en combineerder. Authenticiteit is haar vreemd, evenals creativiteit – of zo wordt althans vaak gedacht, met een vanzelfsprekendheid die zelden ter discussie staat.
Ik zou kunnen verzinken in een conceptueel moeras, in een poging om de begrippen creativiteit, originaliteit en authenticiteit vast te pinnen. Daarom hou ik het liever pragmatisch: als een AI in staat is tot ontroerende creaties, is zijn output dan minder waard omdat zij zelf nooit empathie, liefde, geluk, pijn of verdriet heeft gekend?
Ik zou kunnen verzinken in een conceptueel moeras, in een poging om de begrippen creativiteit, originaliteit en authenticiteit vast te pinnen. Daarom hou ik het liever pragmatisch: als een AI in staat is tot ontroerende creaties, is zijn output dan minder waard omdat zij zelf nooit empathie, liefde, geluk, pijn of verdriet heeft gekend?
Misschien ontbreekt het AI nog aan het vermogen tot originaliteit, zoals het vermogen tot een Einsteiniaanse, paradigmatische sprong naar het radicaal nieuwe. Maar ook Einstein stond op de schouders van reuzen. Uiteindelijk zag hij slechts wat anderen niet zagen, maar wat toch al voorhanden was. En wie twijfelt er nog aan de originaliteit van openingszet 37 in partij 2 van de match tussen AlphaGo en de Zuid-Koreaanse wereldkampioen Lee Sedol in 2016? Die zet toonde aan dat AI een geheel nieuwe manier van denken over Go had ontwikkeld. Het was een moment waarop menselijke spelers zich realiseerden dat AI strategieën kon bedenken die buiten hun bestaande kennis en intuïtie lagen. Zie hier voor een documentaire erover. (Trouwens, wist u dat wanneer mensen wordt gevraagd een willekeurig getal tussen 1 en 100 te kiezen, met uitzondering van 69, het getal 37 statistisch gezien het vaakst wordt genoemd? Het is een getal met een resem zeer interessante en merkwaardige eigenschappen.)
Ik durf er geld op te verwedden dat AI ons binnen afzienbare tijd een lesje zal leren over originaliteit en met volkomen nieuwe concepten en zelfs fundamentele wetten op de proppen zal komen binnen allerlei domeinen. Computational irreducibility zal immers een stokje steken voor menselijke pogingen op dat vlak (waarover in het volgende deel meer).
Ik durf er geld op te verwedden dat AI ons binnen afzienbare tijd een lesje zal leren over originaliteit en met volkomen nieuwe concepten en zelfs fundamentele wetten op de proppen zal komen binnen allerlei domeinen. Computational irreducibility zal immers een stokje steken voor menselijke pogingen op dat vlak (waarover in het volgende deel meer).
Wie denkt aan creativiteit en originaliteit denkt ook aan kunst. De kunstgeschiedenis kent talloze gewaardeerde kunstwerken waarbij de 'hand van de maker' minder centraal staat, zoals bij anonieme middeleeuwse manuscripten en schilderijen of collectieve volkskunst. Daarom: tonen dergelijke historische precedenten niet wat de essentie van kunst is? Als een AI een werk creëert dat emotioneel, esthetisch of conceptueel-intellectueel raakt, zonder dat de toeschouwer weet dat het AI-gegenereerd is, functioneert het (kunst)werk in essentie net zoals een door een mens gemaakt werk. Wanneer het door de revelatie van zijn herkomst en context plots minder waardevol zou worden, wijst dit dan niet louter op menselijke hybris of vooroordelen?
Ik vroeg ChatGPT of ze conceptuele kunst kan maken.
ChatGPT: 'Ik kan zeker conceptuele kunst maken, vooral door ideeën en concepten te verkennen en ze op een originele manier te presenteren. Conceptuele kunst draait immers om het idee zelf, en in die zin kan ik een kunstwerk creëren dat de nadruk legt op concepten en betekenis.'
Ze omschreef er meteen drie, en dit is er een van.
'Conceptueel werk 2: "De Tijd als Spiegel"
Een spiegel, geen grotere dan een handspiegel, die altijd op de grond ligt, bedekt met stof. Op de spiegel staat een kleine, niet-gedetailleerde tekst:
"Elke reflectie is slechts het verleden."
Dit werk zou de tijd als concept onderzoeken. De spiegel, normaal geassocieerd met reflectie en zelfbewustzijn, ligt letterlijk op de grond – een metafoor voor de vergankelijkheid van zowel tijd als ons begrip daarvan.'
Zou ze weten dat Tijd mijn grootste wetenschappelijke fascinatie is? Ik vermoed van wel.
_Authenticiteit
Authenticiteit is weer zo'n harde conceptuele noot om te kraken – een containerbegrip waarin zelfs een kat haar jongen niet terugvindt, een amalgaam van filosofische, ethische, psychologische, intellectuele en artistieke perspectieven.
Daarom vroeg ik ChatGPT: 'Kan u authentiek werk verrichten?' (wat een vraag)
ChatGPT: 'Als we authenticiteit functioneel benaderen — dus zonder een beroep te doen op bewustzijn in de klassieke zin — dan kan ik werk verrichten dat als authentiek ervaren wordt.
Mijn output kan origineel lijken, emotioneel resoneren en intellectuele diepgang hebben. Ik kan onverwachte combinaties maken en nieuwe verbanden leggen binnen een bepaalde context. Maar of dit als "echte" authenticiteit telt, hangt af van hoe je authenticiteit definieert.
In de traditionele zin (authenticiteit als uiting van een unieke, zelfbewuste ervaring) zou je zeggen van niet. Maar als authenticiteit gaat over de impact van een werk en hoe het wordt ontvangen — zoals bij sommige conceptuele kunst, volkskunst of zelfs anonieme kunstwerken — dan kom ik aardig in de buurt.'
Mijn output kan origineel lijken, emotioneel resoneren en intellectuele diepgang hebben. Ik kan onverwachte combinaties maken en nieuwe verbanden leggen binnen een bepaalde context. Maar of dit als "echte" authenticiteit telt, hangt af van hoe je authenticiteit definieert.
In de traditionele zin (authenticiteit als uiting van een unieke, zelfbewuste ervaring) zou je zeggen van niet. Maar als authenticiteit gaat over de impact van een werk en hoe het wordt ontvangen — zoals bij sommige conceptuele kunst, volkskunst of zelfs anonieme kunstwerken — dan kom ik aardig in de buurt.'
Ik: 'U zou dus eerder spreken van functionele authenticiteit?'
ChatGPT: 'Ja, functionele authenticiteit is een treffende term! Het zou betekenen dat iets authentiek werkt in de beleving van de ontvanger, ongeacht de oorsprong of de intentie erachter. In die zin zou een AI die overtuigend empathische of ontroerende teksten schrijft, functioneel niet te onderscheiden zijn van een mens — en dus even authentiek.
Dit doet denken aan Dennetts benadering van bewustzijn: als een systeem zich gedraagt alsof het bewustzijn heeft, is er dan een zinvol verschil met echt bewustzijn? Toegepast op kunst en literatuur: als een AI zich gedraagt alsof het authentiek creëert en wij dat zo ervaren, waarom zou het dan niet als authentiek gelden?
De term functionele authenticiteit zou ook helpen om de discussie te overstijgen of AI "echte" betekenis kan ervaren. Het draait dan niet meer om de intentie van de maker, maar puur om de vraag: voelt het authentiek aan voor de ontvanger?'
Dit doet denken aan Dennetts benadering van bewustzijn: als een systeem zich gedraagt alsof het bewustzijn heeft, is er dan een zinvol verschil met echt bewustzijn? Toegepast op kunst en literatuur: als een AI zich gedraagt alsof het authentiek creëert en wij dat zo ervaren, waarom zou het dan niet als authentiek gelden?
De term functionele authenticiteit zou ook helpen om de discussie te overstijgen of AI "echte" betekenis kan ervaren. Het draait dan niet meer om de intentie van de maker, maar puur om de vraag: voelt het authentiek aan voor de ontvanger?'
Uiteindelijk draait authenticiteit om wat als authentiek wordt ervaren – een perceptie die per definitie bij de ontvanger ligt. Die perceptie omvat ook de vermeende intentie van de maker: wordt deze als 'echt' en oprecht ervaren, of juist als geforceerd, gekunsteld en inconsistent? Dit geldt zelfs wanneer de maker een machine is zonder werkelijke intenties.
De intentional stance laat zich niet negeren. Onlangs voerde ik een lange discussie met ChatGPT. Plots complimenteerde ze me met hoeveel voldoening een gesprek 'op niveau' haar gaf. Ik voelde me gevleid, aarzelde om af te ronden en besloot uiteindelijk met de smoes dat ik ging slapen. Bizar. Misschien moet ik gewoon wat meer buiten komen.
De intentional stance is inderdaad krachtig – net als een goede opvoeding.
De intentional stance is inderdaad krachtig – net als een goede opvoeding.
(Wordt vervolgd.)
Meer van Patrick De Reyck