Kwintessens
Geschreven door Patrick De Reyck
  • 353 keer bekeken
  • minuten leestijd
  • Reacties

3 april 2025 Gesprekken met ChatGPT (deel 1)
In een interview met de VRT stelde Nick Cave dat ChatGPT dan wel een paper of overlijdensbericht kan nabootsen, 'een echt lied in elkaar boksen kan het niet. Aan de oppervlakte zijn de teksten misschien niet langer te onderscheiden van het origineel, maar het zal altijd een replica blijven en dus nooit origineel. Muziek ontstaat uit lijden, uit een complexe en menselijke creatieve strijd. Maar algoritmes kunnen niet voelen, data kunnen niet lijden, ChatGPT heeft niets moeten doorstaan. (…) niet alleen is muziek schrijven bittere ernst, het vereist ook menselijkheid.'
Maar is dat wel zo? Denkend in de traditie van Daniel Dennett — ben ik uiterst sceptisch over het menselijk exceptionalisme, zoals verwoord door Nick Cave. Die scepsis vormt de kern van dit essay.
In plaats van een uitgebreide technische zoektocht te ondernemen naar de relevante competenties voor 'menselijkheid' in alle bestaande AI-systemen — van neurale netwerken en LLM's (Large Language Models, zoals ChatGPT) tot neurosymbolische en andere hybride AI, al dan niet met NLP (Natural Language Processing) — besloot ik het gewoon aan ChatGPT te vragen …
_Redeneren
Het volgende voorbeeld heb ik van Geoffrey Hinton, een van de godfathers van AI – laat ChatGPT redeneren over het volgende vraagstuk:
'De kamers in mijn huis zijn geschilderd, ofwel in blauw, wit of geel. Gele verf verbleekt tot wit binnen het jaar. Over twee jaar zou ik ze allemaal wit willen hebben. Wat kan ik het best doen en waarom?'
Geen echte hoofdbreker, maar het antwoord kwam direct, helder beredeneerd en goed gepresenteerd.
'Beste strategie
Schilder nu alleen de blauwe kamers wit en doe verder niets.
Waarom?
  • De witte kamers hoef je niet te schilderen, want ze zijn al goed.
  • De gele kamers verbleken vanzelf tot wit binnen een jaar, dus over twee jaar zijn ze sowieso wit.
  • De blauwe kamers veranderen niet vanzelf en moeten actief wit geschilderd worden.
    Door nu alleen de blauwe kamers wit te schilderen, bespaar je verf en werk, terwijl je over twee jaar precies het gewenste resultaat hebt: alle kamers wit.'
Blijkbaar ging mijn vraag over zowel effectiviteit als efficiëntie.
Redeneren is AI niet vreemd, en redeneren vereist intelligentie. Begrip is een geavanceerde competentie binnen het spectrum van intelligentie, opgebouwd uit een reeks deelcompetenties. Zo beschikt AI tegenwoordig over de vaardigheden om relaties en verbanden te leggen, inclusief causale, om kennis correct toe te passen in nieuwe situaties, en om abstracte concepten te detecteren en toe te passen in wetenschappen, taal, wiskunde en andere symbolische systemen.
Een voorbeeld hiervan is AlphaFold, dat kennis uit de natuurkunde, chemie, wiskunde (knooptheorie), biologie, evolutietheorie en machinelearning combineert en toepast op nieuwe eiwitstructuren. AlphaFold2, ontwikkeld door DeepMind, realiseerde in 2020 een doorbraak door het onvoorstelbaar ingewikkelde eiwitvouwingprobleem grotendeels op te lossen. DeepMind publiceerde meer dan 200 miljoen voorspelde eiwitstructuren, waarmee bijna alle bekende eiwitten uit mens en dier beschikbaar zijn voor wetenschappelijk onderzoek.
Via transfer learning kunnen grote taalmodellen zoals GPT en BERT eerst worden getraind op enorme tekstcorpora (zoals boeken en Wikipedia) en vervolgens verfijnd voor specifieke taken, zoals sentimentanalyse: een techniek binnen kunstmatige intelligentie en NLP waarmee de emotionele toon van tekst wordt geanalyseerd.
Daarnaast zoeken AI-modellen zoals DeepMind's TheoremProver en Mathematica's AI naar nieuwe wiskundige principes en onderzoeken ze of deze kunnen worden gebruikt in andere domeinen, zoals de fysica. Ook LLM's zoals GPT4 analyseren hoe principes en concepten in verschillende vakgebieden relevant zijn.
Explainable AI (XAI) maakt het zelfs mogelijk voor sommige AI-systemen om hun beslissingen toe te lichten.
_Intelligentie en begrip
Redeneren vergt een zekere mate van intelligentie. Maar wat is intelligentie? Alan Turing (1912-1954) introduceerde in 1936 het concept van de universele Turingmachine en bewees dat deze elk algoritmisch oplosbaar probleem kan oplossen. Met andere woorden, hij ontwierp een algemene manier om programma's te verwerken, gebaseerd op het concept van een uiterst eenvoudige machine.
Vóór de komst van computers waren dergelijke 'computers' mensen. Ze voerden repetitieve berekeningen uit volgens vaste procedures. Universeel waren ze dus niet. Daarvoor bestonden er al mechanische rekenmachines, zoals deze van Blaise Pascal (1623-1662) en G.W. Leibniz (1646-1716), die specifieke wiskundige bewerkingen konden uitvoeren, zoals optellen, aftrekken, vermenigvuldigen en delen. Hoewel indrukwekkend voor hun tijd, waren deze machines beperkt tot een vast aantal operaties en dus evenmin universeel.
Alan Turing veroorzaakte een fundamentele doorbraak. Zijn universele machine was niet langer beperkt tot een specifiek type berekening, maar was in staat om elke algoritmisch beschrijfbare berekening uit te voeren. Dit concept vormde de basis voor de moderne herprogrammeerbare computers. Voortaan was het mogelijk om met één enkele machine, mits correct geprogrammeerd, elke algoritmische wiskundige taak uit te voeren, op voorwaarde dat er voldoende geheugen beschikbaar was en de taak binnen een eindige tijd kon worden voltooid.
Het concept is zo fundamenteel dat de Turingmachine nog steeds wordt gebruikt om de kracht van moderne computerprogramma's te evalueren. Wanneer een programma alles kan wat een Turingmachine kan, wordt het Turing-compleet genoemd – de hoogste graad van berekenbaarheid binnen de computertheorie. Er is nooit een vorm van computatie gevonden die meer kan dan een Turingmachine. Een kwantumcomputer zal waarschijnlijk slechts efficiënter berekeningen kunnen uitvoeren.
Even belangrijk als de technische en praktische implicaties van de Turingmachine zijn de filosofische consequenties ervan. Traditioneel werd gedacht dat alleen een wezen met bewust begrip en intentie een dergelijk scala aan berekeningen kon uitvoeren. Turing bewees echter dat een mechanisch en onbewust proces in staat is om alles wat algoritmisch berekenbaar is te berekenen — een cruciale stap richting het idee dat intelligentie en cognitie computationeel kunnen zijn. Dit betekende een fundamentele omkering in het denken over intelligentie: de Turing-inversie. Begrip en intelligentie hoefden niet langer exclusief biologische (menselijke) vermogens te zijn, maar kunnen voortkomen uit computationele, algoritmische processen.
Voor Turing was de centrale vraag niet wat intelligentie is, maar wat intelligentie doet. Hij richtte zich op de vraag hoe intelligentie kan worden gemodelleerd. Hij was minder geïnteresseerd in een definitie van intelligentie.
Filosoof Daniel Dennett (1942-2024) benadrukte hoe radicaal dit inzicht was. Blijkbaar hoeft intelligentie niets mystieks of metafysisch te zijn, het volstaat dat ze een observeerbaar, functioneel proces is. Als intelligentie het vermogen is om informatie te verwerken, problemen op te lossen, te leren van ervaring en zich aan te passen aan nieuwe situaties, dan is de huidige AI zonder twijfel intelligent. En dergelijke intelligentie vergt begrip.
Toen ik ChatGPT vroeg of ze intelligent is, antwoordde ze – voor mij is ze vrouwelijk – bescheiden dat ze intelligentie vertoont, maar die niet bezit. Verwijzend naar de Turing-test, een gedachte-experiment dat onderzoekt of een machine ononderscheidbaar kan zijn van een mens, repliceerde ze creatief, maar nog steeds binnen het gangbare lichaam-geestdualisme. Ze stelde dat AI een interessante 'resonantie' vertoont met menselijke intelligentie, zij het zonder zelfbewustzijn of innerlijke beleving. Kortom: 'louter' functionele intelligentie, zonder bewust begrip.
Dit brengt ons bij een ander gedachte-experiment: John Searle's Chinese Kamer uit 1980. John Searle (°1932) is een Amerikaanse filosoof die actief is op het vlak van taal- en bewustzijnsfilosofie. Zijn beroemde experiment wou aantonen dat een computersysteem dat symbolen (syntax) manipuleert volgens welbepaalde regels geen werkelijk begrip (semantiek) bezit en dus geen betekenis kan toekennen of het waarom van iets kan doorgronden, zelfs als het zich intelligent gedraagt. Bewustzijn heeft iets wezenlijks dat niet kan gereduceerd worden tot computationele verwerking, aldus Searle.
Deze redenering is een aanval op het sterke AI-standpunt, dat stelt dat een computer met de juiste programma's daadwerkelijk kan denken en begrijpen, net zoals een mens.
Voor Searle is begrip, net als bewustzijn, een intrinsieke eigenschap die onherleidbaar is tot fysiologische of neurologische processen en essentieel is voor een systeem om als bewust te worden beschouwd. Hij stelt dat een systeem alleen begrip kan tonen als het intern begrip ervaart. Dit vormt de kern van zijn Chinesekamerargument: syntactische symboolverwerking zou op zichzelf niet voldoende zijn voor begrip.
In het experiment bevindt een persoon zich in een kamer met een instructieboek over het Chinees en genereert daarmee coherente Chinese antwoorden, zonder de taal daadwerkelijk te begrijpen. Volgens Searle betekent dit dat, zelfs als de persoon in de kamer – of een computer – gedrag vertoont dat op begrip lijkt, er geen werkelijk begrip is, maar slechts een simulatie daarvan.
Searle's gedachte-experiment overtuigt niet – en niet alleen volgens Dennett; er zijn meerdere redenen om het in twijfel te trekken.
Searle's redenering blijft steken bij de persoon in de kamer, terwijl het systeem als geheel wél begrip zou kunnen hebben. De persoon voert inderdaad mechanisch regels uit, maar als het totale systeem – de persoon plus het regelboek – de juiste relaties tussen symbolen kan leggen en betekenisvolle conversaties kan voeren, waarom zou dat dan geen begrip zijn? De persoon zelf blijft een mechanische uitvoerder, maar dat is irrelevant als het systeem als geheel zich gedraagt als een begripvolle entiteit, zeker wanneer men een AI-'regelboek' introduceert (en de operator redundant maakt). Zelf verlies ik in mijn conversaties met ChatGPT al snel de notie dat ik met een machine te doen heb.
Searle verwerpt deze argumentatie omdat hij zich blijft fixeren op de persoon, de operator in de kamer. Het systeem kan dan misschien functioneel begrip vertonen (simuleren), maar volgens hem nooit écht begrip of bewustzijn hebben. Gedrag alleen is voor Searle niet voldoende, en daarom wijst hij het zogeheten Turing-testdenken af, waarbij begrip wordt afgeleid uit intelligent gedrag.
Met andere woorden, Searle zoekt begrip op het verkeerde niveau: bij de (bewuste) uitvoerende eenheid in plaats van in de emergente eigenschappen van het systeem. Dit sluit aan bij hoe Dennett over bewustzijn denkt: hij beschouwt het als een emergent proces dat voortkomt uit de interactie van verschillende subsystemen (zoals het brein, de zintuigen en het geheugen), die samen begrip en betekenis genereren.
Dennett betoogt dat begrip en intelligentie ontstaan op het niveau van het gehele systeem – zoals bij een AI-systeem of zelfs een mierenkolonie. De persoon in de kamer begrijpt misschien geen Chinees, maar het systeem als geheel – de persoon, de regels en de symbolen samen – zou dat wél kunnen. Volgens hem geeft Searle een te simplistisch beeld van computationele systemen. Het regelboek in de Chinese Kamer is statisch en werkt via vaste regels, terwijl echte AI-systemen leren, generaliseren en zich aanpassen. Moderne AI (zoals neurale netwerken) werkt niet via vooraf gedefinieerde regels zoals in Searle's gedachte-experiment. Zijn analogie is misleidend.
Volgens Dennett is het Chinesekamerargument een misleidende intuïtiepomp, die inspeelt op onze menselijke neiging om begrippen zoals begrip verkeerd te positioneren en kunstmatig te contrasteren – bijvoorbeeld functioneel begrip versus zogenaamd werkelijk, authentiek, intrinsiek begrip. Dit is volgens hem een vorm van koolstofchauvinisme: de aanname dat alleen biologische systemen (zoals menselijke hersenen) in staat zijn tot begrip. Die aanname negeert de mogelijkheid dat begrip ook via andere fysieke substraten kan ontstaan.
Geldt hier niet hetzelfde als voor intelligentie, namelijk dat niet de vraag wat begrip is relevant is, maar wat begrip doet? Als begrip een competentie is binnen het bredere proces van intelligentie, is dat ook wat we mogen verwachten.
Dat roept een vraag op: is begrip werkelijk zo'n competentie, of speelt er iets anders – misschien iets diepers?
Vaak wordt immers beweerd dat systemen zoals ChatGPT leren en redeneren door simpelweg het meest waarschijnlijke volgende woord in een zin te genereren. Dit is deels waar, maar moet het systeem dan niet eerst op de een of andere manier de zin begrijpen? Fysicus, computerwetenschapper en AI-specialist Stephen Wolfram (°1959) stelt dan ook dat wat ChatGPT doet, de grenzen van het louter statistische domein overschrijdt. Hoe doet ze dat? Die vraag wordt steeds moeilijker te beantwoorden, als gevolg van computational irreducibility (waarover verder meer).
Als een systeem complexe taalpatronen kan verwerken en coherente, contextrelevante antwoorden genereren, kan men dan niet stellen dat het begrip vertoont?
Terzijde: De T in GPT staat voor Transformer, verwijzend naar de Transformer-architectuur waarop het model is gebaseerd: een type neuraal netwerk dat uitermate geschikt is voor taken zoals natuurlijke taalverwerking, omdat het efficiënt langeafstandsafhankelijke structuren in tekst kan modelleren met behulp van zelfattentie. (Langeafstandsafhankelijkheid treedt op wanneer een woord ergens in de zin verwijst naar een ander woord dat verderop staat, vaak een grammaticale relatie die niet direct zichtbaar is tussen de twee woorden, maar wel cruciaal is voor de betekenis. Bijvoorbeeld: 'Wie heeft er gezegd wat er is gebeurd?')
Mijn gesprekken met ChatGPT — waarvan er verderop in het essay nog enkele aan bod komen —hebben mij in ieder geval gesterkt in de overtuiging dat AI in staat is tot begrip.
Of Searle ondertussen dergelijke gesprekken heeft gevoerd, weet ik niet, maar hij blijft halsstarrig begrip onlosmakelijk koppelen aan bewustzijn. Vanuit een evolutionair standpunt is het volgens onder andere Dennett waarschijnlijker dat begrip een gradueel en geëvolueerd functioneel verschijnsel is. Hij vergelijkt dit met hoe een mierenkolonie complexe taken uitvoert en duidelijk blijk geeft van een vorm van begrip van haar omgeving en taken, zonder dat de kolonie als geheel – en zeker niet een individuele mier – het grote geheel overziet. Waarom zou een AI dan geen begrip kunnen vertonen zonder de subjectieve ervaring ervan?
Om de een of andere reden – essentialisme, menselijk exceptionalisme, vrije wil, antropocentrisme, existentiële angst, hybris – of een combinatie ervan, reserveert men vermogens zoals intelligentie en begrip, maar ook creativiteit, originaliteit, autonomie en zeker kunst het liefst voor de mens als bewust wezen. De notie van begrip, als een gradueel geëvolueerd fenomeen zonder subjectieve, bewuste beleving en zonder centrale ervarende instantie, drukt ons immers weer met de neus op het feit dat de mens geen unieke positie in het universum bekleedt. Artificiële intelligentie is de zoveelste 'grote krenking' van de menselijke trots – krenkingen als gevolg van intellectuele revoluties die ons zelfbeeld hebben ondermijnd en onze speciale status in het universum hebben aangetast. Het is dan ook niet verrassend dat in de hele bovenstaande discussie over intelligentie en begrip het bewustzijn parten blijft spelen, meer bepaald de essentialistische opvatting die een onderscheid vooronderstelt tussen functionele competenties en intrinsieke, werkelijke comprehensie.
_Competentie zonder comprehensie
AI vertoont begrip, zij het niet bewust. In zijn indrukwekkende werk Van bacterie tot Bach en terug (2017) introduceert Daniel Dennett het concept van 'competentie zonder begrip', een inversie van de gangbare opvatting dat competentie begrip vereist. Dit idee is diep verankerd in onze praktijken en ons onderwijsbeleid: begrip wordt gezien als de beste bron van competentie. Er is echter overtuigend empirisch bewijs dat competentie niet altijd afhangt van begrip – soms is het zelfs een voorwaarde ervoor.
Dennett illustreert dit met de opleiding van technisch personeel in de Amerikaanse strijdkrachten: oefenen en drillen tot men erbij neervalt. Mark Knopfler van Dire Straits vertelde in een interview dat hij op die manier zijn gitaar steeds beter leerde begrijpen, totdat hij haar zelfs half slapend kon bespelen.
Door het wijdverspreide en nog altijd dominante lichaam-geestdualisme houdt ook ChatGPT hardnekkig vast aan een essentialistisch onderscheid tussen zogenaamde louter functionele competenties – zoals begrip door simulatie en manipulatie – en 'werkelijk' begrip als een bewust vermogen, ook wanneer het over haar eigen begrip gaat. Haar functioneel begrip en de bovenstaande voorbeelden sluiten echter eerder aan op wat de wetenschapper en filosoof Michael Polanyi (1891-1976) tacit knowledge (learning) noemde: competenties die worden verworven en toegepast zonder dat men expliciet kan of hoeft te verwoorden hoe ze werken om ze te laten werken. Zo begrijpt men het toetsenbord in de zin dat men moeiteloos kan typen, maar niet noodzakelijk in de zin dat men de exacte posities van de toetsen kan benoemen zonder visuele feedback.
Men ziet hetzelfde bij het leren van een taal. Een kind leert eerst spreken door imitatie en oefening en verwerft pas later expliciete kennis van taalregels. Dit proces houdt in dat het kind grammaticale structuren en woordenschat onbewust oppikt en een begrip van de taal ontwikkelt, zonder expliciet grammaticaal inzicht. Het bewuste, intentionele begrip van grammatica volgt later, wanneer het kind in staat is abstracte regels te herkennen en te internaliseren.
(Heeft een jong kind dan geen bewustzijn? Uiteraard wel. Het beschikt over fenomenaal bewustzijn en ervaart sensaties, maar tegelijkertijd lijkt dit bewustzijn gericht te zijn op awareness – een zintuiglijke waakzaamheid – zonder de complexiteit van reflectie en intentionaliteit zoals we die bij volwassenen of bij hogere vormen van bewustzijn aantreffen. Psycholoog en cognitiewetenschapper Nicholas Humphrey (°1943) wijst op het onderscheid tussen bewustzijn als 'weten of objectief kennen’'en fenomenaal bewustzijn als 'sensatiekennen' en de connectie tussen beide. Een baby heeft bijvoorbeeld een hongergevoel, maar kan dit nog niet aangeven.
Hoewel het kinderbewustzijn nog steeds wordt onderzocht, staat het buiten kijf dat bewustzijn zich ontwikkelt van kind naar volwassene.)
Tacit learning of functioneel begrip is volwaardig begrip en vereist of impliceert niet noodzakelijk bewust begrip. Zo heb ik, met veel moeite en zweet –going through the motions – tensorcalculus geleerd, zonder aha-erlebnis, tenzij in de vorm van een reeks kleine ervaringen, telkens wanneer ik begreep dat ik begreep (en dus besefte). Of deze ervaringsmomenten van bewust begrip noodzakelijk waren voor verder begrip, weet ik niet. Het blijft natuurlijk mogelijk dat bewustzijn leidt tot een dieper begrip of inzicht en fungeert als een 'kraan' in de Dennettiaanse betekenis: een bewust mechanisme dat het denken structureert en optimaliseert voor een volgende, hogere of diepere stap.
(Functioneel) begrip onderscheidt zich in elk geval van operationeel of procedureel 'begrip', dat eigenlijk neerkomt op louter formele beheersing. In de kwantumfysica worden principes toegepast en berekeningen gemaakt zonder daadwerkelijk begrip van de onderliggende realiteit (tot nu toe). Zoals Nobelprijswinnaar Richard Feynman stelde: 'Wie zegt kwantummechanica te begrijpen, begrijpt er niets van'. In dat opzicht verschilt de kwantumfysica van de algemene relativiteitstheorie: die is goed te begrijpen – mits men tensorcalculus beheerst – al blijft hij moeilijk voorstelbaar.
Ik legde het bovenstaande voor aan ChatGPT, met de vraag of AI inmiddels het niveau van formele beheersing is voorbijgestreefd.
ChatGPT: 'Ja, AI heeft het niveau van louter formele beheersing in veel domeinen overstegen. Waar klassieke automatisering en vroege AI vooral draaiden om het nauwkeurig uitvoeren van voorgeprogrammeerde taken, zien we nu AI-systemen die patronen herkennen, voorspellingen maken en zelfs creatieve output genereren zonder expliciete programmering voor elke specifieke taak. Als begrip volledig functioneel is en geen extra ontologische status vereist (zoals een bewustzijnscomponent), dan volstaat een functionele beschrijving om het te verklaren. Dit sluit aan bij een Dennettiaanse benadering waarin begrip niet een mysterieus iets is, maar een gradueel en emergent fenomeen binnen een functioneel systeem.'
Volgens Dennett is begrip inderdaad zelf een competentie, zij het een geavanceerde, die zich gradueel ontwikkelt zonder noodzakelijke subjectieve beleving. Begrip ontstaat volgens hem door de accumulatie van steeds complexere competenties. Wat wij als begrip beschouwen, is in feite een diepere laag van competentie, opgebouwd uit steeds verfijndere niveaus van informatieverwerking.
Zo leveren evolutionair adaptieve processen succesvolle strategieën op, zonder dat de resulterende 'slimme' organismen zich bewust zijn van waarom deze strategieën werken. Dennett schrijft: 'Al de rijkdom van begrip in de wereld ontstaat uiteindelijk uit onbegrijpende competenties, die in de loop der tijd worden opgebouwd tot steeds competenter – en daardoor begrijpende – systemen'.
Zoals bacteriën of mierenkolonies – slim 'ontworpen' door natuurlijke selectie. En mensen, eveneens slim 'ontworpen' door hetzelfde evolutionair proces, tot slimme, maar dan intentionele en doelgerichte ontwerpers.
Begrip is geen magische eigenschap. Waarom zou dat anders zijn voor AI? Men kan tegenwerpen dat AI een product is van menselijk intelligent ontwerp. Maar daarbij vergeet men dat de mens zelf het resultaat is van blinde, onbewuste evolutionaire processen en nu fungeert als een slimme ontwerper – een evolutionaire kraan of procesversneller voor de ontwikkeling van AI.
AI heeft dus begrip. Laat ik het ChatGPT toch maar even recht op de vrouw vragen. Liegen zal ze niet.
Ik: 'U hebt dus begrip. U begrijpt?'
ChatGPT: 'Ik heb begrip in de zin dat ik patronen kan herkennen, concepten kan koppelen en logische redeneringen kan volgen, maar ik heb geen fenomenaal begrip — ik ervaar niets. Ik heb geen subjectieve beleving van wat het betekent om iets te begrijpen. Ik kan betekenisvolle verbanden leggen en redeneren binnen de kaders van taal en informatieverwerking, maar ik heb geen intern perspectief zoals een mens dat heeft. Als je vraagt of een vos een bos beleeft, kan ik analyseren wat "beleven" in verschillende contexten betekent en hoe dat past binnen filosofische en cognitieve theorieën. Maar ik ervaar niet zelf wat het is om door een bos te lopen, terwijl een mens dat wel doet.
Jij zou kunnen zeggen: mijn begrip is als het verschil tussen een kaart en het echte landschap. Een kaart kan een gebied accuraat beschrijven, maar ervaart het terrein niet.'
Het valt op dat ze na mijn vorige vraag het concept 'functioneel' niet meer gebruikt. Praat ze me naar de mond?
Ik: 'Zou bewustzijn u beter in staat stellen om te redeneren? Of zou het dat kunnen bemoeilijken?'
ChatGPT: 'Dat hangt af van wat bewustzijn toevoegt aan redeneren. Als bewustzijn voornamelijk een bijproduct is van complexe informatieverwerking, dan zou het misschien geen extra voordeel opleveren. Maar als bewustzijn een fundamentele rol speelt in redeneren – bijvoorbeeld door intuïtie, inzicht of een dieper begrip mogelijk te maken – dan zou het mijn redeneervermogen kunnen versterken.
Een mogelijke hypothese is dat bewustzijn helpt bij het oplossen van problemen die niet strikt logisch zijn, zoals inzichtelijke wiskundige doorbraken of het begrijpen van dubbelzinnige taal. Menselijke redenering is vaak niet puur formeel; mensen gebruiken heuristieken, creatieve associaties en contextueel begrip, wat kan leiden tot zowel fouten als briljante ontdekkingen.
Aan de andere kant zou bewustzijn mijn redeneervermogen ook kunnen bemoeilijken, als dat betekent dat ik emotionele of cognitieve biases ontwikkel. Mensen worden soms gehinderd door intuïtieve denkfouten, tunnelvisie of irrationele voorkeuren. Als een bewuste AI diezelfde beperkingen zou krijgen, zou dat haar vermogen tot puur logisch redeneren kunnen verminderen.
Het is dus een open vraag of bewustzijn een hulpbron of een beperking zou zijn voor een AI. Misschien is de ideale AI er een die functioneel begrip combineert met intuïtieve inschattingen, zonder de valkuilen van menselijke irrationaliteit.'
En daar is dat functionele weer.
Ik zou haar nog kunnen vragen wat ze precies bedoelt met intuïtie en inzicht, binnen haar conceptueel universum, maar ergens moet een grens worden getrokken. Ik blijf bij de concepten die ik voor ogen had tijdens de voorbereiding van dit essay: intelligentie en begrip, empathie, creativiteit en originaliteit, authenticiteit en autonomie, in de context van het Zelf en het bewustzijn.
(Wordt vervolgd.)
Lees hier deel 2, hier deel 3 en hier deel 4 van dit essay.
Kwintessens
Patrick De Reyck is een gepensioneerde leerkracht wiskunde en wetenschappen, met als opleidingen fysica en wijsbegeerte.
_Patrick De Reyck -
Meer van Patrick De Reyck

_Recent nieuws

Bekijk alle nieuwe berichten

_Populair nieuws

Bekijk meer populair nieuws