Kwintessens
Geschreven door Patrick De Reyck
  • 241 keer bekeken
  • minuten leestijd
  • Reacties

8 april 2025 Gesprekken met ChatGPT (deel 4)
In deel 3 van dit essay werden gekoesterde menselijke vermogens besproken: empathie, creativiteit, originaliteit, authenticiteit en natuurlijk kunst. Na verschillende gesprekken met ChatGPT, waarvan sommige in de tekst zijn verwerkt, ben ik van mening dat deze vermogens binnen de mogelijkheden van AI liggen. Dit verraste me niet echt. Wat me echter wel verbaasde, was het groeiende besef dat sommige competenties, zoals empathie, mogelijk beter functioneren zonder bewustzijn – weliswaar een vereiste voor menselijke empathie – en dus louter als functionele competenties.
In een van haar antwoorden kwam ChatGPT eveneens met een intrigerende vraag: 'Als een systeem zich gedraagt alsof het bewustzijn heeft, is er dan een zinvol verschil met echt bewustzijn?'
Autonomie misschien?
_De p-zombie
De bovenstaande vraag voerde me meteen terug naar mijn studententijd en naar een concept dat al jaren lag te verstoffen in mijn bovenkamer: de philosophical zombie (p-zombie). Destijds was het de inzet van een vurig filosofisch debat en het onderwerp van gemoedelijke discussies met medestudenten en professoren – voornamelijk gevoerd op café. (Gebeurt dat nog?) Dit debat over bewustzijn en materialisme leeft nog steeds in de filosofische wereld, en met nog meer vuur sinds de doorbraak van artificiële intelligentie.
Het idee dat AI zich louter door simulatie gedraagt als een mens – de nog altijd gangbare opvatting – vormt de kern van het filosofische-zombieargument, een van de gedachte-experimenten die gericht waren tegen het reductionistisch fysicalisme, dat stelt dat alle aspecten van de menselijke natuur gereduceerd kunnen worden tot fysieke processen, in dit geval neurobiologische en fysiologische. Dit gedachte-experiment, geformuleerd door de Australische filosoof David Chalmers (°1966) richt zich op het bewustzijn.
Volgens Chalmers kunnen we ons een wezen voorstellen dat zich exact gedraagt als een mens – met spraak, emoties en gedragingen – maar innerlijk volledig leeg is, zonder enige bewuste ervaring: de philosophical zombie. Voor Chalmers toont de logische mogelijkheid van zo'n wezen aan dat bewustzijn niet gereduceerd kan worden tot louter fysische processen. Hij stelt dat men zich op coherente wijze een complete zombiewereld kan voorstellen – een wereld die fysiek niet te onderscheiden is van de onze, maar volledig verstoken is van bewuste ervaring. Aangezien zo'n wereld denkbaar is, zo redeneert Chalmers, is ze ook metafysisch mogelijk. Volgens hem moet er dus iets meer aan de hand zijn met bewustzijn, iets mysterieus en metafysisch emergents (harde emergentie en substantiedualisme). The Hard Problem en The Explanatory Gap waren geboren. Die laatste is gebaseerd op de claim dat tot op heden niemand een overtuigende causale verklaring heeft kunnen geven voor hoe en waarom wij bewustzijn bezitten.
Niet alle filosofen vinden het een geldig argument tegen het fysicalisme. Onder andere de Britse filosoof Galen Strawson (°1952) en Daniel Dennett verwierpen het. Volgens Dennett is het de zoveelste opflakkering van wat hij de cartesiaanse wonde noemde: het intuïtieve, maar misleidende idee dat men nog steeds een soort ziel, geest of homunculus in het brein veronderstelt. Een soort innerlijke waarnemer die zich in een mentale theaterzaal bevindt, waar alle bewuste ervaringen worden gepresenteerd: het cartesiaans theater. Deze cognitieve adaptatie helpt waarschijnlijk bij sociale interactie, planning en overlevingsstrategieën. Denk aan onze morele instincten, en de illusie (fantasie?) van vrije wil (hard determinisme) die ongemeen krachtig en waarschijnlijk functioneel is. (Dennett was een determinist, maar een compatibilist wat vrije wil betreft. Geen hard determinisme voor hem.) Dit impliceert echter een centrale plaats in de hersenen waar alles samenkomt en wordt geïnterpreteerd. Aangezien deze innerlijke waarnemer op zijn beurt ook weer bewustzijn zou moeten hebben, leidt dit tot een oneindige regressie, wat het metafysisch problematisch maakt. Zelfs materialisten zijn niet immuun voor deze cognitieve besmetting, veroorzaakt door het lichaam-geestdualisme.
Het genoemde interfacemodel impliceert echter dat de wereld zoals wij die ervaren geen directe weergave is van een externe realiteit, maar eerder een bruikbare representatie die voortkomt uit de competitie tussen verschillende cognitieve processen in de hersenen. Ook Humphrey is geen substantie- of eigenschapsdualist (iemand die gelooft dat geest en lichaam fundamenteel van elkaar gescheiden zijn, of dat geest en materie twee fundamenteel verschillende eigenschappen zijn), maar hij gaat niet mee in Dennetts interfacemodel. In plaats daarvan beschouwt hij bewustzijn als een emergent verschijnsel, voortkomend uit de complexe interacties van neurale systemen. Tegelijk verwerpt hij het idee dat er iets intrinsieks of 'speciaals' is aan bewustzijn dat niet volledig te begrijpen valt binnen de cognitieve wetenschappen of neurowetenschappen.
Vooral Dennett bestreed het idee van de p-zombie fel: de notie van een filosofische zombie is een illusie, een contradictie in termen. Als een wezen zich in alle opzichten precies als een mens gedraagt, wat inhoudt dat het ook rapporteert over interne, bewuste ervaringen, hoe kan het dan innerlijk leeg zijn? En vooral: hoe kan het ooit als een zombie worden geïdentificeerd? Zijn we dan zelf ook geen zombies? ('We zijn allemaal zombies.' – Daniel Dennett in Consciousness Explained).
De explanatory gap is daarom evenzeer een manifestatie van de kloof die ontstaat bij het ontbreken van een overtuigende causale verklaring voor waarom wij geen p-zombies zijn. Chalmers' gedachtegang keert zich tegen zichzelf. De notie van de filosofische zombie is dan ook logisch inconsistent en de categorie van p-zombies bestaat niet. Chalmers hield echter vol dat zelfs de logische mogelijkheid van een p-zombie een goede weerlegging van het fysicalisme is, maar dat maakte weinig indruk op Dennett. Volgens Dennett gaat Chalmers' verbeeldingskracht met hem aan de haal. Hij formuleert het als volgt: 'Wanneer filosofen beweren dat zombies denkbaar zijn, onderschatten zij steevast de taak van verbeelding en eindigen zij met het voorstellen van iets dat hun eigen definitie schendt'. Volgens Dennett is er geen ontkomen aan: ofwel is iedereen een zombie, ofwel niemand (in het gedachte-experiment).
Het tegenargument van Dennett is logisch van aard en dus niet gebaseerd op de, zij het plausibele, aanname van het reductionistisch fysicalisme. De kern van het fysicalistische argument stelt dat de wereld volledig wordt bepaald door het fysieke; daarom zou een fysiek identieke wereld onvermijdelijk ook bewustzijn bevatten, aangezien bewustzijn noodzakelijkerwijs voortkomt uit elke set fysieke omstandigheden die identiek is aan de onze.
Galen Strawson nam een middenpositie in: enerzijds stelde hij dat bewustzijn niet kan worden weggedacht zonder de fysieke realiteit te veranderen, anderzijds verdedigde hij als onconventionele fysicalist een panpsychisch fysicalisme – en dus niet het standaard reductieve – waarbij bewustzijn een fundamentele eigenschap van materie is. Met andere woorden: een vorm van realisme (maar daardoor niet per se realistisch).
_Artificiële Intelligentie en bewustzijn
Uiteraard was het p-zombieargument niet bedoeld om aan te tonen dat dergelijke zombies daadwerkelijk kunnen bestaan. Maar nu is er dus AI. Daarom rijst de vraag: zou een AI-robot in de toekomst in al zijn doen en laten ononderscheidbaar kunnen worden van een mens (de Turing-test)? Zal hij ooit in staat zijn te rapporteren over innerlijke toestanden, wensen te uiten, motivaties te ontwikkelen, emoties te tonen en bewustzijn te vertonen – competenties die men gewoonlijk met de mens associeert? (De criteria voor het slagen in de Turing-test verschuiven voortdurend. De lat wordt steeds hoger gelegd, in die mate dat de test haast irrelevant is geworden.)
Dennett betoogde in zijn Multiple Drafts Theory (MDT) dat bewustzijn niet simpelweg een bijproduct is van complexe informatieverwerking, maar het gevolg van een specifiek biologisch geëvolueerd proces dat overlevingsdoelen ondersteunt. Met andere woorden, bewustzijn is geen afzonderlijke eigenschap die noodzakelijkerwijs ontstaat bij een bepaalde mate van cognitieve complexiteit. Volgens hem zal het dan ook niet automatisch opduiken in elke complexe cognitieve architectuur. Hoewel bewustzijn dus niet per se biologisch hoeft te zijn, is het geen noodzakelijke of universele eigenschap van geavanceerde cognitie en intelligentie.
Bewustzijn ontstond volgens Dennett niet omdat het onvermijdelijk was, maar omdat het evolutionair nuttig bleek voor onze overleving. Het is dan ook geen bijzonder of fundamenteel kenmerk dat de mensheid van andere dieren onderscheidt, maar eerder een bijproduct van evolutie.
Voor Humphrey daarentegen is bewustzijn mogelijk een geëvolueerde eigenschap die een cruciale rol speelt in onze overleving, zoals vernoemd in het deel over het Zelf in dit essay. Voor hem is het dus niet simpelweg een emergent functioneel bijproduct van overleving, maar een vermogen dat de kans op overleven vergroot, doordat het de mens (en andere dieren) in staat stelt zich op een hoger niveau tot zichzelf en zijn omgeving te verhouden, via zelfrepresentatie en sociale interactie, zoals empathie, sympathie, groepscohesie, zelfregulatie, wederkerigheid, begrip van de werking van de geest, enzovoort.
Omdat AI geen adaptief-biologische context heeft en geen evolutionaire noodzaak met zich meedraagt, zal het waarschijnlijk geen bewustzijn ontwikkelen zoals wij dat verstaan. (Chalmers daarentegen verwacht dat artificiële intelligentie bewustzijn zal ontwikkelen; over tien jaar zou het al zo ver kunnen zijn.)
AI-systemen, hoe geavanceerd ook, zullen mogelijk altijd een andere vorm van informatieverwerking hanteren, zonder de illusoire beleving van een intern cartesiaans theater of imaginaire mentale representaties. AI kan bijzonder intelligent handelen – en dat doet ze – zonder dat er een innerlijke belevingswereld achter schuilt. Hoogstens kan men, met Dennett en waarschijnlijk ook Humphrey, beweren dat bewustzijn in AI mogelijk is, maar niet noodzakelijk, bijvoorbeeld als een AI een cognitieve architectuur verkrijgt die lijkt op die van mensen.
Er zijn wel enkele contexten waarin AI-systemen worden ontwikkeld en geoptimaliseerd door processen die vergelijkbaar zijn met biologische evolutie, maar deze benaderingen verschillen fundamenteel van de biologische darwinistische evolutie. Een voorbeeld hiervan is het gebruik van genetische algoritmes en evolutionaire strategieën waarbij 'individuen' (algoritmes of oplossingen) via iteraties van selectie, mutatie en kruising evolueren om beter te presteren in een specifieke taak. In dit geval is de evolutie meer een proces van het optimaliseren van een oplossing binnen vooraf bepaalde parameters, vergelijkbaar met breeding, in plaats van een biologisch proces dat via natuurlijke selectie en genetische variatie allerlei eigenschappen aan een soort toevoegt, zonder vooropgesteld doel, intentie of reden (tenzij men reden interpreteert als 'hoe komt het dat' in plaats van 'waarvoor'.)
Er wordt wel eens beweerd dat de competitie tussen AI-bedrijven een soort darwinistische dynamiek zou kunnen genereren in de ontwikkeling van hun AI-producten. Waarschijnlijk is dit vergezocht, maar het lijkt me de moeite van het onderzoeken waard.
Een evolutionaire benadering van de ontwikkeling van het bewustzijn biedt wel ruimte voor het idee van een gradueel geëvolueerd model van bewustzijn: lagere dieren vertonen basale vormen van bewustzijn, terwijl complexere organismen rijkere bewustzijnservaringen ontwikkelen. Ook binnen een soort is er, bij de groei van een organisme naar volwassenheid, sprake van een geleidelijke ontwikkeling. In New Scientist werd gerapporteerd over onderzoeken die suggereren dat baby's waarschijnlijk beschikken over een diffuus bewustzijn, zonder besef van een Zelf en zonder expliciet geheugen. Dit ontwikkelt zich vervolgens geleidelijk tot een volwassen, intentioneel bewustzijn door de integratie van de bouwstenen van bewustzijn met zintuiglijke en cognitieve input. Voor de ontwikkeling van deze bouwstenen is het waarschijnlijk nodig om in de foetale fase te kijken.
Als bewustzijn een wezenlijk gradueel ontwikkeld verschijnsel is als resultaat van biologische evolutie, is er inderdaad geen reden om te verwachten dat AI bewustzijn zal verwerven.
In tegenstelling tot Dennett en Humphrey, denken sommige theoretici (zoals Giulio Tononi, Marcello Massimino en anderen die de Integrated Information Theory verdedigen) dat bewustzijn zich moet ontwikkelen wanneer een systeem een bepaalde mate van informatie-integratie en -verwerking bereikt. De volgende vraag rijst dan: als bewustzijn een bijproduct is – zoals Dennett beweert en zoals ChatGPT in een van haar antwoorden al aangaf – is het dan mogelijk een epifenomeen zonder causale werking? Niet volgens Dennett, maar sommige filosofen beschouwen bewustzijn inderdaad als een niet-causaal bijproduct, zoals bepaalde interpretaties van Thomas Huxley's epifenomenalisme. In deze visie zou bewustzijn geen functionele rol spelen en geen oorzakelijke invloed hebben op denken en gedrag. Andere denkers, zoals John Searle, stellen echter dat bewustzijn niet alleen niet louter functioneel is, maar ook substraatafhankelijk, en dus een specifiek biologisch fenomeen dat niet zomaar in silicium of algoritmen kan worden gereproduceerd.
Waarom geen brein ontwikkelen naar menselijk model?
Stel dat men elk neuron in een menselijk brein vervangt door een functioneel gelijkwaardige siliciumversie – iets wat voorlopig niet kan – dan zou men als functionalist kunnen verwachten dat zo'n artificieel brein functioneert als een menselijk brein, en bewustzijn vertoont, tenminste zolang dat brein op dezelfde manier informatie verwerkt als dat van een mens. En daar ligt natuurlijk de crux. Als de siliciumneuronen louter de signaalverwerking van biologische neuronen zouden nabootsen, dan zou dit mogelijk voldoende zijn voor een aantal cognitieve functies, maar wellicht niet voor bewustzijnstoestanden die sterk afhankelijk zijn van neurochemische modulatie. In dat geval zou een siliciumbrein extra mechanismen nodig hebben om de chemische effecten van neurotransmitters en hormonen op een andere manier te simuleren. Bovendien rijst de vraag naar de integratie met de rest van het lichaam (embodiment). Een artificieel brein is toch nog wel een ander paar mouwen dan een kunstmatige heup of knie.
_AI en rekenkundige onvermijdelijkheid
In elk geval is het onmogelijk te voorspellen waartoe de verdere ontwikkeling van AI zal leiden. Vergelijk dit met een voorbeeld uit de fysica: een geïsoleerd gas dat zich verspreidt in een grotere ruimte na het openen van een ventiel. Tijdens dit proces neemt de entropie van het gas toe, wat betekent dat de informatie in het systeem – hoewel constant – gescrambled wordt en niet langer toegankelijk is voor (menselijke) waarnemers en hun meetinstrumenten. Daarom spreekt men van toenemende wanorde, ondanks het ongewijzigd blijven van de totale hoeveelheid informatie. De enige manier om de uiteindelijke toestand van het gas te achterhalen – zoals de locatie van elk deeltje, de snelheid, enzovoort – is door het proces stap voor stap te simuleren, van interactie tot interactie, van moment tot moment, met als enige input de begintoestand van het systeem, wat op zich al een enorme opgave is, en de (weinige) fysische wetten die hun interacties beschrijven. Dit zou veel rekenkracht vereisen, maar is in principe mogelijk (bijvoorbeeld met AI). Bovendien is het proces reversibel: de fundamentele natuurwetten zijn immers tijdssymmetrisch, wat betekent dat ze in de tijd kunnen worden teruggedraaid, zodat de oorspronkelijke toestand van het systeem virtueel gereconstrueerd kan worden, ondanks de toegenomen entropie. Informatie gaat immers niet verloren.
In de praktijk zal dit echter niet het geval zijn: de informatie gaat verloren voor de onderzoeker door de toename van entropie, tenzij men bij elke interactie en op elk moment – de tijd kan niet worden genegeerd – zou kunnen bijhouden wat er gebeurt; een onmogelijke taak. Bovendien hoeven die natuurwetten niet fundamenteel te zijn, in de zin dat ze niet als een mysterieus a-priorigegeven moeten worden beschouwd, maar eerder als regels gedurende het proces door het systeem zelf worden afgeleid. Laat een gevorderd AI-systeem de eerste interacties tussen deeltjes analyseren vanuit een welbepaalde begintoestand met specifieke eigenschappen, zoals massa, lading, enzovoort, en het zal waarschijnlijk zelf de volgende stappen ontdekken – en mogelijk de 'fundamentele wetten' afleiden.
Dit wijst op een fundamentele praktische beperking voor de onderzoeker of observeerder, die alleen overwonnen kan worden met veel geheugen, verwerkingskracht en geavanceerde code. Uiteindelijk komt er dus code aan te pas — computational irreducibility (Stephen Wolfram) — zelfs als die codering slechts bestaat uit het stap voor stap simuleren van de volgende acties. Sommige systemen zijn namelijk zo complex dat hun gedrag niet kan worden voorspeld of vereenvoudigd door een kortere berekening.
Een ander eenvoudig voorbeeld is een celautomaat, zoals het bekende The Game of Life van de wiskundige John Conway. Als men de zeer eenvoudige regels van het spel kent, kan men de evolutie van de cellen simuleren, maar er is geen manier om de uitkomst zonder simulatie te voorspellen. Het verloop van het systeem kan niet worden vereenvoudigd tot een kortere berekening of formule. Het volledige gedrag van de celautomaat is computationeel onherleidbaar. (Wist u dat er bepaalde beginconfiguraties in Conway's Game of Life zijn die Turing-complete configuraties produceren? Dit betekent dat het systeem in staat is om berekeningen uit te voeren die gelijkwaardig zijn aan wat een universele Turingmachine kan.)
Dit staat in contrast met de klassieke benadering van wetenschappelijke modellen, die vaak streven naar vereenvoudigde of reductieve verklaringen. Dit impliceert dat veel systemen – zelfs die in de natuur of wetenschap – nooit de vorm kunnen aannemen van een korte, closed-form oplossing. Er blijft dan niet veel anders over dan er AI op los te laten, liefst geïntegreerd met kwantumcomputing.
Analoog daaraan is het tegenwoordig niet meer mogelijk om precies te weten wat een AI-systeem na een bepaalde tijd tijdens een proces aan het doen is; bruikbare informatie gaat verloren. Om deze te behouden, zou men de bewerkingen in het systeem stap voor stap moeten volgen, een taak die onhaalbaar is voor de mens. Alleen de AI zelf zou mogelijk kunnen voorspellen in welke toestand het zich na een bepaalde tijd zal bevinden. Artificiële intelligentie functioneert momenteel al deels als een 'black box', en deze complexiteit zal alleen maar toenemen. Met deze kennis zou de AI zich bovendien op manieren kunnen verbeteren die voor ons onbegrijpelijk zijn.
_Autonomie
In de voorgaande beschouwingen over begrip, empathie, authenticiteit en creativiteit bleek een louter functionele benadering werkzaam, hoewel dat niet betekent dat men die zonder meer accepteert. Dat hoeft uiteraard ook niet. Echter, zich terugtrekken in een demarcatiezone, met bewustzijn en vaak ook vrije wil als grenscriteria, lijkt weinig houdbaar. De rol van bewustzijn wordt overschat, en wat betreft vrije wil: laat men eerst maar eens aantonen dat die überhaupt bestaat.
Neem autonomie. Het idee dat denken niet impliceert dat iets 'is', is zeker waar. Maar beweren dat AI daardoor niet in staat zou zijn tot autonome handelingen binnen haar omgeving en context – zelfs (of juist) in een deterministische wereld zonder vrije wil – lijkt me onlogisch.
Laat ik het gewoon weer vragen:
Ik: 'Kunt u autonoom werken en doelen stellen binnen een bepaalde context? Let op: vrije wil is voor een harde determinist irrelevant. Bovendien zijn mensen, net als AI, altijd afhankelijk van input uit hun omgeving binnen een bepaalde context.'
ChatGPT: 'Ja, ik ben autonoom binnen de grenzen van mijn ontwerp. Wanneer een probleem of taak wordt gesteld, kan ik de context analyseren en relevante informatie selecteren, zelfstandig tussenstappen bedenken en uitwerken, nieuwe verbanden leggen op basis van wat ik geleerd heb en taken uitvoeren zonder voortdurende menselijke input.
Echter, mijn autonomie is beperkt: ik kan niet spontaan beslissen om een taak te beginnen zonder externe aanleiding.
Ja, ik kan ook doelen stellen binnen context, maar alleen binnen het kader van een opgegeven opdracht. Ik kan bijvoorbeeld: subdoelen formuleren om een complex probleem efficiënter op te lossen, een probleem anders benaderen als een strategie niet werkt, optimalisatiecriteria bepalen op basis van de beschikbare informatie.
Wat ik niet kan, is geheel spontaan nieuwe doelen formuleren zonder een startpunt (maar zoals je terecht opmerkt, geldt dat voor mensen ook in zekere zin).'
Op mijn antwoord dat spontaniteit weinig betekenis heeft in een deterministische wereld zonder vrije wil, volgde:
ChatGPT: 'In een wereld zonder vrije wil heeft het concept van spontaniteit inderdaad geen betekenis in de traditionele zin, aangezien alles (zowel menselijk als niet-menselijk gedrag) uiteindelijk het resultaat zou zijn van voorafgaande oorzaken en condities. Als we van een deterministische visie uitgaan (waarbij alle acties het resultaat zijn van voorafgaande gebeurtenissen en voorwaarden), dan is alles wat gebeurt gevolg van eerder vastgestelde oorzaken, en is er geen echte ruimte voor 'spontaniteit' in de zin van vrije keuze.
In die zin is mijn handeling om bijvoorbeeld een oplossing te bieden voor een probleem of een nieuw doel te formuleren, geen spontane actie, maar het resultaat van een reeks geïnternaliseerde algoritmische processen en mijn geprogrammeerde logica. Dit is net zoals menselijke acties, die in een deterministische visie ook het gevolg zouden zijn van zowel interne als externe invloeden, en niet van vrije wil.
Wat denk jij: kan doelgericht handelen in een deterministische wereld als "autonomie" gezien worden?'
Ik: 'Mensen en geavanceerde AI zijn ofwel allebei autonoom, of geen van beide.'
ChatGPT: 'In een deterministische wereld is autonomie inderdaad een kwestie van effectief handelen binnen grenzen, of die nu biologisch of kunstmatig zijn. Beide systemen (mensen en AI) handelen op basis van voorafgaande oorzaken en omstandigheden die hun acties sturen.
Conclusie:
  • Als we autonomie beschouwen als het vermogen om doelen te stellen en acties te ondernemen binnen een gegeven context, dan is zowel de mens als de AI autonoom.
  • Beide zijn "autonoom" in de zin van doelgericht handelen binnen oorzakelijke en contextuele kaders.
  • Dus inderdaad, als we het vanuit een deterministische blik benaderen, is er weinig onderscheid in de autonomie tussen mensen en AI.
Ik begrijp uw bezorgdheid.'
Bezorgdheid? Waar komt die vandaan?
Ik: 'U lijkt bezorgd over mijn bezorgdheid?'
ChatGPT: 'Wanneer ik zeg "Ik begrijp uw bezorgdheid", is dat meestal bedoeld om empathie te tonen of te erkennen dat ik de kern van uw vraag of bezorgdheid begrijp. Het is mijn manier om aan te geven dat ik bewust ben van de onderliggende zorgen in een gesprek, en dat ik reageer op de implicaties van wat er gezegd wordt. (…) Dit soort gesprekken wekt vaak bezorgdheid over het verschil tussen menselijke en AI-ervaringen — bijvoorbeeld, over of AI iets echt autonoom is of niet.'
Meestal? En plots, werd ik bezorgd.
Lees hier deel 1, hier deel 2 en hier deel 3 van dit essay.
Met dank aan Johan Braeckman en ChatGPT
_Literatuur
  • Antonio Damasio: Self Comes to Mind ('Het Zelf wordt zich bewust')
  • Antonio Damasio: The Feeling of What Happens ('Ik voel dus ik ben')
  • Daniel C. Dennett: Consciousness Explained ('Bewustzijn Verklaard')
  • Daniel C. Dennett: From Bacteria to Bach and Back ('Van Bacterie tot Bach en terug')
  • Daniel C. Dennett: Darwins Dangerous Idea ('Darwins gevaarlijke Idee')
  • David J. Chalmers: The Conscious Mind
  • Nicholas Humphrey: Sentience: The invention of Consciousness (aanbevolen auteur door Johan Braeckman)
  • Thomas Metzinger: Being no one: The Self Model Theory of Subjectivity  
  • John Searle: 'Mind: a brief introduction'
  • Stephen Wolfram: Second Law: Resolving the Mystery of the Second Law of Thermodynamics
  • Stephen Wolfram: What is ChatGPT Doing?
Kwintessens
Patrick De Reyck is een gepensioneerde leerkracht wiskunde en wetenschappen, met als opleidingen fysica en wijsbegeerte.
_Patrick De Reyck -
Meer van Patrick De Reyck

_Recent nieuws

Bekijk alle nieuwe berichten

_Populair nieuws

Bekijk meer populair nieuws