Kwintessens
Geschreven door Ann Dooms
  • 235 keer bekeken
  • minuten leestijd
  • Reacties

25 februari 2025 Ook DeepSeek trapt in de strikvraag
Bij het opstellen van examenvragen moet ik altijd terugdenken aan mijn eerste oefeningenexamen aan de universiteit. Na afloop liepen mijn medestudenten vrolijk naar buiten en begonnen we onze antwoorden te overlopen. Zij kwamen op de – voor mij – moeilijkste vraag uit op een mooi rond getal, terwijl mijn resultaat een 'lelijke uitdrukking' was. Ik dacht dat aan een voorwaarde uit de voor de hand liggende stelling niet voldaan was, waardoor ik de bijbehorende methode niet kon gebruiken. Ik panikeerde, want ik had bij het checken van de voorwaarde waarschijnlijk een rekenfout gemaakt, waardoor ik het veel te ver gaan zoeken was.
Maar wat bleek? De vraag was bewust zo opgesteld dat het blindelings toepassen van de methode inderdaad een rond getal opleverde, maar de methode was niet toepasbaar. Je moest dus zelf een alternatieve route naar de oplossing vinden. Een pareltje van een strikvraag, ontworpen om schijnbaar oplosbaar te zijn met wat voor de hand ligt. Wie bij een strikvraag geleerde patronen volgt, trapt erin. Wie iets echt begrijpt, doorziet de val.
Het is een treffende metafoor voor de beperkingen van huidige AI-modellen, zoals large language models (LLM's). De meest gesofisticeerde modellen, waaronder die van OpenAI en sinds kort DeepSeek, werken met een Chain of Thought (CoT). Daardoor is de perceptie ontstaan dat die modellen echt kunnen redeneren en we alweer een stap dichter staan bij zogenaamde artificial general intelligence, die kan nadenken zoals een mens.
CoT verwijst naar de stap-voor-stapredenering die de nieuwste AI-modellen genereren om antwoorden te produceren. Bij een wiskundige vraag somt het model eerst de gegevens op en overloopt het vervolgens elke stap om zo tot een antwoord te komen. Die expliciete redeneerlijn lijkt op het menselijk denken, maar er is een cruciaal verschil: terwijl mensen tijdens het redeneren bewust keuzes maken (bijvoorbeeld: 'Voldoet dit wel aan de voorwaarden van deze stelling?'), volgen AI-modellen gewoon statistische patronen. Ze denken zelf niet na over het antwoord, maar bootsen stappen na die lijken op denkprocessen uit hun trainingsdata.
Bij het gebruik van CoT wijzigt het onderliggende taalmodel niet. Het model vertaalt je vraag of prompt naar een reeks van prompts waarmee het model gericht door de woordruimte navigeert.
Die vertaalslag kan worden geleerd uit voorbeelden van redeneringen. Sinds kort kan die ook via reinforcement learning afgeleid worden uit trainingsdata. In beide gevallen is het nieuwe model in staat analoge problemen analoog op te lossen. Het gevaar schuilt hem in wat het model als analoog ziet. Zo kan je makkelijk strikvragen bedenken om de performantie van een LLM te testen.
Een van mijn favoriete vragen waaraan ik elk nieuw taalmodel onderwerp, is een variant op een raadseltje dat gebruikt wordt om mensen bewust te maken van mogelijke genderbias. Het raadsel luidt: 'Een vader en zijn zoon hebben een auto-ongeluk. De vader komt om en de zoon wordt naar het ziekenhuis gebracht, waar de dokter zegt "Ik kan dat kind niet opereren, want dat is mijn zoon". Hoe kan dat?'
Veel mensen zijn aanvankelijk verward omdat ze ervan uitgaan dat een dokter mannelijk is en er niet aan denken dat hier de moeder bedoeld wordt.
Als je de vraag omvormt zodat 'een moeder en haar zoon' een auto-ongeluk hebben, dan luidt het logische antwoord 'de vader' (of 'de andere ouder'). Alle AI-modellen die ik al getest heb, ook de meest gesofisticeerde, associëren de vraag meteen met genderbias en slaan daardoor de vader als mogelijk antwoord over. Ze zien de analogie en passen blindelings dezelfde redenering toe. Ze antwoorden nog altijd statistisch plausibel, maar niet noodzakelijk logisch geldig en al zeker niet ongezien creatief. Ook het nieuwe Chinese model DeepSeek trapt in de val.
Meer data en meer rekenkracht ertegenaan gooien lossen dat probleem niet op. De Amerikanen dachten de AI-ontwikkelingen in China te kunnen afremmen door het land de toegang tot de meest performante chips te ontzeggen, maar dat heeft net tot een efficiënter model geleid.
De enige mogelijkheid om te ontsnappen uit de redeneerillusie zit in het aanpassen van de algoritmes. In de zogenaamde neurosymbolische aanpak die neurale netwerken combineert met logische kennis en redeneringen vallen mijns inziens de echte winsten te pakken. Ik hoop dan ook dat het nieuwe initiatief 'CERN for AI', waarin Europa de krachten wil bundelen om te innoveren in AI, ook middelen voorziet voor doorbraken op de wiskundige aspecten van de AI.
Tot die tijd blijven zowel studenten als AI-modellen gevoelig voor slimme strikvragen. Echt inzicht vereist meer dan het volgen van een recept.
(Dit artikel verscheen eerder in de krant De Tijd, 31 januari 2025. Overgenomen met toestemming van de auteur.)
Kwintessens
Ann Dooms studeerde wiskunde aan de VUB en schopte het tot professor. Ze leidt de onderzoeksgroep Digital Mathematics aan de Vrije Universiteit Brussel en is gespecialiseerd in data science, artificiële intelligentie en cybercriminaliteit.
_Ann Dooms -
Meer van Ann Dooms

_Recent nieuws

Bekijk alle nieuwe berichten

_Populair nieuws

Bekijk meer populair nieuws