Kwintessens
Geschreven door Bart Libbrecht
  • 103 keer bekeken
  • minuten leestijd
  • Reacties

18 juni 2025 Wat de Kolmogorov-compressie ons leert over een genocide zonder intentie
De onderzoeksvraag die ik hier wil behandelen is deze: zou het kunnen dat er, ondanks de expliciete ontkenning van Israël, toch sprake is van een genocide in opbouw – niet door bewuste intentie, maar als gevolg van artificiële intelligentie die de oorlogsvoering structureel vormgeeft?
_Algoritmes zonder haat
In de nasleep van de oorlog tussen Israël en Hamas zijn steeds meer rapporten opgedoken over het gebruik van artificiële intelligentie (AI) bij het selecteren van militaire doelwitten in Gaza. Systemen zoals 'Lavender' en 'The Gospel' werden ingezet om duizenden mensen te profileren op basis van digitale sporen. Deze algoritmen koesteren geen haat, hebben geen intenties en vellen geen oordeel. Zoals een analist in het online tijdschrift +972 Magazine opmerkte: 'It became a factory for identifying and striking targets – a conveyor belt of death'. Ze comprimeren gedrag tot patronen en vertalen patronen naar acties. En precies daarin schuilt het gevaar: niet in wat ze voelen, maar in wat ze vergeten. Wat bedoelen we hiermee? 
_Kolmogorov-complexiteit en de dubbele reductie van machinelearning
Andrej Nikolaevitsj Kolmogorov (1903–1987) was een Russische wiskundige die wordt beschouwd als een van de grondleggers van de moderne waarschijnlijkheidsleer en de informatie- en complexiteitstheorie. Zijn werk op het gebied van algoritmische informatie leidde tot de formulering van de Kolmogorov-complexiteit: de lengte van het kortste algoritme waarmee een bepaald object of patroon gereproduceerd kan worden. Deze notie vormt tot op vandaag een fundament voor machinelearning, dat patronen herkent en reduceert tot voorspelbare, gecomprimeerde regels.
In hedendaagse machinelearning vertaalt deze logica zich in een dubbele reductie. Menselijk gedrag wordt niet alleen gecomprimeerd tot statistisch herkenbare patronen zoals het digitale gedrag van een Hamas-strijder. Maar deze patronen worden vervolgens ook verder geoptimaliseerd via trainingsmodellen die de kortste en meest efficiënte programmareeksen selecteren. Ze kleven een Hamas-label op een Palestijn met een specifiek digitaal gedrag. Machinelearning is daarmee een geautomatiseerd mechanisme van Kolmogoroviaanse compressie op compressie – een dubbele reductie van complexiteit, die tegelijk snelheid, maar ook blindheid maximaliseert. Hoe eenvoudiger de programmaregel, hoe efficiënter de voorspelling. Wanneer deze logica wordt toegepast op menselijk gedrag, gebeurt er iets fundamenteels: gedragingen worden herleid tot minimale verklaringen, vaak los van context, motivatie of afwijking. In een oorlogssituatie betekent dit: wie zich volgens de reductie van de programmaregel digitaal gedraagt zoals een Hamas-lid, wórdt gereduceerd tot een Hamas-lid. En wie digitaal wordt gereduceerd tot een Hamas-lid wordt een doelwit.
_Gedrag onder bezetting: de dodelijke paradox
Maar context is alles. In een bezette en belegerde omgeving zoals Gaza is gedrag geen neutrale keuze. Palestijnen die zich verzetten – al is het maar in hun surfgedrag, die informatie zoeken, die online kritiek uiten of zelfs gewoon digitaal verbonden zijn met anderen die dat doen, lopen het risico om in de patronen van het algoritme te passen. Wat begint als zelfexpressie of informatiehonger, wordt gelezen als vijandige activiteit. En die informatiehonger komt niet voort uit agitatie, maar uit een diep menselijke nood: gruwel moet betekenis krijgen. Wie een bombardement overleeft, zoekt online naar duiding, getuigenissen, uitleg, rechtvaardiging – kortom, naar betekenis. Maar juist dat zoeken naar betekenis wordt herkend als vijandig gedrag. Zo ontstaat een tragische paradox: omwille van de gruwel gaan mensen betekenis zoeken, en precies daardoor vallen ze in een val die gruwelijke gevolgen heeft. Hoe langer de oorlog duurt, hoe meer gedragingen als 'verdacht' zullen worden gecodeerd. De feedbackloop sluit zich – algoritmen leren van het geweld dat ze zelf veroorzaken. Iedere iteratie bevestigt hun vorige inschatting. Iedere dode voedt het model – niet door kwaadwilligheid, maar door de structurele logica van het model. Zoals Access Now, de non-profitorganisatie die zich inzet voor digitale burgerrechten, het benoemt: 'Artificial intelligence is not neutral when deployed within a system of structural violence'.
_De algoritmische logica van eliminatie
Zo ontstaat een systeem waarin de compressie van gedrag steeds extremer wordt: afwijking wordt eliminatie. Wat niet past in het patroon, wordt uitgesloten – niet uit haat, maar uit efficiëntie. Het algoritme discrimineert niet op ras, religie of afkomst. Het discrimineert op patroonherkenning. En wie leeft binnen de gewelddadige context die opstand oproept en waarin opstand als vijandigheid wordt geïnterpreteerd, loopt de kans om vermoord te worden. Niet omdat men het wil, maar omdat het systeem het tot dat reduceert. 
_Een genocide zonder intentie?
Dit is wat we kunnen benoemen als een genocide zonder intentie. Geen centraal bevel, geen manifest haatprogramma, maar een technologisch proces dat de voorwaarden schept voor de structurele vernietiging van een bevolkingsgroep. Het morele onderscheid tussen intentie en effect vervaagt zodra de uitkomst systemisch is: als het systeem, hoe 'neutraal' ook, leidt tot massale eliminatie, dan moet het systeem zélf ter verantwoording geroepen worden.
_Ethiek voorbij intentie: het gevaar van logica zonder reflectie
In dit licht is Kolmogorov-compressie geen neutrale techniek, maar een ethisch explosief principe. Zoals Time Magazine het kernachtig stelt: 'AI is developing faster than the tools to keep it in check'. Want in de queeste naar de kortste programmaregel die de wereld verklaart, voorspelt en beheersbaar maakt, verdwijnen alle uitzonderingen. Daarin ligt het menselijke – in het onvoorspelbare, het contextuele, het unieke. Wanneer algoritmen het laatste woord krijgen over leven en dood, zonder ruimte voor afwijking, dan doden ze niet uit haat, maar uit logica. En precies dat maakt hen zo gevaarlijk. Zelfs niet-intentionele genocide kan het gevolg zijn. 
_Beantwoording van de onderzoeksvraag
Op basis van de hierboven beschreven analyses, bronnen en systeemlogica moet de onderzoeksvraag bevestigend beantwoord worden. Ja, het is mogelijk dat er zich een genocide in opbouw voltrekt. Niet als expliciete intentie, maar als structureel effect van een artificiële intelligentie die oorlogspatronen versterkt, verscherpt en verzelfstandigt. Deze conclusie vraagt om hoogdringend ethisch, juridisch en politiek onderzoek, voorbij de klassieke definitie van genocide als een daad van haat. Maar als een nieuw begrip van systemische vernietiging zonder intentie.
_Bibliografie
Kwintessens
Dr. Bart Libbrecht (1973) studeerde orthopedagogie, publiek management, filosofie en promoveerde op een onderzoek naar transdisciplinaire samenwerkingsverbanden. In 2015 richtte hij Vialogos – GEDEELDE ZORG op, een organisatie die inzet op innovatie en sociaal ondernemerschap. Als freelance-consultant helpt hij organisaties duurzaam innoveren en reorganiseren.
_Bart Libbrecht Lid van de humanistische denktank Kwintessens
Meer van Bart Libbrecht

_Recent nieuws

Bekijk alle nieuwe berichten

_Populair nieuws

Bekijk meer populair nieuws