RLM-on-KG: Hoe Recursieve AI de Toekomst van SEO Verandert
Jeroen Meijer ·
Luister naar dit artikel~5 min

Het web evolueert naar een 'Redeneerweb' waar AI-systemen informatie actief verkennen. Traditionele RAG schiet tekort voor complexe vragen. RLM-on-KG maakt kennisgrafieken navigeerbaar voor recursieve AI, wat SEO fundamenteel verandert.
We staan aan het begin van een nieuw tijdperk op het web. Ik noem het het 'Redeneerweb'. En daarmee komt er een keerpunt voor zoeken zoals we het kennen. AI-systemen zijn niet langer passieve lezers van documenten; ze worden actieve agenten die informatie verkennen, relaties navigeren en begrip opbouwen door gestructureerd te redeneren.
Dat onderscheid is cruciaal.
Retrieval-augmented generation (RAG) verankert LLM-output door externe bronnen in prompts te injecteren. Maar de meeste RAG-systemen gedragen zich nog steeds als een eenmalige opzoekactie: één vraag, topresultaten, één synthese. Dat werkt als het antwoord in één tekstpassage staat. Het faalt wanneer de waarheid alleen ontstaat uit de verbindingen tussen pagina's, entiteiten en concepten.
En zakelijke vragen passen zelden op één pagina.
### Waarom traditionele RAG tekortschiet
Stel je voor dat Zurich Insurance vraagt naar dekkingen die meerdere polistypen omspannen. Het antwoord staat niet 'in een artikel'. Het zit in de structuur, polisdefinities, uitsluitingen, rechtsgebieden, aanvullingen en hoe deze zich tot elkaar verhouden. Of wanneer een transportbedrijf wil weten hoe routes de prijs beïnvloeden - dat antwoord ontstaat uit de wisselwerking tussen locaties, beperkingen, seizoensvraag, beschikbaarheid van vervoerders en serviceniveaus.
Met andere woorden: het bewijs leeft in de grafiek, niet alleen in de tekst.
### De opkomst van RLM-on-KG
Dit artikel introduceert RLM-on-KG, een aanpassing van recursieve taalmodellen waarbij de 'omgeving' een WordLift Knowledge Graph is die via GraphQL wordt benaderd. Recursive Language Models (RLMs), geïntroduceerd in recent MIT-onderzoek, stellen een simpel maar krachtig idee voor: in plaats van enorme hoeveelheden context in een taalmodel te proppen en te hopen dat het coherent blijft, laat je het model zijn omgeving recursief verkennen, bevragen, onderzoeken en ontleden.
We vergeleken drie antwoordmethoden op een benchmark van 150 vragen: Vanilla, Simple RAG en RLM-on-KG. Twee belangrijke bevindingen kwamen naar voren:
- Multi-hop KG-traversal verbetert de bewijskwaliteit en citatiegedrag
- Het onthult ook een faalmodus: overreach, die alleen zichtbaar wordt met een expliciete 'grounding judge'
### SEO in het tijdperk van 'oneindige context'
Moderne SEO draait steeds meer om semantische dekking: entiteiten, relaties, gestructureerde data en het vervullen van gebruikersintentie in een onderling verbonden contentnetwerk. Voor een LLM-agent is 'oneindige context' niet een enorme prompt, maar een groot, evoluerend corpus van gelinkte kennis. De centrale uitdaging wordt:
Hoe maken we onbeperkte context tot navigeerbaar geheugen met herkomst?
In het Redeneerweb verschuift SEO van het optimaliseren van individuele pagina's naar het optimaliseren van signalen voor redeneren. We betreden een wereld waar AI-systemen:
- content in meerdere stappen verkennen
- entiteitsrelaties volgen
- claims over bronnen verifiëren
- antwoorden bouwen door structuur te navigeren, niet door één pagina te lezen
De leidende vraag wordt: Is jouw content verkennbaar door redeneersystemen?
Als je site goed gestructureerd is, met semantische markup en expliciete entiteitsrelaties, kunnen AI-agenten diep doordringen. Ze kunnen ideeën over pagina's verbinden, betekenis verduidelijken en accurate antwoorden construeren.
Als je site vooral ongestructureerde tekst bevat, ziet de agent geïsoleerde fragmenten. Het kan ophalen, maar niet navigeren.
Dit is de verschuiving naar wat ik SEO 3.0 noem: je informatiearchitectuur optimaliseren zodat AI-agenten die intelligent kunnen verkennen, niet slechts oppervlakkig kunnen ophalen.
### Van RLMs naar RLM-on-KG in de praktijk
Het RLM-framework keert het script om. In plaats van meer informatie in het contextvenzer te proppen, laat je het model zijn omgeving recursief verkennen, stap voor stap bevragend en onderzoekend.
Zoals een onderzoeker ooit zei: 'De kracht van kennis zit niet in de feiten, maar in de verbindingen tussen de feiten.'
RLM-on-KG maakt deze verbindingen navigeerbaar voor AI. Het transformeert statische kennisgrafieken in dynamische redeneeromgevingen waar taalmodellen doorheen kunnen bewegen, verbanden kunnen leggen en complexe vragen kunnen beantwoorden die verder gaan dan wat één document kan bevatten.
Voor professionals betekent dit een fundamentele herziening van hoe we content structureren. Het gaat niet meer alleen om trefwoorden en backlinks, maar om het bouwen van betekenisvolle netwerken van informatie die zowel menselijke lezers als AI-agenten kunnen begrijpen en doorlopen.
De toekomst van zoeken is niet sneller vinden, maar beter begrijpen. En dat begint met content die gemaakt is om verkend te worden.