Grofweg de helft tot tweederde van alle zoekopdrachten leidt inmiddels niet meer tot een klik. Steeds vaker blijft de gebruiker hangen in een AI‑antwoord of overview in plaats van door te klikken. Of een AI-agent jouw merk aanbeveelt, hangt niet af van je campagnes, maar van je data-architectuur: schema markup, productfeeds, real-time API’s en een commerce-stack die AI-systemen kunnen lezen en bevragen. Dat is geen marketingprobleem. Het is een IT-vraagstuk.
Gartner waarschuwde al in 2024 dat traditioneel zoekvolume zou afnemen doordat consumenten hun vragen steeds vaker rechtstreeks aan AI-assistenten stellen. Die voorspelling lijkt inmiddels werkelijkheid te worden. Waar een consument vroeger zelf vergeleek, filterde en klikte, doet een AI dat nu voor hem. Bij circa 30 procent van alle Google-zoekopdrachten in de VS verschijnt inmiddels een AI-gegenereerd antwoord boven de traditionele zoekresultaten. In grote Europese markten is dat al 19 tot 23 procent. En als jouw merk daar niet in zit, besta je niet.
Door AI-antwoorden boven de zoekresultaten krijgen websites minder bezoekers. Maar de bezoekers die wél doorklikken, hebben de AI al als filter gebruikt: ze weten wat ze willen en zijn verder in hun aankoopproces. Dat verklaart de metingen van Semrush die concluderen dat AI-zoekverkeer gemiddeld 4,4 keer beter converteert dan traditioneel organisch verkeer. Dat is precies wat de verschuiving van SEO naar AEO – Agent Engine Optimization – inhoudt. Waar SEO draaide om zo hoog mogelijk scoren in een lijst met zoekresultaten, gaat AEO over iets fundamenteel anders: geselecteerd worden door de AI-agent die namens een gebruiker zoekt, vergelijkt en soms zelfs koopt.
Schema markup is begin
Wat dat technisch vraagt, is preciezer dan het klinkt. Onderzoek van SE Ranking laat zien dat 65 procent van de pagina’s die Google AI Mode citeert en 71 procent van de pagina’s die ChatGPT citeert, schema markup bevatten – gestructureerdecode die aan AI uitlegt wat een pagina betekent: dit is een product, dit is de prijs, dit zijn de reviews. SE Ranking benadrukt dat dit een correlatie is, geen bewezen oorzakelijk verband. Maar de richting is duidelijk: pagina’s zonder die technische laag lijkenstructureel minder kans te makenom door AI te worden opgepikt, hoe goed de inhoud ook is. Maar schema markup is slechts het begin.
AI-agents die namens consumenten aankopen doen of vergelijken, hebben real-time data nodig: actuele voorraad, levertijden, retourbeleid, prijzen. Dat vraagt om een API-laag die niet voor menselijke gebruikers is ontworpen, maar voor machine-to-machine-communicatie. Digitaal marketingstrateeg Neil Patel verwoordde het tijdens VTEX Day bondig: “Precisie is de nieuwe overtuigingskracht. Goede data en real-time data bepalen of je wint of verliest.”
Essentiële bronnen voor AI
Microsoft Advertising publiceerde begin dit jaar een praktijkgids die uitlegt hoe AI-systemen aanbevelingen doen. Het bedrijf onderscheidt daarin drie databronnen die AI gebruikt: gecrawlde webinhoud, productfeeds en API’s, en externe signalen zoals reviews en redactionele vermeldingen. Wie alleen investeert in de eerste laag (goede content en nette opmaak), mist de twee bronnen die juist het verschil maken voor AI-agents die transacties uitvoeren. En volgens Microsoft is ook helder wie die tweede en derde laag moet bouwen en onderhouden: IT-teams. Zij moeten ervoor zorgen dat systemen door AI leesbaar en betrouwbaar zijn, omdat het ontsluiten van real-time productdata, het bouwen van machine-leesbare API-endpoints en het implementeren van schema markup technische beslissingen zijn die niet opeen marketingafdeling worden gemaakt.
In de praktijk blijkt dat precies de bottleneck. Mariano Gomide, co-CEO van e-commerceplatform VTEX, verwoordde de organisatorische verschuiving tijdens VTEX Day 2026 in São Paulo concreet: 80 procent van de huidige marketingbudgetten gaat naar beelden, maar dat moet verschuiven naar woorden. Die woorden moeten als gestructureerde entiteiten in data, feeds en API-responses terugkomen, niet alleen in campagneteksten. Productdirector Alexandre Gusmao voegde daar in gesprek met Techzine aan toe dat AEO neerkomt op “SEO on steroids”: dezelfde fundamenten van relevantie, structuur en betrouwbaarheid, maar nu met AI als primaire afnemer.
Rol van IT
Voor IT-afdelingen begint het met een eerlijke inventarisatie: welke product- en orderdata zijn nu al gestructureerd en via API’s ontsluitbaar? Uit W3Techs-data blijkt dat slechts 12,4 procent van alle geregistreerde domeinen überhaupt schema markup heeft geïmplementeerd. Dat is een aardige indicatie van hoe groot de achterstand bij de meeste organisaties nog is. Daarna volgt implementatie van schema markup op kernpagina’s. Meet daarbij ook hoe vaak jouw content door AI-systemen wordt aangehaald in antwoorden, omdat dit kan uitgroeien tot een even relevante KPI als organisch verkeer.
Moderniseer ook de laag van API’s die productinformatie ontsluiten: agents hebben real-time data nodig om betrouwbare aanbevelingen te doen. Een productfeed die eens per dag ververst, is voor een AI-agent even onbruikbaar als geen feed. De laatste stap is misschien wel de meest uitdagende: marketing en IT moeten samen bepalen welke productentiteiten en use-cases consistent terugkomen in zowel data als copy. Dat is een samenwerkingdie nu bij veel organisaties ontbreekt.
SEO-databedrijf Semrush voorspeltdat AI-gedreven zoekverkeer traditioneel organisch verkeer al in vroeg 2028 voorbijstreeft, en nog eerderals Google zijn AI Mode tot standaard maakt. De verschuiving van SEO naar AEO vraagt daarom om concrete actie van IT. Wie wacht tot het verlies van organisch verkeer zichtbaar wordt in de kwartaalcijfers, is te laat. Oftewel, zoals VTEX-CEO Gomide in São Paulo zei: “Wie lef heeft en durft, plukt daar de vruchten van.”








/s3/static.nrc.nl/wp-content/uploads/2026/04/23132756/230426VER_2033248934_epe.jpg)


English (US) ·