BlogSEO TechniqueCrawlbudget: hoe te optimaliseren voor 100+ pagina's
Terug naar blog
SEO Technique

Crawlbudget: hoe te optimaliseren voor 100+ pagina's

Crawlbudget bepaalt hoeveel pagina's Google en AI-bots op uw site bezoeken. Als u meer dan 100 pagina's heeft, wordt het optimaliseren ervan cruciaal voor uw indexatie en zichtbaarheid.

LB
Lucie Bernaerts
Expert GEO
5 maart 2026
11 min leestijd
0 weergaven
Crawlbudget: hoe te optimaliseren voor 100+ pagina's
TL;DR — Crawlbudget is het aantal pagina's dat Googlebot (en AI-bots) bereid is te crawlen op uw site binnen een bepaalde tijdsperiode. Voor kleine sites (minder dan 100 pagina's) is dit zelden een probleem. Maar vanaf 100+ pagina's steelt elke nutteloze URL in de index middelen van uw strategische pagina's. Deze gids legt uit hoe u verspilling identificeert, belangrijke pagina's prioriteert en uw infrastructuur configureert om de crawlefficiëntie te maximaliseren.
[Afbeelding: crawlbudgetdiagram - toewijzing vs verspilling]
Crawlbudget: waar gaan de Googlebot-bezoeken op uw site naartoe?

Crawlbudget begrijpen in 2026

Isometrische illustratie van crawlbudget-optimalisatie
Crawl budget : comment l'optimiser efficacement

Google definieert crawlbudget als de combinatie van twee factoren: de crawl rate limit (hoeveel verzoeken per seconde Googlebot verzendt zonder uw server te overbelasten) en de crawl demand (hoe belangrijk Google uw pagina's acht om te crawlen).

In 2026 komt er een derde factor bij: het AI-crawlbudget. GPTBot, ClaudeBot en PerplexityBot hebben hun eigen budgetten, doorgaans beperkter dan Googlebot. Ze crawlen minder pagina's, minder vaak en met kortere time-outs.

Gary Illyes, analist bij Google (Zurich), verduidelijkte dit tijdens Search Central Live 2025 in Parijs: "Als uw site traag reageert, zullen we minder crawlen. Als uw pagina's allemaal op elkaar lijken, verliezen we interesse. Crawlbudget is geen statistiek die u kunt configureren — het is een gevolg van de kwaliteit van uw site."

Crawlverspilling diagnosticeren

Voordat u optimaliseert, identificeert u waar uw crawlbudget wordt verspild. De gebruikelijke verdachten:

Verspillingsbron Impact Oplossing Prioriteit
Parameterpagina's (?sort=, ?filter=) Zeer hoog Canonical-tag + robots.txt P1
Eindeloze paginatiepagina's Hoog Noindex of beperkte paginatie P1
Dubbele content (www vs niet-www, http vs https) Hoog 301-redirects + canonical P1
Massa 404-pagina's Gemiddeld Redirect of verwijderen P2
Redirectketens (A → B → C) Gemiddeld Directe redirect A → C P2
Pagina's met lage waarde geïndexeerd Gemiddeld Noindex of consolidatie P2

Diagnosehulpmiddelen: analyseer uw serverlogboeken (Screaming Frog Log Analyzer, Oncrawl) om precies te zien welke pagina's Googlebot bezoekt. Combineer dit met Search Console (dekkingsrapport) om pagina's te identificeren die gecrawld maar niet geïndexeerd zijn.

5 optimalisatiestrategieën voor crawlbudget

  1. robots.txt opschonen — nutteloze secties blokkeren (parameters, facetten, adminpagina's) terwijl strategische AI-bots worden toegestaan (zie onze robots.txt en AI-gids)
  2. Strategische XML-sitemap — alleen pagina's opnemen die u geïndexeerd wilt zien, met betrouwbare lastmod-datums (zie onze sitemapgids)
  3. TTFB verbeteren — een snelle server laat Googlebot in dezelfde tijd meer pagina's crawlen (zie Core Web Vitals-gids)
  4. Dunne content consolideren — pagina's met weinig verkeer samenvoegen die vergelijkbare onderwerpen behandelen
  5. Gerichte interne links — interne links richten op uw prioriteitspagina's om hun belang aan bots te signaleren (zie interne linkgids)

Crawlbudget en AI-bots: de specifics

AI-bots hebben een ander crawlgedrag dan Googlebot:

  • Lager volume — GPTBot crawlt 10 tot 100x minder pagina's dan Googlebot op dezelfde site
  • Agressieve time-outs — veelvuldig verlaten na 1,5-2 seconden TTFB
  • Geen JS-rendering — alleen statische HTML wordt gelezen
  • Gevoeligheid voor robots.txt — GPTBot en ClaudeBot respecteren richtlijnen (in tegenstelling tot sommige misvattingen)
  • llms.txt-bestand — leidt AI-bots naar uw belangrijkste pagina's (zie onze llms.txt-gids)

Bartosz Goralewicz, CEO van Onely (Polen): "Voor AI-bots is crawlbudget nog waardevoller. Ze bezoeken veel minder pagina's, dus elke gecrawlde pagina moet tellen. Het llms.txt-bestand en een goed geconfigureerde robots.txt zijn uw beste bondgenoten."

[Afbeelding: vergelijking van Googlebot vs GPTBot crawl in serverlogboeken]
Logboekanalyse: Googlebot vs GPTBot crawlvolume op een site van 500 pagina's

Uw crawlbudget monitoren

Crawlbudgetoptimalisatie is geen eenmalige taak. Hier zijn de statistieken om bij te houden:

  • Gecrawlde pagina's per dag — Search Console > Instellingen > Crawlstatistieken
  • Gemiddelde responstijd — zelfde rapport, doel < 500ms
  • Verhouding gecrawlde/geïndexeerde pagina's — als de verhouding laag is, crawlt Googlebot maar acht het uw pagina's niet indexeringswaardig
  • AI-bot crawl — analyseer uw serverlogboeken om GPTBot, ClaudeBot, PerplexityBot te tracken

Voor de volledige technische context, zie onze technische SEO-gids 2026.

FAQ — Crawlbudget

Vanaf hoeveel pagina's moet u zich zorgen maken over crawlbudget?

Google stelt dat crawlbudget alleen een probleem is voor "grote sites" (10.000+ pagina's). In de praktijk zien we voordelen van optimalisatie al vanaf 100 pagina's, vooral voor AI-bots die veel minder crawlen.

Kunt u uw crawlbudget verhogen?

Niet direct. Maar door uw TTFB te verbeteren, onnodige URLs te verwijderen en regelmatig kwaliteitscontent te publiceren, zal Google van nature meer crawl aan uw site toewijzen.

Verbruikt noindex crawlbudget?

Ja. Noindex voorkomt indexering maar niet crawlen. Gebruik robots.txt om crawlen te voorkomen. Combineer idealiter beide voor werkelijk onnodige pagina's.

Respecteren AI-bots crawl-delay in robots.txt?

Dat hangt af van de bot. GPTBot en ClaudeBot respecteren over het algemeen robots.txt-richtlijnen (Allow/Disallow) maar niet noodzakelijk crawl-delay. De beste controle blijft de responstijd van uw server.

Hoe prioriteert u pagina's voor crawlen?

Via drie hefbomen: de XML-sitemap (alleen strategische pagina's opnemen), interne links (meer interne links = vaker gecrawld) en robots.txt (blokkeer wat niet gecrawld mag worden).

Worden uw belangrijke pagina's gecrawld?

Wij analyseren uw serverlogboeken en optimaliseren uw crawlbudget zodat Google en AI bezoeken wat echt telt.

Mijn crawlbudget analyseren
Delen:
LB
Lucie Bernaerts
Expert GEO

Co-fondatrice et CEO d'AISOS. Expert GEO, elle accompagne les entreprises dans leur strategie de visibilite Google + IA.