BlogSEO TechniqueRobots.txt en AI: moet u AI-bots blokkeren?
Terug naar blog
SEO Technique

Robots.txt en AI: moet u AI-bots blokkeren?

Robots.txt is het strijdtoneel voor AI-zichtbaarheid geworden. GPTBot blokkeren betekent afstand doen van vermeldingen. Het zonder controle toestaan opent de deur voor scraping. Hier is de gebalanceerde configuratie.

AS
Alan Schouleur
Expert GEO
27 februari 2026
10 min leestijd
0 weergaven
Robots.txt en AI: moet u AI-bots blokkeren?
TL;DR — In 2026 beheert uw robots.txt niet alleen Googlebot meer. Het moet ook de toegang configureren voor GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot en andere AI-crawlers. De verleiding om alles te blokkeren is groot — scraping, gestolen content, enz. Maar AI-bots blokkeren betekent afstand doen van vermeldingen in AI-antwoorden. Deze gids geeft u de gebalanceerde configuratie: toestaan wat u zichtbaar maakt, blokkeren wat u niet dient.
[Afbeelding: beslissingsdiagram robots.txt voor AI-bots]
Beslissingsboom: wat blokkeren, wat doorlaten?

Robots.txt in 2026: een nieuw paradigma

Isometrische illustratie van robots.txt-configuratie voor AI-bots
Robots.txt et IA : faut-il bloquer les bots IA ?

Het robots.txt-bestand werd in 1994 uitgevonden om webcrawlers te vertellen welke delen van uw site ze niet mochten bezoeken. Dertig jaar lang diende het voornamelijk voor het beheren van Googlebot. In 2026 is het uitgegroeid tot een strategisch AI-zichtbaarheidsinstrument.

Volgens een analyse van Originality.AI (2025) blokkeert 35% van de top 1.000 websites wereldwijd GPTBot. In Europa loopt dit op tot 42% — grotendeels vanwege AVG-bezorgdheden en angst voor scraping. Maar hier is het probleem: deze sites onthouden zichzelf vrijwillig van vermeldingen in ChatGPT, Perplexity en andere AI-zoekmachines.

Martin Splitt, Developer Advocate bij Google (Zurich): "De robots.txt is een gentlemen's agreement, geen beveiligingsmuur. Goed opgevoede bots respecteren het. Slechte negeren het. Uw strategie moet bots belonen die zich aan de regels houden."

De belangrijkste AI-bots om te kennen in 2026

Bot Operator User-Agent Respecteert robots.txt Voordeel indien toegestaan
GPTBot OpenAI GPTBot Ja ChatGPT-vermeldingen
ChatGPT-User OpenAI ChatGPT-User Ja Real-time browsen
ClaudeBot Anthropic ClaudeBot Ja Claude-vermeldingen
PerplexityBot Perplexity PerplexityBot Ja Perplexity-vermeldingen
Google-Extended Google Google-Extended Ja Gemini-training
Bytespider ByteDance Bytespider Gedeeltelijk Laag in Europa

De AISOS-configuratiestrategie

Onze aanpak is eenvoudig: AI-bots toestaan die hun bronnen citeren, bots blokkeren die dat niet doen. Hier is de standaardconfiguratie die wij aanbevelen:

# Googlebot - altijd toegestaan
User-agent: Googlebot
Allow: /

# AI-bots die bronnen citeren - toegestaan
User-agent: GPTBot
Allow: /blog/
Allow: /glossaire/
Disallow: /admin/
Disallow: /api/

User-agent: ChatGPT-User
Allow: /

User-agent: ClaudeBot
Allow: /blog/
Allow: /glossaire/
Disallow: /admin/
Disallow: /api/

User-agent: PerplexityBot
Allow: /

# Trainingsbots zonder vermelding - geblokkeerd
User-agent: Google-Extended
Disallow: /

User-agent: Bytespider
Disallow: /

User-agent: CCBot
Disallow: /

# Sitemap
Sitemap: https://uw-site.com/sitemap.xml

De logica: GPTBot en ClaudeBot zijn toegestaan op uw blog en glossarium (de pagina's die u wilt zien vermeld), maar geblokkeerd in privégedeelten. Google-Extended (Gemini-training) en Bytespider (TikTok/ByteDance) zijn geblokkeerd omdat ze scrapen voor training zonder te citeren.

De risico's van het blokkeren van AI-bots

Voordat u alle AI-bots "uit voorzorg" blokkeert, meet u wat u verliest:

  • Verloren vermeldingen — als GPTBot uw site niet kan lezen, citeert ChatGPT u niet. Punt.
  • Perplexity-zichtbaarheid — Perplexity crawlt in real time. Een blokkering = onmiddellijke onzichtbaarheid
  • Sneeuwbaleffect — minder AI-vermeldingen = minder merkvermeldingen = minder autoriteit = zwakkere klassieke SEO

Voor het complement met het llms.txt-bestand (dat AI-bots naar uw sleutelcontent leidt), zie onze llms.txt-gids. Voor bredere technische context, zie onze technische SEO-gids 2026. En om te optimaliseren wat AI-bots crawlen, lees ons artikel over crawlbudget.

[Afbeelding: grafiek die de daling in AI-vermeldingen toont na het blokkeren van GPTBot]
Impact van het blokkeren van GPTBot op AI-vermeldingen (gevalstudie)

AVG en robots.txt: het valse debat

Veel Europese bedrijven blokkeren AI-bots "vanwege de AVG". Dit is een gevaarlijke vereenvoudiging. De AVG beschermt persoonsgegevens, niet de publieke content van uw website. Als uw blog openbaar is, is het sowieso voor iedereen toegankelijk — inclusief AI-bots.

De echte vraag is niet juridisch maar strategisch: wilt u geciteerd worden door AI, of niet? Als ja, sta toe. Als nee, blokkeer. Maar verwar gegevensbescherming niet met angst voor verandering.

FAQ — Robots.txt en AI

Voorkomt robots.txt echt scraping?

Nee. Robots.txt is een vrijwillig protocol — goed opgevoede bots respecteren het, kwaadwillende scrapers negeren het. Om scraping daadwerkelijk te voorkomen, zijn technische maatregelen nodig (rate limiting, Cloudflare, enz.).

Verhindert het blokkeren van GPTBot dat ChatGPT mijn bedrijf noemt?

Niet volledig. ChatGPT heeft al content opgenomen in zijn trainingsdata. Maar het blokkeren van GPTBot verhindert updates en real-time browsen, waardoor uw vermeldingen in nieuwe gesprekken geleidelijk afnemen.

Kunt u GPTBot alleen op bepaalde pagina's toestaan?

Ja, dat is precies de aanbevolen aanpak. Gebruik specifieke Allow/Disallow-richtlijnen voor elke AI-bot en sta alleen de secties toe die u wilt zien vermeld.

Heeft u een aparte robots.txt nodig voor elke AI-bot?

Ja. Elke bot heeft zijn eigen User-Agent en verdient specifieke richtlijnen. GPTBot en ClaudeBot kunnen dezelfde regels delen, maar Google-Extended en Bytespider verdienen een andere behandeling.

Hoe vaak moet u uw robots.txt bijwerken?

Bij elke wijziging in AI-strategie of sitestructuur. In de praktijk is een driemaandelijkse revisie voldoende, tenzij er nieuwe AI-bots verschijnen (wat in 2026 regelmatig gebeurt).

Heeft robots.txt invloed op de Google-ranking?

Niet direct. Robots.txt beïnvloedt het crawlen, niet de ranking. Als u echter per ongeluk belangrijke pagina's blokkeert, worden ze niet geïndexeerd — en dus niet gerangschikt.

Wat is het verschil tussen Disallow en noindex?

Disallow (robots.txt) verhindert het crawlen. Noindex (metatag) staat crawlen toe maar verhindert indexering. Voor AI-bots is Disallow effectiever omdat het de toegang tot de content volledig blokkeert.

Is uw robots.txt geconfigureerd voor het AI-tijdperk?

Wij auditen uw robots.txt en bepalen de optimale strategie om uw AI-vermeldingen te maximaliseren terwijl uw gevoelige content beschermd blijft.

Mijn robots.txt configureren
Delen:
AS
Alan Schouleur
Expert GEO

Co-fondateur et COO d'AISOS. Expert GEO, il construit le systeme de visibilite IA qui fait passer les entreprises d'invisibles a recommandees.