U publiceert inhoud, u optimaliseert uw tags, u wacht. En er gebeurt niets. Uw pagina's verschijnen niet in Google. Niet op de eerste pagina — nergens. Dit scenario komt vaker voor dan men denkt, en het wordt steeds frequenter.
De mythe dat "Google alles indexeert" is al lang geleden gestorven. In 2026 gebruikt Google een geavanceerd prioriteringssysteem om te beslissen welke pagina's geindexeerd worden. En uw pagina staat niet automatisch op de lijst.
Indexering in 2026 begrijpen

Indexering is het proces waarbij Google een pagina toevoegt aan zijn index — zijn database van miljarden pagina's. Om een pagina te indexeren moeten drie voorwaarden zijn vervuld: Google moet hem kunnen ontdekken (crawlen), Google moet hem kunnen lezen (weergeven) en Google moet oordelen dat hij het verdient geindexeerd te worden (kwaliteit).
Dit derde criterium is radicaal veranderd. Historisch gezien indexeerde Google bijna alles. Tegenwoordig, met een web dat miljarden nieuwe pagina's per dag produceert (waarvan een steeds groter deel door AI gegenereerd), is Google selectief geworden. Het rapport "Crawl Stats" in Search Console toont dat zelfs sites met hoge autoriteit 30 tot 50% van hun nieuwe pagina's wekenlang in een indexeringswachtrij zien belanden.
Volgens Martin Splitt, Developer Advocate bij Google Zurich: "We indexeren niet elke URL die we crawlen. Ons systeem evalueert of een pagina voldoende waarde heeft om opname in de index te rechtvaardigen. Dit is geen straf — het is prioritering."
Hoe een indexeringsprobleem te diagnosticeren
Voordat u oplossingen zoekt, moet u het exacte probleem identificeren. Hier is de diagnostische methode in 3 stappen.
Stap 1: Controleer de status in Google Search Console
Ga naar "URL-inspectie" en voer de URL van de pagina in. Het rapport vertelt u of de pagina geindexeerd is, en zo niet, waarom. Mogelijke statussen zijn: "Niet geindexeerd: ontdekt maar niet geindexeerd", "Uitgesloten door robots.txt", "Uitgesloten door noindex-tag", "Alternatieve canonieke pagina", enz.
Stap 2: Test de weergave
Gebruik "Live URL testen" in Search Console om te zien hoe Google uw pagina weergeeft. Als de weergave onvolledig is (ontbrekende inhoud, JavaScript niet uitgevoerd), is dit een technisch probleem dat moet worden opgelost.
Stap 3: Analyseer de serverlogboeken
Als Google uw pagina niet eens crawlt, ligt het probleem stroomopwaarts van de indexering. Serverlogboeken tonen u wanneer Googlebot uw site voor het laatst bezocht heeft, welke pagina's het aanvroeg en welke responscodes het ontving.
De 12 meest voorkomende oorzaken
| # | Oorzaak | Frequentie | Moeilijkheid van herstel |
|---|---|---|---|
| 1 | Meta noindex-tag | Zeer frequent | Eenvoudig |
| 2 | robots.txt-blokkering | Frequent | Eenvoudig |
| 3 | Canonical naar een andere pagina | Frequent | Gemiddeld |
| 4 | Gedupliceerde inhoud | Frequent | Gemiddeld |
| 5 | Inhoud van lage kwaliteit | Zeer frequent | Moeilijk |
| 6 | JavaScript-weergavefouten | Gemiddeld | Moeilijk |
| 7 | Crawlbudgetproblemen | Gemiddeld | Gemiddeld |
| 8 | Wezenpagina's | Frequent | Eenvoudig |
| 9 | Buitensporige serverresponstijd | Gemiddeld | Gemiddeld |
| 10 | Ontbrekend of ongeldig sitemap | Frequent | Eenvoudig |
| 11 | Handmatige Google-straf | Zeldzaam | Moeilijk |
| 12 | Nieuw domein zonder autoriteit | Zeer frequent | Lang (3-6 maanden) |
Gedetailleerde oplossingen per oorzaak
Oorzaken 1-2: Noindex en robots.txt
Controleer de HTML-broncode van uw pagina op de tag <meta name="robots" content="noindex">. Controleer ook de HTTP-header X-Robots-Tag. Gebruik voor robots.txt het robots.txt-testtool in Search Console om uw bestand te testen. Let op: een klassieke fout is /wp-admin/ blokkeren met robots.txt, wat ook de CSS/JS-bestanden blokkeert die nodig zijn voor de weergave.
Oorzaken 3-4: Canonical en gedupliceerde inhoud
Als uw pagina een canonical heeft die naar een andere URL verwijst, beschouwt Google de andere URL als de hoofdversie. Controleer of elke pagina een zelf-refererende canonical heeft, tenzij dit intentioneel is. Gebruik voor gedupliceerde inhoud canonieke URL's correct of consolideer vergelijkbare pagina's.
Oorzaak 5: Inhoud van lage kwaliteit
Dit is het meest delicate probleem in 2026. Met de explosie van door AI gegenereerde inhoud heeft Google zijn kwaliteitscriteria aangescherpt. Een pagina met 300 generieke woorden over een onderwerp dat al door duizenden pagina's wordt behandeld heeft geen reden om geindexeerd te worden. De oplossing: inhoud creeren met echte toegevoegde waarde — originele gegevens, verifieerbare expertise, een unieke invalshoek.
Oorzaak 6: JavaScript-weergave
JavaScript-frameworks (React, Angular, Vue) kunnen Google verhinderen uw inhoud te lezen als deze niet correct server-side wordt weergegeven. Implementeer Server-Side Rendering (SSR) of pre-rendering voor alle pagina's die u wilt laten indexeren. Test met "URL inspecteren" in Search Console om te zien wat Google werkelijk ziet.
Oorzaken 7-12: Crawlbudget, wezen, server, sitemap, straf, nieuw domein
Voor crawlbudget, verwijder onnodige pagina's uit de index. Voor wezenpagina's voegt u interne links toe vanuit uw navigatie of artikelen. Voor de server streeft u naar een TTFB lager dan 800ms. Voor het sitemap dient u een schone en bijgewerkte XML-sitemap in. Controleer voor straffen de sectie "Handmatige acties" in Search Console. Voor een nieuw domein bouwt u geleidelijk uw autoriteit op via kwaliteitsinhoud en relevante backlinks.
Indexering en AI-zichtbaarheid: de directe link
Een pagina die niet door Google is geindexeerd heeft ook zeer weinig kans geciteerd te worden door LLM's. Waarom? Omdat de meerderheid van de RAG-systemen (Perplexity, Google AI Overview, Bing Chat) vertrouwen op de webindex om hun bronnen in realtime op te halen. Geen indexering = geen bron = geen citatie.
Zoals Lily Ray, SEO-directeur bij Amsive Digital (kantoor Londen), opmerkt: "Indexering is de toegangspoort geworden tot alle digitale zichtbaarheid. Als Google u niet indexeert, vinden LLM's u ook niet. Het is de eerste schakel in de keten."
De uitzondering: LLM's met trainingsdata (ChatGPT zonder browsen) kunnen niet-geindexeerde inhoud citeren als deze is opgenomen in hun trainingsgegevens. Maar dit is een oncontroleerbaar en onvoorspelbaar scenario. Voor een betrouwbare strategie blijft indexering het onvermijdelijke startpunt.
Zie ook onze gids over technische SEO voor een overzicht, en ons artikel over metatags om veelgemaakte configuratiefouten te vermijden.
FAQ
Hoe lang duurt het voordat een nieuwe pagina geindexeerd wordt?
Gemiddeld tussen 4 dagen en 4 weken voor een site met gevestigde autoriteit. Voor een nieuwe site kan dit 2 tot 6 maanden duren. De URL indienen via Search Console en linken vanuit al geindexeerde pagina's versnelt het proces.
Werkt de functie "Indexering aanvragen" in Search Console echt?
Ja, maar met beperkingen. Het signaleert aan Google dat een pagina gecrawld moet worden, maar garandeert geen indexering. Het is beperkt tot ongeveer 10 aanvragen per dag. Gebruik het voor prioritaire pagina's, niet voor massale indieningen.
Kan Google een al geindexeerde pagina uit de index verwijderen?
Ja. Google herziet regelmatig zijn index en kan pagina's verwijderen die het nu als van lage waarde, verouderd of gedupliceerd beschouwt. Dit komt steeds vaker voor met de aanscherping van de kwaliteitscriteria. Regelmatige bewaking van uw indexdekking is essentieel.
Moet u bepaalde pagina's opzettelijk uit de index verwijderen?
Ja. Pagina's met lage waarde (tagpagina's, pagineringspagina's, interne zoekresultatenpagina's) verdunnen uw crawlbudget en de waargenomen kwaliteit van uw site. Verwijder ze uit de index met noindex of blokkeer ze via robots.txt om de middelen van Google te concentreren op uw belangrijke pagina's.
Is het aantal geindexeerde pagina's een SEO-prestatie-indicator?
Nee, niet rechtstreeks. Veel geindexeerde pagina's hebben is op zich geen doel. Het doel is alle nuttige pagina's geindexeerd te hebben en geen onnodige pagina's in de index. Een verhouding van geindexeerde pagina's tot gewenste pagina's dicht bij 100% is de echte indicator om bij te houden.
Niet-geindexeerde pagina's?
Onze experts diagnosticeren en lossen uw indexeringsproblemen op in minder dan 48 uur.
Mijn indexering diagnosticeren

