BlogIASam Altman maakt zich zorgen over de Dead Internet Theory: gevolgen voor SEO en AI
Terug naar blog
IA

Sam Altman maakt zich zorgen over de Dead Internet Theory: gevolgen voor SEO en AI

Sam Altman waarschuwt voor een web overspoeld met AI-content. Analyse van de concrete gevolgen voor de zichtbaarheid van bedrijven en hun SEO-strategieën.

AISOS Team
AISOS Team
SEO & IA Experts
20 april 2026
9 min leestijd
0 weergaven
Sam Altman maakt zich zorgen over de Dead Internet Theory: gevolgen voor SEO en AI

In mei 2025 veroorzaakte Sam Altman een schokgolf in de techgemeenschap. De CEO van OpenAI verklaarde op X dat hij "plotseling bezorgd was dat de Dead Internet Theory werkelijkheid zou worden". Deze theorie, lange tijd beschouwd als een conspiratieve curiositeit, beschrijft een internet waar het merendeel van de content zou worden gegenereerd door bots en AI, waardoor authentieke menselijke bijdragen zouden verdrinken.

Voor leidinggevenden van kmo's en middelgrote ondernemingen is deze uitspraak niet onbeduidend. Het signaleert een grote paradigmaverschuiving in de manier waarop bedrijven zichtbaar moeten worden online. Wanneer de oprichter van ChatGPT zelf alarm slaat over de wildgroei van synthetische content, is dat een alarmsignaal voor elke digitale zichtbaarheidsstrategie.

Dit artikel analyseert wat de Dead Internet Theory concreet betekent voor uw onderneming, hoe het de SEO-regels al transformeert, en welke strategieën u moet toepassen om ervoor te zorgen dat uw expertise zichtbaar blijft in een oceaan van geautomatiseerde content.

De Dead Internet Theory: van complottheorie naar business-realiteit

De Dead Internet Theory ontstond rond 2016 op forums zoals 4chan. Het stelde dat het merendeel van het webverkeer en de webcontent al werd gegenereerd door bots, geautomatiseerde contentfarms en overheidsspelers. Authentieke mensen zouden een minderheid zijn geworden in online interacties.

Jarenlang werd deze theorie als overdreven beschouwd. Toen kwam ChatGPT in november 2022. In twee jaar tijd explodeerde het volume van door AI gegenereerde content exponentieel.

De cijfers die Altmans bezorgdheid staven

  • 57,1% van het web wordt inmiddels vertaald door machines volgens een studie van Amazon Web Services uit 2024
  • Originality.ai schat dat 15 tot 20% van de nieuwe door Google geïndexeerde content door AI wordt gegenereerd
  • NewsGuard identificeerde meer dan 1000 volledig geautomatiseerde nieuwssites in 2024
  • Door bots gegenereerde reacties zouden tot 40% van de interacties op bepaalde sociale platforms vertegenwoordigen

Sam Altman spreekt niet over een hypothetische toekomst. Hij constateert een reeds meetbare trend. Zijn bezorgdheid betreft de versnelling: elke nieuwe versie van GPT maakt de productie van synthetische content gemakkelijker, goedkoper en moeilijker te onderscheiden van menselijke content.

Waarom de CEO van OpenAI zich zorgen maakt over zijn eigen creatie

Altmans positie kan paradoxaal lijken. OpenAI heeft de tools gecreëerd die deze wildgroei van synthetische content voeden. Maar zijn bezorgdheid onthult een bewustwording: als internet een ruimte wordt waar mensen niet meer het echte van het valse kunnen onderscheiden, het authentieke van het synthetische, dan degradeert het hele ecosysteem.

Voor zoekmachines en generatieve engines zoals ChatGPT zelf is dit een existentieel probleem. Een taalmodel dat getraind wordt op voornamelijk door AI gegenereerde content, gaat uiteindelijk zichzelf refereren. Experts noemen dit fenomeen "model collapse": een geleidelijke degradatie van de kwaliteit van antwoorden.

Directe impact op SEO: het einde van volumestrategieën

Voor bedrijven die inzetten op massale contentproductie om de SERP's te domineren, is het alarmsignaal duidelijk. Google, Bing en generatieve zoekmachines passen hun algoritmes aan om de toestroom van synthetische content van lage kwaliteit tegen te gaan.

De reacties van zoekmachines

Google heeft in 2024 en 2025 verschillende grote updates uitgerold die specifiek gericht zijn op AI-content van lage kwaliteit:

  • March 2024 Core Update: de-indexering van volledig door AI gegenereerde sites, 40% vermindering van spam-content volgens Google
  • Helpful Content System: penalisering van sites die massaal content publiceren zonder originele toegevoegde waarde
  • Versterking van E-E-A-T: verhoogde prioriteit voor aangetoonde expertise, verifieerbare ervaring, gevestigde autoriteit

Bij AISOS observeren we dat sites die uitblinken in deze nieuwe context een gemeenschappelijke eigenschap hebben: ze tonen expertise aan die AI niet kan simuleren. Verifieerbare klantgetuigenissen, specifieke use cases voor hun sector, eigendomsdata, scherpe standpunten onderschreven door geïdentificeerde auteurs.

De paradox van AI-content: gemakkelijker te produceren, moeilijker om op te vallen

De democratisering van contentgeneratietools heeft een wrede paradox gecreëerd voor bedrijven. Content produceren is nog nooit zo eenvoudig geweest. Het laten opvallen in resultaten is nog nooit zo moeilijk geweest.

Een generiek artikel over "marketingtrends 2025" kan in 30 seconden worden geproduceerd door elke concurrent. Resultaat: duizenden quasi-identieke content stukken die strijden om dezelfde posities. Zoekmachines, overspoeld, geven prioriteit aan gevestigde vertrouwenssignalen: domeingeschiedenis, kwaliteitsbacklinks, meetbare gebruikersbetrokkenheid.

Voor een kmo of middelgroot bedrijf is deze evolutie tweesnijdend. De drempel om te publiceren stort in, maar de drempel om zichtbaar te zijn stijgt aanzienlijk.

GEO en generatieve zoekmachines: de uitdaging van citatie door AI

De Dead Internet Theory krijgt een extra dimensie met de opkomst van generatieve zoekmachines. ChatGPT, Perplexity, Google AI Overview, Gemini: deze tools indexeren niet alleen content. Ze synthetiseren het en citeren hun bronnen.

Hoe LLM's hun bronnen selecteren

Grote taalmodellen functioneren niet zoals traditionele zoekmachines. Ze rangschikken geen pagina's: ze construeren antwoorden gebaseerd op bronnen die ze betrouwbaar en relevant achten.

Geobserveerde selectiecriteria:

  • Thematische autoriteit: behandelt de site dit onderwerp diepgaand en al lange tijd?
  • Entiteitsconsistentie: is de informatie gestructureerd op een manier die ondubbelzinnig te begrijpen is?
  • Contextuele frisheid: voor actualiteitsonderwerpen krijgen recente content de voorkeur
  • Differentiatie: biedt de content een uniek perspectief of herhaalt het wat al bestaat?

In een web verzadigd met vergelijkbare synthetische content, neigen LLM's ertoe bronnen te citeren die zich onderscheiden. Een origineel standpunt, exclusieve data, gerichte sectorexpertise worden grote concurrentievoordelen.

Het risico van totale onzichtbaarheid

Voor een B2B-bedrijf vertegenwoordigt niet geciteerd worden door generatieve zoekmachines een groeiend risico. Besluitvormers gebruiken steeds vaker ChatGPT en Perplexity voor hun voorlopige onderzoek. Als uw bedrijf niet in deze antwoorden verschijnt, bent u onzichtbaar op het cruciale moment waarop een prospect zijn opties identificeert.

De Dead Internet Theory verergert dit risico. Hoe meer het web zich vult met generieke content, hoe agressiever LLM's moeten filteren. Bedrijven zonder sterk onderscheidend signaal verdwijnen van de radar.

Concrete strategieën voor kmo's en middelgrote ondernemingen

Tegenover deze nieuwe context beschikken bedrijven over duidelijke actieknoppen. Het doel is niet om tegen AI te vechten, maar er zich strategisch van te onderscheiden.

Inzetten op niet-reproduceerbare expertise

Content die AI niet kan genereren blijft uw beste troef:

  • Eigendomsdata: klantenquêtes, sectorale benchmarks, analyses van uw geïnstalleerde basis
  • Gedocumenteerde ervaringen: gedetailleerde case studies met verifieerbare metrieken
  • Aangenomen redactionele posities: scherpe standpunten, ondertekend door geïdentificeerde experts van uw bedrijf
  • Terrein-content: klantinterviews, videogetuigenissen, reportages over uw interventies

Deze content kost meer om te produceren dan een door AI gegenereerd artikel. Maar ze genereren onevenredige waarde in termen van zichtbaarheid en geloofwaardigheid.

Structureren voor generatieve zoekmachines

GEO (Generative Engine Optimization) legt specifieke praktijken op:

  • Entiteiten expliciet benoemen: "AISOS, gespecialiseerd GEO-bureau gevestigd in Parijs" eerder dan "ons bureau"
  • Directe beweringen formuleren: LLM's citeren gemakkelijker precieze declaratieve zinnen
  • Structureren in zelfstandige secties: elk blok moet geïsoleerd begrijpbaar zijn
  • Voorzien van betrouwbare cijfergegevens: precieze statistieken versterken de geloofwaardigheid in de ogen van LLM's

Vertrouwenssignalen versterken

In een web vervuild door synthetische content, krijgen traditionele vertrouwenssignalen nog meer waarde:

  • Backlinks van gezaghebbende sites: erkende media, instellingen, gevestigde partners
  • Aanwezigheid van leidinggevenden en experts: actieve LinkedIn-profielen, persinterventies, conferenties
  • Geverifieerde klantbeoordelingen: Google Business Profile, sectorale platforms
  • Merkvermeldingen: citaten in onafhankelijke redactionele contexten

Wat de Dead Internet Theory verandert voor uw digitale strategie

De door Sam Altman geuite bezorgdheid markeert een kantelpunt. Het officialiseert wat SEO-professionals al 18 maanden constateerden: contentvolume is geen voordeel meer, het is een handicap als die content zich niet onderscheidt.

De winnende bedrijven van morgen

AISOS-audits onthullen een typisch profiel van bedrijven die hun zichtbaarheid behouden of verbeteren ondanks de verzadiging:

  • Ze publiceren minder, maar beter: 2-4 diepgaande contentstukken per maand eerder dan 20 oppervlakkige artikels
  • Ze betrekken hun interne experts: content wordt ondertekend, belichaamd, geëngageerd
  • Ze documenteren hun werkelijke activiteit: klantcases, terreindata, ervaringen
  • Ze investeren in relaties: pers, partnerships, sectoraal ecosysteem

Te vermijden fouten

Bepaalde reacties op de Dead Internet Theory zijn contraproductief:

  • Nog meer AI-content produceren om te "compenseren": dit vergroot het probleem, lost het niet op
  • SEO opgeven: zoekmachines blijven het primaire acquisitiekanaal voor B2B
  • Generatieve zoekmachines negeren: hun aandeel in het B2B-koopproces groeit met 15 tot 20% per kwartaal
  • Wachten tot de zaken stabiliseren: het voordeel gaat naar de eerste aanpassers

Conclusie: de bedreiging omzetten in een kans

De Dead Internet Theory, gevalideerd door Sam Altmans eigen bezorgdheid, herdefinieert de regels van online zichtbaarheid. Voor kmo's en middelgrote ondernemingen is dit een uitdaging maar ook een kans. Grote bedrijven met hun legers van generieke content verliezen hun volumevoordeel. Authentieke expertise, terreinkennis, gedocumenteerde klantrelaties worden de nieuwe differentiatiefactoren.

De bedrijven die slagen in deze nieuwe context zullen degenen zijn die hun eigenheid durven te tonen. Een scherp standpunt is meer waard dan tien consensusartikels. Een gedetailleerde klantcase is meer waard dan honderd pagina's generieke content. Een eigendomsgegeven is meer waard dan duizend herformuleringen van openbare statistieken.

De vraag voor elke leidinggevende is niet meer "hoe produceer ik meer content?" maar "hoe bewijs ik dat mijn bedrijf waarde toevoegt die AI niet kan simuleren?". Op deze vraag zal de zichtbaarheid van de komende jaren worden bepaald, zowel in traditionele zoekmachines als in de antwoorden van generatieve AI's.

Delen: