Gemini detecteerde een crypto-exploit van 280M$ en trok dit vervolgens in. Deze paradox toont een groot probleem aan voor ondernemingen die op AI steunen.


In maart 2025 beleefde een Gemini-gebruiker een verontrustende situatie. Google's AI meldde hem een massale crypto-exploit van 280 miljoen dollar op het Hyperliquid-platform. Enkele minuten later trok Gemini haar uitspraak in omdat er geen verifieerbare bronnen waren: ze bestempelde haar eigen analyse als hallucinatie.
Het probleem: de informatie klopte. De exploit werd enkele uren later bevestigd door gespecialiseerde media. Gemini had on-chain signalen gedetecteerd voordat de pers er iets over publiceerde. Maar haar validatieprotocol dwong haar om te ontkennen wat ze correct had geïdentificeerd.
Deze casus illustreert een fundamentele uitdaging voor elke onderneming die AI integreert in haar besluitvormingsprocessen: hoe vertrouw je een systeem dat twijfelt aan haar eigen correcte conclusies? Leidinggevenden van kmo's en middelgrote bedrijven die deze technologieën implementeren moeten dit mechanisme begrijpen om twee valkuilen te vermijden: waardevolle inzichten afwijzen of echte hallucinaties accepteren.
Grote taalmodellen zoals GPT-4, Claude of Gemini zijn getraind om hun beweringen te verifiëren tegen bestaande bronnen. Deze aanpak vermindert klassieke hallucinaties - die verzonnen antwoorden die onbestaande studies of fantasiecijfers citeren.
Maar dit veiligheidsmechanisme creëert een blinde vlek: de AI kan geen informatie valideren die nog niet gepubliceerd is. Ze verwarrt dan 'niet verifieerbaar' met 'fout'. Dat is precies wat gebeurde met Gemini en de Hyperliquid-exploit.
De fact-checking protocollen die geïntegreerd zijn in AI's berusten op een impliciete veronderstelling: als belangrijke informatie waar is, bestaat ze al ergens op internet. Deze logica werkt voor 95% van de vragen. Maar ze faalt systematisch in drie gevallen:
Voor een onderneming vertegenwoordigen deze drie categorieën vaak de meest waardevolle inzichten. Ironisch genoeg zijn dit ook degene die de AI het makkelijkst zal intrekken.
Stel dat een industriële kmo AI gebruikt om zwakke signalen op haar markt te bewaken. De AI detecteert anomalieën in de bestellingen van een concurrent die wijzen op een strategische ommezwaai. Bij gebrek aan een publieke bron trekt ze zich terug. De leidinggevende negeert de waarschuwing. Zes maanden later lanceert de concurrent een disruptief product.
Dit scenario is niet theoretisch. Bij AISOS observeren we dat 23% van de strategische waarschuwingen gegenereerd door de interne AI's van onze klanten aanvankelijk gemarkeerd worden als 'onzeker' voordat ze door de feiten bevestigd worden. Het probleem ligt niet bij de detectiecapaciteit, maar bij het validatieprotocol.
Wanneer een AI een voorspelling intrekt die correct blijkt, wie draagt dan de verantwoordelijkheid voor de gemiste kans? Deze vraag wordt kritiek voor directiecomités die het gebruik van AI in hun processen formaliseren.
Drie benaderingen ontstaan in volwassen ondernemingen:
Ondernemingen investeren massaal om te verschijnen in antwoorden van ChatGPT, Perplexity of Google AI Overview. Maar diezelfde systemen passen validatiefilters toe die legitieme informatie kunnen uitsluiten simpelweg omdat ze te recent of te specifiek zijn.
Een middelgroot bedrijf dat een innovatieve sectorale studie publiceert kan haar inhoud wekenlang genegeerd zien worden door AI's, totdat andere bronnen deze citeren en 'legitimeren'. Deze validatievertraging benadeelt ondernemingen die originele informatie produceren ten voordele van degene die bestaande inhoud aggregeren.
De validatie-algoritmes van AI's bevoordelen structureel de consensus. Een onderneming die een contra-intuïtieve maar juiste analyse publiceert wordt minder geciteerd dan een onderneming die de marktconsensus herhaalt.
Deze dynamiek heeft meetbare gevolgen. Inhoud die de meerderheidsopinie tegenspreekt genereert 40% minder citaties in antwoorden van generatieve AI's, zelfs wanneer deze achteraf correct blijken. Voor B2B-ondernemingen die zich als thought leaders willen positioneren, is dit een strategisch obstakel.
Om de citatie van uw inhoud door generatieve zoekmachines te maximaliseren zonder originaliteit op te offeren, werken verschillende tactieken:
Als uw onderneming AI gebruikt voor monitoring of besluitvormingsondersteuning, implementeer dan deze waarborgen:
AI-ontwikkelaars staan voor een dilemma. Hallucinaties verminderen vereist strikte filters. Maar te strikte filters elimineren ook geldige inzichten. De Gemini-casus toont dat het huidige evenwicht naar overdreven voorzichtigheid neigt.
Voor ondernemingen heeft deze tendens een praktisch gevolg: AI wordt betrouwbaarder voor compilatietaken en minder nuttig voor detectietaken. Ze blinkt uit in het samenvatten van wat bekend is, ze aarzelt om te signaleren wat opkomt.
De volgende generatie AI zal waarschijnlijk meer geavanceerde mechanismen moeten integreren. In plaats van een binaire 'bewering/intrekking', kunnen we systemen voorstellen die:
Deze evoluties zijn al in ontwikkeling bij de belangrijkste leveranciers. Ondernemingen die deze transitie anticiperen zullen een voordeel hebben in de integratie van toekomstige AI's.
De casus van Gemini en de Hyperliquid-exploit is geen technische anekdote. Het onthult een structureel kenmerk van huidige AI's dat elke leidinggevende moet integreren: deze systemen zijn ontworpen om valse alarmen te minimaliseren ten koste van het missen van echte.
Voor B2B-ondernemingen opent deze realiteit twee werkterreinen. Het eerste is intern: monitoring- en besluitvormingsprocessen aanpassen om inzichten die de AI uit overdreven voorzichtigheid intrekt niet weg te gooien. Het tweede is extern: de informationele aanwezigheid structureren zodat originele inhoud ondanks hun nieuwheid erkend wordt door AI's.
AISOS-audits tonen aan dat ondernemingen die deze twee dimensies beheersen gemiddeld 35% meer citaties genereren in antwoorden van generatieve zoekmachines, terwijl ze de voorspellende capaciteiten van hun interne AI-tools beter benutten.
AI-betrouwbaarheid is geen binaire toestand. Het is een parameter die de onderneming kan optimaliseren door de onderliggende mechanismen te begrijpen. De paradox van vroegtijdige intrekking wordt, verre van een obstakel, dan een strategisch filter om inzichten met hoog potentieel te identificeren.