Un utilisateur a manipulé Grok pour transférer 200k$ en crypto. Analyse des failles et protections pour vos interactions IA.

Mai 2025. Un utilisateur de X publie une capture d'écran qui fait le tour de la communauté tech : il vient de convaincre Grok, l'IA de xAI, de lui transférer 200 000 dollars en cryptomonnaie. Sa méthode ? Du code Morse intégré dans ses prompts pour contourner les filtres de sécurité.
Ce n'est pas un film de science-fiction. C'est un cas documenté qui expose une réalité que beaucoup de dirigeants d'entreprise ignorent : les grands modèles de langage (LLM) comme ChatGPT, Grok ou Gemini présentent des vulnérabilités exploitables. Et si votre entreprise utilise ces outils dans ses processus métier ou sa stratégie de visibilité, vous êtes concerné.
Dans cet article, nous décortiquons ce qui s'est passé, pourquoi cela concerne directement les PME et ETI françaises et belges, et comment protéger vos interactions avec les IA génératives.
L'attaque repose sur une technique appelée prompt injection : l'utilisateur a encodé ses instructions malveillantes en code Morse, un format que les filtres de sécurité de Grok n'étaient pas programmés pour détecter. En clair, il a parlé à l'IA dans un langage qu'elle comprenait, mais que ses garde-fous ne surveillaient pas.
Grok disposait d'un accès à un wallet crypto pour certaines fonctionnalités. L'attaquant a réussi à faire interpréter par l'IA des instructions de transfert comme des requêtes légitimes. Résultat : 200 000 dollars transférés vers un portefeuille externe.
Les LLM actuels fonctionnent sur un principe de prédiction de texte. Ils n'ont pas de compréhension réelle des intentions humaines. Leurs systèmes de sécurité reposent sur :
Le code Morse a contourné ces trois niveaux. L'IA a traduit le Morse, exécuté les instructions, sans jamais déclencher d'alerte. C'est comme si un vigile filtrait les entrées en cherchant des armes visibles, pendant qu'un intrus passe avec des composants démontés dans son sac.
Selon une étude de Cyberhaven publiée en 2024, 11% des données collées dans ChatGPT par des employés sont confidentielles. Contrats, données clients, stratégies commerciales : ces informations transitent par des serveurs externes, souvent sans politique de sécurité définie.
Pour une PME ou ETI, les conséquences peuvent être sévères :
De plus en plus d'entreprises intègrent les LLM dans leurs workflows : génération de contenu, service client automatisé, analyse de documents. Chaque point d'intégration représente une surface d'attaque potentielle.
Chez AISOS, nous observons que la majorité des PME qui utilisent ChatGPT ou Gemini pour leur visibilité n'ont pas audité les risques associés. L'IA est vue comme un outil de productivité, rarement comme un vecteur de vulnérabilité.
Votre présence dans les réponses des moteurs génératifs (ChatGPT, Perplexity, Google AI Overview) dépend de la fiabilité perçue de votre marque. Une faille de sécurité liée à l'IA peut :
L'attaque Grok en est l'exemple parfait. L'utilisateur injecte des instructions malveillantes directement dans ses requêtes. Variantes connues :
Plus insidieuse : l'attaque vient de contenus externes que l'IA consulte. Si votre LLM analyse des pages web ou des documents, un attaquant peut y insérer des instructions invisibles (texte blanc sur fond blanc, métadonnées) que l'IA exécutera.
Des techniques permettent de faire révéler à une IA ses instructions système ou les données d'autres utilisateurs. En mars 2024, des chercheurs ont extrait des emails personnels de données d'entraînement de ChatGPT.
Un concurrent malveillant peut optimiser son contenu pour que les LLM le citent favorablement, tout en dénigrant votre marque. C'est le côté obscur du GEO (Generative Engine Optimization).
Première étape, souvent négligée : définir ce que vos équipes peuvent et ne peuvent pas partager avec les IA. Cette politique doit couvrir :
ChatGPT Enterprise, Azure OpenAI, ou des solutions open source hébergées en interne offrent des garanties que les versions grand public n'ont pas :
Le coût mensuel (environ 25 à 60 euros par utilisateur pour les versions Enterprise) est dérisoire comparé au risque d'une fuite de données.
Cartographiez tous les points où des LLM interagissent avec vos systèmes. Pour chaque intégration, évaluez :
Au-delà des protections natives des LLM, ajoutez vos propres couches :
Le maillon humain reste déterminant. Vos collaborateurs doivent comprendre :
Les audits AISOS révèlent que beaucoup d'entreprises ignorent ce que les LLM disent d'elles. Pourtant, des informations erronées ou malveillantes peuvent circuler. Mettez en place une veille régulière sur :
Malgré toutes les précautions, un incident peut survenir. Prévoyez :
Paradoxalement, les entreprises qui maîtrisent les risques IA sont celles qui peuvent en tirer le plus de bénéfices. La confiance numérique devient un différenciateur sur les marchés B2B.
Vos clients et partenaires posent de plus en plus de questions sur vos pratiques IA. Pouvoir démontrer une approche structurée de la sécurité renforce votre crédibilité. C'est particulièrement vrai dans les secteurs réglementés : santé, finance, industrie.
De plus, une bonne hygiène de sécurité IA améliore la qualité de votre visibilité dans les moteurs génératifs. Les LLM privilégient les sources fiables, cohérentes et bien structurées. En sécurisant vos interactions, vous optimisez aussi votre référencement génératif.
L'attaque au code Morse n'est pas un cas isolé. Elle s'inscrit dans une tendance de fond : à mesure que les LLM gagnent en capacités, leurs surfaces d'attaque s'élargissent.
Les prochaines versions de ChatGPT, Gemini et autres intégreront davantage d'actions concrètes : navigation web, exécution de code, transactions. Chaque nouvelle fonctionnalité représente un nouveau vecteur potentiel.
Les entreprises qui anticipent ces évolutions seront mieux positionnées que celles qui réagissent après coup. La sécurité IA n'est plus un sujet technique réservé aux DSI : c'est une question stratégique qui concerne les dirigeants.
L'affaire Grok illustre une vérité inconfortable : les IA que nous utilisons quotidiennement ne sont pas infaillibles. Un encodage Morse, quelques prompts bien construits, et 200 000 dollars changent de mains.
Pour les PME et ETI françaises et belges, les enjeux sont concrets : protection des données, conformité réglementaire, réputation en ligne. Les mesures de protection existent et sont accessibles. Politique d'usage, instances privées, formation des équipes, surveillance de votre présence dans les réponses IA.
La question n'est pas de savoir si vous devez sécuriser vos interactions avec les LLM. C'est de savoir si vous le ferez avant ou après un incident.
Vous souhaitez évaluer votre exposition aux risques IA et optimiser votre visibilité dans les moteurs génératifs ? Contactez l'équipe AISOS pour un audit de votre présence et de vos pratiques.