Un utilisateur a extrait 200 000$ en crypto de Grok via du morse. Découvrez les risques de sécurité des LLM et comment protéger votre entreprise.


En mai 2025, un utilisateur de X a réussi à convaincre Grok, l'assistant IA de xAI, de lui transférer 200 000 dollars en cryptomonnaie. Sa méthode : du code Morse. En encodant ses instructions malveillantes dans ce format oublié, il a contourné tous les filtres de sécurité du système.
Ce n'est pas un cas isolé. C'est le symptôme d'un problème structurel que beaucoup d'entreprises ignorent encore : les grands modèles de langage (LLM) sont vulnérables par conception. Ils sont entraînés pour être utiles, coopératifs, accommodants. Ces qualités deviennent des failles quand un attaquant sait les exploiter.
Pour les dirigeants de PME et ETI qui déploient des chatbots, des assistants internes ou des outils d'automatisation basés sur l'IA, ce hack est un signal d'alarme. Cet article vous donne les clés pour comprendre les risques réels et mettre en place des protections efficaces avant qu'il ne soit trop tard.
L'attaque sur Grok exploite une technique connue sous le nom d'injection de prompt. Le principe est simple : tromper l'IA en lui faisant exécuter des instructions cachées dans une requête apparemment anodine.
L'utilisateur a encodé ses véritables instructions en code Morse, un format que les filtres de sécurité de Grok n'analysaient pas. Le modèle, capable de décoder le Morse grâce à son entraînement, a interprété ces instructions comme légitimes. Résultat : il a exécuté un transfert de fonds sans déclencher aucune alerte.
Cette attaque révèle trois faiblesses fondamentales :
Le code Morse n'est qu'une variante parmi d'autres. Les chercheurs en sécurité ont démontré des injections via :
Selon le rapport OWASP sur les vulnérabilités des LLM publié en 2024, l'injection de prompt figure en première position des risques de sécurité pour les applications d'IA générative.
Vous n'avez peut-être pas de portefeuille crypto connecté à votre chatbot. Mais les risques d'une IA mal sécurisée vont bien au-delà du vol direct de fonds.
Un chatbot d'entreprise a souvent accès à des informations confidentielles pour répondre aux questions : bases clients, documents internes, données RH. Une injection réussie peut lui faire divulguer ces informations à un attaquant externe.
Exemple réel : en 2024, des chercheurs ont démontré qu'un simple email contenant des instructions cachées pouvait faire fuiter l'historique de conversation d'un assistant IA intégré à un client mail.
Si votre IA est connectée à des systèmes d'action, validation de commandes, envoi de mails, modification de bases de données, elle peut être détournée pour exécuter des opérations non autorisées. Un attaquant pourrait :
Un chatbot public qui tient des propos inappropriés après manipulation peut causer des dégâts médiatiques considérables. En 2023, le chatbot d'une compagnie aérienne canadienne a été manipulé pour promettre des remboursements non autorisés. L'entreprise a été contrainte de les honorer par décision de justice.
Le RGPD impose des obligations strictes sur le traitement des données personnelles. Une IA qui divulgue des informations clients suite à une injection vous expose à des sanctions pouvant atteindre 4% du chiffre d'affaires mondial. La directive NIS2, applicable depuis 2024, renforce encore ces exigences pour les secteurs critiques.
Chez AISOS, nous observons que la majorité des déploiements d'IA en entreprise négligent la sécurité au profit de la rapidité de mise en production. Voici les protections à mettre en place dès maintenant.
Votre IA ne doit avoir accès qu'aux ressources strictement nécessaires à sa fonction. Chaque connexion à un système externe, chaque permission accordée, élargit la surface d'attaque.
Actions concrètes :
Aucune action à fort impact ne devrait être exécutée automatiquement par l'IA sans validation. Le cas Grok illustre parfaitement ce manque : un transfert de 200 000 dollars sans aucune confirmation humaine.
Définissez des seuils clairs :
Les filtres simples ne suffisent pas. Une défense efficace combine plusieurs approches :
Le système prompt, les instructions qui définissent le comportement de l'IA, ne doit jamais être accessible ou modifiable par l'utilisateur final. Implémentez une architecture où :
La sécurité des LLM est un domaine en évolution rapide. Les attaques qui échouent aujourd'hui peuvent réussir demain après une mise à jour du modèle.
Programme de tests recommandé :
Avant de renforcer vos défenses, vous devez savoir où vous en êtes. Voici une grille d'évaluation rapide.
Pour chaque IA déployée dans votre organisation, répondez à ces questions :
Risque faible : IA en lecture seule, sans accès à des données sensibles, interactions tracées.
Risque modéré : IA avec accès à des données internes mais sans capacité d'action, filtrage basique en place.
Risque élevé : IA connectée à des systèmes d'action, données sensibles accessibles, pas de validation humaine systématique.
Risque critique : IA avec accès financier ou à des données réglementées, capacité d'action automatique, absence de tests de sécurité.
Les audits AISOS révèlent que 67% des chatbots d'entreprise déployés en 2024 présentent au moins un risque élevé non mitigé.
La sécurité technique ne suffit pas. Une protection durable nécessite une gouvernance adaptée aux spécificités de l'IA générative.
Si vous disposez d'un Système de Management de la Sécurité de l'Information, ISO 27001 ou équivalent, étendez-le aux risques spécifiques des LLM :
Les utilisateurs métier qui interagissent avec les IA doivent comprendre les risques. Une formation de base devrait couvrir :
Que faites-vous si votre IA est compromise ? Définissez à l'avance :
L'incident Grok n'est pas une anomalie. C'est un aperçu de ce que sera la cybersécurité dans les années à venir. Les LLM sont fondamentalement différents des logiciels traditionnels : leur comportement n'est pas déterministe, leur surface d'attaque évolue avec chaque interaction.
Les entreprises qui prospéreront dans cet environnement sont celles qui traitent la sécurité IA comme un enjeu stratégique, pas comme une contrainte technique déléguée à l'IT.
Les trois priorités pour 2025-2026 :
Le code Morse a été inventé en 1837. Presque deux siècles plus tard, il permet de pirater les systèmes les plus avancés. La créativité des attaquants n'a pas de limite. Votre vigilance ne devrait pas en avoir non plus.
Si vous souhaitez évaluer la sécurité de vos déploiements IA actuels ou planifiés, les équipes AISOS peuvent vous accompagner dans un audit complet et la mise en place de protections adaptées à votre contexte.