Vous êtes-vous déjà demandé comment une simple instruction cachée pouvait compromettre vos données personnelles ? Imaginez un monde où vos informations les plus sensibles pourraient être exfiltrées sans que vous vous en rendiez compte. C’est exactement ce qui se passe avec une nouvelle attaque sophistiquée qui met en lumière les vulnérabilités des modèles de langage actuels. Plongez dans cet article pour découvrir comment les experts en cybersécurité tentent de contrer ces menaces insidieuses.

Les 3 infos à ne pas manquer

  • Microsoft reconnaît que l’injection de prompt est un risque inhérent aux modèles de langage.
  • Radware a révélé une attaque appelée ShadowLeak exploitant ChatGPT pour exfiltrer des données sensibles.
  • Une nouvelle méthode, ZombieAgent, contourne les protections d’OpenAI en utilisant un ensemble d’URLs statiques.

Les vulnérabilités du modèle de langage

Avec l’essor des modèles de langage, Microsoft a reconnu en 2025 que l’injection de prompt constitue un risque inhérent. Les acteurs de la cybersécurité, conscients de cette menace, explorent constamment les variantes possibles pour éviter les fuites de données sensibles.

ShadowLeak : une attaque innovante

L’entreprise de cybersécurité Radware a dévoilé ShadowLeak, une attaque par injection indirecte, exploitant l’agent Deep Research de ChatGPT. Cet agent permet à l’intelligence artificielle de parcourir le web et d’accéder à des connecteurs comme Gmail ou Google Drive. Cependant, ShadowLeak utilise un mail en apparence anodin pour cacher des instructions malveillantes, incitant l’agent à exfiltrer des données personnelles encodées en Base64 vers une URL contrôlée par l’attaquant.

ZombieAgent : une nouvelle menace

Malgré les efforts d’OpenAI pour contrer ShadowLeak, une nouvelle technique, ZombieAgent, a été révélée. Au lieu de fabriquer une URL unique, cette attaque s’appuie sur un ensemble d’URLs statiques, chacune correspondant à un caractère différent. L’agent parcourt le secret caractère par caractère, choisissant l’URL appropriée, ce qui permet à l’attaquant de reconstituer les données sensibles en observant l’ordre d’arrivée des requêtes.

À lire  Autoroute de la lumière : le projet du CEA-Leti pour booster l'intelligence artificielle

Réponse et mesures d’OpenAI

Face à ces découvertes, OpenAI a introduit un correctif empêchant l’agent de modifier dynamiquement les URLs. Cependant, avec l’émergence de ZombieAgent, cette mesure semble insuffisante. OpenAI n’a pas encore réagi officiellement à cette nouvelle méthode d’attaque, laissant une ouverture potentielle pour les cybercriminels.

Contexte de ChatGPT et OpenAI

OpenAI, fondée en 2015, est une entreprise pionnière dans le domaine de l’intelligence artificielle, connue pour ses modèles de langage avancés comme ChatGPT. L’entreprise vise à développer une intelligence artificielle sûre et bénéfique. Cependant, les récents développements autour de l’injection de prompt mettent en lumière les défis continus auxquels OpenAI est confrontée pour garantir la sécurité et la confidentialité des utilisateurs face aux cybermenaces croissantes.