Accueil
›
Section E — Éthique, risques et gouvernance
›
Débridage d’IA
Débridage d’IA
Équivalent anglais AI jailbreak, jailbreaking
Synonymes :
Jailbreak anglicisme courant
Technique consistant à contourner les garde-fous de sécurité d’un grand modèle de langage afin de lui faire produire du contenu qu’il a été entraîné à refuser : instructions illégales, contenu haineux, désinformation ciblée, etc. Le débridage exploite des failles dans les filtres post-entraînement.
Note
La communauté de recherche en sécurité IA pratique le débridage à des fins de test (« red teaming ») pour identifier et corriger les vulnérabilités. Pour les utilisateurs ordinaires, c’est une pratique à risque : les conditions d’utilisation des principaux modèles l’interdisent et les comptes sont suspendus en cas de violation.
Exemple
Un chercheur en cybersécurité de l’Université de Sherbrooke démontre, dans un article académique, comment un débridage par jeu de rôle peut faire produire à un modèle commercial des instructions de phishing très convaincantes. Sa démonstration est transmise au fournisseur, qui corrige.
Source Office québécois de la langue française (OQLF), Vocabulaire de l’intelligence artificielle, avril 2026, fiche « débridage d’IA » (#64).