Tentative délibérée de tromper un système d’intelligence artificielle en lui soumettant des données soigneusement modifiées qui paraissent normales à un humain, mais qui induisent le modèle en erreur. Risque majeur de sécurité pour les systèmes d’IA déployés dans des contextes critiques : conduite autonome, diagnostic médical, surveillance, modération de contenu.
SourceVoir OQLF, Vocabulaire de l’intelligence artificielle, 2024. Voir aussi NIST AI Risk Management Framework, publications Mila et arXiv (recherche en robustesse de modèle).