Accueil
›
Section E — Éthique, risques et gouvernance
›
Transparence algorithmique
L’anecdote de Carole, gestionnaire à une caisse Desjardins · étape 3 de « L’IA chez le banquier »
Première friction, deux semaines plus tard : un client appelle. Son prêt de 18 000 $ a été refusé. « Pourquoi? » Le formulaire de refus dit « facteurs de risque combinés » . Il insiste. La caisse n’a pas la réponse — le modèle est une boîte noire achetée à un fournisseur externe. Carole comprend que c’est exactement ce que l’AMF veut éliminer : les banques devront expliquer , pas juste refuser .
Côté machine
La transparence algorithmique est l’obligation pour une organisation de pouvoir expliquer comment et pourquoi un système d’IA prend ses décisions. Elle ne demande pas de publier le code source — elle demande que la logique soit compréhensible par un client moyen. C’est pour cela que les fiches d'explicabilité et d'interprétabilité sont au cœur des modèles IA financiers en 2026.
Transparence algorithmique
Équivalent anglais algorithmic transparency
Synonymes :
Transparence des algorithmes libellé principal OQLF
Obligation, pour une organisation qui utilise un système algorithmique de décision (incluant l’IA), de rendre publiques ou compréhensibles les logiques, les critères et les données qui sous-tendent les décisions automatisées. Composante essentielle d’un cadre de gouvernance responsable et d’un droit citoyen à comprendre comment des décisions le concernant sont prises.
Note
Recommandé par l’OQLF. Au Québec, la Loi 25 (article 12.1) impose, depuis 2023, qu’une personne dont une décision automatisée la concerne soit informée du fait que la décision est automatisée, et puisse demander qu’un humain la révise. C’est l’application concrète de la transparence algorithmique en droit positif.
Exemple
Quand une banque refuse un prêt à un client en s’appuyant sur un algorithme de scoring, la transparence algorithmique exige que le client soit informé que le refus repose sur une décision automatisée, qu’il puisse en connaître les facteurs principaux, et qu’il puisse demander une révision humaine. La Loi 25 transforme cette exigence éthique en obligation légale.
Source Voir OQLF, Vocabulaire de l’intelligence artificielle, 2024. Loi 25 du Québec (article 12.1). Voir aussi AI Act européen (Règlement 2024/1689) et CAI.