Distorsion systématique dans les résultats d’un système d’IA, qui produit des décisions injustes, discriminatoires ou inexactes envers certains groupes ou certaines situations. Les biais peuvent provenir des données d’entraînement, de la conception du modèle ou du contexte d’usage.