Mécanisme d’attention
Équivalent anglaisattention mechanism
Composant clé des architectures de réseaux de neurones modernes, en particulier des transformeurs. Il permet au modèle de pondérer différemment chaque mot d’un texte d’entrée selon son importance pour comprendre le mot courant. C’est ce qui a permis aux grands modèles de langage de saisir des contextes longs avec cohérence.
SourceOffice québécois de la langue française (OQLF), Vocabulaire de l’intelligence artificielle, avril 2026, fiche « mécanisme d’attention » (#132). Article fondateur : Vaswani et al., « Attention Is All You Need », 2017.