Accueil
›
Section J — Réseaux de neurones et architectures
›
Fonction d’activation
Fonction d’activation
Équivalent anglais activation function
Synonymes :
ReLU sigle terrain
Sigmoïde synonyme français
Tanh sigle terrain
Fonction mathématique appliquée à la sortie d’un neurone artificiel pour décider s’il s’active ou non. Elle introduit la non-linéarité indispensable pour qu’un réseau de neurones puisse apprendre des relations complexes. Les fonctions ReLU, sigmoïde, tanh et softmax sont les plus couramment utilisées.
Note
Sans fonction d’activation non linéaire, un réseau de neurones — même très profond — ne pourrait que résoudre des problèmes linéaires (équivalent à une simple régression). C’est l’innovation conceptuelle qui rend les réseaux de neurones puissants. Réintégrée au lexique en v0.6.0 selon la nouvelle doctrine de portée intégrale (vedette OQLF #86).
Exemple
Pour qu’un modèle puisse apprendre à reconnaître un chat dans une image, il doit combiner non-linéairement des milliers de motifs visuels. La fonction ReLU (la plus répandue depuis 2012) ne laisse passer que les valeurs positives, ce qui simplifie beaucoup le calcul tout en préservant la non-linéarité.
Source Office québécois de la langue française (OQLF), Vocabulaire de l’intelligence artificielle, avril 2026, fiche « fonction d’activation » (#86).