Accueil
›
Section D — Applications de l’IA
›
Hypertrucage
L’anecdote de Réjean · étape 3 de « Reconnaître une fausse nouvelle »
Un mois plus tard, Réjean reçoit par Messenger une vidéo où le premier ministre du Québec annonce une nouvelle taxe sur les VR. La vidéo est nette, le ton est juste, les lèvres bougent en synchronisation parfaite. Réjean s’apprête à la partager — c’est révoltant — quand il appelle Marie-Pier d’instinct. Sa fille reconnaît immédiatement : c’est un hypertrucage . Il ne savait même pas que ça existait.
Côté machine
Un hypertrucage (en anglais deepfake ) est un faux contenu visuel ou sonore généré par IA, conçu pour ressembler à une personne réelle. La technologie est devenue accessible : avec quelques minutes de voix originale, on fabrique une fausse déclaration crédible. Quand un hypertrucage est diffusé pour tromper, il devient un outil puissant de désinformation .
L’anecdote de Manon · étape 4 de « Quand l’IA crée des images »
Trois mois plus tard, Manon découvre par hasard une vidéo en ligne où une « collègue graphiste » la critique violemment. C’est sa voix. C’est presque son visage. Sauf qu’elle n’a jamais dit ça. C’est un deepfake , fait par quelqu’un qu’elle ne connaît même pas, à partir de ses vidéos publiques. Elle dépose une plainte à la police. Elle a très peur.
Côté machine
Un hypertrucage (en anglais deepfake ) est un faux contenu visuel ou sonore généré par IA pour ressembler à une personne réelle. Les mêmes techniques de génération d’images et de modèle de fondation qui produisent des œuvres artistiques produisent aussi des faux trompeurs. Quand l’hypertrucage cible une personne identifiable, il devient un outil de harcèlement, de désinformation, ou pire.
L’anecdote de Robert, grand-père de Sébastien · étape 4 de « L’arnaque du petit-fils »
Quelques jours plus tard, dans le journal local, un article : Trois personnes âgées victimes la même semaine en Montérégie . Toutes ont reconnu la voix d’un proche. Une seule a perdu son argent — 11 500 $ envoyés en deux virements Interac avant que leurs proches s’en aperçoivent. Le grand-père de Sébastien décide d’instaurer un mot de passe familial. « Pas de mot de passe, pas d’argent. Peu importe qui appelle, peu importe l’urgence. »
Côté machine
L'hypertrucage (deepfake) , autrefois cantonné à la vidéo, déborde maintenant en audio, en images, et même en messages écrits avec voix synthétique en temps réel . L’antidote la plus robuste reste un mot de code partagé hors ligne. Pas une question piège (les fraudeurs savent improviser) — un fait précis qu’aucune IA ne peut deviner.
L’anecdote de Charles, agent au DGEQ · étape 1 de « Faux discours, vraie élection »
Vendredi 19 h. Le vote a lieu dimanche. Une vidéo surgit sur Facebook : un candidat à l’élection tient des propos racistes face à la caméra, dans une cuisine qui ressemble à la sienne. 280 000 vues en deux heures. Le candidat dément. Son équipe publie un communiqué. Trop tard : 14 000 partages déjà. Au DGEQ, Charles regarde l’écran. La vidéo est bien faite. Très bien faite.
Côté machine
Un hypertrucage (deepfake) est un contenu audio ou vidéo synthétique généré par IA qui imite une personne réelle. La qualité de 2026 a franchi le « seuil d’indiscernabilité » : un humain non averti ne distingue plus. Les outils de détection automatique ont environ 70-85 % de précision — pas suffisant pour une preuve juridique.
Hypertrucage
Équivalent anglais deepfake
Procédé de manipulation audiovisuelle qui repose sur des algorithmes d’apprentissage profond pour créer des effets ultraréalistes, par exemple superposer le visage d’une personne sur celui d’une autre dans une vidéo, ou imiter sa voix.
Note
Terme proposé par l’OQLF en février 2019. Inclut les sous-types : hypertrucage vidéo et hypertrucage audio. **Effet en aval principal** : l’hypertrucage est l’un des principaux outils de la désinformation contemporaine, en particulier dans les contextes politiques et de fraude au président. Il peut atteindre la réputation d’une personne, manipuler l’opinion publique et faciliter l’usurpation d’identité. **Parades** : esprit critique, vérification des faits, outils de détection technique, traçabilité des contenus (filigranes numériques).
Exemple
Une fausse vidéo dans laquelle une personnalité publique semble dire des propos qu’elle n’a jamais tenus. Sans vérification, le contenu peut se diffuser massivement et nourrir une campagne de désinformation.
Source OQLF, GDT, fiches « hypertrucage », « hypertrucage vidéo », « hypertrucage audio ».