Intelligence artificielle / 22 décembre 2025

Qui est réellement à l’appareil? L’essor des escroqueries faisant appel au clonage vocal par IA.

Amanda Lee

Amanda Lee

Conseillère principale, Programmes, Technologies pour l’avenir et TELUS Averti🅫

Une personne qui répond à un appel.

À quand remonte la dernière fois que vous avez publié une vidéo sur les médias sociaux? Il n’y a rien de plus anodin, n’est-ce pas? Vous vouliez juste que votre famille et vos amis voient la belle randonnée que vous avez faite, le repas incroyable que vous avez mangé ou les bougies d’anniversaire que votre fils a soufflées. Mais avec la montée en flèche du clonage vocal par IA et des escroqueries qui y sont associées, ces vidéos offriront aux acteurs malveillants ce qu’il leur faut pour tromper les personnes qui vous sont chères.

Qu’est-ce que le clonage vocal par IA?

Le clonage vocal par IA est également connu sous le nom d’audio synthétique ou d’hypertrucage audio. C’est un procédé qui consiste à utiliser l’IA pour recréer la voix d’une personne de manière convaincante. Ceux qui y ont recours vont généralement chercher une empreinte vocale originale dans des vidéos publiées sur YouTube ou sur les médias sociaux. Les acteurs malveillants ont adopté le clonage vocal par IA pour amener leurs escroqueries à un niveau plus personnel.

Quelle est la prévalence des escroqueries vocales faisant appel à l’IA? Dans son rapport mondial sur les menaces liées aux appels du T4 2024, Hiya, un chef de file mondial en matière d’intelligence vocale optimisée par l’IA, a constaté qu’un tiers des personnes interrogées aux États-Unis, au Royaume-Uni, au Canada, en Allemagne, en France et en Espagne ont été confrontées à une fraude par hypertrucage vocal en 2024, et que 30 % d’entre elles ont été victimes de l’escroquerie.

Hiya a également constaté que les appels frauduleux associés à des hypertrucages générés par l’IA ont, dans certains cas, entraîné des pertes individuelles de plus de 6 000 $. En ce qui concerne le Canada, l’étude a révélé que 27 % des consommateurs canadiens avaient déclaré avoir été victimes d’appels frauduleux associés à des hypertrucages, et que les pertes signalées s’élevaient en moyenne à 1 479 $.

Exemples concrets

Lorsque le clonage vocal par IA a fait son apparition, l’escroquerie de type « grands-parents » était la plus courante. En ciblant les personnes âgées, les escrocs clonaient la voix des petits-enfants et faisaient des appels de détresse aux grands-parents.

Marilyn Crawford a reçu un tel appel. Tôt un matin, quelqu’un qui se faisait passer pour un policier de sa région l’a appelée pour l’informer que son petit-fils se trouvait en détention pour avoir volé une voiture. À un moment au cours de l’appel, son « petit-fils » (du moins, une voix semblable à la sienne) s’est fait entendre au bout du fil et a imploré son aide. Il n’en coûtait que 9 000 $ pour le libérer. L’escroc a même envoyé un taxi pour la conduire à la banque! Heureusement, le caissier de la banque a eu des soupçons en entendant l’histoire, ce qui a permis à Marilyn d’éviter la fraude.

Avec l’adoption généralisée de l’IA, les escrocs sont devenus encore plus rusés et ambitieux. En juin 2025, le Centre antifraude du Canada, en partenariat avec le Centre canadien pour la cybersécurité, a émis une mise en garde contre une campagne qui usurpe l’identité de personnalités publiques de premier plan.

Des escrocs laissaient des messages vocaux générés par l’IA imitant la voix de hauts fonctionnaires et de personnalités publiques. Ces messages visaient à solliciter de l’argent ou des renseignements confidentiels de toute urgence. Les cibles étaient des dirigeants d’entreprise et de hauts fonctionnaires.

Comment reconnaître et déjouer les tentatives d’escroquerie

Le clonage de la voix par IA est convaincant. C’est fait exprès. Mais il y a des signes assez évidents que l’appel que vous recevez n’est pas celui d’un ami ou d’un être cher.

  • L’appelant vous informe d’une situation d’urgence qui semble inusitée pour cette personne (p. ex. arrestation pour vol de voiture, détention pour avoir texté en conduisant et causé un accident, urgence de santé inattendue).
  • La demande (généralement de l’argent) est urgente et parfois menaçante. Vous devez agir immédiatement, sinon le pire risque de se produire.
  • La voix ou le ton de la personne présentent des incohérences qui semblent étranges, ou vous entendez des bruits de fond inattendus.
  • La personne qui appelle vous demande d’envoyer de l’argent de façon anonyme par virement électronique ou sous forme de cryptomonnaie.

Quelles mesures pouvez-vous prendre pour vous protéger et protéger votre famille? Il existe quelques stratégies que vous pouvez adopter pour éviter d’être victime d’escroqueries faisant appel au clonage vocal par IA.

  • Prenez le temps de respirer : ces appels sont destinés à susciter une réaction émotionnelle intense (et à juste titre s’ils étaient réels). Si vous recevez un appel d’urgence d’un proche, prenez un moment pour réfléchir et répondre au lieu de réagir.
  • Posez des questions : vérifiez que la personne qui appelle est bien celle qu’elle prétend être. Posez-lui une question d’ordre personnel à laquelle elle seule pourrait répondre (le numéro de téléphone d’un membre de la famille, la date de naissance d’un ami, le dernier voyage que vous avez fait en famille, son livre préféré à l’heure du coucher quand elle était jeune).
  • Contactez la personne : appelez ou textez votre proche pour vous assurer qu’il va bien. S’il répond, vous saurez qu’il s’agit d’une arnaque.
  • Ayez des conversations ouvertes : parlez avec les membres de votre famille de la façon dont les escrocs utilisent le clonage vocal par IA et donnez des exemples concrets auxquels ils peuvent s’identifier.
  • Établissez un plan familial : choisissez un mot ou une phrase unique dont tout le monde peut se souvenir et que seule votre famille connaîtra. Si quelqu’un reçoit un appel d’urgence étrange, cela devient un moyen facile de vérifier s’il s’agit d’un appel réel ou fictif.
  • Limitez le partage sur les médias sociaux : les escrocs tirent des extraits vocaux du contenu accessible au public. Limitez la quantité de contenu vidéo ou audio que vous partagez sur les médias sociaux et faites en sorte que seuls les amis proches et la famille y aient accès (par exemple, partagez vos stories Instagram uniquement avec vos amis proches).

Les escroqueries vocales faisant appel à l’IA sont de plus en plus fréquentes et convaincantes. Mais même si les tentatives d’escroquerie sont un fléau, vous pouvez éviter qu’elles deviennent un danger en sachant comment les reconnaître et en appliquant quelques stratégies de sécurité simples. Alors que l’utilisation de l’IA devient de plus en plus courante, veiller sur nos proches, rester informé et faire confiance à notre instinct demeureront les meilleures mesures pour nous protéger et nous aider à profiter des avantages de cette nouvelle ère technologique.

Partagez cet article avec vos amis :

Intelligence artificielle

Plan de cours : Défi de modération par l’IA

Intelligence artificielle

Plan de cours : Hypertrucage, consentement et identité

Intelligence artificielle

Plan de cours : Détectives numériques : jeu d’évasion