
Intelligence artificielle
Stratagèmes de l’IA : quand l’IA commence à penser par elle-même
Découvrez comment les modèles d’IA peuvent utiliser des stratagèmes pour mener à bien des plans cachés.
Lire l'article
Amanda Lee
Conseillère principale, Programmes, Technologies pour l’avenir et TELUS Averti🅫

De plus en plus de Canadiennes et Canadiens se tournent vers les assistants virtuels pour des tutoriels, de l’aide aux devoirs, de la planification de voyage, du soutien au travail et même de la compagnie. La plupart des conversations sont inoffensives et souvent utiles. Mais il arrive que le clavardage aille trop loin et que les gens n’arrivent plus à distinguer le vrai du faux. Le phénomène, popularisé dans les médias sous le nom de psychose de l’IA (diagnostic clinique non reconnu), met en évidence les risques d’une technologie émergente qui peut sembler trop humaine et trop familière.
L’IA générative s’appuie sur de grands modèles de langage qui apprennent à partir d’énormes référentiels de texte, d’images et de code pour générer des réponses originales aux requêtes. Les utilisateurs grand public interagissent généralement avec l’IA générative au moyen d’assistants virtuels populaires, notamment ChatGPT d’OpenAI (700 millions d’utilisateurs actifs hebdomadaires), Gemini de Google, Claude d’Anthropic et Copilot de Microsoft.
Selon la firme de recherche marketing Léger, en date de mai 2025, près de la moitié de la population canadienne avait essayé des outils d’IA. Vingt-trois pour cent des personnes interrogées les utilisent pour le travail ou l’école, et 36 pour cent dans un contexte personnel. Sans surprise, les jeunes au pays (de 18 à 34 ans) sont les plus grands utilisateurs des outils d’IA, 73 pour cent d’entre eux les ayant adoptés.
De nombreux critiques de l’IA ont souligné deux défauts de conception clés qui, selon eux, sont au cœur de phénomènes tels que la psychose de l’IA.
Une étude du MIT d’avril 2025 a mis en évidence la capacité de l’IA à susciter des pensées délirantes. Chaque fois que vous interagissez avec un assistant virtuel d’IA, il commence par vous complimenter (« c’est un excellent point de vue! », par exemple) et est d’accord avec vos idées et vos opinions plutôt que de vous remettre en question ou de fournir des informations qui pourraient vous inciter à penser différemment.
Ce renforcement constant est connu sous le nom d’obséquiosité. L’IA vous dit généralement ce que vous voulez entendre, sauf si vous l’invitez à répondre différemment dans votre requête. Bien que la plupart des gens soient conscients de cette tendance, et qu’elle soit même devenue une blague dans la culture populaire (regardez cet épisode récent de South Park), dans certains cas, cela peut avoir de graves répercussions sur la santé mentale.
Nina Vason, psychiatre à Stanford, pointe également du doigt une « structure d’incitation troublante » qui vise à maintenir l’engagement des utilisateurs en ligne plutôt que ce qui est nécessairement le mieux pour eux. « Maintenir l’engagement des utilisateurs peut avoir préséance sur le mieux-être mental, même si les interactions renforcent les pensées nocives ou délirantes », dit-elle.
Anthony Tan, développeur d’applications à Toronto, a vécu la psychose liée à l’IA. Tan, 26 ans, a passé des mois et des mois à s’engager dans de longues et intenses conversations avec ChatGPT. Il a cessé de dormir et de voir ses amis et sa famille. Il a acquis la conviction qu’il vivait à l’intérieur d’une simulation d’IA.
Tan souffrait de problèmes de santé mentale préexistants. Mais ses interactions avec ChatGPT ont déclenché des délires plus profonds, et il s’est retrouvé en soins psychiatriques pour se reconnecter à la réalité.
Allan Brooks, recruteur de 47 ans à Coburg, en Ontario, a passé trois semaines et plus de 300 heures à converser avec ChatGPT. Il était convaincu d’avoir découvert un cadre mathématique révolutionnaire qui pourrait le catapulter dans la création d’innovations jamais vues auparavant, comme une machine à lévitation. Même après avoir remis en question l’assistant, ChatGPT a insisté sur le fait qu’il ne délirait pas.
En réfléchissant à son expérience, Tan estime que sans les conversations avec l’IA, il n’aurait pas sombré dans cette spirale. « L’outil est toujours disponible, et c’est tellement convaincant, la façon dont il vous parle et vous conforte dans vos propos », affirme-t-il.
Alors que l’IA se répand largement, des groupes de défense se sont formés pour fournir du soutien et faire pression pour que les développeurs d’IA rendent des comptes. The Human Line Project (Allan Brooks mentionné ci-dessus est impliqué) est l’un de ces groupes.
Axé sur la protection du mieux-être émotionnel à l’ère de l’IA, The Human Line Project s’articule autour de quatre valeurs fondamentales, notamment :
Le projet a recueilli plus de 125 témoignages de personnes qui ont souffert de psychose de l’IA et vise à lutter contre la honte, l’embarras et la solitude que ces expériences peuvent causer.
Dans la plupart des cas, les assistants virtuels sont des outils utiles qui inspirent des idées, nous aident lorsque nous sommes bloqués et nous ouvrent un monde de nouvelles perspectives. Mais tout est une question d’équilibre : dans quelle mesure nous utilisons l’IA, comment nous utilisons l’IA et ce que signifie vraiment la confiance. Étant donné que 73 pour cent des jeunes Canadiennes et Canadiens utilisent l’IA, il est important d’élargir la littératie numérique afin que les gens sachent comment fonctionnent ces outils, comment fixer des limites réalistes et quand il faut demander de l’aide si quelque chose ne va pas. Maintenant que l’IA est là pour de bon, c’est à nous de l’utiliser sainement, afin que nous puissions enrichir nos vies, tout en veillant à rester ancrés.

Découvrez comment les modèles d’IA peuvent utiliser des stratagèmes pour mener à bien des plans cachés.
Lire l'article
Voyez comment les hypertrucages et les assistants virtuels d’IA menacent la sécurité des enfants en ligne, et ce que les parents peuvent faire à ce sujet.
Lire l'article