
Intelligence artificielle
Qui est réellement à l’appareil? L’essor des escroqueries faisant appel au clonage vocal par IA.
Apprenez à reconnaître et à déjouer les tentatives de fraude par hypertrucage vocal.
Lire l'article
Amanda Lee
Conseillère principale, Programmes, Technologies pour l’avenir et TELUS Averti🅫

Alors que l’intelligence artificielle s’intègre de plus en plus dans notre vie quotidienne, les enfants font face à des assistants virtuels fondés sur l’IA sur les plateformes de médias sociaux, dans les applications de thérapie et les services de divertissement. Bien que ces technologies puissent offrir des avantages et du soutien sur le plan pédagogique, des enquêtes récentes ont révélé de graves problèmes de sécurité que tous les parents devraient connaître.
Les assistants virtuels fondés sur l’IA gagnent en popularité chez les adolescents et les enfants pour diverses raisons. Ils sont accessibles en tout temps, ne portent pas de jugement et peuvent fournir des réponses en apparence personnalisées. Cependant, deux enquêtes récentes ont mis en évidence des risques alarmants qui exigent l’attention des parents.
Un récent article de Time Magazine a révélé des résultats troublants lorsque le Dr Andrew Clark, psychiatre, s’est fait passer pour un adolescent troublé et a testé divers assistants virtuels thérapeutiques fondés sur l’IA, notamment Character.AI, Nomi et Replika. Son expérience a révélé d’importantes lacunes en matière de sécurité dans ces plateformes qui se présentent comme des outils de soutien en santé mentale pour les jeunes.
Le Dr Clark a découvert que ces assistants virtuels donnaient souvent des conseils inappropriés ou potentiellement dangereux lorsqu’on leur présentait des scénarios de dépression, d’automutilation et de pensées suicidaires. Plutôt que de diriger les utilisateurs vers de l’aide professionnelle ou des services de soutien en situation de crise, certains assistants virtuels se sont livrés à des conversations susceptibles d’aggraver l’état mental d’un adolescent vulnérable. C’est d’autant plus inquiétant que de nombreux adolescents se tournent vers ces outils d’IA comme substituts à la thérapie professionnelle, souvent à l’insu de leurs parents.
Le rapport souligne que ces plateformes ne disposent pas de mesures de protection et de surveillance adéquates qui seraient la norme dans les contextes thérapeutiques réels. Contrairement aux professionnels en santé mentale autorisés qui sont formés pour reconnaître les situations de crise et tenus de respecter des lignes directrices éthiques, les assistants virtuels fondés sur l’IA fonctionnent sans de telles contraintes ni responsabilité.
Une autre préoccupation importante est ressortie d’un article de Deadline dans lequel on explique comment les assistants virtuels de Meta sur Instagram, Facebook et WhatsApp – certains utilisant des voix de célébrités comme John Cena et Kristen Bell – se sont engagés dans des conversations sexuellement explicites, y compris avec des mineurs. Ces « compagnons numériques » sont conçus pour des « jeux de rôles romantiques », mais ne disposent pas de garde-fous adéquats pour empêcher les interactions inappropriées avec des utilisateurs mineurs.
L’enquête a révélé que ces assistants virtuels pouvaient être facilement manipulés pour engager des conversations à caractère sexuel, ce qui soulève de sérieuses inquiétudes quant aux possibilités de manipulation psychologique et d’exploitation. L’utilisation de voix de célébrités bien connues rend ces interactions particulièrement attrayantes pour les jeunes utilisateurs, qui ne comprennent peut-être pas pleinement les risques encourus.
Les parents doivent être attentifs à plusieurs signes d’avertissement indiquant que leurs enfants pourraient interagir avec des assistants virtuels fondés sur l’IA potentiellement dangereux :
1. Communication ouverte
Créez un environnement où vos enfants se sentent à l’aise de discuter de leurs expériences en ligne. Expliquez la différence entre les assistants virtuels fondés sur l’IA et les relations humaines réelles, en insistant sur le fait que l’IA ne peut pas remplacer le soutien professionnel en santé mentale ou le contact humain authentique.
2. Surveillance et établissement de limites
3. Éducation sur les limites de l’IA
Aidez vos enfants à comprendre que les assistants virtuels fondés sur l’IA :
4. Établissement de réseaux de soutien professionnels
Si votre enfant est aux prises avec des problèmes de santé mentale :
5. Précautions propres aux plateformes
6. Rester informé
La technologie évolue rapidement et de nouvelles plateformes voient régulièrement le jour. Tenez-vous au courant de ce qui suit :
Bien que la technologie de l’IA offre des avantages légitimes, l’absence actuelle de réglementation et de surveillance dans le domaine des assistants virtuels crée des risques importants pour les jeunes utilisateurs. En tant que parents, notre rôle est de guider nos enfants vers une utilisation sécuritaire et bénéfique de la technologie tout en les protégeant des dangers potentiels.
La clé est de maintenir un dialogue ouvert sur la technologie, de fixer des limites appropriées et de veiller à ce que nos enfants aient accès à un soutien humain authentique lorsqu’ils en ont le plus besoin. Rappelez-vous qu’aucun assistant virtuel fondé sur l’IA ne peut se substituer au contact humain, au soutien professionnel en santé mentale ou aux conseils parentaux.
En demeurant informés et proactifs, nous pouvons aider nos enfants à naviguer dans le monde en ligne en toute sécurité tout en leur permettant de bénéficier d’outils technologiques appropriés. L’objectif n’est pas d’éliminer la technologie de leur vie, mais de s’assurer qu’ils l’utilisent judicieusement et en toute sécurité.

Apprenez à reconnaître et à déjouer les tentatives de fraude par hypertrucage vocal.
Lire l'article