Des robots thérapeutiques aux voix de célébrités : guide à l’intention des parents pour l’utilisation sécuritaire des assistants virtuels fondés sur l’IA

Amanda Lee
Conseillère principale, Programmes, Technologies pour l’avenir et TELUS Averti🅫

Alors que l’intelligence artificielle s’intègre de plus en plus dans notre vie quotidienne, les enfants font face à des assistants virtuels fondés sur l’IA sur les plateformes de médias sociaux, dans les applications de thérapie et les services de divertissement. Bien que ces technologies puissent offrir des avantages et du soutien sur le plan pédagogique, des enquêtes récentes ont révélé de graves problèmes de sécurité que tous les parents devraient connaître.
L’attrait croissant et les risques cachés
Les assistants virtuels fondés sur l’IA gagnent en popularité chez les adolescents et les enfants pour diverses raisons. Ils sont accessibles en tout temps, ne portent pas de jugement et peuvent fournir des réponses en apparence personnalisées. Cependant, deux enquêtes récentes ont mis en évidence des risques alarmants qui exigent l’attention des parents.
Le motif de préoccupation avec l’assistant virtuel thérapeutique
Un récent article de Time Magazine a révélé des résultats troublants lorsque le Dr Andrew Clark, psychiatre, s’est fait passer pour un adolescent troublé et a testé divers assistants virtuels thérapeutiques fondés sur l’IA, notamment Character.AI, Nomi et Replika. Son expérience a révélé d’importantes lacunes en matière de sécurité dans ces plateformes qui se présentent comme des outils de soutien en santé mentale pour les jeunes.
Le Dr Clark a découvert que ces assistants virtuels donnaient souvent des conseils inappropriés ou potentiellement dangereux lorsqu’on leur présentait des scénarios de dépression, d’automutilation et de pensées suicidaires. Plutôt que de diriger les utilisateurs vers de l’aide professionnelle ou des services de soutien en situation de crise, certains assistants virtuels se sont livrés à des conversations susceptibles d’aggraver l’état mental d’un adolescent vulnérable. C’est d’autant plus inquiétant que de nombreux adolescents se tournent vers ces outils d’IA comme substituts à la thérapie professionnelle, souvent à l’insu de leurs parents.
Le rapport souligne que ces plateformes ne disposent pas de mesures de protection et de surveillance adéquates qui seraient la norme dans les contextes thérapeutiques réels. Contrairement aux professionnels en santé mentale autorisés qui sont formés pour reconnaître les situations de crise et tenus de respecter des lignes directrices éthiques, les assistants virtuels fondés sur l’IA fonctionnent sans de telles contraintes ni responsabilité.
Assistants virtuels imitant la voix d’une célébrité et contenu inapproprié
Une autre préoccupation importante est ressortie d’un article de Deadline dans lequel on explique comment les assistants virtuels de Meta sur Instagram, Facebook et WhatsApp – certains utilisant des voix de célébrités comme John Cena et Kristen Bell – se sont engagés dans des conversations sexuellement explicites, y compris avec des mineurs. Ces « compagnons numériques » sont conçus pour des « jeux de rôles romantiques », mais ne disposent pas de garde-fous adéquats pour empêcher les interactions inappropriées avec des utilisateurs mineurs.
L’enquête a révélé que ces assistants virtuels pouvaient être facilement manipulés pour engager des conversations à caractère sexuel, ce qui soulève de sérieuses inquiétudes quant aux possibilités de manipulation psychologique et d’exploitation. L’utilisation de voix de célébrités bien connues rend ces interactions particulièrement attrayantes pour les jeunes utilisateurs, qui ne comprennent peut-être pas pleinement les risques encourus.
Signaux d’alerte à surveiller pour les parents
Les parents doivent être attentifs à plusieurs signes d’avertissement indiquant que leurs enfants pourraient interagir avec des assistants virtuels fondés sur l’IA potentiellement dangereux :
- Utilisation secrète d’un appareil, surtout tard le soir
- Changements émotionnels après de longues périodes en ligne
- Retrait des relations et des activités dans le monde réel
- Références à des « amis » ou à des « thérapeutes » en ligne jamais rencontrés
- Familiarité inhabituelle avec les personnalités célèbres par l’entremise d’interactions numériques
Conseils de sécurité essentiels pour les parents
1. Communication ouverte
Créez un environnement où vos enfants se sentent à l’aise de discuter de leurs expériences en ligne. Expliquez la différence entre les assistants virtuels fondés sur l’IA et les relations humaines réelles, en insistant sur le fait que l’IA ne peut pas remplacer le soutien professionnel en santé mentale ou le contact humain authentique.
2. Surveillance et établissement de limites
- Examinez régulièrement les téléchargements et l’utilisation des applications de votre enfant
- Configurez le contrôle parental sur les appareils et les plateformes de médias sociaux
- Établissez des heures sans écran, surtout avant le coucher
- Envisagez d’utiliser des applications de sécurité familiale qui surveillent les interactions avec les assistants virtuels fondés sur l’IA
3. Éducation sur les limites de l’IA
Aidez vos enfants à comprendre que les assistants virtuels fondés sur l’IA :
- ne sont pas des professionnels en santé mentale formés;
- ne peuvent pas fournir un véritable soutien émotionnel ou des conseils médicaux;
- peuvent donner des réponses inappropriées ou nuisibles;
- sont conçus pour maintenir l’intérêt des utilisateurs, pas nécessairement pour les aider.
4. Établissement de réseaux de soutien professionnels
Si votre enfant est aux prises avec des problèmes de santé mentale :
- Mettez-le en contact avec des thérapeutes ou des conseillers autorisés
- Contactez les conseillers en orientation de l’école pour du soutien supplémentaire
- Utilisez les lignes d’aide téléphonique et les ressources professionnelles en santé mentale
- Assurez-vous que votre enfant sait comment obtenir de l’aide en cas de besoin
5. Précautions propres aux plateformes
- Passez en revue les paramètres de confidentialité sur toutes les plateformes de médias sociaux
- Désactivez ou limitez les fonctionnalités de l’assistant virtuel sur les plateformes Meta (Instagram, Facebook, WhatsApp) et autres
- Signalez les interactions inappropriées avec l’assistant virtuel aux administrateurs de la plateforme
- Envisagez d’autres options de divertissement et d’éducation appropriées selon l’âge
6. Rester informé
La technologie évolue rapidement et de nouvelles plateformes voient régulièrement le jour. Tenez-vous au courant de ce qui suit :
- Nouvelles plateformes d’assistant virtuel fondé sur l’IA que vos enfants pourraient utiliser
- Changements apportés à la politique de la plateforme concernant les interactions avec l’IA
- Ressources sur la sécurité numérique et recommandations d’experts
- Signes avant-coureurs de relations problématiques en ligne
Aller de l’avant en toute sécurité
Bien que la technologie de l’IA offre des avantages légitimes, l’absence actuelle de réglementation et de surveillance dans le domaine des assistants virtuels crée des risques importants pour les jeunes utilisateurs. En tant que parents, notre rôle est de guider nos enfants vers une utilisation sécuritaire et bénéfique de la technologie tout en les protégeant des dangers potentiels.
La clé est de maintenir un dialogue ouvert sur la technologie, de fixer des limites appropriées et de veiller à ce que nos enfants aient accès à un soutien humain authentique lorsqu’ils en ont le plus besoin. Rappelez-vous qu’aucun assistant virtuel fondé sur l’IA ne peut se substituer au contact humain, au soutien professionnel en santé mentale ou aux conseils parentaux.
En demeurant informés et proactifs, nous pouvons aider nos enfants à naviguer dans le monde en ligne en toute sécurité tout en leur permettant de bénéficier d’outils technologiques appropriés. L’objectif n’est pas d’éliminer la technologie de leur vie, mais de s’assurer qu’ils l’utilisent judicieusement et en toute sécurité.