Quatre cadres et professionnels discutent autour d'une table, l'un d'entre eux utilisant un ordinateur portable.

Connecter les Canadiens

Bâtir ensemble une IA responsable : comment l'équipe violette de TELUS rassemble tout le monde autour de la table

9 oct. 2025
Lorsqu'il s'agit de créer une IA responsable, la collaboration fait la force. C'est la philosophie qui sous-tend l'équipe violette, l'approche novatrice de TELUS pour tester les systèmes d'IA
Dans la cybersécurité traditionnelle, les tests ressemblent à un sport de compétition, avec une équipe de sécurité attaquant un système et l'autre la défendant. L'« équipe rouge » est constituée d'attaquants, composée d'experts en sécurité qui simulent le comportement réel d'un pirate informatique. Ces professionnels, qui comprennent souvent des testeurs d'intrusion, des pirates éthiques et des spécialistes de réseau, recherchent les faiblesses en essayant de pénétrer dans les réseaux, d'exploiter des bogues logiciels ou d'obtenir un accès non autorisé aux bases de données. L'« équipe bleue » est composée de professionnels de la sécurité défensive qui surveillent les réponses du système et corrigent les vulnérabilités au fur et à mesure qu'elles sont découvertes. Ces équipes travaillent séparément, souvent en vase clos.
Dans le domaine de la sécurité de l'IA, un répertoire d'initiatives similaire s'applique, mais avec des tactiques adaptées aux systèmes d'intelligence artificielle. Les équipes rouges de l'IA sondent les modèles à la recherche de faiblesses en élaborant des invites malveillantes, en tentant de « débridage » les directives de sécurité ou en fournissant à l'application des informations trompeuses conçues pour déclencher des sorties nuisibles. Pendant ce temps, les équipes bleues d'IA surveillent les réponses des modèles, implantent des filtres de sécurité et corrigent les vulnérabilités lorsque des comportements problématiques sont découverts. À l'instar de leurs homologues en cybersécurité, ces groupes travaillent traditionnellement séparément au sein d'équipes distinctes.
« Purple teaming » renverse complètement ce scénario rouge contre bleu. Tout comme le mélange de peinture rouge et bleue crée du violet, Purple Teaming mélange des équipes rouges et bleues en une seule équipe « violette » unifiée. La combinaison d'approches offensives et défensives au sein d'une seule unité collaborative crée une plus grande agilité et permet des itérations plus rapides, des capacités essentielles pour suivre le rythme des technologies en évolution rapide comme l'IA.
Mais fusionner les équipes qui développent et testent l'IA n'est qu'un début. Ce qui rend la méthode de l'équipe violette vraiment unique, c'est son esprit de collaboration : rassembler des personnes ayant des perspectives et des expertises diverses pour tester un produit afin de s'assurer que tout le monde a une voix dans la technologie de construction qui façonne notre avenir.

Tout le monde a sa voix

TELUS invite les membres de l'équipe de partout dans l'organisation à se joindre aux séances de l'équipe violette, peu importe leur contexte ou leur expertise. Les tests d'IA traditionnels reposent sur des professionnels de la sécurité qui abordent les systèmes avec une expertise spécialisée que les utilisateurs ordinaires ne possèdent pas. Bien que la méthode de l'équipe violette comprenne toujours les experts requis pour les tests – architectes d'IA, experts en protection de la vie privée, éthiciens des données, développeurs et spécialistes de la sécurité – elle implique également activement des personnes issues d'un large éventail d'horizons non techniques dans les processus de test.
Étant donné que l'IA a un impact sur l'ensemble de la société, nous avons besoin que des personnes de tous horizons la testent. Différentes personnes interagissent avec les systèmes d'IA de manière fondamentalement différente, apportant des points de vue uniques qui peuvent révéler des faiblesses ou des préjugés qui pourraient passer inaperçus pour d'autres. Une
étude récente de TELUS
a révélé que les femmes sont plus susceptibles d'être préoccupées par les répercussions de l'IA sur la sécurité, et que les personnes victimes de préjugés sont plus sensibles au respect et à l'équité d'un système d'IA. Les utilisateurs non techniques abordent les systèmes différemment de leurs créateurs, découvrant souvent des cas d'utilisation inattendus qui révèlent de nouvelles vulnérabilités.

L'équipe violette en action

Avant le début des séances, les participants reçoivent une formation sur les principes fondamentaux de l'IA et les risques potentiels, afin que tout le monde puisse apporter une contribution significative, quel que soit son contexte technique.
Pendant les sessions, les participants peuvent essayer de tester un assistant virtuel avec de l'argot régional pour voir comment il réagit, ou lui poser des questions hors sujet pour voir s'ils peuvent le pousser hors scénario. Quelqu'un peut jouer le rôle d'un client en détresse, provoquant des réactions inattendues du système.
Chaque résultat inattendu suscite des discussions, qu'il s'agisse d'une bizarrerie mineure ou d'un risque potentiel. Le groupe découvre des angles morts que les équipes techniques seules pourraient manquer, transformant les découvertes en solutions concrètes et en mesures de protection plus solides.
En plus de trouver des vulnérabilités, ces séances pratiques aident les participants à comprendre comment fonctionne l'IA, comment elle peut échouer et pourquoi le développement responsable de l'IA est important. Cela crée un effet d'entraînement de la sensibilisation et de la sensibilisation à l'IA à l'échelle de TELUS, ce qui permettra de former une main-d'œuvre mieux informée qui pourra mieux naviguer dans un avenir axé sur l'IA.

Relever les défis de l'IA moderne

Cette approche est particulièrement précieuse pour les systèmes d'IA d'aujourd'hui, qui sont confrontés à des défis de sécurité entièrement nouveaux. Contrairement aux logiciels traditionnels, les systèmes d'IA tels que les assistants virtuels ou les assistants virtuels peuvent être trompés ou manipulés d'une manière qui n'existait pas auparavant.
Par exemple, le « débridage » se produit lorsque quelqu'un élabore une question ou une commande spécifique qui trompe le système pour qu'il ignore ses directives de sécurité. L'empoisonnement des données se produit lorsque des acteurs malveillants introduisent des informations trompeuses dans le processus de formation d'une IA, ce qui lui fait apprendre des modèles incorrects. La « manipulation de modèles » consiste à trouver des moyens de faire en sorte qu'une IA se comporte de manière imprévisible ou malveillante.
Ces vulnérabilités sont particulièrement délicates, car elles impliquent souvent des façons créatives et inattendues d'interagir avec l'IA, exactement le genre d'approches que divers utilisateurs non techniques apportent naturellement aux tests. Un expert en sécurité peut tester les défenses techniques d'une IA, mais un employé ordinaire peut découvrir accidentellement que le fait de poser une question d'une certaine manière provoque un comportement étrange du système. Ces nouvelles façons de penser aident TELUS à cerner les cas limites et les scénarios d'utilisation réels que les tests de sécurité traditionnels pourraient négliger.

Reconnaissance et impact

L'approche Purple Teaming de TELUS lui a valu le prix InfoGov World AI Excellence Award, en reconnaissance de son impact novateur sur la sûreté et la sécurité de l'IA. Plus généralement, TELUS s'est également vu décerner le prix de l'organisation exceptionnelle du Responsible AI Institute, ce qui confirme son engagement global à l'égard de pratiques d'IA responsables et des méthodologies de l'équipe violette.
TELUS s'engage à partager ces connaissances avec l'ensemble de la communauté de l'IA dans le monde entier en organisant des ateliers tels que
Tous investis
,
SXSW
,
le Sommet de l'ONU sur l'IA pour l'avenir
et des événements comme la
TrustWeek
, afin de diffuser des pratiques de test inclusives dans l'ensemble du secteur.

L'avantage collaboratif

Lorsque nous réunissons tout le monde dans la pièce, nous ne nous contentons pas de trouver plus de vulnérabilités plus rapidement, nous trouvons de meilleures solutions.
Purple Teaming prouve que dans un monde où l'IA touche tout le monde, l'innovation la plus importante est peut-être la plus simple : s'assurer que tout le monde a son mot à dire dans la construction de la technologie qui façonne notre avenir.
Pour en savoir plus sur l'approche de TELUS en matière d'IA responsable et d'éthique des données, visitez
telus.com/confiance
ou téléchargez le plus récent rapport sur l'IA de TELUS à
telus.com/iaresponsable
.