De retour aux sources : suivre le rendement d’une page Web

Intelligence des données · 12 avr. 2018

À titre de développeur d’interfaces utilisateur, mon objectif consiste à offrir l’expérience numérique la plus grandiose possible, et ce, en tout temps. Ici, je ne m’arrête pas à considérer la qualité du code; c’est implicite. Je parle plutôt d’assurer la qualité hors pair de tous les aspects de l’expérience que je crée. 

Après tout, c’est moi qui y insuffle la vie. J’en assemble tous les morceaux – de la conception visuelle au texte et aux interactions – afin de créer ce que les utilisateurs finaux vivront ultimement. C’est moi qui la ressens en premier. Qui fait office de cobaye, si vous voulez. Et c’est aussi à moi d’en préserver la qualité. De plus en plus, en tant que développer d’IU, je perçois mon rôle comme celui de défenseur des utilisateurs. Cette page correspondrait-elle à mes attentes? Si la réponse est non, je retourne à la planche à dessin. 

Donc, à quoi ressemble une expérience utilisateur de qualité? C’est l’éternelle question à un million de dollars, pas vrai? 

À TELUS Digital, mon lieu de travail et ma passion, nous disposons de mesures très précises en matière de qualité. Elles sont fondées sur ce que nous appelons les « bases du numérique » - des qualités propres à toutes les expériences numériques que nous créons. La bonne nouvelle, c’est qu’évaluer la qualité est chose facilement faite, et que les conséquences en sont très significatives. Hourra! Qui n’aime pas la simplicité? 

Je rappelle régulièrement à mon équipe que pour les utilisateurs, la façon dont nous faisons les choses n’a que très peu d’importance. Lorsque je navigue sur une page Web, je ne demande pas « quelle structure technologique a-t-on utilisée? » Jamais de la vie. Ou, « les spécialistes en optimisation de référencement et en rédaction de contenu se sont-ils rencontrés pour discuter de tout ça? » Allons donc. Et que dire de « a-t-on fait des essais pour les utilisateurs? » Laissez-moi rire. En tant qu’utilisateur final, ce n’est ni mon rôle ni mon objectif. Je m’attends plutôt à pouvoir faire mes recherches, trouver ce que je veux, finir ce que j’ai à faire et retourner à ma vie, sans chichis. 

Maintenant, ne pensez pas que je cherche à sous-évaluer l’importance du travail que nous faisons tous. C’est plutôt un rappel qu’en tant que concepteurs et exécutants d’expériences numériques, un travail bien fait devrait se traduire par une expérience fluide qui répond rapidement au besoin de l’utilisateur. 

Remarquez que je réfère constamment aux « utilisateurs », comme dans « interface utilisateur » et « expérience utilisateur ». Un bon conseil pour définir la qualité : mettez-vous dans la peau de l’utilisateur, et non seulement dans celle du technicien. Ceci vous sera d’une grande utilité dans l’établissement de vos mesures de rendement de référence. 

Les fondements de la qualité des pages Web 

À TELUS Digital, chacune des expériences en ligne que nous créons est évaluée selon cinq critères de base, soit : 

  • Le contenu : c’est la raison de votre visite, non?

  • L’accessibilité : chaque visiteur mérite de vivre une expérience hors pair 

  • La rapidité de chargement : plus c’est rapide, mieux c’est. J’ai autre chose à faire, moi.

  • L’optimisation du référencement : si les utilisateurs ne peuvent nous trouver en utilisant les moteurs de recherche, aussi bien retourner aux médias imprimés. Bon, j’exagère peut-être un peu, mais vous voyez ce que je veux dire. Nous voulons pouvoir être trouvables partout où un utilisateur amorce son parcours. Et pour bon nombre d’entre eux, ce sont les moteurs de recherche qui leur fournissent ce point de départ.

  • Les analyses : comment savoir autrement si nous sommes efficaces dans ce que nous faisons? Il faut essayer quelque chose. Mesurer les résultats. Rincer. Recommencer. 

Évidemment, comme toute équipe numérique expérimentée, nous disposons d’indicateurs de rendement clés (IRC) pour évaluer nos expériences utilisateurs – taux de rebonds, de conversions, etc. – mais ces derniers sont axés sur des parcours d’utilisateurs bien spécifiques. Nos indicateurs de rendement de base (IRB – je ne fais que m’amuser, là) sont universels à toutes les expériences numériques que nous créons. Ou plus précisément, si nos résultats ne sont pas satisfaisants, nos pages reposant sur des KPI spécifiques seront forcément vouées à l’échec. 

Comment mesure-t-on les valeurs de base?

Avant de vous donner les ingrédients de notre sauce secrète, laissez-moi vous fournir un peu de contexte. TELUS Digital se compose d’une équipe d’environ 300 pros du numérique se spécialisant dans un éventail de disciplines différentes. Notre mandat : élaborer des pratiques exemplaires dans le domaine, et créer des expériences utilisateurs à couper le souffle, de sorte à appuyer TELUS - l’une des plus grandes entreprises de télécommunications au Canada. Notre travail touche directement des millions d’utilisateurs tous les jours. C’est une responsabilité de taille. Mon niveau de stress grimpe, juste à y penser.

Il y a environ un an et demi, nous nous sommes lancés dans un grand projet visant à restructurer et consolider nos infrastructures technologiques. Comme bon nombre d’organisations, nous traînons derrière nous une panoplie d’acquisitions et d’essais parfois ratés [mais aussi souvent réussis], auxquels se sont jumelées des forces externes telles les technologies et attentes des utilisateurs en constant changement. Enfin, nous avons atteint un tournant. Notre conclusion : pour offrir le meilleur service à nos clients, il nous fallait tout jeter à la poubelle et recommencer. Rien de bien simple, vous avouerez.

Les défis techniques sont ceux qui, en fin de compte, ont été les plus faciles à relever. En fait, ça s’est avéré un exercice en gestion du changement – ou comment construire un avion à réaction tout en le pilotant. Les pièces mobiles sont nombreuses, et garder un œil sur l’objectif n’est pas toujours chose facile.

Si vous êtes curieux, la plateforme de TELUS Digital repose sur des modules Node.js, ReactJS (universal), Docker, OpenShift, sur l’intégration continue, sur les déploiements [de plus en plus] continus, et sur les produits Adobe pour nos analyses. Évidemment, il y a une multitude de répertoires et d’outils entre les deux, mais vous voyez où je veux en venir. Nous faisons des choses hyper intéressantes sur une échelle épique, et itérons à des vitesses fulgurantes. La plupart des nouvelles entreprises seraient envieuses de la rapidité avec laquelle nous opérons, et nous appuyons une entreprise valant plus de 30 milliards de dollars.

Et maintenant, pour la question simple qui tue : cette restructuration d’infrastructure a-t-elle vraiment apporté une valeur ajoutée à nos clients? C’est l’objectif, non? Améliorer les expériences numériques que vivent nos clients? Plus spécifiquement, du haut de ce sommet vertigineux que nous croyons avoir atteint, avons-nous réellement rehaussé nos critères de base : rapidité de chargement, accessibilité, contenu, optimisation du référencement et analyse? Comment pouvons-nous en être certains?

Découvrez la beauté de Lighthouse

Lighthouse est un projet open source créé et maintenu par Google. À la base, il s’agit de la structure entourant l’exécution de tests automatisés des applications Web mobiles [sans s’y limiter]. Dès notre premier aperçu de Lighthouse, au printemps 2017, nous avons immédiatement été intrigués. 

Ce qui nous a particulièrement plu, c’était la fonctionnalité permettant de tester la vitesse de chargement des pages qu’offre Lighthouse. Pouvoir faire de tels essais de façon fiable et significative n’est vraiment pas chose facile. Inutile de préciser que nous étions bien heureux de pouvoir tirer parti de l’excellent travail de Google à ce sujet, et de pouvoir normaliser nos valeurs en nous basant sur leurs mesures clés, dont les fonctionnalités time to Meaningful Paint et time to First Interactive. Essentiellement (1) quand puis-je voir du contenu significatif sur la page, et (2) quand puis-je commencer à interagir avec ce dernier. 

Nous étions tout aussi enthousiastes par la souplesse de la charpente de Lighthouse – il est si facile d’ajouter des pages d’audit personnalisées. En fait, nous avons choisi d’utiliser l’outil pour tester tous nos critères de rendement de base. Nous avons bâti des audits sur mesure pour notre optimisation de référencement (SEO), notre contenu, nos analyses et nos médias sociaux. Depuis, Google a ajouté les audits SEO à sa suite de produits, et c’est avec grand plaisir que nous avons hérité de bon nombre d’entre eux. Un merci tout spécial à Paul IrishAddy Osmani, et tous les contributeurs de Lighthouse – nous vous retournerons la faveur sous peu.

blog5

Lighthouse est imbriqué à nos flux de déroulement de travail

Jusqu’à maintenant, nous avons couvert les mesures de base dont nous nous servons pour repérer les joyaux qui se cachent à travers nos expériences numériques. Et nous avons introduit un outil stratégique à notre arsenal d’assurance qualité, de sorte à fournir un aperçu détaillé de nos progrès accomplis sur le Web, notamment en ce qui concerne Lighthouse. Voici le secret de la sauce. 

Objets Git hooks : 

Lorsque les développeurs tentent de fusionner leur travail au codebase de référence, nous nous assurons de soumettre toutes leurs pages Web aux filtres de Lighthouse – des audits de Google et des tests spécifiques à TELUS. Si nos normes de qualité ne sont pas satisfaites, la fusion se solde par un échec. Tout simplement. Qualité assurée. 

Chaque catégorie de nos tests Lighthouse repose sur un seuil de qualité minimal : p. ex. une cote de rendement de 80 doit être atteinte, sinon la fusion échoue. Nous ne réduisons jamais la qualité du codebase de référence. Ce serait… barbare. 

Flux de déroulement de projets : 

En plus du développement local, nous employons Lighthouse à toutes les étapes de notre flux de déroulement de projets. Lorsque le code est fusionné, la construction d’une maquette est enclenchée et, selon les résultats des tests, il est déployé dans divers environnements au sein de la chaîne de production (p. ex. tests, préproduction et production). 

Avant que le code ne soit migré d’un environnement à l’autre toutefois, nous effectuons des tests unitaires, E2E et, vous l’aurez deviné, Lighthouse. Si l’un d’eux échoue, la maquette mord la poussière. Encore une fois, nous visons la création d’expériences utilisateurs exceptionnelles, en tout temps. En contrôlant de cette façon la construction des maquettes, nous nous assurons que rien ne nous échappe en route vers la production. 

Vérification des pages en production :

Afin de suivre de près la qualité des pages que nos clients explorent, nous utilisons Lighthouse pour analyser la presque totalité de nos adresses en production; les résultats obtenus s’affichent dans nos tableaux de bord analytiques d’entreprise. Grâce à ceci, tous les employés de l’entreprise peuvent obtenir un aperçu de la qualité de nos expériences Web. 

Armés de ces connaissances, les responsables de projets et autres intervenants peuvent objectivement prioriser leurs arriérés et continuer d’améliorer les mesures de base, d’un sprint à l’autre. Et, au fil de nos améliorations, nous ne cessons de rehausser nos attentes en matière de qualité. Un jour, nous serons parfaits 😊

Quelle est l’importance des valeurs de base à TELUS Digital?

À TELUS, la satisfaction des clients n’a pas d’égal. Nous sommes très fiers de livrer des expériences hors pair à tous nos utilisateurs. C’est notre raison d’être. 

En fait, « la qualité aux dépens de la rapidité » est l’une des valeurs centrales à TELUS. On l’a même intégrée à nos fiches de rendement! Chaque équipe à TELUS Digital est évaluée, en partie, en fonction de son rendement par rapport à nos mesures de qualité de base : c.-à-d. la vitesse de chargement, le contenu, le SEO, l’accessibilité et les analyses. Et Lighthouse est l’outil dont nous nous servons pour dresser nos rapports. 

Dès le début de son utilisation, Lighthouse permet d’obtenir des rapports détaillés sur une foule de mesures clés, dont notamment la vitesse de chargement. De plus, la facilité avec laquelle nous pouvons y ajouter nos propres préoccupations de qualité, et l’intégrer à nos flux de déroulement de travail existants, en a fait un outil inestimable au sein de notre entreprise. Il nous rappelle constamment les objectifs que nous nous sommes fixés, et nous donne une vue d’ensemble précise quant aux progrès que nous avons accomplis, de même que les secteurs méritant d’être améliorés. 

En tant qu’entreprise, nous aspirons à la grandeur. Dans mon rôle de développeur d’IU, j’ai un rôle et des responsabilités cruciaux à endosser pour réaliser cette promesse. Nos utilisateurs s’y attendent. Nous l’exigeons de nous-mêmes. Et Lighthouse s’est avéré indispensable à l’atteinte de ces objectifs. 

Au sujet de l’auteur

Josh Arndt est un Architecte principal en technologie à TELUS Digital. Il est passionné par la consolidation d’équipes de haut rendement, le SEO, et l’utilisation d’outils numériques visant à simplifier la vie de tout un chacun.

Auteur:
Josh Arndt
Josh Arndt
Senior Technology Architect
Josh Arndt is a Senior Technology Architect at TELUS Digital. He has a passion for building high performance teams, SEO, and utilizing digital tools to make life better.