Base de CoUX & performance Tests utilisateurs

Tests utilisateurs

Les tests utilisateurs servent à vérifier une vérité simple : ce qui est clair pour nous ne l’est pas forcément pour vos visiteurs. On observe des personnes représentatives réaliser des tâches concrètes, puis on corrige ce qui bloque. C’est la méthode la plus efficace pour éviter le grand classique : “le site est beau… mais ça ne convertit pas”.

Objectif

Identifier frictions, incompréhensions et opportunités de conversion.

Quand

Avant refonte, après mise en ligne, avant campagne, après gros changement.

Livrables

Synthèse, verbatims, priorisation, recommandations actionnables.

1) C’est quoi, un test utilisateur ?

Un test utilisateur consiste à demander à une personne (représentative de votre cible) de réaliser des tâches sur votre site/app (ou un prototype), pendant que l’on observe ce qui se passe : hésitations, erreurs, incompréhensions, détours, abandons… et aussi ce qui fonctionne parfaitement.

Ce que l’on mesure

  • Compréhension (libellés, promesse, structure, contenus).
  • Findability : “je trouve ce que je cherche”.
  • Facilité (effort, étapes, charge mentale).
  • Confiance (rassurance, preuves, transparence).
  • Décision (CTA, offre, prix, tunnel).

Ce que ce n’est pas

  • Un sondage d’opinion (“j’aime/j’aime pas”).
  • Une revue design interne (utile, mais moins fiable).
  • Une analyse analytics seule (ça dit “quoi”, pas toujours “pourquoi”).
  • Un test de performance (temps de chargement) — autre discipline.
Principe clé : on teste des scénarios (tâches) et on observe des comportements, pas des opinions. Les verbatims sont précieux, mais l’or, c’est : “où ça bloque” + “pourquoi”.

2) Pourquoi ça marche (vraiment) ?

Parce qu’un test utilisateur met la réalité sur la table. Sans filtre. Sans “oui mais moi je sais”. Vous découvrez ce que vos visiteurs comprennent en 3 secondes… et ce qui part en fumée.

Bénéfice Exemple concret Impact
Réduire les frictions Un CTA “Demander un devis” caché sous la ligne de flottaison. Plus de leads / conversions.
Clarifier la promesse Les gens confondent “audit” et “maintenance”. Moins d’hésitation, plus de confiance.
Améliorer l’info Le menu ne reflète pas les intentions (“je veux un prix”, “je veux un exemple”). Parcours plus courts, plus fluides.
Optimiser le tunnel Le formulaire est trop long, les champs sont flous. Moins d’abandons.
Prioriser intelligemment On corrige ce qui bloque le plus, pas ce qui “fait débat”. ROI plus rapide.

3) Les formats de tests utilisateurs

On choisit le format en fonction du besoin, du timing et de la maturité du projet. Bonne nouvelle : il n’y a pas “un seul bon format”. Il y a “le bon format, maintenant”.

Modéré (avec animateur)

  • En visio ou en présentiel.
  • On peut relancer (“qu’est-ce que vous cherchez ?”).
  • Idéal pour comprendre les blocages profonds.
  • Très bon pour prototypes et parcours complexes.

Non modéré (autonome)

  • Le participant suit les tâches seul.
  • Plus rapide à lancer, plus scalable.
  • Moins de “pourquoi”, plus de volume.
  • Idéal pour tests simples et itérations.

Sur site (production)

  • On teste un site réel : navigation, conversion, formulaires.
  • On observe comportements “vrais”.
  • Parfait pour optimisation continue.

Sur prototype (Figma / maquettes)

  • On teste avant de développer.
  • On économise beaucoup de corrections.
  • Excellent avant refonte / gros redesign.
Le combo gagnant : 5 à 8 sessions modérées bien ciblées + une itération, puis un petit test non modéré pour valider les corrections.

4) Préparer un test : le kit anti “test flou”

La qualité du test se joue avant la première session. On ne “teste pas un site”, on teste des objectifs (tâches) sur des profils (cibles) avec des critères (ce qu’on veut mesurer).

1

Définir la question

Exemples : “Les gens comprennent-ils l’offre ?”, “Trouvent-ils un tarif ?”, “Arrivent-ils à demander un devis ?”.

2

Choisir 3–6 tâches

Pas 15. Sinon vous testez surtout la patience humaine (et c’est un autre domaine scientifique).

3

Recruter les bons profils

5 à 8 participants / segment, représentatifs : niveau, contexte, motivations, freins.

4

Préparer le protocole

Script, consignes, ordre des tâches, questions de fin, et règles “ne pas aider”.

Introduction (2 min)
- Merci, rappel : on teste le site, pas vous.
- Pensez à voix haute : dites ce que vous cherchez / comprenez.

Tâche 1
- "Vous souhaitez savoir si l’agence peut refondre un site WordPress. Où iriez-vous ?"
Relances :
- Qu’est-ce qui vous fait choisir cette page ?
- Qu’attendez-vous de trouver ici ?

Tâche 2
- "Vous voulez un devis. Comment faites-vous ?"

Fin (3 min)
- Qu’est-ce qui vous a rassuré ?
- Qu’est-ce qui vous a freiné ?
- Une chose à améliorer en priorité ?
Important : “Pensez à voix haute” = on récupère les raisons des choix. Sans ça, on voit le problème… mais on devine le pourquoi (et deviner, c’est rarement une stratégie).

5) Animer une session (sans influencer)

L’animateur doit être un peu comme un arbitre de tennis : présent, clair, et surtout… il ne met pas la balle à votre place. Le but est d’observer une vraie navigation, pas une navigation “guidée”.

À faire

  • Rappeler : on teste le produit, pas la personne.
  • Encourager à verbaliser (“qu’est-ce que vous cherchez ?”).
  • Relances neutres : “qu’est-ce qui vous fait dire ça ?”.
  • Noter contexte, erreurs, hésitations, retours arrière.

À éviter

  • “Cliquez plutôt ici” (vous venez de tuer le test).
  • Se justifier (“normalement c’est clair”) — non 😄
  • Changer les consignes en cours de route.
  • Faire une démo (ce n’est pas un webinaire).
Une règle simple : si vous avez envie d’aider, notez le moment exact… c’est probablement un vrai problème UX.

6) Analyse et priorisation (transformer l’observation en actions)

Un bon rapport de tests utilisateurs ne dit pas seulement “ça bloque”. Il dit , pourquoi, à quel point, et quoi faire maintenant.

Problème Symptôme observé Cause probable Priorité
CTA principal invisible 3/6 ne trouvent pas “Demander un devis” Placement + contraste + wording Haute
Menu ambigu Navigation en boucle sur “Services” Catégories trop internes Moyenne
Formulaire trop long Abandon au milieu Champs non essentiels Haute
Manque de réassurance “Je ne sais pas si c’est fiable” Preuves sociales absentes Moyenne
Astuce : priorisez avec 2 critères simples : impact business (conversion / confiance) et fréquence (combien de personnes rencontrent le souci). Les “rares” passent après les “bloquants”.

7) Livrables recommandés

Un bon livrable doit être actionnable. Si la personne qui lit le rapport doit vous rappeler pour comprendre… c’est qu’on a raté un petit truc.

Livrables “essentiels”

  • Synthèse (1 page) : constats + 5 priorités.
  • Liste des problèmes (observations + preuves).
  • Recommandations (quoi changer, où, pourquoi).
  • Priorisation (haute / moyenne / basse).

Livrables “premium”

  • Extraits vidéo + verbatims marquants.
  • Heatmap qualitative (zones de confusion).
  • Propositions de wireframes rapides.
  • Plan d’itération (test → correction → retest).

FAQ — Tests utilisateurs

Combien de participants faut-il ?
En pratique, 5 à 8 participants par segment permettent souvent d’identifier la majorité des gros blocages. Si vous avez plusieurs cibles très différentes, on teste chaque segment séparément.
Sur un site existant ou sur une maquette ?
Les deux fonctionnent. Sur maquette, on corrige avant de développer (gros gain de temps). Sur site, on observe des comportements “réels” et on optimise la conversion.
Test modéré ou non modéré ?
Modéré pour comprendre en profondeur (parcours complexes, offre, compréhension). Non modéré pour valider rapidement des itérations et obtenir plus de volume.
Est-ce que ça remplace l’analytics ?
Non, c’est complémentaire. L’analytics dit quoi (où ça décroche), les tests utilisateurs expliquent pourquoi (ce qui bloque).
À quelle fréquence en faire ?
Idéalement : un test avant grosse évolution, et un petit cycle après correction. Pour les sites actifs : un mini test trimestriel (ou avant campagnes) est souvent très rentable.

Envie d’un diagnostic UX basé sur des vrais utilisateurs ?

Instants Web Agency peut cadrer les scénarios, recruter/segmenter, animer les sessions, et livrer une priorisation claire (avec recommandations concrètes). Objectif : améliorer la conversion sans refaire le site “pour le plaisir”.

Bonus : on peut coupler les tests utilisateurs avec vos données (GA4/Matomo) pour cibler les pages qui comptent.