đ 4 mĂ©thodes de test CRO (alternatives Ă l'A/B testing) | đŠ La Cargaison #59
Dans cette newsletter La Cargaison, on parle de CRO (Optimisaion du taux de conversion). Si tu nâes pas encore inscrit :
Tu souhaites booster tes conversions ?
Commence par lĂ â 5 cours vidĂ©os gratuits dâintroduction au CRO
Tu souhaites avoir les meilleurs résultats sur tes conversions ?
Je te partage toute mon expertise CRO Ă travers une formation complĂšte
đš Il reste 24h pour profiter dâun redesign offert en sâinscrivant â Premium
88% des sites web ne peuvent pas effectuer dâA/B tests.
Câest une moyenne.
Si on vise un MDE de 5% (ce quâon vise habituellement), avec un taux de conversion entre 2% et 5%, on a besoin de +200 000 visiteurs par mois (sur la page Ă tester).
Est-ce que cela veut dire quâon ne peut pas optimiser le taux de conversion ? Non.
Il y a 2 alternatives ici :
1 - Faire des changements beaucoup plus importants
Le but ici est de viser des augmentations de +30% (MDE plus élevé).
Mais ne fais pas de petits changements. IntĂšgre toutes tes hypothĂšses dâun coup.
Ensuite, observe le changement dans GA, en Ă©tant bien conscient des facteurs saisonniers et du fait que ça nâest pas parfaitement significatif.
2 - Faire un MAXIMUM de recherche
Câest la chose la plus importante Ă faire.
Mettre en Ćuvre des mĂ©thodes de recherche puissantes et variĂ©es afin dâen gĂ©nĂ©rer les meilleures hypothĂšses et optimisations.
Speero nous donne ici un large Ă©ventail.
Tu notes que lâA/B testing, en termes de âforce de significationâ est au-dessus du lot.
Que faire pour se rapprocher le plus de lâA/B testing en termes de puissance de validation ?
Voici 4 mĂ©thodes que jâutilise le plus avec mes clients.
1 - Les tests de préférence
Les tests de prĂ©fĂ©rence sont moins puissants que lâA/B testing.
Mais ils ont 5 avantages :
Moins coûteux
Assez rapide Ă mettre en place
Ne nécessite pas énormément de trafic
Comme lâA/B testing, câest une mĂ©thode de validation
Ils te permettent de comprendre POURQUOi les utilisateurs préfÚrent une variante à une autre (contrairement aux tests A/B)
Comment mettre en place des tests de préférence ?
Des outils comme Lyssna (anciennement UsabilityHub) te permettent de le faire en suivant ces Ă©tapes :
Prends une capture dâĂ©cran de 2 variantes dâune page
Importe-les dans lâoutil
Ajoute une question pour savoir laquelle des variantes est meilleure aux yeux des utilisateurs et POURQUOI elle est meilleure
Tu peux obtenir de trÚs bons retours avec 100-200 utilisateurs testés.
2 - A/B Testing X Sessions recordings
Le but ici est de lancer un test A/B non pas pour obtenir des résultats valides, mais uniquement pour déployer les 2 variantes.
Afin que 50% de tes visiteurs voient chaque variante.
Ensuite, tu peux utiliser Hotjar ou Clarity pour utiliser les sessions recordings.
Tu pourras tirer des observations et des différences de comportement entre les utilisateurs des 2 variantes.
Par exemple, si tu as fait un changement dans ton menu de navigation, tu vas pouvoir voir si tes utilisateurs semblent mieux interagir avec celui-ci.
Si tu souhaites intĂ©grer une fonctionnalitĂ©, cela te permettra de voir si les utilisateurs lâutilisent correctement et si ça vaut le coup de lâintĂ©grer officiellement.
3 - A/B Testing X EnquĂȘtes
Tu peux faire la mĂȘme chose ici, mais avec des pop-ups de question.
Le but ici est de poser des questions précises, liées aux changements que tu as faits entre les 2 variantes.
Par exemple, si tu as modifiĂ© les photos dâune page produit, tu peux intĂ©grer ce genre de questions :
Les photos sont-elles suffisantes pour passer Ă lâachat ?
Pensez-vous quâil faille ajouter dâautres photos ?
Les photos sont-elles de bonne qualité ?
Là encore, avec +70 réponses, tu peux commencer à alimenter des hypothÚses pertinentes.
Pour aller plus loin sur les enquĂȘtes on-site :
4 - A/B Testing X Test utilisateur
En termes de âpuissance de rechercheâ les tests utilisateurs se positionnent trĂšs haut.
MĂȘme sâils ne permettent pas de valider des hypothĂšses, ils sont trĂšs efficaces pour identifier des problĂšmes dâUX sur un site web.
LĂ encore, tu peux combiner ça Ă lâA/B testing, avec des outils comme Userfeel.
Pour faire ça, lors de la configuration du test utilisateur, tu vas devoir ajouter un paramÚtre pour comparer les 2 variantes.
Ensuite, il te faut poser des questions plutĂŽt classiques quâon a lâhabitude de poser dans des tests utilisateur.
Y a-t-il quelque chose qui vous gĂȘne sur la page ?
Manque-t-il quelque chose que vous aimeriez voir ?
Quelle version serait la plus susceptible de vous faire passer Ă lâaction ?
Encore une fois, sois conscient que les réponses obtenues ne reflÚtent pas parfaitement la réalité.
On retrouve trĂšs souvent une diffĂ©rence entre ce que les utilisateurs disent et ce quâils font.
Identifier un gagnant
En faisant une synthÚse des infos récoltées, tu devrais pouvoir identifier laquelle des variantes pourrait mieux performer en termes de taux de conversion.
AprÚs avoir intégré les modifications, sois attentif à Google Analytics (ou autre) et regarde si tu vois une grosse différence en termes de taux de conversion, en utilisant les segments et en ayant conscience du facteur saisonnier.
Bien sĂ»r, la conclusion tirĂ©e nâest pas significative statistiquement parlant et aura toujours moins de valeur quâun test A/B.
Mais câest la meilleure chose Ă faire quand tu nâas pas le trafic nĂ©cessaire pour lâA/B testing.
Si tu as des questions, nâhĂ©site pas en rĂ©ponse Ă ce mail, je rĂ©ponds Ă tout le monde :)
Ă trĂšs vite,
Florent
Tu souhaites booster tes conversions ?
Commence par lĂ â 5 cours vidĂ©os gratuits dâintroduction au CRO
Tu souhaites avoir les meilleurs résultats sur tes conversions ?
Je te partage toute mon expertise Ă travers une formation complĂšte
đš Je ferme dĂ©finitivement les redesigns offerts aux nouveaux inscrits de ma formation Ă partir de demain.