đA/B Testing : arrĂȘte avec ces 3 erreurs | #112
Ăa peut te faire perdre du temps et de l'Ă©nergie...
Hello đ
Bienvenue dans cette Ă©dition 112 de La Cargaison, la newsletter CRO/UX qui tâaide Ă booster les conversions de nâimporte quel site web.
Au programme cette édition :
Que faire quand ton client ou ton boss veut tester nâimporte quoi ?
Comment tester quand tu as peu de trafic ?
Faut-il vraiment faire des A/B tests en continu ?
Tester toute sa page : bonne ou mauvaise idée ?
Une check-list complÚte pour réussir tes A/B tests
Pour booster tes conversions à coup sûr
Une formation vidĂ©o et des ressources pour booster les conversions de nâimporte quel site.
Le guide pour vraiment réussir ses A/B tests
LâA/B testing est lâoutil prĂ©fĂ©rĂ© de nombreux marketers â Ă juste titre.
Câest une mĂ©thode puissante pour optimiser ses performances.
Mais mal utilisée, elle peut vite devenir une perte de temps⊠voire pire.
Voici 3 erreurs à éviter à tout prix :
1 - AB testing basé sur aucune recherche (ou écouter son boss)
Un inscrit Ă ma formation sâest pris une remarque par client.
La raison : des A/B tests qui rapportent 0 résultat.
Le problĂšme de cette remarque :
Ils ont effectuĂ© seulement 3 tests A/BâŠ
Le client propose donc de meilleures hypothĂšses Ă tester.
Autre problĂšme :
Ce client se base sur son intuition.
Du genre :
âjâai vu sur le site de mon concurrent quâils utilisaient lâIA pour leurs images, testons la mĂȘme choseâ
Comment réagir face à ce genre de situation ?
â Expliquer quâil est impossible dâobtenir des rĂ©sultats sur 100% des tests A/B
â Expliquer que les tests A/B font partie du process dâapprentissage
â Expliquer que les tests A/B permettent dâaffiner les futurs tests
Si vraiment le client est insistant :
Teste son idée !
Dans tous les cas, ça peut ĂȘtre bĂ©nĂ©fique :
â Le test Ă©choue : cela prouve quâil faut une mĂ©thode plus rigoureuse pour imaginer des hypothĂšses dâoptimisation.
â Gagnant : tout le monde est content, et votre client veut sĂ»rement plus de tests (et donc plus de CRO)
Ne perds pas ton temps Ă dĂ©battre dâune idĂ©e pendant des plombes.
Teste, analyse et faits de la recherche.
Avec ce genre de méthodes :
2- AB testing avec peu de trafic
Câest une erreur ultra frĂ©quente, mĂȘme chez des âgourousâ bien connus.
8 conversions vs 6 sur 300 visiteurs ? Ăa nâa aucune valeur.
Si tu nâas pas au moins 20k visiteurs/mois, ou 200 conversions/variante sur 5 semaines â oublie le test.
Ă la place :
â Vise des changements radicaux.
â Attends-toi Ă des rĂ©sultats de +50%, voire +100% pour dĂ©tecter une vraie diffĂ©rence.
Pour ĂȘtre sĂ»r, utilise un calculateur comme celui de Speero.
3 - AB testing en dessous de la ligne de flottaison
Non, ce nâest pas une erreur en soi.
Mais il faut garder en tĂȘte :
Tous les visiteurs ne voient pas les éléments en dessous de la ligne de flotaison.
Et pourtant, 100% des visiteurs sont pris en compte dans les résultats.
Ce qui fausse potentiellement toute lâanalyse.
đĄ Astuce : utilise un script de âvue dâĂ©lĂ©mentâ pour analyser uniquement les visiteurs ayant vu le changement (via GA, par exemple).
Et pense Ă ajuster ton calcul de test en fonction du Minimum Detectable Effect (MDE).
La check-list pour un A/B test réussi
Faire des tests A/B rĂ©guliĂšrement mâa poussĂ© Ă faire une check-list pour ne rien oublier.
RĂ©sultat : une check-list complĂšte que jâutilise systĂ©matiquement avec mes clients.
Elle tâaidera Ă Ă©viter les oublis, les biais, et Ă cadrer chaque test correctement.
Sauvegarde-la et sors-la Ă chaque nouvelle campagne.
Voilà pour cette édition.
Ă trĂšs vite pour la prochaine cargaison.
Et en attendant : teste intelligemment !
Florent