L’A/B testing est un test qui vise à comparer deux variantes d’une application ou d’une page web afin de sélectionner la plus performante. Ces variations nommées A et B sont présentées de façon aléatoire aux usagers. Une partie sera ainsi dirigée vers la première version tandis que l’autre sera affectée à la deuxième.
Plan de l'article
Les avantages du A/B testing
L’ab testing est un outil indispensable pour optimiser la productivité d’une activité. Il présente différents avantages dont :
Lire également : Le tatouage ancre
- L’aide à l’optimisation d’une page web ;
- L’assistance à la promotion de son produit ;
- La contribution à un bon taux de clics ou d’ouverture ;
- L’optimisation de l’UX ou User Experience pour faciliter la transformation d’un prospect et la fidélisation d’un client ;
- La définition de la version qui convertit le plus ;
- L’augmentation des revenus avec un trafic donné.
Un utilisateur expérimenté qui use d’A/B testing profite d’une activité très rentable.
Les principes de l’A/B testing
L’A/B testing est une technique qui permet de comparer diverses versions d’un site web en y ajoutant des fonctionnalités et des éléments. De manière générale, on compare la version originale avec une autre qui contient quelques modifications.
Lire également : Sportifs : Quels sont les aliments essentiels pour prendre du muscle ?
Ceci étant, il faut partager les utilisateurs du site web en groupe A et groupe B. On donne deux variétés de l’objet testé à chaque groupe. On compare alors les réactions. Les résultats sont diversifiés et définis en amont. Pour une landing page, on peut parler d’un abonnement à la newsletter ou d’un téléchargement. Pour une annonce publicitaire, on parlera de conversion ou de clics.
Conception et mise en œuvre d’A/B testing
La mise en place de l’A/B testing passe par différentes étapes.
D’ores et déjà, il faut définir les objectifs et les métriques. Cela permet de mieux orienter le test et d’analyser les statistiques obtenues.
Ensuite, on passe au choix de l’échantillon. Il est important d’opter pour une fraction qui représente parfaitement l’audience cible. Les participants sont choisis au hasard. Ils représentent les caractéristiques comportementales et démographiques du public étudié.
Il faut aussi tenir compte de la durée du test. Les utilisateurs ont des comportements diversifiés selon les saisons, les mois et même les jours. Il est primordial de déterminer une durée de test adéquate pour récolter de bons chiffres.
Enfin, il est de rigueur de passer par une plateforme d’A/B testing pour analyser les comportements des internautes. On utilise le “session recording” ou le “heatmap” pour mener ces analyses à bien.
Comment analyser et interpréter les résultats de l’A/B testing ?
Pour analyser les résultats de l’A/B testing, il est capital d’obtenir un très bon niveau de confiance. On retient un seuil de 95 %. Un certain temps est nécessaire à l’atteinte de ce seuil. Cette durée varie en fonction des pages testées, du trafic et du taux de conversion. On ne tire aucune conclusion avant d’avoir atteint ce seuil. On utilise généralement le test de khi-deux pour calculer ce seuil de confiance.
On commence par documenter les tests menés pour partager des informations aux responsables de l’optimisation des conversions. Il est important de garder une trace écrite à chaque test (nom du test, période du test, hypothèse testée, une description des variations, les résultats du test, le gain monétaire sur une année).
On procède ensuite à l’implémentation des versions gagnantes. Quand une variation sur-performe la version originale, il faut la mettre en production. Le délai pour cette mise en production est parfois assez long. La majorité des A/B testing affichent la variation gagnante en attendant que les changements atteignent la production. Il faut s’assurer que les gains constatés pendant le test restent les mêmes sur le long terme.
Meilleures pratiques et conseils
Il est préconisé de suivre quelques conseils pour rendre l’A/B testing plus efficace. Les données étudiées doivent être fiables. En outre, le test doit être recetté avant son lancement. On ne teste qu’une seule variable à la fois. Par ailleurs, on ne fait qu’un seul test à chaque fois. Il est important d’atteindre une bonne fiabilité statistique avant d’agir.
Si après un certain temps, le seuil de confiance reste en deçà de 95 %, il vaut mieux mettre fin au test.
Étude de cas et exemples
Prenons la page d’accueil d’un site web pour exemple. Il contient un bouton rouge dédié au « call to action ». On nommera cette page « A ». Admettons pourtant que l’utilisateur préférerait cliquer sur le bouton s’il était vert. À partir de là, on crée une version expérimentale de la page. Elle ressemble à la page « A », mais son bouton est de couleur verte et non rouge. On nommera cette page « B ». L’A/B test débute alors.
Les internautes arrivent aléatoirement sur l’une des deux pages (A ou B). Chaque visiteur du site ne voit qu’une page avec un bouton vert ou un bouton rouge. On analyse ensuite les résultats. Si le nombre d’internautes ayant choisi le bouton vert est plus important, on confirme l’hypothèse de départ.