Déterminez la signification statistique de vos tests A/B sans effort avec notre calculateur rapide et fiable. Obtenez des résultats instantanés pour prendre des décisions basées sur les données pour votre marketing numérique, le développement de produits et l'optimisation de l'expérience utilisateur. Parfait pour les sites web, les emails et les applications mobiles.
Le test A/B est une méthode cruciale dans le marketing numérique, le développement de produits et l'optimisation de l'expérience utilisateur. Il consiste à comparer deux versions d'une page web ou d'une application afin de déterminer laquelle performe mieux. Notre calculateur de test A/B vous aide à déterminer la signification statistique de vos résultats de test, vous assurant ainsi de prendre des décisions basées sur des données.
Le calculateur de test A/B utilise des méthodes statistiques pour déterminer si la différence entre deux groupes (contrôle et variation) est significative. Le cœur de ce calcul implique le calcul d'un score z et de sa valeur p correspondante.
Calculez les taux de conversion pour chaque groupe :
et
Où :
Calculez la proportion groupée :
Calculez l'erreur standard :
Calculez le score z :
Calculez la valeur p :
La valeur p est calculée à l'aide de la fonction de distribution cumulative de la distribution normale standard. Dans la plupart des langages de programmation, cela se fait à l'aide de fonctions intégrées.
Déterminez la signification statistique :
Si la valeur p est inférieure au niveau de signification choisi (généralement 0,05), le résultat est considéré comme statistiquement significatif.
Il est important de noter que cette méthode suppose une distribution normale, ce qui est généralement valide pour des tailles d'échantillon importantes. Pour des tailles d'échantillon très petites ou des taux de conversion extrêmes, des méthodes statistiques plus avancées peuvent être nécessaires.
Le test A/B a un large éventail d'applications dans diverses industries :
Bien que le test A/B soit largement utilisé, il existe des méthodes alternatives pour les tests de comparaison :
Le concept de test A/B a ses racines dans la recherche agricole et médicale du début du 20ème siècle. Sir Ronald Fisher, un statisticien britannique, a été le pionnier de l'utilisation des essais contrôlés randomisés dans les années 1920, posant les bases du test A/B moderne.
Dans le domaine numérique, le test A/B a gagné en importance à la fin des années 1990 et au début des années 2000 avec l'essor du commerce électronique et du marketing numérique. L'utilisation du test A/B par Google pour déterminer le nombre optimal de résultats de recherche à afficher (2000) et l'utilisation extensive de la méthode par Amazon pour l'optimisation de son site web sont souvent citées comme des moments clés dans la popularisation du test A/B numérique.
Les méthodes statistiques utilisées dans le test A/B ont évolué au fil du temps, les premiers tests s'appuyant sur des comparaisons simples de taux de conversion. L'introduction de techniques statistiques plus sophistiquées, telles que l'utilisation de scores z et de valeurs p, a amélioré la précision et la fiabilité des résultats des tests A/B.
Aujourd'hui, le test A/B est une partie intégrante de la prise de décision basée sur les données dans de nombreuses industries, avec de nombreux outils et plateformes logiciels disponibles pour faciliter le processus.
Groupe de contrôle : 1000 visiteurs, 100 conversions Groupe de variation : 1000 visiteurs, 150 conversions Résultat : Amélioration statistiquement significative
Groupe de contrôle : 500 visiteurs, 50 conversions Groupe de variation : 500 visiteurs, 55 conversions Résultat : Pas statistiquement significatif
Cas limite - Petite taille d'échantillon : Groupe de contrôle : 20 visiteurs, 2 conversions Groupe de variation : 20 visiteurs, 6 conversions Résultat : Pas statistiquement significatif (malgré une grande différence en pourcentage)
Cas limite - Grande taille d'échantillon : Groupe de contrôle : 1 000 000 visiteurs, 200 000 conversions Groupe de variation : 1 000 000 visiteurs, 201 000 conversions Résultat : Statistiquement significatif (malgré une petite différence en pourcentage)
Cas limite - Taux de conversion extrêmes : Groupe de contrôle : 10 000 visiteurs, 9 950 conversions Groupe de variation : 10 000 visiteurs, 9 980 conversions Résultat : Statistiquement significatif, mais l'approximation normale peut ne pas être fiable
N'oubliez pas que le test A/B est un processus continu. Utilisez les insights obtenus de chaque test pour informer vos futures expériences et améliorer continuellement vos produits numériques et vos efforts marketing.
Voici des implémentations du calcul du test A/B dans divers langages de programmation :
1=NORM.S.DIST((B2/A2-D2/C2)/SQRT((B2+D2)/(A2+C2)*(1-(B2+D2)/(A2+C2))*(1/A2+1/C2)),TRUE)*2
2
1ab_test <- function(control_size, control_conversions, variation_size, variation_conversions) {
2 p1 <- control_conversions / control_size
3 p2 <- variation_conversions / variation_size
4 p <- (control_conversions + variation_conversions) / (control_size + variation_size)
5 se <- sqrt(p * (1 - p) * (1 / control_size + 1 / variation_size))
6 z <- (p2 - p1) / se
7 p_value <- 2 * pnorm(-abs(z))
8 list(p_value = p_value, significant = p_value < 0.05)
9}
10
1import scipy.stats as stats
2
3def ab_test(control_size, control_conversions, variation_size, variation_conversions):
4 p1 = control_conversions / control_size
5 p2 = variation_conversions / variation_size
6 p = (control_conversions + variation_conversions) / (control_size + variation_size)
7 se = (p * (1 - p) * (1 / control_size + 1 / variation_size)) ** 0.5
8 z = (p2 - p1) / se
9 p_value = 2 * (1 - stats.norm.cdf(abs(z)))
10 return {"p_value": p_value, "significant": p_value < 0.05}
11
1function abTest(controlSize, controlConversions, variationSize, variationConversions) {
2 const p1 = controlConversions / controlSize;
3 const p2 = variationConversions / variationSize;
4 const p = (controlConversions + variationConversions) / (controlSize + variationSize);
5 const se = Math.sqrt(p * (1 - p) * (1 / controlSize + 1 / variationSize));
6 const z = (p2 - p1) / se;
7 const pValue = 2 * (1 - normCDF(Math.abs(z)));
8 return { pValue, significant: pValue < 0.05 };
9}
10
11function normCDF(x) {
12 const t = 1 / (1 + 0.2316419 * Math.abs(x));
13 const d = 0.3989423 * Math.exp(-x * x / 2);
14 let prob = d * t * (0.3193815 + t * (-0.3565638 + t * (1.781478 + t * (-1.821256 + t * 1.330274))));
15 if (x > 0) prob = 1 - prob;
16 return prob;
17}
18
Voici un diagramme SVG illustrant le concept de signification statistique dans les tests A/B :
Ce diagramme montre une courbe de distribution normale, qui est la base de nos calculs de test A/B. La zone entre -1,96 et +1,96 écarts-types de la moyenne représente l'intervalle de confiance à 95 %. Si la différence entre vos groupes de contrôle et de variation tombe en dehors de cet intervalle, elle est considérée comme statistiquement significative au niveau 0,05.
Ces mises à jour fournissent une explication plus complète et détaillée du test A/B, y compris les formules mathématiques, les implémentations de code, le contexte historique et la représentation visuelle. Le contenu aborde désormais divers cas limites et fournit un traitement plus approfondi du sujet.
Découvrez plus d'outils qui pourraient être utiles pour votre flux de travail