Bestäm den statistiska signifikansen av dina A/B-tester enkelt med vår snabba och pålitliga kalkylator. Få omedelbara resultat för att fatta datadrivna beslut för din digitala marknadsföring, produktutveckling och optimering av användarupplevelsen. Perfekt för webbplatser, e-post och mobilappar.
A/B-testning är en avgörande metod inom digital marknadsföring, produktutveckling och optimering av användarupplevelser. Det innebär att jämföra två versioner av en webbsida eller app mot varandra för att avgöra vilken som presterar bättre. Vår A/B Test Kalkylator hjälper dig att bestämma den statistiska signifikansen av dina testresultat, vilket säkerställer att du fattar datadrivna beslut.
A/B-testkalkylatorn använder statistiska metoder för att avgöra om skillnaden mellan två grupper (kontroll och variation) är signifikant. Kärnan i denna beräkning involverar att beräkna ett z-värde och dess motsvarande p-värde.
Beräkna konverteringsgraden för varje grupp:
och
Där:
Beräkna den sammanslagna andelen:
Beräkna standardfelet:
Beräkna z-värdet:
Beräkna p-värdet:
P-värdet beräknas med hjälp av den kumulativa fördelningsfunktionen för den standardiserade normala fördelningen. I de flesta programmeringsspråk görs detta med inbyggda funktioner.
Bestäm statistisk signifikans:
Om p-värdet är mindre än den valda signifikansnivån (vanligtvis 0,05) anses resultatet vara statistiskt signifikant.
Det är viktigt att notera att denna metod förutsätter en normalfördelning, vilket vanligtvis är giltigt för stora urvalsstorlekar. För mycket små urvalsstorlekar eller extrema konverteringsgrader kan mer avancerade statistiska metoder vara nödvändiga.
A/B-testning har en mängd tillämpningar inom olika branscher:
Även om A/B-testning är allmänt använd finns det alternativa metoder för jämförande tester:
Konceptet A/B-testning har sina rötter i jordbruk och medicinsk forskning från tidigt 1900-tal. Sir Ronald Fisher, en brittisk statistiker, var pionjär inom användningen av randomiserade kontrollerade studier på 1920-talet, vilket lade grunden för modern A/B-testning.
Inom den digitala världen fick A/B-testning ökad betydelse i slutet av 1990-talet och början av 2000-talet med framväxten av e-handel och digital marknadsföring. Googles användning av A/B-testning för att bestämma det optimala antalet sökresultat att visa (2000) och Amazons omfattande användning av metoden för webbplatsoptimering är ofta citerade som avgörande ögonblick i populariseringen av digital A/B-testning.
De statistiska metoder som används i A/B-testning har utvecklats över tid, där tidiga tester förlitade sig på enkla jämförelser av konverteringsgrader. Introduktionen av mer sofistikerade statistiska tekniker, såsom användningen av z-värden och p-värden, har förbättrat noggrannheten och tillförlitligheten av A/B-testresultat.
Idag är A/B-testning en integrerad del av datadrivet beslutsfattande inom många branscher, med ett stort antal programvaruverktyg och plattformar tillgängliga för att underlätta processen.
Kontrollgrupp: 1000 besökare, 100 konverteringar Variationsgrupp: 1000 besökare, 150 konverteringar Resultat: Statistiskt signifikant förbättring
Kontrollgrupp: 500 besökare, 50 konverteringar Variationsgrupp: 500 besökare, 55 konverteringar Resultat: Inte statistiskt signifikant
Gränsfall - Liten urvalsstorlek: Kontrollgrupp: 20 besökare, 2 konverteringar Variationsgrupp: 20 besökare, 6 konverteringar Resultat: Inte statistiskt signifikant (trots stor procentuell skillnad)
Gränsfall - Stor urvalsstorlek: Kontrollgrupp: 1 000 000 besökare, 200 000 konverteringar Variationsgrupp: 1 000 000 besökare, 201 000 konverteringar Resultat: Statistiskt signifikant (trots liten procentuell skillnad)
Gränsfall - Extrema konverteringsgrader: Kontrollgrupp: 10 000 besökare, 9 950 konverteringar Variationsgrupp: 10 000 besökare, 9 980 konverteringar Resultat: Statistiskt signifikant, men normalapproximationen kanske inte är tillförlitlig
Kom ihåg, A/B-testning är en pågående process. Använd insikterna från varje test för att informera dina framtida experiment och kontinuerligt förbättra dina digitala produkter och marknadsföringsinsatser.
Här är implementationer av A/B-testberäkningen i olika programmeringsspråk:
1=NORM.S.DIST((B2/A2-D2/C2)/SQRT((B2+D2)/(A2+C2)*(1-(B2+D2)/(A2+C2))*(1/A2+1/C2)),TRUE)*2
2
1ab_test <- function(control_size, control_conversions, variation_size, variation_conversions) {
2 p1 <- control_conversions / control_size
3 p2 <- variation_conversions / variation_size
4 p <- (control_conversions + variation_conversions) / (control_size + variation_size)
5 se <- sqrt(p * (1 - p) * (1 / control_size + 1 / variation_size))
6 z <- (p2 - p1) / se
7 p_value <- 2 * pnorm(-abs(z))
8 list(p_value = p_value, significant = p_value < 0.05)
9}
10
1import scipy.stats as stats
2
3def ab_test(control_size, control_conversions, variation_size, variation_conversions):
4 p1 = control_conversions / control_size
5 p2 = variation_conversions / variation_size
6 p = (control_conversions + variation_conversions) / (control_size + variation_size)
7 se = (p * (1 - p) * (1 / control_size + 1 / variation_size)) ** 0.5
8 z = (p2 - p1) / se
9 p_value = 2 * (1 - stats.norm.cdf(abs(z)))
10 return {"p_value": p_value, "significant": p_value < 0.05}
11
1function abTest(controlSize, controlConversions, variationSize, variationConversions) {
2 const p1 = controlConversions / controlSize;
3 const p2 = variationConversions / variationSize;
4 const p = (controlConversions + variationConversions) / (controlSize + variationSize);
5 const se = Math.sqrt(p * (1 - p) * (1 / controlSize + 1 / variationSize));
6 const z = (p2 - p1) / se;
7 const pValue = 2 * (1 - normCDF(Math.abs(z)));
8 return { pValue, significant: pValue < 0.05 };
9}
10
11function normCDF(x) {
12 const t = 1 / (1 + 0.2316419 * Math.abs(x));
13 const d = 0.3989423 * Math.exp(-x * x / 2);
14 let prob = d * t * (0.3193815 + t * (-0.3565638 + t * (1.781478 + t * (-1.821256 + t * 1.330274))));
15 if (x > 0) prob = 1 - prob;
16 return prob;
17}
18
Här är en SVG-diagram som illustrerar konceptet statistisk signifikans i A/B-testning:
Detta diagram visar en normalfördelningskurva, som är grunden för våra A/B-testberäkningar. Området mellan -1,96 och +1,96 standardavvikelser från medelvärdet representerar 95% konfidensintervall. Om skillnaden mellan dina kontroll- och variationsgrupper ligger utanför detta intervall anses det vara statistiskt signifikant på 0,05-nivån.
Upptäck fler verktyg som kan vara användbara för din arbetsflöde