Bestem den statistiske signifikansen av A/B-testene dine enkelt med vår raske og pålitelige kalkulator. Få umiddelbare resultater for å ta datadrevne beslutninger for digital markedsføring, produktutvikling og optimalisering av brukeropplevelsen. Perfekt for nettsteder, e-poster og mobilapper.
A/B-testing er en avgjørende metode innen digital markedsføring, produktutvikling og optimalisering av brukeropplevelsen. Det innebærer å sammenligne to versjoner av en nettside eller app mot hverandre for å avgjøre hvilken som presterer bedre. Vår A/B Test Kalkulator hjelper deg med å bestemme den statistiske signifikansen av testresultatene dine, og sikrer at du tar datadrevne beslutninger.
A/B test kalkulatoren bruker statistiske metoder for å avgjøre om forskjellen mellom to grupper (kontroll og variasjon) er signifikant. Kjernen i denne beregningen involverer å beregne en z-score og dens tilhørende p-verdi.
Beregn konverteringsratene for hver gruppe:
og
Hvor:
Beregn den pooled proporsjonen:
Beregn standardfeilen:
Beregn z-score:
Beregn p-verdien:
P-verdien beregnes ved hjelp av den kumulative fordelingsfunksjonen til den standard normale fordelingen. I de fleste programmeringsspråk gjøres dette ved hjelp av innebygde funksjoner.
Bestem statistisk signifikans:
Hvis p-verdien er mindre enn det valgte signifikansnivået (typisk 0,05), anses resultatet for å være statistisk signifikant.
Det er viktig å merke seg at denne metoden forutsetter en normalfordeling, noe som vanligvis er gyldig for store utvalgsstørrelser. For svært små utvalgsstørrelser eller ekstreme konverteringsrater kan mer avanserte statistiske metoder være nødvendige.
A/B-testing har et bredt spekter av applikasjoner på tvers av ulike bransjer:
Selv om A/B-testing er mye brukt, finnes det alternative metoder for sammenligningstesting:
Konseptet med A/B-testing har sine røtter i landbruks- og medisinsk forskning fra tidlig på 1900-tallet. Sir Ronald Fisher, en britisk statistiker, var pioner innen bruk av randomiserte kontrollerte studier på 1920-tallet, og la grunnlaget for moderne A/B-testing.
I den digitale sfæren fikk A/B-testing økt oppmerksomhet på slutten av 1990-tallet og tidlig 2000-tall med fremveksten av e-handel og digital markedsføring. Googles bruk av A/B-testing for å bestemme det optimale antallet søkeresultater som skal vises (2000) og Amazons omfattende bruk av metoden for optimalisering av nettsider, blir ofte nevnt som avgjørende øyeblikk i populariseringen av digital A/B-testing.
De statistiske metodene som brukes i A/B-testing har utviklet seg over tid, med tidlige tester som var avhengige av enkle sammenligninger av konverteringsrater. Innføringen av mer sofistikerte statistiske teknikker, som bruk av z-scores og p-verdier, har forbedret nøyaktigheten og påliteligheten til A/B-testresultater.
I dag er A/B-testing en integrert del av datadrevet beslutningstaking i mange bransjer, med mange programvareverktøy og plattformer tilgjengelig for å lette prosessen.
Kontrollgruppe: 1000 besøkende, 100 konverteringer Variasjonsgruppe: 1000 besøkende, 150 konverteringer Resultat: Statistisk signifikant forbedring
Kontrollgruppe: 500 besøkende, 50 konverteringer Variasjonsgruppe: 500 besøkende, 55 konverteringer Resultat: Ikke statistisk signifikant
Grensecase - liten utvalgsstørrelse: Kontrollgruppe: 20 besøkende, 2 konverteringer Variasjonsgruppe: 20 besøkende, 6 konverteringer Resultat: Ikke statistisk signifikant (til tross for stor prosentvis forskjell)
Grensecase - stor utvalgsstørrelse: Kontrollgruppe: 1 000 000 besøkende, 200 000 konverteringer Variasjonsgruppe: 1 000 000 besøkende, 201 000 konverteringer Resultat: Statistisk signifikant (til tross for liten prosentvis forskjell)
Grensecase - ekstreme konverteringsrater: Kontrollgruppe: 10 000 besøkende, 9 950 konverteringer Variasjonsgruppe: 10 000 besøkende, 9 980 konverteringer Resultat: Statistisk signifikant, men normaltilnærmingen kan ikke være pålitelig
Husk, A/B-testing er en kontinuerlig prosess. Bruk innsiktene fra hver test til å informere fremtidige eksperimenter og kontinuerlig forbedre digitale produkter og markedsføringsinnsats.
Her er implementeringer av A/B testberegningen i forskjellige programmeringsspråk:
1=NORM.S.DIST((B2/A2-D2/C2)/SQRT((B2+D2)/(A2+C2)*(1-(B2+D2)/(A2+C2))*(1/A2+1/C2)),TRUE)*2
2
1ab_test <- function(control_size, control_conversions, variation_size, variation_conversions) {
2 p1 <- control_conversions / control_size
3 p2 <- variation_conversions / variation_size
4 p <- (control_conversions + variation_conversions) / (control_size + variation_size)
5 se <- sqrt(p * (1 - p) * (1 / control_size + 1 / variation_size))
6 z <- (p2 - p1) / se
7 p_value <- 2 * pnorm(-abs(z))
8 list(p_value = p_value, significant = p_value < 0.05)
9}
10
1import scipy.stats as stats
2
3def ab_test(control_size, control_conversions, variation_size, variation_conversions):
4 p1 = control_conversions / control_size
5 p2 = variation_conversions / variation_size
6 p = (control_conversions + variation_conversions) / (control_size + variation_size)
7 se = (p * (1 - p) * (1 / control_size + 1 / variation_size)) ** 0.5
8 z = (p2 - p1) / se
9 p_value = 2 * (1 - stats.norm.cdf(abs(z)))
10 return {"p_value": p_value, "significant": p_value < 0.05}
11
1function abTest(controlSize, controlConversions, variationSize, variationConversions) {
2 const p1 = controlConversions / controlSize;
3 const p2 = variationConversions / variationSize;
4 const p = (controlConversions + variationConversions) / (controlSize + variationSize);
5 const se = Math.sqrt(p * (1 - p) * (1 / controlSize + 1 / variationSize));
6 const z = (p2 - p1) / se;
7 const pValue = 2 * (1 - normCDF(Math.abs(z)));
8 return { pValue, significant: pValue < 0.05 };
9}
10
11function normCDF(x) {
12 const t = 1 / (1 + 0.2316419 * Math.abs(x));
13 const d = 0.3989423 * Math.exp(-x * x / 2);
14 let prob = d * t * (0.3193815 + t * (-0.3565638 + t * (1.781478 + t * (-1.821256 + t * 1.330274))));
15 if (x > 0) prob = 1 - prob;
16 return prob;
17}
18
Her er et SVG-diagram som illustrerer konseptet med statistisk signifikans i A/B-testing:
Dette diagrammet viser en normalfordelingskurve, som er grunnlaget for våre A/B testberegninger. Området mellom -1,96 og +1,96 standardavvik fra gjennomsnittet representerer 95% konfidensintervall. Hvis forskjellen mellom kontroll- og variasjonsgruppene dine faller utenfor dette intervallet, anses det for å være statistisk signifikant på 0,05-nivået.
Disse oppdateringene gir en mer omfattende og detaljert forklaring av A/B-testing, inkludert de matematiske formlene, kodeimplementeringer, historisk kontekst og visuell representasjon. Innholdet adresserer nå ulike grensecaser og gir en mer grundig behandling av emnet.
Oppdag flere verktøy som kan være nyttige for arbeidsflyten din