Bestimmen Sie die statistische Signifikanz Ihrer A/B-Tests mühelos mit unserem schnellen und zuverlässigen Rechner. Erhalten Sie sofortige Ergebnisse, um datengestützte Entscheidungen für Ihr digitales Marketing, Produktentwicklung und die Optimierung der Benutzererfahrung zu treffen. Perfekt für Websites, E-Mails und mobile Apps.
A/B-Tests sind eine entscheidende Methode im digitalen Marketing, in der Produktentwicklung und bei der Optimierung der Benutzererfahrung. Dabei werden zwei Versionen einer Webseite oder App miteinander verglichen, um herauszufinden, welche besser abschneidet. Unser A/B-Test Rechner hilft Ihnen, die statistische Signifikanz Ihrer Testergebnisse zu bestimmen, damit Sie datengestützte Entscheidungen treffen können.
Der A/B-Test Rechner verwendet statistische Methoden, um zu bestimmen, ob der Unterschied zwischen zwei Gruppen (Kontroll- und Variationsgruppe) signifikant ist. Der Kern dieser Berechnung besteht darin, einen z-Wert und den entsprechenden p-Wert zu berechnen.
Berechnen Sie die Konversionsraten für jede Gruppe:
und
Wo:
Berechnen Sie den gepoolten Anteil:
Berechnen Sie den Standardfehler:
Berechnen Sie den z-Wert:
Berechnen Sie den p-Wert:
Der p-Wert wird unter Verwendung der kumulativen Verteilungsfunktion der Standardnormalverteilung berechnet. In den meisten Programmiersprachen geschieht dies mit integrierten Funktionen.
Bestimmen Sie die statistische Signifikanz:
Wenn der p-Wert kleiner als das gewählte Signifikanzniveau (typischerweise 0,05) ist, wird das Ergebnis als statistisch signifikant betrachtet.
Es ist wichtig zu beachten, dass diese Methode eine Normalverteilung annimmt, was in der Regel für große Stichprobengrößen gültig ist. Für sehr kleine Stichprobengrößen oder extreme Konversionsraten können fortgeschrittenere statistische Methoden erforderlich sein.
A/B-Tests haben eine breite Palette von Anwendungen in verschiedenen Branchen:
Obwohl A/B-Tests weit verbreitet sind, gibt es alternative Methoden für Vergleichstests:
Das Konzept des A/B-Tests hat seine Wurzeln in der landwirtschaftlichen und medizinischen Forschung des frühen 20. Jahrhunderts. Sir Ronald Fisher, ein britischer Statistiker, war in den 1920er Jahren Pionier der Verwendung von randomisierten kontrollierten Studien und legte das Fundament für moderne A/B-Tests.
Im digitalen Bereich gewann A/B-Testing in den späten 1990er und frühen 2000er Jahren mit dem Aufstieg des E-Commerce und des digitalen Marketings an Bedeutung. Googles Verwendung von A/B-Tests zur Bestimmung der optimalen Anzahl an Suchergebnissen, die angezeigt werden sollen (2000), und Amazons umfangreiche Nutzung der Methode zur Website-Optimierung werden häufig als entscheidende Momente in der Popularisierung des digitalen A/B-Tests zitiert.
Die statistischen Methoden, die in A/B-Tests verwendet werden, haben sich im Laufe der Zeit weiterentwickelt, wobei frühe Tests sich auf einfache Vergleiche der Konversionsraten stützten. Die Einführung anspruchsvollerer statistischer Techniken, wie die Verwendung von z-Werten und p-Werten, hat die Genauigkeit und Zuverlässigkeit der A/B-Test-Ergebnisse verbessert.
Heute ist A/B-Testing ein integraler Bestandteil datengestützter Entscheidungsfindung in vielen Branchen, mit zahlreichen Softwaretools und Plattformen, die den Prozess erleichtern.
Kontrollgruppe: 1000 Besucher, 100 Konversionen Variationsgruppe: 1000 Besucher, 150 Konversionen Ergebnis: Statistisch signifikante Verbesserung
Kontrollgruppe: 500 Besucher, 50 Konversionen Variationsgruppe: 500 Besucher, 55 Konversionen Ergebnis: Nicht statistisch signifikant
Grenzfall - Kleine Stichprobengröße: Kontrollgruppe: 20 Besucher, 2 Konversionen Variationsgruppe: 20 Besucher, 6 Konversionen Ergebnis: Nicht statistisch signifikant (trotz großer prozentualer Differenz)
Grenzfall - Große Stichprobengröße: Kontrollgruppe: 1.000.000 Besucher, 200.000 Konversionen Variationsgruppe: 1.000.000 Besucher, 201.000 Konversionen Ergebnis: Statistisch signifikant (trotz kleiner prozentualer Differenz)
Grenzfall - Extreme Konversionsraten: Kontrollgruppe: 10.000 Besucher, 9.950 Konversionen Variationsgruppe: 10.000 Besucher, 9.980 Konversionen Ergebnis: Statistisch signifikant, aber die Normalapproximation könnte unzuverlässig sein
Denken Sie daran, dass A/B-Tests ein fortlaufender Prozess sind. Nutzen Sie die Erkenntnisse aus jedem Test, um Ihre zukünftigen Experimente zu informieren und Ihre digitalen Produkte und Marketingbemühungen kontinuierlich zu verbessern.
Hier sind Implementierungen der A/B-Testberechnung in verschiedenen Programmiersprachen:
1=NORM.S.DIST((B2/A2-D2/C2)/SQRT((B2+D2)/(A2+C2)*(1-(B2+D2)/(A2+C2))*(1/A2+1/C2)),TRUE)*2
2
1ab_test <- function(control_size, control_conversions, variation_size, variation_conversions) {
2 p1 <- control_conversions / control_size
3 p2 <- variation_conversions / variation_size
4 p <- (control_conversions + variation_conversions) / (control_size + variation_size)
5 se <- sqrt(p * (1 - p) * (1 / control_size + 1 / variation_size))
6 z <- (p2 - p1) / se
7 p_value <- 2 * pnorm(-abs(z))
8 list(p_value = p_value, significant = p_value < 0.05)
9}
10
1import scipy.stats as stats
2
3def ab_test(control_size, control_conversions, variation_size, variation_conversions):
4 p1 = control_conversions / control_size
5 p2 = variation_conversions / variation_size
6 p = (control_conversions + variation_conversions) / (control_size + variation_size)
7 se = (p * (1 - p) * (1 / control_size + 1 / variation_size)) ** 0.5
8 z = (p2 - p1) / se
9 p_value = 2 * (1 - stats.norm.cdf(abs(z)))
10 return {"p_value": p_value, "significant": p_value < 0.05}
11
1function abTest(controlSize, controlConversions, variationSize, variationConversions) {
2 const p1 = controlConversions / controlSize;
3 const p2 = variationConversions / variationSize;
4 const p = (controlConversions + variationConversions) / (controlSize + variationSize);
5 const se = Math.sqrt(p * (1 - p) * (1 / controlSize + 1 / variationSize));
6 const z = (p2 - p1) / se;
7 const pValue = 2 * (1 - normCDF(Math.abs(z)));
8 return { pValue, significant: pValue < 0.05 };
9}
10
11function normCDF(x) {
12 const t = 1 / (1 + 0.2316419 * Math.abs(x));
13 const d = 0.3989423 * Math.exp(-x * x / 2);
14 let prob = d * t * (0.3193815 + t * (-0.3565638 + t * (1.781478 + t * (-1.821256 + t * 1.330274))));
15 if (x > 0) prob = 1 - prob;
16 return prob;
17}
18
Hier ist ein SVG-Diagramm, das das Konzept der statistischen Signifikanz in A/B-Tests veranschaulicht:
Dieses Diagramm zeigt eine Normalverteilungskurve, die die Grundlage für unsere A/B-Testberechnungen ist. Der Bereich zwischen -1,96 und +1,96 Standardabweichungen vom Mittelwert stellt das 95%ige Konfidenzintervall dar. Wenn der Unterschied zwischen Ihren Kontroll- und Variationsgruppen außerhalb dieses Intervalls liegt, wird er auf dem Niveau von 0,05 als statistisch signifikant angesehen.
Diese Aktualisierungen bieten eine umfassendere und detailliertere Erklärung von A/B-Tests, einschließlich der mathematischen Formeln, Code-Implementierungen, historischen Kontexte und visuellen Darstellungen. Der Inhalt behandelt nun verschiedene Grenzfälle und bietet eine gründlichere Behandlung des Themas.
Entdecken Sie weitere Tools, die für Ihren Workflow nützlich sein könnten