Determine a significância estatística dos seus testes A/B sem esforço com nossa calculadora rápida e confiável. Obtenha resultados instantâneos para tomar decisões baseadas em dados para seu marketing digital, desenvolvimento de produtos e otimização da experiência do usuário. Perfeito para sites, e-mails e aplicativos móveis.
O teste A/B é um método crucial em marketing digital, desenvolvimento de produtos e otimização da experiência do usuário. Envolve a comparação de duas versões de uma página da web ou aplicativo entre si para determinar qual delas tem um desempenho melhor. Nossa Calculadora de Teste A/B ajuda você a determinar a significância estatística dos resultados do seu teste, garantindo que você tome decisões baseadas em dados.
A calculadora de teste A/B utiliza métodos estatísticos para determinar se a diferença entre dois grupos (controle e variação) é significativa. O núcleo desse cálculo envolve o cálculo de um escore z e seu valor p correspondente.
Calcule as taxas de conversão para cada grupo:
e
Onde:
Calcule a proporção agrupada:
Calcule o erro padrão:
Calcule o escore z:
Calcule o valor p:
O valor p é calculado usando a função de distribuição acumulada da distribuição normal padrão. Na maioria das linguagens de programação, isso é feito usando funções embutidas.
Determine a significância estatística:
Se o valor p for menor que o nível de significância escolhido (tipicamente 0,05), o resultado é considerado estatisticamente significativo.
É importante notar que este método assume uma distribuição normal, o que geralmente é válido para tamanhos de amostra grandes. Para tamanhos de amostra muito pequenos ou taxas de conversão extremas, métodos estatísticos mais avançados podem ser necessários.
Os testes A/B têm uma ampla gama de aplicações em várias indústrias:
Embora o teste A/B seja amplamente utilizado, existem métodos alternativos para testes de comparação:
O conceito de teste A/B tem suas raízes em pesquisas agrícolas e médicas do início do século XX. Sir Ronald Fisher, um estatístico britânico, foi pioneiro no uso de ensaios controlados randomizados na década de 1920, estabelecendo as bases para o moderno teste A/B.
No âmbito digital, o teste A/B ganhou destaque no final dos anos 1990 e início dos anos 2000 com o crescimento do e-commerce e do marketing digital. O uso do teste A/B pelo Google para determinar o número ideal de resultados de busca a serem exibidos (2000) e o uso extensivo do método pela Amazon para otimização de sites são frequentemente citados como momentos decisivos na popularização do teste A/B digital.
Os métodos estatísticos utilizados no teste A/B evoluíram ao longo do tempo, com os primeiros testes dependendo de comparações simples de taxas de conversão. A introdução de técnicas estatísticas mais sofisticadas, como o uso de escores z e valores p, melhorou a precisão e a confiabilidade dos resultados dos testes A/B.
Hoje, o teste A/B é uma parte integral da tomada de decisões baseada em dados em muitas indústrias, com inúmeras ferramentas e plataformas de software disponíveis para facilitar o processo.
Grupo de Controle: 1000 visitantes, 100 conversões Grupo de Variação: 1000 visitantes, 150 conversões Resultado: Melhora estatisticamente significativa
Grupo de Controle: 500 visitantes, 50 conversões Grupo de Variação: 500 visitantes, 55 conversões Resultado: Não estatisticamente significativo
Caso Limite - Tamanho de Amostra Pequeno: Grupo de Controle: 20 visitantes, 2 conversões Grupo de Variação: 20 visitantes, 6 conversões Resultado: Não estatisticamente significativo (apesar da grande diferença percentual)
Caso Limite - Tamanho de Amostra Grande: Grupo de Controle: 1.000.000 visitantes, 200.000 conversões Grupo de Variação: 1.000.000 visitantes, 201.000 conversões Resultado: Estatisticamente significativo (apesar da pequena diferença percentual)
Caso Limite - Taxas de Conversão Extremas: Grupo de Controle: 10.000 visitantes, 9.950 conversões Grupo de Variação: 10.000 visitantes, 9.980 conversões Resultado: Estatisticamente significativo, mas a aproximação normal pode não ser confiável
Lembre-se, o teste A/B é um processo contínuo. Use os insights obtidos de cada teste para informar seus experimentos futuros e melhorar continuamente seus produtos digitais e esforços de marketing.
Aqui estão implementações do cálculo do teste A/B em várias linguagens de programação:
1=NORM.S.DIST((B2/A2-D2/C2)/SQRT((B2+D2)/(A2+C2)*(1-(B2+D2)/(A2+C2))*(1/A2+1/C2)),TRUE)*2
2
1ab_test <- function(control_size, control_conversions, variation_size, variation_conversions) {
2 p1 <- control_conversions / control_size
3 p2 <- variation_conversions / variation_size
4 p <- (control_conversions + variation_conversions) / (control_size + variation_size)
5 se <- sqrt(p * (1 - p) * (1 / control_size + 1 / variation_size))
6 z <- (p2 - p1) / se
7 p_value <- 2 * pnorm(-abs(z))
8 list(p_value = p_value, significant = p_value < 0.05)
9}
10
1import scipy.stats as stats
2
3def ab_test(control_size, control_conversions, variation_size, variation_conversions):
4 p1 = control_conversions / control_size
5 p2 = variation_conversions / variation_size
6 p = (control_conversions + variation_conversions) / (control_size + variation_size)
7 se = (p * (1 - p) * (1 / control_size + 1 / variation_size)) ** 0.5
8 z = (p2 - p1) / se
9 p_value = 2 * (1 - stats.norm.cdf(abs(z)))
10 return {"p_value": p_value, "significant": p_value < 0.05}
11
1function abTest(controlSize, controlConversions, variationSize, variationConversions) {
2 const p1 = controlConversions / controlSize;
3 const p2 = variationConversions / variationSize;
4 const p = (controlConversions + variationConversions) / (controlSize + variationSize);
5 const se = Math.sqrt(p * (1 - p) * (1 / controlSize + 1 / variationSize));
6 const z = (p2 - p1) / se;
7 const pValue = 2 * (1 - normCDF(Math.abs(z)));
8 return { pValue, significant: pValue < 0.05 };
9}
10
11function normCDF(x) {
12 const t = 1 / (1 + 0.2316419 * Math.abs(x));
13 const d = 0.3989423 * Math.exp(-x * x / 2);
14 let prob = d * t * (0.3193815 + t * (-0.3565638 + t * (1.781478 + t * (-1.821256 + t * 1.330274))));
15 if (x > 0) prob = 1 - prob;
16 return prob;
17}
18
Aqui está um diagrama SVG ilustrando o conceito de significância estatística em testes A/B:
Este diagrama mostra uma curva de distribuição normal, que é a base para nossos cálculos de teste A/B. A área entre -1,96 e +1,96 desvios padrão da média representa o intervalo de confiança de 95%. Se a diferença entre seus grupos de controle e variação cair fora desse intervalo, é considerada estatisticamente significativa no nível 0,05.
Essas atualizações fornecem uma explicação mais abrangente e detalhada sobre o teste A/B, incluindo as fórmulas matemáticas, implementações de código, contexto histórico e representação visual. O conteúdo agora aborda vários casos limites e fornece um tratamento mais completo do assunto.
Descubra mais ferramentas que podem ser úteis para o seu fluxo de trabalho