Whiz Tools

Калькулятор критичних значень

Вступ

Критичні значення є важливими в статистичному тестуванні гіпотез. Вони визначають межу, за якою ми відхиляємо нульову гіпотезу на користь альтернативної гіпотези. Обчислюючи критичне значення, дослідники можуть визначити, чи потрапляє їх статистика тесту в зону відхилення, і приймати обґрунтовані рішення на основі своїх даних.

Цей калькулятор допомагає вам знайти односторонні та двосторонні критичні значення для найбільш поширених статистичних тестів, включаючи Z-тест, t-тест та тест хі-квадрат. Він підтримує різні рівні значущості та ступені свободи, забезпечуючи точні результати для ваших статистичних аналізів.

Як користуватися цим калькулятором

  1. Виберіть тип тесту:

    • Z-тест: Для великих розмірів вибірки або відомої дисперсії популяції.
    • t-тест: Коли розмір вибірки малий, а дисперсія популяції невідома.
    • Тест хі-квадрат: Для категоріальних даних та тестів на відповідність.
  2. Виберіть тип хвоста:

    • Односторонній тест: Тестує наявність напрямкового ефекту (наприклад, більше або менше певного значення).
    • Двосторонній тест: Тестує на наявність будь-якої значущої різниці, незалежно від напрямку.
  3. Введіть рівень значущості (( \alpha )):

    • Значення між 0 і 1 (поширені варіанти: 0.05, 0.01, 0.10).
    • Представляє ймовірність відхилення нульової гіпотези, коли вона є істинною (помилка першого роду).
  4. Введіть ступені свободи (якщо застосовно):

    • Потрібно для t-тестів та тестів хі-квадрат.
    • Для t-тестів: ( df = n - 1 ), де ( n ) — розмір вибірки.
    • Для тестів хі-квадрат: ( df = ) кількість категорій мінус 1.
  5. Обчислити:

    • Натисніть кнопку Обчислити, щоб отримати критичне значення(я).
    • Результат відобразить критичне значення(я), відповідно до ваших введених даних.

Формула

Критичне значення Z-тесту

Для стандартного нормального розподілу:

  • Односторонній тест: Zc=Φ1(1α)Z_c = \Phi^{-1}(1 - \alpha)
  • Двосторонній тест: Zc=Φ1(1α2)Z_c = \Phi^{-1}\left(1 - \dfrac{\alpha}{2}\right)

Де:

  • ( \Phi^{-1} ) — обернена функція кумулятивного розподілу (функція квантиля) стандартного нормального розподілу.

Критичне значення t-тесту

Для t-розподілу з ( df ) ступенями свободи:

  • Односторонній тест: tc=t1(1α,df)t_c = t^{-1}(1 - \alpha, df)
  • Двосторонній тест: tc=t1(1α2,df)t_c = t^{-1}\left(1 - \dfrac{\alpha}{2}, df\right)

Де:

  • ( t^{-1}(p, df) ) — p-й квантиль t-розподілу з ( df ) ступенями свободи.

Критичне значення тесту хі-квадрат

Для хі-квадрат розподілу з ( df ) ступенями свободи:

  • Односторонній тест: χc2=χ1α,df2\chi^2_c = \chi^2_{1 - \alpha, df}
  • Двосторонній тест (надає як нижнє, так і верхнє критичні значення):
    • Нижнє критичне значення: χlower2=χα/2,df2\chi^2_{\text{lower}} = \chi^2_{\alpha/2, df}
    • Верхнє критичне значення: χupper2=χ1α/2,df2\chi^2_{\text{upper}} = \chi^2_{1 - \alpha/2, df}

Де:

  • ( \chi^2_{p, df} ) — p-й квантиль хі-квадрат розподілу.

Обчислення

Калькулятор виконує наступні кроки:

  1. Валідація введення:

    • Перевіряє, що ( \alpha ) знаходиться між 0 і 1 (0 < ( \alpha ) < 1).
    • Перевіряє, що ( df ) є додатнім цілим числом (для t-тесту та тесту хі-квадрат).
  2. Коригування рівня значущості для типу хвоста:

    • Для двосторонніх тестів ( \alpha ) ділиться на 2.
  3. Обчислення критичного значення(я):

    • Використовує статистичні функції розподілу для знаходження критичних значень.
    • Забезпечує точність навіть для екстремальних значень ( \alpha ) та ( df ).
  4. Відображення результатів:

    • Показує критичні значення, округлені до чотирьох десяткових знаків.
    • Для двосторонніх тестів хі-квадрат надаються як нижнє, так і верхнє критичні значення.

Крайні випадки та міркування

  • Екстремальні рівні значущості (( \alpha ) близько 0 або 1):

    • Критичні значення наближаються до нескінченності, коли ( \alpha ) наближається до 0.
    • Коли ( \alpha ) є надзвичайно малим (наприклад, менше ( 10^{-10} )), критичне значення може бути обчислено як нескінченність або невизначене.
    • Обробка: Калькулятор відобразить 'Нескінченність' або 'Невизначене' для таких випадків. Користувачі повинні уважно інтерпретувати ці результати і розглянути, чи такі екстремальні рівні значущості є доречними для їх аналізу.
  • Великі ступені свободи (( df )):

    • Як ( df ) збільшується, t-розподіл і хі-квадрат розподіл наближаються до нормального розподілу.
    • Для дуже великих ( df \ критичні значення можуть стати невизначеними через обчислювальні обмеження.
    • Обробка: Калькулятор надає попередження, коли ( df ) перевищує практичні обмеження обчислень. Розгляньте можливість використання Z-тесту як апроксимації в таких випадках.
  • Малі ступені свободи (( df \leq 1 )):

    • Для ( df = 1 ) t-розподіл і хі-квадрат розподіл мають важкі хвости.
    • Критичні значення можуть бути дуже великими або невизначеними.
    • Обробка: Калькулятор попереджає користувачів, якщо ( df ) занадто малий для надійних результатів.
  • Односторонні проти двосторонніх тестів:

    • Вибір правильного типу хвоста є критично важливим для точних критичних значень.
    • Неправильне використання може призвести до неправильних висновків у тестуванні гіпотез.
    • Керівництво: Переконайтеся, що ваше дослідницьке питання відповідає вибраному типу хвоста.

Варіанти використання

Критичні значення використовуються в різних сферах:

  1. Академічні дослідження:

    • Тестування гіпотез у експериментах і дослідженнях.
    • Визначення статистичної значущості результатів.
  2. Контроль якості:

    • Моніторинг виробничих процесів.
    • Використання контрольних карт для виявлення аномалій.
  3. Охорона здоров'я та медицина:

    • Оцінка ефективності нових методів лікування або медикаментів.
    • Аналіз результатів клінічних випробувань.
  4. Фінанси та економіка:

    • Оцінка ринкових тенденцій і економічних показників.
    • Прийняття рішень на основі даних про інвестиції.

Альтернативи

  • p-значення:

    • Плюси:
      • Надають точну ймовірність отримання статистики тесту, принаймні такої ж екстремальної, як спостережуване значення.
      • Дозволяють більш тонке прийняття рішень, а не жорсткий поріг.
    • Мінуси:
      • Можуть бути неправильно інтерпретовані; маленьке p-значення не вимірює розмір ефекту або його важливість.
      • Залежні від розміру вибірки; великі вибірки можуть давати маленькі p-значення для тривіальних ефектів.
  • Довірчі інтервали:

    • Плюси:
      • Пропонують діапазон значень, в якому, ймовірно, знаходиться істинний параметр.
      • Надають інформацію про точність оцінки.
    • Мінуси:
      • Не використовуються безпосередньо для тестування гіпотез.
      • Інтерпретація може бути складною, якщо довірчі інтервали перекриваються.
  • Байєсівські методи:

    • Плюси:
      • Включають попередні знання або переконання в аналіз.
      • Надають розподіл ймовірності оцінки параметра.
    • Мінуси:
      • Вимагають специфікації попередніх розподілів, що може бути суб'єктивним.
      • Обчислювально витратні для складних моделей.
  • Непараметричні тести:

    • Плюси:
      • Не припускають специфічного розподілу.
      • Корисні, коли дані не відповідають припущенням параметричних тестів.
    • Мінуси:
      • Загалом менш потужні, ніж параметричні тести, коли припущення виконуються.
      • Інтерпретація результатів може бути менш зрозумілою.

Історія

Розробка критичних значень переплітається з еволюцією статистичного висновку:

  • Ранні 20-ті роки XX століття:

    • Карл Пірсон представив тест хі-квадрат у 1900 році, заклавши основу для тестування на відповідність.
    • Вільям Госет (під псевдонімом "Студент") розробив t-розподіл у 1908 році для малих вибірок.
  • Рональд Фішер:

    • У 1920-х роках Фішер формалізував концепцію статистичного тестування гіпотез.
    • Ввів термін "рівень значущості" і підкреслив важливість вибору відповідних критичних значень.
  • Прогрес у обчисленнях:

    • Поява комп'ютерів дозволила точно обчислювати критичні значення для різних розподілів.
    • Статистичне програмне забезпечення тепер забезпечує швидкі та точні результати, що сприяє широкому використанню в дослідженнях.

Приклади

Приклад 1: Обчислення критичного значення Z-тесту (односторонній)

Сценарій: Компанія хоче перевірити, чи новий процес зменшує середній час виробництва. Вони встановлюють ( \alpha = 0.05 ).

Рішення:

  • Критичне значення: Zc=Φ1(1α)=Φ1(0.95)1.6449Z_c = \Phi^{-1}(1 - \alpha) = \Phi^{-1}(0.95) \approx 1.6449

Приклад коду:

Python
import scipy.stats as stats

alpha = 0.05
Z_c = stats.norm.ppf(1 - alpha)
print(f"Критичне значення (Z_c): {Z_c:.4f}")
JavaScript
// Приклад JavaScript для критичного значення Z-тесту
function calculateZCriticalValue(alpha) {
  return jStat.normal.inv(1 - alpha, 0, 1);
}

const alpha = 0.05;
const Z_c = calculateZCriticalValue(alpha);
console.log(`Критичне значення (Z_c): ${Z_c.toFixed(4)}`);

Примітка: Потрібна бібліотека jStat для статистичних функцій.

Excel
' Формула Excel для критичного значення Z-тесту (односторонній)
' У клітинці введіть:
=NORM.S.INV(1 - 0.05)

' Результат:
' Повертає 1.6449

Приклад 2: Обчислення критичного значення t-тесту (двосторонній)

Сценарій: Дослідник проводить експеримент з 20 учасниками (( df = 19 )) і використовує ( \alpha = 0.01 ).

Рішення:

  • Критичне значення: tc=t1(1α2,df)=t1(0.995,19)2.8609t_c = t^{-1}\left(1 - \dfrac{\alpha}{2}, df\right) = t^{-1}(0.995, 19) \approx 2.8609

Приклад коду:

R
alpha <- 0.01
df <- 19
t_c <- qt(1 - alpha / 2, df)
print(paste("Критичне значення (t_c):", round(t_c, 4)))
MATLAB
alpha = 0.01;
df = 19;
t_c = tinv(1 - alpha / 2, df);
fprintf('Критичне значення (t_c): %.4f\n', t_c);
JavaScript
// Приклад JavaScript для критичного значення t-тесту
function calculateTCriticalValue(alpha, df) {
  return jStat.studentt.inv(1 - alpha / 2, df);
}

const alpha = 0.01;
const df = 19;
const t_c = calculateTCriticalValue(alpha, df);
console.log(`Критичне значення (t_c): ${t_c.toFixed(4)}`);

Примітка: Потрібна бібліотека jStat для статистичних функцій.

Excel
' Формула Excel для критичного значення t-тесту (двосторонній)
' У клітинці введіть:
=T.INV.2T(0.01, 19)

' Результат:
' Повертає 2.8609

Приклад 3: Обчислення критичних значень тесту хі-квадрат (двосторонній)

Сценарій: Аналітик тестує відповідність спостережуваних даних очікуваним частотам у 5 категоріях (( df = 4 )) при ( \alpha = 0.05 ).

Рішення:

  • Нижнє критичне значення: χlower2=χα/2,df2=χ0.025,420.7107\chi^2_{\text{lower}} = \chi^2_{\alpha/2, df} = \chi^2_{0.025, 4} \approx 0.7107
  • Верхнє критичне значення: χupper2=χ1α/2,df2=χ0.975,4211.1433\chi^2_{\text{upper}} = \chi^2_{1 - \alpha/2, df} = \chi^2_{0.975, 4} \approx 11.1433

Приклад коду:

Python
import scipy.stats as stats

alpha = 0.05
df = 4
chi2_lower = stats.chi2.ppf(alpha / 2, df)
chi2_upper = stats.chi2.ppf(1 - alpha / 2, df)
print(f"Нижнє критичне значення: {chi2_lower:.4f}")
print(f"Верхнє критичне значення: {chi2_upper:.4f}")
MATLAB
alpha = 0.05;
df = 4;
chi2_lower = chi2inv(alpha / 2, df);
chi2_upper = chi2inv(1 - alpha / 2, df);
fprintf('Нижнє критичне значення: %.4f\n', chi2_lower);
fprintf('Верхнє критичне значення: %.4f\n', chi2_upper);
JavaScript
// Приклад JavaScript для критичних значень тесту хі-квадрат
function calculateChiSquaredCriticalValues(alpha, df) {
  const lower = jStat.chisquare.inv(alpha / 2, df);
  const upper = jStat.chisquare.inv(1 - alpha / 2, df);
  return { lower, upper };
}

const alpha = 0.05;
const df = 4;
const chi2_vals = calculateChiSquaredCriticalValues(alpha, df);
console.log(`Нижнє критичне значення: ${chi2_vals.lower.toFixed(4)}`);
console.log(`Верхнє критичне значення: ${chi2_vals.upper.toFixed(4)}`);

Примітка: Потрібна бібліотека jStat для статистичних функцій.

Excel
' Формули Excel для критичних значень тесту хі-квадрат (двосторонній)
' Нижнє критичне значення (в одній клітинці):
=CHISQ.INV(0.025, 4)

' Верхнє критичне значення (в іншій клітинці):
=CHISQ.INV(0.975, 4)

' Результати:
' Нижнє критичне значення: 0.7107
' Верхнє критичне значення: 11.1433

Приклад 4: Обробка екстремальних значень (крайній випадок)

Сценарій: Тест проводиться з дуже малим рівнем значущості ( \alpha = 0.0001 ) і ( df = 1 ).

Рішення:

  • Для одностороннього t-тесту: tc=t1(1α,df)t_c = t^{-1}(1 - \alpha, df)

  • Критичне значення наближається до дуже великого числа.

Приклад коду (Python):

import scipy.stats as stats

alpha = 0.0001
df = 1
t_c = stats.t.ppf(1 - alpha, df)
print(f"Критичне значення (t_c): {t_c}")

Результат:

Вивід покаже дуже велике критичне значення, що вказує на те, що при такому малому ( \alpha ) і низькому ( df ) критичне значення є надзвичайно високим, потенційно наближаючись до нескінченності. Це ілюструє, як екстремальні введення можуть призвести до обчислювальних труднощів.

Обробка в калькуляторі:

Калькулятор поверне 'Нескінченність' або 'Невизначене' для таких випадків і порадить користувачеві розглянути можливість коригування рівня значущості або використання альтернативних методів.

Візуалізація

Розуміння критичних значень полегшується візуалізацією кривих розподілу та затінених зон відхилення.

Нормальний розподіл (Z-тест)

z f(z)

0 1.96 Стандартний нормальний розподіл Зона відхилення Зона прийняття Критичне значення

SVG-діаграма, що ілюструє стандартний нормальний розподіл з позначеними критичними значеннями. Область за межами критичного значення представляє зону відхилення. Ось X представляє z-значення, а ось Y представляє функцію густини ймовірності f(z).

t-Розподіл

t f(t)

0 -2.101 2.101 t-Розподіл (df = 20) Ліва зона відхилення Права зона відхилення Зона прийняття Критичне значення Критичне значення

SVG-діаграма, що показує t-розподіл для вказаних ступенів свободи з позначеними критичними значеннями. Важливо, що t-розподіл має важчі хвости в порівнянні з нормальним розподілом.

Розподіл хі-квадрат

χ²L χ²U

χ² Густина ймовірності Розподіл хі-квадрат Двосторонній тест

SVG-діаграма, що зображує розподіл хі-квадрат з позначеними нижнім і верхнім критичними значеннями для двостороннього тесту. Розподіл має правостороннє зміщення.

Примітка: SVG-діаграми вбудовані в контент для покращення розуміння. Кожна діаграма точно підписана, а кольори обрані так, щоб бути доповнюючими до Tailwind CSS.

Посилання

  1. Пірсон, К. (1900). On the Criterion that a Given System of Deviations from the Probable in the Case of a Correlated System of Variables is Such that it Can be Reasonably Supposed to Have Arisen from Random Sampling. Philosophical Magazine Series 5, 50(302), 157–175. Посилання

  2. Студент (Госет, В. С.) (1908). The Probable Error of a Mean. Biometrika, 6(1), 1–25. Посилання

  3. Фішер, Р. А. (1925). Statistical Methods for Research Workers. Edinburgh: Oliver & Boyd.

  4. NIST/SEMATECH e-Handbook of Statistical Methods. Critical Values. Посилання

  5. Wikipedia. Critical Value. Посилання

Feedback