0:00
В этом видео мы потренируемся
строить биномиальный критерий для доли.
Ранее мы уже научились строить доверительный интервал для доли с помощью
нормального распределения, а также методом Уилсона.
В этом видео мы потренируемся строить критерий.
Давайте рассмотрим следующую задачу.
Наверняка многие помнят, что Джеймс Бонд утверждает,
что он предпочитает пить мартини взболтанным, но не смешанным.
Как бы мы могли проверить это на практике?
Можно было бы предложить Джеймсу Бонду пройти так называемый blind test,
или слепое тестирование.
Можно было бы завязать ему глаза,
несколько раз предложить на выбор взболтанный и смешанный мартини,
а после этого спросить, какой напиток он предпочитает.
В данном случае, если бы Джеймс Бонд выбирал взболтанный напиток,
мы бы говорили, что это успех, потому что его выбор соответствует его утверждению.
В противном случае мы бы говорили, что произошла неудача,
так как выбор утверждению не соответствует.
Как в данном случае выглядела бы проверка гипотез?
Мы бы проверяли нулевую гипотезу о том, что Джеймс Бонд не различает
два вида напитков и выбирает наугад, против некоторой альтернативы.
Ну, альтернатива, вообще говоря, могла бы быть разной.
С одной стороны, мы могли бы рассматривать двухстороннюю альтернативу — Джеймс Бонд
отличает два вида напитков, и у него есть некоторые предпочтения — или одну из
односторонних — Джеймс Бонд предпочитает взболтанный мартини,
так как он утверждает, или Джеймс Бонд предпочитает смешанный.
Такой эксперимент мы провели бы n раз, и в качестве T-статистики использовали бы
количество единиц выборки или сумму элементов выборки.
Если наша нулевая гипотеза справедлива, то есть Джеймс Бонд выбирает напиток наугад,
то мы могли бы равновероятно получить любую комбинацию из 0 и 1.
Таких комбинаций — ровно 2 в степени n, поэтому,
для того чтобы получить нулевое распределение,
мы могли бы с вами сгенерировать все эти наборы данных, на каждом посчитать
значение этой статистики и таким образом получить наше распределение.
На самом деле, в данном случае этот шаг мы можем пропустить.
Почему?
Потому что мы имеем дело с выборкой,
состоящей из 0 и 1 из распределения Бернулли с вероятностью успеха p.
В данном случае вероятность успеха p = 0.5, потому что если нулевая
гипотеза справедлива, то успех и неудача происходят равновероятно.
Соответственно, мы с вами работаем с выборкой,
которая представляет из себя сумму n независимых,
одинаково распределенных величин из распределения Бернулли.
Соответственно, нулевое распределение статистики — это биномиальное
распределение с параметрами n — количество экспериментов, и p — вероятность успеха.
Соответственно, давайте возьмем n = 16, и вероятность успеха — 0.5.
Вот давайте посмотрим, как распределение нулевой статистики могло бы выглядеть.
Давайте для начала его построим.
Это можно сделать с помощью функции binom, которой мы передаем количество испытаний и
вероятность успеха, и дальше давайте просто посмотрим распределение.
Видим, что получили распределение ровно такое, которое мы ожидаем — пик в центре.
Так как у нас 16 испытаний, вероятность успеха — 0.5,
то пик должен приходиться на 8.
Ровно это мы здесь и видим.
Теперь давайте перейдем непосредственно к проверке гипотез.
Так как Джеймс Бонд утверждает, что он предпочитает взболтанный мартини,
то давайте с этого и начнем,
и будем тестировать гипотезу H0 против односторонней альтернативы.
Соответственно, гипотеза H1 — Джеймс Бонд предпочитает взболтанный мартини.
При такой альтернативе более вероятно попасть в правый конец распределения,
то есть более вероятно в нашей выборке получить много единиц.
А вот давайте предположим, что мы действительно провели 16 испытаний,
и при этом в 12 из 16 испытаний Джеймс Бонд выбрал взболтанный мартини,
то есть произошел успех.
Давайте построим соответствующее нулевое распределение, и видим,
что в данном случае наша T-статистика была бы равна 12,
и нас бы интересовал правый хвост из нашего распределения.
В данном случае нам нужно просуммировать высоту столбцов, начиная со столбца,
соответствующего 12, и правее, то есть правый хвост нашего распределения,
и использовать полученное значение при расчете достигаемого уровня значимости.
Итак, давайте это сделаем, в данном случае передаем в метод
binom_test из модуля stats следующие параметры.
Первый параметр — это 12, количество успеха, соответственно, следующий параметр
— 16, количество испытаний, а величина 0.5 — это величина p.
И соответственно, вид альтернативы,
в данном случае — односторонняя альтернатива greater.
Итак, давайте посмотрим на значение p-value, и видим,
что p-value достаточно маленькое — 0.04.
Это говорит о том, что на уровне значимости 0.05 мы можем отвергать
нулевую гипотезу, то есть если 12 раз от 16 у нас произойдет успех, то мы с
вами можем сделать вывод о том, что Джеймс Бонд предпочитает взболтанный мартини.
Так, давайте посмотрим, что было бы, если успеха было немножечко меньше,
например 11.
Могли бы мы в этом случае прийти к такому же выводу?
Давайте построим соответствующую гистограмму и увидим,
что добавился еще один столбец по сравнению с предыдущим рисунком.
Но теперь давайте рассчитаем значения p-value.
Как вы думаете: мы получим значение больше или меньше?
Давайте посмотрим.
Видим, что значение p-value стало больше — теперь это 0.1,
то есть на уровне значимости 0.05 мы уже не можем отвергнуть нулевую альтернативу.
Теперь давайте перейдем к двухсторонней альтернативе.
В данном случае гипотеза H1 переформулируется следующим образом:
Джеймс Бонд предпочитает какой-то один определенный вид мартини,
при этом мы не выбираем, какой именно.
При такой альтернативе будут очень вероятны либо большие значения этой
статистики, либо очень очень маленькие.
При расчете достигаемого уровня значимости мы с вами будем учитывать, как правый,
так и левый конец нашего распределения, соответственно,
мы будем суммировать высоту правых и левых столбцов.
Вот давайте для начала предположим снова, что у нас произошло 12 успехов,
то есть 12 раз Джеймс Бонд выбрал взболтанный мартини, и посмотрим,
какие столбцы мы с вами будем суммировать.
Видим, что мы снова суммируем тот же самый правый конец,
но теперь к нему добавляется и левый конец.
Теперь давайте рассчитаем значение p-value, делаем мы это с помощью той же
самой функции, однако теперь меняем вид альтернативы — она двухсторонняя.
И смотрим на значение p-value.
Видим, что значение p-value — почти 0.08, то есть это больше, чем было в том случае,
когда мы проверяли гипотезу H0 против односторонней альтернативы greater.
Соответственно, в данном случае мы не можем отвергнуть гипотезу на уровне
значимости 0.05,
однако мы можем отвергнуть нулевую гипотезу на уровне значимости 0.1.
Итак, давайте посмотрим, что было бы,
если бы у нас произошло 13 испытаний, может быть, их достаточно,
для того чтобы отвергнуть нулевую гипотезу на уровне 0.05.
Смотрим и видим, что мы суммируем значения, соответствующие правому левому
концу, в данном случае столбцов — красных столбцов уже меньше, то есть мы видим,
что значение статистики более экстремальное.
И давайте посмотрим на значение p-value.
Видим, что всего лишь 0.02, соответственно,
мы можем отвергнуть нулевую гипотезу на уровне значимости 0.05.
Итак, мы с вами научились применять биномиальный критерий для доли,
мы научились тестировать нулевую гипотезу против двухсторонних и односторонних
альтернатив, а на следующем видео мы поговорим про критерий хи-квадрат,
или критерий согласия Пирсона.