Множественные сравнения. Поправка Бонферрони

Автор работы: Пользователь скрыл имя, 06 Апреля 2015 в 15:25, реферат

Краткое описание

Множественные сравнения возникают, когда необходимо на одной и той же выборке параллельно проверить ряд статистических гипотез. Например, критерий Стьюдента может быть использован для проверки гипотезы о различии средних только для двух групп. Если план исследования большего числа групп, совершенно недопустимо просто сравнивать их попарно. Для корректного решения этой задачи можно воспользоваться, например, дисперсионным анализом. Однако дисперсионный анализ позволяет проверить лишь гипотезу о равенстве всех сравниваемых средних.

Содержание

1.Введение
2. критерий Стьюдента для множественных сравнений
3. критерий Ньюмана-Кейлса
4. критерий Тьюки
5.Поправка Бонферрони
6.Заключение
7.Список литературы

Вложенные файлы: 1 файл

BS.docx

— 23.42 Кб (Скачать файл)

АО «Медицинский университет Астана»

Кафедра информатики, математики с курсом биостатистики.

 

 

 

 

СРС

Тема:

“Множественные сравнения. Поправка Бонферрони”

 

 

 

 

                                                        

 

 

 

 

 

 

 

 

 

Астана 2015г.

План

1.Введение 

2. критерий Стьюдента  для множественных сравнений 

3. критерий Ньюмана-Кейлса

4. критерий Тьюки

5.Поправка Бонферрони

6.Заключение 

7.Список литературы 
 

 

 

 

 

 

 

 

 

 

 

 

 

 

Введение.

 Множественные сравнения  возникают, когда необходимо на  одной и той же выборке параллельно  проверить ряд статистических  гипотез.  Например, критерий Стьюдента может быть использован для проверки гипотезы о различии средних только для двух групп. Если план исследования большего числа групп, совершенно недопустимо просто сравнивать их попарно. Для корректного решения этой задачи можно воспользоваться, например, дисперсионным анализом. Однако дисперсионный анализ позволяет проверить лишь гипотезу о равенстве всех сравниваемых средних. Но, если гипотеза не подтверждается, нельзя узнать, какая именно группа отличалась от других. Это позволяют сделать методы множественного сравнения, которые в свою очередь также бывают параметрические и непараметрические. Эти методы дают возможность провести множественные сравнения так, чтобы вероятность хотя бы одного неверного заключения оставалась на первоначальном выбранном уровне значимости, например, 5%.  
Среди параметрических критериев: 

  • критерий Стьюдента для множественных сравнений
  • критерий Ньюмана-Кейлса
  • критерий Тьюки
  • критерий Шеффе
  • критерий Даннета 

Среди непараметрических:

  • критерий Краскела-Уоллиса
  • медианный критерий 

Надо сказать, что основные параметрические критерии для множественного сравнения независимых групп могут после некоторых модификаций применяться для установления различий и в повторных измерениях, если дисперсионный анализ установил наличие таких различий. Критерий Стьюдента для множественных сравнений. Буквой m обозначим число сравниваемых групп.

Критерий Стьюдента для множественного сравнений основан на использовании- неравенства Бонферрони : если к-раз применить критерий с уровнем значимости альфа, то вероятность хотя бы в одном случае найти различие там, где его нет, не превышает произведения к на альфа. Из неравенства Бонферонни следует, что если мы хотим обеспечить вероятность ошибки альфа', то в каждом из сравнений мы должны принять уровень значимости альфа'/k - это и есть поправка Бонферрони (к - число сравнений). Понятно, что такое уменьшение в несколько раз значимости делает тест достаточно "жестким" с ростом числа сравнений, установить различия становится достаточно трудно. Чтобы несколько смягчить данный тест, пользуются обобщенной оценкой внутригрупповой дисперсии, число степеней свободы при этом возрастает, что в свою очередь приводит к уменьшению критического значения для проверки теста. Число степеней свободы при таком подходе для критерия Стьюдента при таком подходе равно f = m*(n - 1), где n - объем групп, а для групп разного объема число степеней свободы будет равно суммарной численности всех групп N минус количество групп m (что в случае m>2 превышает обычное число степеней свободы для критерия Стьюдента, равное суммарной численности двух непосредственно сравниваемых групп минус 2). Этот метод работает, если число сравнений невелико, обычно не больше 8. При большем числе сравнений критерий Ньюмана-Кеулса и Тьюки дают более точную оценку вероятности альфа'.

Критерий Ньюмана-Кейлса. Расположите значения для каждого больного по возрастанию, каждому значению присвойте ранг.Для каждого из методов лечения подсчитайте сумму присвоенных ему рангов.Вычислите значение X2. Если число методов лечения и число больных присутствует в табл., определите критическое значение X2 по этой таблице. Если число методов лечения и число больных достаточно велико (отсутствует в таблице), воспользуйтесь критическим значением X2 с числом степеней свободы V = к -1.Если рассчитанное значение X2 превышает критическое — различия статистически значимы.Теперь применим критерий Фридмана для анализа уже знакомого исследования. Имеем три измерения (к = 3) у четырех больных (п = 4). Средний ранг для каждого наблюдения 1 + 2 + 3/3 = 2. Средняя сумма рангов для каждого измерения равна 4x2=8. Сумма квадратов отклонений для трех наблюдений: £=(12-8)2 + (5-8)2 + (7 -8)2 =(42)+(-3)2 +(-1)2 = 26, г] = —-—5=   12   26 =6,5. пк(к + 1) 4x3x4 Эта величина совпадает с критическим значением X2 при п = 4 и к = 3. Соответствующий точный уровень значимости составляет 0,042. Таким образом, различия между измерениями статистически значимы (Р < 0,05). Множественное сравнение после применения критерия Фридмана Как всегда, за выявлением различий между несколькими методами лечения должно последовать выяснение, в чем состоят эти различия, то есть попарное сравнение методов лечения. Поскольку число больных, подвергшихся каждому методу лечения, одинаково, для этой цели легко приспособить критерий Ньюмена— Кейлса. Если считать один из методов лечения «контролем», то остальные можно сравнить с ним при помощи критерия Даннета. Если речь идет о повторных наблюдениях в ходе лечения, таким контролем естественно считать значения, полученные перед началом лечения. Итак, для попарного сравнения методов лечения (или моментов наблюдения) применяется критерий Ньюмена—Кейлса: где КА и Кв — суммы рангов для двух сравниваемых методов лечения, / — интервал сравнения, а я — число больных. Найденное значение q сравнивается с критическим для бесконечного числа степеней свободы. Если найденное значение больше критического, различие методов лечения (моментов наблюдения) статистически значимо. Для сравнения с контрольной группой применяется критерий Даннета: где / — число всех групп, включая контрольную, Ккон — сумма рангов в контрольной группе. Остальные величины определяются, как в формуле для q. Значение q' сравнивается с критическим идля бесконечного числа степеней свободы. Критерий Тьюки. Критерий Тьюки используется для проверки нулевой гипотезы H0:μB=μA против альтернативной гипотезы H0:μB≠μA, где индексы A и B обозначают любые две сравниваемые группы. При наличии m групп всего возможно выполнить m(m−1)/2 попарных сравнений. Первый шаг заключается в упорядочивании всех имеющихся групповых средних значений по возрастанию (от 1 до m). Далее выполняют попарные сравнения этих средних так, что сначала сравнивают наибольшее среднее с наименьшим, т.е. m-ое с 1-ым, затем m-ое со 2-ым, 3-м, и т.д. вплоть до (m−1)-го. Затем предпоследнее среднее, (m−1)-ое, тем же образом сравнивают с 1-ым, 2-ым, и т.д. до (m−2)-го. Эти сравнения продолжаются до тех пор, пока не будут перебраны все пары. 
 

Поправка Бонферрони

Метод Бонферрони (назван так в честь предложившего его итальянского математика Карло Эмилио Бонферрони;Carlo Emilio Boferroni) является одним из наиболее простых и известных способов контроля над групповой вероятностью ошибки.

 

Предположим, что мы применили определенный статистический критерий 3 раза (например, сравнили при помощи критерия Стьюдента средние значения групп А и В, А и С, и В и С) и получили следующие три Р-значения: 0.01, 0.02 и 0.005. Если мы хотим, чтобы групповая вероятность ошибки при этом не превышала определенный уровень значимости α (например, 0.05), то, согласно методу Бонферрони, мы должны сравнить каждое из полученных Р-значений не с α, а с α/m, где m - число проверяемых гипотез. Деление исходного уровня значимости α на m - это и есть поправка Бонферрони. В рассматриваемом примере каждое из полученных Р-значений необходимо было бы сравнить с 0.05/3 = 0.017. В результате мы выяснили бы, что Р-значение для второй гипотезы (0.02) превышает 0.017 и, соответственно, у нас не было бы оснований отвергнуть эту гипотезу.

 

Вместо деления изначально принятого уровня значимости на число проверяемых гипотез, мы могли бы умножить каждое из исходных Р-значений на это число. Сравнив такие скорректированные Р-значения (англ. adjusted P-values; обычно обозначаются буквой q) с α, мы пришли бы к точно тем же выводам, что и при использовании поправки Бонферрони:

  • 0.01 * 3 = 0.03 < 0.05: гипотеза отклоняется;
  • 0.02 * 3 = 0.06 > 0.05: гипотеза принимается;
  • 0.005 * 3 = 0.015 < 0.05: гипотеза отклоняется.

В ряде случаев при умножении исходных Р-значений на уровень значимости результат может превысить 1. По определению, вероятность не может быть больше 1, и если это происходит, то получаемое значение просто приравнивают к 1.

 

В базовой версии R имеется функция p.adjust(), которая позволяет легко применять как метод Бонферрони, так и ряд других методов, обеспечивающих контроль групповой вероятности ошибки на определенном уровне (задаются при помощи аргумента method). При реализации метода Бонферрони с помощью этой функции применяется второй из описанных выше подходов, т.е. исходные Р-значения умножаются на число проверяемых гипотез. Функция p.adjust() принимает вектор с исходными Р-значениями и возвращает скорректированные значения:

 

# Скорректированные Р-значения:

p.adjust(c(0.01, 0.02, 0.005), method = "bonferroni")

[1] 0.030 0.060 0.015 

 

# Какие из проверяемых  гипотез следует отвергнуть?

alpha <- 0.05

p.adjust(c(0.01, 0.02, 0.005), method = "bonferroni") < alpha

[1]  TRUE FALSE  TRUE

 

Хотя метод Бонферрони очень прост в реализации, он обладает одним существенным недостатком: при возрастании числа проверяемых гипотез мощность этого метода резко снижается. Другими словами, при возрастании числа гипотез нам будет все сложнее и сложнее отвернуть многие из них, даже если они неверны и должны быть отвергнуты. Например, при проверке 10 гипотез, применение поправки Бонферрони привело бы к снижению исходного уровня значимости до 0.05/10 = 0.005. Соответственно, для отклонения той или иной гипотезы, соответствующие Р-значения должны были бы оказаться меньше 0.005, что случалось бы нечасто. В связи с этим метод Бонферрони не рекомендуется использовать, если число проверяемых гипотез превышает 7-8.

Заключение: Предыдущее сообщение представляло собой небольшое введение в проблему множественных проверок статистических гипотез. Вкратце, проблема заключается в том, что при одновременной проверке большого числа гипотез на том же наборе данных вероятность сделать неверное заключение в отношении хотя бы одной из этих гипотез значительно превышает изначально принятый уровень значимости (обычно α=0.05). Для устранения этого эффекта существует большой арсенал методов, различающихся по своей мощности применимости в разных ситуациях. В этом сообщении будет рассмотрен один из наиболее известных таких методов - поправка Бонферрони. Кроме того, будет описан метод Холма, который представляет собой модификацию подхода, предложенного Бонферрони. 

 

 

 

 

 

 

 

 

 

 

 

 

Список использованной литературы

1. Мерков А.М., Поляков Л.Е. Санитарная  статистика

2. http://r-analytics.blogspot.com/2013/10/blog-post_13.html#.U3OkV3DD6tM

3. http://m-kat.ru/ebook.php?file=glans.djvu&page=14

 
 


Информация о работе Множественные сравнения. Поправка Бонферрони