Закон полной дисперсии - Law of total variance
В теория вероятности, то закон полной дисперсии[1] или же формула разложения дисперсии или же формулы условной дисперсии или же закон повторной дисперсии также известен как Закон Евы,[2] заявляет, что если Икс и Y находятся случайные переменные на том же вероятностное пространство, а отклонение из Y конечно, то
На языке, который, возможно, лучше известен статистикам, чем теоретикам вероятности, эти два термина являются «необъяснимым» и «объясненным» компонентами дисперсии соответственно (см. доля необъяснимой дисперсии, объяснил вариацию ). В актуарная наука, конкретно теория достоверности, первая составляющая называется математическим ожиданием дисперсии процесса (EVPV), а второй называется дисперсией гипотетических средних (VHM).[3] Эти два компонента также являются источником термина «закон Евы» от инициалов EV VE, означающих «ожидание отклонения» и «отклонение ожидания».
Существует общая формула разложения дисперсии для c ≥ 2 компонента (см. Ниже).[4] Например, с двумя условными случайными величинами:
что следует из закона полной условной дисперсии:[4]
Обратите внимание, что условное математическое ожидание E ( Y | Икс ) является случайной величиной сама по себе, значение которой зависит от значения Икс. Обратите внимание, что условное ожидаемое значение Y Учитывая мероприятие Икс = Икс является функцией Икс (именно здесь становится важным соблюдение общепринятых и строго чувствительных к регистру обозначений теории вероятностей!). Если мы напишем E (Y | Икс = Икс ) = грамм(Икс) то случайная величина E ( Y | Икс ) просто грамм(Икс). Подобные комментарии относятся к условная дисперсия.
Один особый случай (похожий на закон полного ожидания ) утверждает, что если является разделом всего пространства результатов, т.е.эти события являются взаимоисключающими и исчерпывающими, то
В этой формуле первый компонент - это математическое ожидание условной дисперсии; две другие строки - это дисперсия условного ожидания.
Доказательство
Закон полной дисперсии можно доказать с помощью закон полного ожидания.[5] Первый,
из определения дисперсии. Опять же, исходя из определения дисперсии, мы имеем
Теперь перепишем условный второй момент Y через его дисперсию и первый момент:
Поскольку ожидание суммы - это сумма ожиданий, теперь можно перегруппировать условия:
Наконец, мы признаем термины в скобках как дисперсию условного ожидания E [Y | Икс]:
Разложение общей дисперсии применимо к динамическим системам
Следующая формула показывает, как применить общую теоретико-мерную формулу разложения дисперсии. [4] стохастическим динамическим системам. Позволять Y(т) быть значением системной переменной в момент времени т. Предположим, у нас есть внутренние истории (естественные фильтрации ) , каждый из которых соответствует истории (траектории) другого набора системных переменных. Коллекции не обязательно должны быть непересекающимися. Дисперсия Y(т) может быть разложен на все временат, в c ≥ 2 следующих компонента:
Разложение не уникально. Это зависит от порядка кондиционирования при последовательном разложении.
Квадрат корреляции и объясненная (или информационная) вариация
В случаях, когда (Y, Икс) таковы, что условное математическое ожидание является линейным; т.е. в случаях, когда
из билинейности ковариантности следует, что
и
а объясненный компонент дисперсии, деленный на общую дисперсию, - это просто квадрат корреляция между Y и Икс; т.е. в таких случаях
Один из примеров такой ситуации - когда (Икс, Y) имеют двумерное нормальное (гауссово) распределение.
В более общем смысле, когда условное ожидание E ( Y | Икс ) является нелинейной функциейИкс
который можно оценить как р в квадрате из нелинейной регрессии Y на Икс, используя данные, полученные из совместного распределения (Икс,Y). Когда E ( Y | Икс ) имеет гауссово распределение (и является обратимой функцией Икс), или же Y сам имеет (маргинальное) гауссово распределение, этот объясненный компонент вариации устанавливает нижнюю границу для взаимная информация:[4]
Высшие моменты
Аналогичный закон для третьего центральный момент μ3 говорит
Для высших кумулянты, есть обобщение. Видеть закон общей совокупности.
Смотрите также
Рекомендации
- ^ Нил А. Вайс, Курс вероятности, Аддисон – Уэсли, 2005 г., стр. 385–386.
- ^ Джозеф К. Блицштейн и Джессика Хванг: «Введение в вероятность»
- ^ Mahler, Howard C .; Дин, Кертис Гэри (2001). «Глава 8: Достоверность» (PDF). В Актуарное общество по несчастным случаям (ред.). Основы актуарной науки о несчастных случаях (4-е изд.). Актуарное общество по несчастным случаям. С. 525–526. ISBN 978-0-96247-622-8. Получено 25 июня, 2015.
- ^ а б c d е Bowsher, C.G. и P.S. Суэйн, Выявление источников вариации и потока информации в биохимических сетях, PNAS 15 мая 2012 г. 109 (20) E1320-E1328.
- ^ Нил А. Вайс, Курс вероятности, Addison – Wesley, 2005, страницы 380–383.
- Блицштейн, Джо. «Стат 110, окончательный обзор (закон Евы)» (PDF). stat110.net. Гарвардский университет, Статистический факультет. Получено 9 июля 2014.
- Биллингсли, Патрик (1995). Вероятность и мера. Нью-Йорк, штат Нью-Йорк: John Wiley & Sons, Inc. ISBN 0-471-00710-2. (Проблема 34.10 (b))