Независимость (теория вероятностей) - Independence (probability theory)
Часть серии по статистика |
Теория вероятности |
---|
Независимость фундаментальное понятие в теория вероятности, как в статистика и теория случайные процессы.
Два События находятся независимый, статистически независимый, или же стохастически независимый[1] если возникновение одного не влияет на вероятность появления другого (то есть не влияет на шансы ). Точно так же два случайные переменные независимы, если реализация одного не влияет на распределение вероятностей другого.
При работе с коллекциями из более чем двух событий необходимо различать слабое и сильное понятие независимости. События называются попарно независимые если любые два события в коллекции независимы друг от друга, при этом говоря, что события взаимно независимый (или же коллективно независимый) интуитивно означает, что каждое событие не зависит от любой комбинации других событий в коллекции. Аналогичное понятие существует для наборов случайных величин.
Название «взаимная независимость» (то же самое, что «коллективная независимость») кажется результатом педагогического выбора, просто чтобы отличить более сильное понятие от «попарной независимости», которое является более слабым понятием. В современной литературе по теории вероятностей, статистике и случайных процессах более сильное понятие просто называется независимость без модификатора. Он сильнее, поскольку независимость подразумевает попарную независимость, но не наоборот.
Определение
Для мероприятий
Два события
Два события и находятся независимый (часто пишется как или же ) тогда и только тогда, когда их совместная вероятность равняется произведению их вероятностей:[2]:п. 29[3]:п. 10
| (Уравнение 1) |
Почему это определяет независимость, становится ясно, если переписать условные вероятности:
- .
и аналогично
- .
Таким образом, появление не влияет на вероятность , наоборот. Хотя производные выражения могут показаться более интуитивными, они не являются предпочтительным определением, поскольку условные вероятности могут быть неопределенными, если или же равны 0. Кроме того, предпочтительное определение проясняет симметрию, что когда не зависит от , также не зависит от .
Вероятность журнала и информационное содержание
Заявлено с точки зрения логарифмическая вероятность, два события независимы тогда и только тогда, когда логарифмическая вероятность совместного события равна сумме логарифмической вероятности отдельных событий:
В теория информации, отрицательная логарифмическая вероятность интерпретируется как информационное содержание, и, таким образом, два события независимы тогда и только тогда, когда информационное содержание объединенного события равно сумме информационного содержания отдельных событий:
Видеть Информационное содержание § Аддитивность независимых событий для подробностей.
Шансы
Заявлено с точки зрения шансы, два события независимы тогда и только тогда, когда отношение шансов из и равно единице (1). Аналогично вероятности это эквивалентно тому, что условные шансы равны безусловным шансам:
или к шансам одного события, учитывая другое событие, быть таким же, как шансы события, если другое событие не произойдет:
Отношение шансов можно определить как
или симметрично для шансов данный , и, следовательно, 1 тогда и только тогда, когда события независимы.
Более двух мероприятий
Конечный набор событий является попарно независимые если каждая пара событий независима[4]- то есть тогда и только тогда, когда для всех различных пар индексов ,
| (Уравнение 2) |
Конечный набор событий взаимно независимый если каждое событие не зависит от пересечения других событий[4][3]:п. 11- то есть тогда и только тогда, когда для каждого и для каждого -элементное подмножество событий из ,
| (Уравнение 3) |
Это называется правило умножения для самостоятельных мероприятий. Обратите внимание, что это не одно условие, включающее только произведение всех вероятностей всех отдельных событий (см. ниже для контрпримера); это должно выполняться для всех подмножеств событий.
Для более чем двух событий взаимно независимый набор событий (по определению) попарно независим; но обратное не обязательно верно (см. ниже для контрпримера).[2]:п. 30
Для случайных величин с действительными значениями
Две случайные величины
Две случайные величины и находятся независимый если и только если (iff) элементы π-система порожденные ими независимы; то есть на каждый и , события и являются независимыми событиями (как определено выше в Уравнение 1). То есть, и с кумулятивные функции распределения и , независимы если только комбинированная случайная величина имеет соединение кумулятивная функция распределения[3]:п. 15
| (Уравнение 4) |
или, что то же самое, если плотности вероятности и и совместная плотность вероятности существовать,
- .
Более двух случайных величин
Конечный набор случайные переменные является попарно независимые тогда и только тогда, когда каждая пара случайных величин независима. Даже если набор случайных величин попарно независим, он не обязательно является взаимно независимым, как определено ниже.
Конечный набор случайные переменные является взаимно независимый тогда и только тогда, когда для любой последовательности чисел , события являются взаимно независимыми событиями (как определено выше в Уравнение 3). Это эквивалентно следующему условию на совместную интегральную функцию распределения . Конечный набор случайные переменные является взаимно независимый если и только если[3]:п. 16
| (Уравнение 5) |
Обратите внимание, что здесь нет необходимости требовать факторизации распределения вероятностей для всех возможных подмножества элементов, как в случае События. Это не требуется, потому что, например, подразумевает .
Теоретически склонные к мерам могут предпочесть заменить события для мероприятий в приведенном выше определении, где есть ли Набор Бореля. Это определение в точности эквивалентно приведенному выше, когда значения случайных величин равны действительные числа. Его преимущество заключается в том, что он работает также для комплексных случайных величин или для случайных величин, принимающих значения в любых измеримое пространство (который включает топологические пространства снабженный соответствующими σ-алгебрами).
Для действительных случайных векторов
Два случайных вектора и называются независимый если[5]:п. 187
| (Уравнение 6) |
куда и обозначают кумулятивные функции распределения и и обозначает их совместную кумулятивную функцию распределения. Независимость и часто обозначается как . Написано покомпонентно, и называются независимыми, если
- .
Для случайных процессов
Для одного случайного процесса
Определение независимости может быть расширено от случайных векторов до случайный процесс. Таким образом, для независимого случайного процесса требуется, чтобы случайные величины, полученные путем выборки процесса в любом раз являются независимыми случайными величинами для любых .[6]:п. 163
Формально случайный процесс называется независимым, если и только если для всех и для всех
| (Уравнение 7) |
куда . Независимость случайного процесса - свойство в случайный процесс, а не между двумя случайными процессами.
Для двух случайных процессов
Независимость двух случайных процессов - это свойство двух случайных процессов. и которые определены на одном вероятностном пространстве . Формально два случайных процесса и называются независимыми, если для всех и для всех , случайные векторы и независимы,[7]:п. 515 т.е. если
| (Уравнение 8) |
Независимые σ-алгебры
Приведенные выше определения (Уравнение 1 и Уравнение 2) оба обобщаются следующим определением независимости для σ-алгебры. Позволять - вероятностное пространство и пусть и - две суб-σ-алгебры в . и как говорят независимый если, когда и ,
Точно так же конечное семейство σ-алгебр , куда является набор индексов, называется независимым тогда и только тогда, когда
и бесконечное семейство σ-алгебр называется независимым, если все его конечные подсемейства независимы.
Новое определение напрямую связано с предыдущими:
- Два события независимы (в старом смысле) если и только если порождаемые ими σ-алгебры независимы (в новом смысле). Σ-алгебра, порожденная событием по определению
- Две случайные величины и определяется по независимы (в старом смысле) тогда и только тогда, когда порождаемые ими σ-алгебры независимы (в новом смысле). Σ-алгебра, порожденная случайной величиной принимая ценности в некоторых измеримое пространство состоит по определению из всех подмножеств формы , куда есть любое измеримое подмножество .
Используя это определение, легко показать, что если и случайные величины и постоянно, то и независимы, поскольку σ-алгебра, порожденная постоянной случайной величиной, является тривиальной σ-алгеброй . События с нулевой вероятностью не могут повлиять на независимость, поэтому независимость также сохраняется, если только Пр-почти наверняка постоянный.
Характеристики
Самостоятельность
Обратите внимание, что событие не зависит от самого себя тогда и только тогда, когда
- .
Таким образом, событие не зависит от самого себя тогда и только тогда, когда оно почти наверняка происходит или его дополнять почти наверняка происходит; этот факт полезен при доказательстве законы нуля или единицы.[8]
Ожидание и ковариация
Если и являются независимыми случайными величинами, то оператор ожидания имеет собственность
и ковариация равен нулю, как следует из
- .
Обратное неверно: если ковариация двух случайных величин равна 0, они все равно могут не быть независимыми. Видеть некоррелированный.
Аналогично для двух случайных процессов и : Если они независимы, то они некоррелированы.[9]:п. 151
Характеристическая функция
Две случайные величины и независимы тогда и только тогда, когда характеристическая функция случайного вектора удовлетворяет
- .
В частности, характеристическая функция их суммы является произведением их маргинальных характеристических функций:
хотя обратное утверждение неверно. Случайные величины, удовлетворяющие последнему условию, называются суб-независимый.
Примеры
Бросок кости
Событие получения 6 при первом броске кубика и событие получения 6 во второй раз независимый. Напротив, событие получения 6 при первом броске кубика и событие, когда сумма чисел, полученных в первом и втором испытании, равна 8, являются нет независимый.
Карты для рисования
Если вытянуты две карты с замена из колоды карт, розыгрыш красной карты в первом испытании и розыгрыша красной карты во втором испытании. независимый. Напротив, если вытянуты две карты без замена из колоды карт, розыгрыш красной карты в первом испытании и розыгрыша красной карты во втором испытании. нет независимый, потому что колода, из которой удалена красная карточка, имеет пропорционально меньше красных карточек.
Попарная и взаимная независимость
Рассмотрим два показанных вероятностных пространства. В обоих случаях, и . Случайные величины в первом пространстве попарно независимы, потому что , , и ; но три случайные величины не являются взаимно независимыми. Случайные величины во втором пространстве являются как попарно независимыми, так и взаимно независимыми. Чтобы проиллюстрировать разницу, рассмотрите возможность использования двух событий. В случае попарно независимых, хотя любое одно событие не зависит от каждого из двух других по отдельности, оно не является независимым от пересечения двух других:
Однако во взаимно независимом случае
Взаимная независимость
Можно создать пример из трех событий, в котором
и все же никакие два из трех событий не являются попарно независимыми (и, следовательно, набор событий не является взаимно независимым).[10] Этот пример показывает, что взаимная независимость включает требования к продуктам вероятностей всех комбинаций событий, а не только отдельных событий, как в этом примере.
Условная независимость
Для мероприятий
События и условно независимы по событию когда
.
Для случайных величин
Интуитивно две случайные величины и условно независимы с учетом если однажды известно, стоимость не добавляет дополнительную информацию о . Например, два измерения и того же основного количества не независимы, но они условно независимый данный (если ошибки в двух измерениях как-то не связаны).
Формальное определение условной независимости основано на идее условные распределения. Если , , и находятся дискретные случайные величины, то определим и быть условно независимый данный если
для всех , и такой, что . С другой стороны, если случайные величины равны непрерывный и иметь совместный функция плотности вероятности , тогда и находятся условно независимый данный если
для всех действительных чисел , и такой, что .
Если дискретный и условно независимы с учетом , тогда
для любого , и с . То есть условное распределение для данный и то же самое, что дано один. Аналогичное уравнение справедливо для условных функций плотности вероятности в непрерывном случае.
Независимость можно рассматривать как особый вид условной независимости, поскольку вероятность можно рассматривать как своего рода условную вероятность при отсутствии событий.
Смотрите также
- Копула (статистика)
- Независимые и одинаково распределенные случайные величины
- Взаимоисключающие события
- Попарно независимые события
- Субзависимость
- Условная независимость
- Нормально распределенный и некоррелированный не означает независимого
- Средняя зависимость
Рекомендации
- ^ Рассел, Стюарт; Норвиг, Питер (2002). Искусственный интеллект: современный подход. Prentice Hall. п.478. ISBN 0-13-790395-2.
- ^ а б Флореску, Ионут (2014). Вероятность и случайные процессы. Вайли. ISBN 978-0-470-62455-5.
- ^ а б c d Галлагер, Роберт Г. (2013). Теория случайных процессов для приложений. Издательство Кембриджского университета. ISBN 978-1-107-03975-9.
- ^ а б Феллер, В. (1971). «Стохастическая независимость». Введение в теорию вероятностей и ее приложения. Wiley.
- ^ Папулис, Афанасиос (1991). Вероятность, случайные величины и стохастические процессы. MCGraw Hill. ISBN 0-07-048477-5.
- ^ Хвэй, Пяо (1997). Теория и проблемы вероятности, случайных величин и случайных процессов. Макгроу-Хилл. ISBN 0-07-030644-3.
- ^ Амос Лапидот (8 февраля 2017 г.). Фонд цифровых коммуникаций. Издательство Кембриджского университета. ISBN 978-1-107-17732-1.
- ^ Дарретт, Ричард (1996). Вероятность: теория и примеры (Второе изд.). стр.62
- ^ Парк, Кун Иль (2018). Основы вероятностных и случайных процессов с приложениями к коммуникациям. Springer. ISBN 978-3-319-68074-3.
- ^ Джордж, Глин, "Проверка на независимость трех событий", Математический вестник 88, ноябрь 2004 г., стр. 568. PDF
внешняя ссылка
- СМИ, связанные с Статистическая зависимость в Wikimedia Commons