Так, замечательно.
Теперь давайте попробуем действовать в таком же ключе.
Вот мы здесь замотивировали определение, и в итоге его дали.
С независимостью будет примерно так же.
Я хочу сейчас определить что такое два события независимы.
Опять, я могу сказать, давайте считать по определению,
что два события независимы, если нечто...
Но, почему так?
Ну, там интуитивно понятно, многие со школы слышали?
А почему?
Вот давайте попробуем сначала дать мотивировку, а потом я уже выделю то,
что действительно считается определением независимости двух событий.
Вот смотрите, даны какие-то два события A и B,
живущие в некотором множестве элементарных исходов Ω.
Событию A что-то там благоприятствует, событию B что-то благоприятствует.
Вот когда естественно говорить, что событие A,
именно событие A, не зависит от события B?
Вот когда это естественно сказать?
По-моему, естественнее всего сказать так: A не зависит от B,
если условная вероятность A при условии B равна безусловной вероятности события A.
То есть знание о том,
что произошло событие B не дало нам никакой новой информации.
Вероятность события A от этого знания не претерпела никаких изменений.
Чему она равнялась без этого знания, тому же она равняется и вместе с ним.
Мы не получили новой информации, A не зависит от B,
B не дает никакой информации об A.
Ну и наоборот, мы можем сказать, что B не зависит от A,
если переставляя здесь местами A и B, мы получаем вероятность события B.
Хорошо.
Ну, конечно это все в предположении что вероятность
B не равняется нулю, вероятность A не равняется нулю, это понятно.
Потому что иначе мы просто не очень-то умеем определять условную вероятность,
разве что пользоваться тем соглашением, о котором мы здесь говорим: условная
вероятность равна нулю, коль скоро условие имеет вероятность ноль.
Вот. Но мне не очень нравится это определение,
оно какое-то неудобное, оно какое-то несимметричное.
Нужно, с одной стороны, говорить вот так, а с другой стороны менять буквы местами.
И это какое-то нагромождение, да еще зачем-то здесь оговаривать ситуацию: а
вдруг вероятность B равняется нулю, а вдруг не равняется.
Ну, не понятно.
Как-то это неудобно.
Давайте воспользуемся теоремой умножения.
Напишем вот так: вероятность A при условии B умножить
на вероятность B это равняется (это я вот сюда
домножаю), вероятность A умножить на вероятность B...
А с другой стороны, если воспользоваться-таки теоремой умножения,
то вот здесь слева у нас получится просто вероятность пересечения A и B.
И вот эта формула, вытекающая из нашего интуитивно понятного
определения независимости, она уже, во-первых, совершенно симметрична
относительно событий A и B, их не имеет никакого смысла переставлять местами.
Какая разница в каком порядке пересекать или в каком порядке переумножать?
Ясно, что от перестановки мест сомножителей произведение не
меняется, вот.
И более того, она устойчива к тому, что вероятность B может равняться нулю.
Если вы сюда подставите событие, имеющее вероятность ноль,
то вы справа получите ноль.
Если сюда подставите пустое множество,
то и пересечение будет пустым множеством, значит вероятность будет ноль.
То есть у нас опять никаких проблем.
Поэтому говорят, что A и B независимы,
если вероятность A пересеченного с B –
это вероятность A помножить на вероятность B.
Вот это является правильным определением, симметричным и устойчивым к тому,
что вероятность B или вероятность A могла бы оказаться равной нулю.
Вот это вот определение независимости,
но вытекает оно именно из вот этого интуитивно понятного определения.
Никакой новой информации, по сути, зная, что событие B произошло, мы не получили.
Вероятность изменений не претерпела.
Хорошо.
Это определение независимости двух событий.
Но бывают и другие важные моменты.
Например, пусть у нас есть много событий,
каких-то там A1, и так далее, Ak, все живут в каком-то Ω большом.
Что значит что они независимы в совокупности?
Понятно, конечно, что можно воспользоваться этим определением и
сказать, что значит, что эти события независимы попарно.
То есть каждые два из них независимы.
Это понятно: каждые два из них независимы,
если для любой пары выполнено вот это свойство.
Но мы хотим дать какое-то еще более сильное определение независимости,
и это на самом деле исключительно важно для получения содержательных результатов
в теории вероятности.
Так вот говорят, что A1, ..., Ak независимые в совокупности,
или еще по-другому говорят взаимнонезависимые,
видите не попарно независимые, а взаимнонезависимые,
если выполнено следующее: если для любого l,
не превосходящего k, и для любых i1,
..., il, которые различны попарно, i1, ...,
il различны попарно, ну и лежат в пределах от 1 до k,
вероятность пересечения Ai1-го, и так далее,
Ail-того равняется произведению вероятности
Ai1-го, и так далее, Ail-того.
Вот если вероятность пересечения любой группы событий из этого множества,
абсолютно любой группы различных событий из
этого множества равна произведению вероятностей, тогда мы говорим,
что они независимы в совокупности – вот эти события A1, и так далее, Ak.
При этом, конечно,
из совокупной взаимной независимости моментально вытекает попарная.
Мы просто берем в качестве l величину 2, если l равняется 2,
то мы берем произвольные два различных индекса и проверяем, что вероятность
пересечения соответствующих двух событий – это произведение их вероятностей.
То есть при l равном 2 мы как следствие из взаимной независимости получаем и
попарную независимость тоже.
Но видно, что это условие более сильное.
Не только попарная, но и потройная,
и почетверная и так далее независимость должна иметь место,
коль скоро мы хотим добиться взаимной независимости.
Вот замечательное совершенно упражнение, которое, конечно, каждый должен прорешать.
Ну очень многие знают как оно решается, это совершенно классический пример,
этих примеров масса, на самом деле.
Давайте я все-таки сформулирую это как упражнение.
Нужно понять, действительно ли важно такое изобилие кванторов?
А именно нужно доказать,
что существуют ну,
например, просто три события A1, A2, A3, минимальный такой пример.
Существуют три события, которые попарно независимы,
попарно независимы, но зависимы в совокупности.
В данном случае совершенно понятно, что это означает.
Попарно независимые – это значит вероятность пересечения любых двух из них
(всего таких пар три штуки), любых двух из них – это произведение вероятностей,
а зависимость в совокупности означает, что если вы возьмете вероятность пересечения
всех троих, то она не будет равна произведению вероятностей этих событий.
Ну, проще всего привести какой-нибудь пример, когда вероятность
пересечения всех троих просто равняется нулю, вот такая подсказка.
Ну это действительно несложное упражнение, и я надеюсь, что его прорешают.
Ну а более продвинутые задачи на различные соотношения между зависимостями
вот этих вот событий мы еще обязательно разберем.
Мы еще обязательно разберем.