Так, из теоремы, которую мы только что доказали, можно вывести еще одно замечательное следствие, которое является свойством уже не математического ожидания, а дисперсии. Дисперсия, как вы все, конечно, хорошо понимаете, в отличие от математического ожидания, линейной не является ни в коем случае. В частности, конечно, мы с вами все хорошо понимаем, что если взять и случайную величину умножить на какую-то фиксированную константу c, то дисперсия получится равной c квадрат помножить на дисперсию ξ. То есть даже в этом смысле ни о какой линейности речь идти не может. С другой стороны, если мы посмотрим на дисперсию суммы случайных величин, то, опять же, никто не гарантирует, – и легко привести примеры, когда это не так, – что дисперсия даже такой суммы будет равна сумме дисперсий. Однако некую теорему все-таки можно сформулировать. Ну давайте ее сформулируем и, собственно, докажем. Значит, пусть ξ1, ..., ξn независимы попарно. Это очень важно, потому что мы не требуем, чтобы они были независимы в совокупности. Мы не требуем более сильного утверждения. Нам вполне хватает попарной независимости. Оказывается, что даже в этом случае, когда случайные величины ξ1, ξn всего лишь попарно независимы, дисперсия их суммы – это действительно сумма дисперсий. Ну давайте докажем это замечательное утверждение. Оно нам пригодится сегодня неоднократно. Так... Ну давайте для начала заметим, что... Давайте заметим, что, конечно, если ξ1, ..., ξn попарно независимы, попарно... Давайте поподробней напишу: попарно независимы. То, конечно, тоже попарно независимыми являются и случайные величины ξ1 – Mξ1, ξn – Mξn. То попарно независимы и вот такие вот разности. ..., ξn – Mξn. Давайте вот эти новые случайные величины, которые, очевидно, тоже попарно независимы, переобозначим как-нибудь: η1, ηn. Вот такой вот набор попарно независимых случайных величин. Теперь посмотрим, что есть дисперсия суммы (ξ1 +... + ξn) по своему определению. Это, конечно, есть математическое ожидание квадрата разности, где из суммы вот этих случайных величин вычитается матожидание этой суммы. (ξ1 +... + ξn – M (ξ1 +... + ξn)), и все это в квадрате, и все усредняется. Дисперсия. Так, пользуемся внутри скобок, которые возводятся в квадрат, пользуемся линейностью математического ожидания, переписываем M(ξ1 – Mξ1) + (ξ2 – Mξ2) +... + (ξn – Mξn) Так, и все это в квадрате. Но у нас есть обозначение. Вот это вот – η1, вот это вот – η2, вот это вот – ηn. Ну просто для краткости, так удобнее писать. Давайте честно, если угодно, тупо возведем сумму этих случайных величин η1, ηn в квадрат. Все понимают, как суммы возводить в квадрат, благо в прошлый раз мы что-то подобное делали. Так, это математическое ожидание M (η1 в квадрате +... + ηn в квадрате, ну и дальше идет сумма всевозможных произведений ηi-тое на ηj-тое, где i не равно j. Мы уже в прошлый раз такую сумму видели. Ну, я не знаю, здесь можно рисовать двойку, считая, что пары не упорядочены, можно двойку не рисовать, я как-то обычно предпочитаю эту двойку не рисовать, предполагая, что в рамках этого суммирования присутствуют как ηi-тое * ηj-тое в качестве отдельного слагаемого, так и, наоборот, ηj-тое * ηi-тое. Вроде они совпадают, но вот я их считаю как бы отдельными слагаемыми, поэтому двойку не рисую. Так, ну давайте применим снова линейность математического ожидания. У нас получится Mη1 в квадрате +... + M ηn в квадрате + сумма по i не равным j M(ηi * ηj) Ну, понятно: просто применили линейность математического ожидания и все. Но! Случайные величины ηi-тое, ηj-тое независимы, потому что мы с вами знаем, что они попарно независимы, случайные величины η1, ..., ηn. Значит, вот эти товарищи для любых i и j независимы, и мы можем применить предыдущую теорему, которая скажет нам, что матожидание их произведения – это произведение их матожидания. Так, пишем. Mη1 в квадрате +... + Mηn в квадрате + сумма по i не равном j (Mηi) * (Mηj) Так, друзья, а что такое матожидание от ηi-того? Давайте-ка посмотрим. Ну оно же, конечно, матожидание от ηj-того, сейчас вы увидите. Это есть M(ξi – Mξi). Так хе! Мы такую штуку уже с вами обсуждали. Помните, когда я комментировал, зачем нужно, чтобы в определении математического ожидания здесь стоял квадрат или, на худой конец, модуль? А затем, что если мы сейчас применим линейность математического ожидания к матожиданию этой разности, да мы просто получим ноль. То есть каждый сомножитель в этой сумме, на самом деле, просто равняется нулю, и этой суммы нет, она отсутствует. Ну все замечательно! У нас получается Mη1 в квадрате +... + Mηn в квадрате, снова возвращаемся к тому, что стоит за определением этих η1, ..., ηn. У нас получается M(ξ1 – Mξ1) в квадрате +... + M(ξn – Mξn) в квадрате. Ну а это в аккурат дисперсии. То есть у нас получается Dξ1 +... + Dξn. Ну и, собственно говоря, все. Теорема доказана. Действительно, дисперсия суммы равняется сумме дисперсий, коль скоро наши случайные величины изначально попарно независимы.