Эта теорема не была бы такой впечатляющей, если бы не было некоего утверждения, которое его, вот это вот утверждение, полностью как бы дополняет до практически полной картины. Но для того чтобы эту полную картину создать, давайте двинемся дальше и попробуем сформулировать то, что называется неравенство Чебышева. Но для того чтобы сформулировать неравенство Чебышева, надо ввести еще одну важную характеристику, ну, в каком-то смысле среднего значения случайной величины, а именно дисперсию. Так называемую дисперсию случайной величины. Сейчас я расскажу, что это такое. Так... Ну, дисперсия по определению – это есть просто математическое ожидание квадрата разности (ξ – Mξ) в квадрате. Смысл очень простой. Смысл исключительно простой. Ну как? Мы знаем среднее значение случайной величины, но мы хотим померить, а насколько сильно значения случайной величины разбросаны вокруг этой серединки? Случайная величина принимает какие-то значения. Где-то находится середина матожидания. Но разброс может быть очень большим. И вот для того чтобы померить, насколько велик или мал этот разброс, считают дисперсию случайной величины. То есть, если угодно, среднее квадратичное уклонение ξ от своего среднего значения. На это зачастую спрашивают: а зачем нужен квадрат? Почему бы просто не написать: матожидание (ξ – Mξ). Ну, просто средний разброс ξ вокруг своего среднего значения. Но это ерунда, конечно, потому что если мы применим в этом месте линейность математического ожидания, то мы получим Mξ – M (Mξ). Но (Mξ) – это константа, это фиксированное число. 10, не знаю, (-5). И когда вы берете его математическое ожидание, то просто по определению вы получаете эту же константу. То есть, вот это – это просто Mξ, и все вместе получается равным нулю. То есть, такая характеристика никакого смысла не имеет. Тогда мне говорят: «Ну, хорошо, вы правы, да, уели. Но давайте здесь нарисуем модуль». Согласен. На это отвечаю: «Согласен, да, модуль можно нарисовать. Но считать обычно неудобно». А с квадратом считается гораздо удобнее и работает так же хорошо с точки зрения всевозможных применений, даже лучше. Так, давайте это тоже с помощью линейности перепишем. А именно – честно возведем в квадрат. У нас получится вот так. ξ х Mξ + (Mξ) в квадрате. Не забываете, что и вот эта константа. Причем, такая же, как двойка. То есть, все можно выносить за знак матожидания. И вот это константа, то есть, матожидание от нее – это она же сама. Поэтому мы получаем Mξ в квадрате... Сразу скажу, вот такая штука называется вторым моментом случайной величины. Красивое выражение: второй момент случайной величины – это матожидание квадрата этой случайной величины. Дальше. Константы выносятся за скобку. Вот эти два константы. А в скобках остается просто матожидание Mξ. Ну и матожидание константы – это она же сама. Смотрите, здесь Mξ х Mξ – это квадрат матожидания. И здесь квадрат матожидания. Но здесь со знаком (-) и с коэффициентом 2, а здесь просто со знаком (+). Поэтому в итоге, приводя подобные, мы получаем второй момент минус квадрат математического ожидания. Вот это другая удобная формула для вычисления дисперсии. Возможно, мы в дальнейшем увидим, что иногда удобнее считать по этой формуле, а иногда – по этой. Но, так или иначе, давайте напишем теперь неравенство Чебышева. Теорема, которая называется «неравенство Чебышёва». Вот здесь, кстати, очень важный момент. Я специально рисовал букву Ё, чтобы не было поползновения у слушателя прочитать «ЧЕбешева». Значит, я, конечно, не историк математики и вот стопроцентно ручаться не буду, но у нас принято, и от тех историков математики, с которыми я когда-либо встречался, я слышал, все-таки правильно говорить именно «ЧебышЁв», а не «ЧЕбешев». Поэтому я буду настаивать на этом произношении фамилии. Неравенство Чебешева, оно утверждает следующее: пусть... Да, напоминаю, что у нас по-прежнему конечное вероятностное пространство. Никаких других мы не знаем, поэтому специальных ограничений не будет. Пусть ξ – любая абсолютно случайная величина, необязательно принимающая неотрицательные значения, как это было в неравенстве Маркова. Пусть... Ой, а давайте, чтоб было вообще супер понятно, обозначим ее не ξ, а η. Мне кажется, так будет лучше. Потому что Чебешев будет следствием из Маркова, и мне будет сейчас удобно по-разному обозначать случайные величины в двух разных неравенствах. Итак, пусть η... Да, кстати, филологическое отступление. Друзья, ни в коем случае не думайте, что эта величина называется как-то по-иному. Она называется «эта». Надо запомнить. Так, пусть a... Нет, не a, а вот именно b > 0. Тогда вероятность того, что модуль η – Mη больше, либо равен b, не превосходит дисперсии η, поделенной на b в квадрате. Вот такое вот классическое неравенство Чебышева. Вероятность, с которой η уклоняется от своего среднего значения больше... ну, не меньше, вернее, чем на заданную величину, она не превосходить дисперсию, поделенную на эту величину в квадрате. Вот так можно мерить вероятность уклонения. Самое простое неравенство о том, как случайная величина уклоняется от своего среднего значения. Доказательство: давайте в неравенстве Маркова, которое мы уже доказали, в неравенстве Маркова положим ξ = (η – Mη) в квадрате. Видите, какой у меня был замысел? Я ввел другое обозначение для случайной величины, чтобы ссылаться на неравенство Маркова вот в таком виде. Конечно, эта случайная величина по своему определению принимает только неотрицательные значения, поэтому к ней неравенство Марково применимо. Так, но еще через запятую давайте в качестве a в том же самом неравенстве Маркова возьмем b в квадрате. В неравенстве Маркова положили две вещи: ξ – равным вот этому, а a – равным вот этому. Тогда что нам говорит неравенство Маркова? Вероятность того, что ξ больше, либо равняется a и не превосходит Mξ поделить на a. Ну, то есть, вероятность того, что (η – Mη) в квадрате больше или равняется b в квадрате, подставляем ξа, как мы их определили, не превосходят математического ожидания (η – Mη) в квадрате поделить на b в квадрате. Ой! Здесь ошибся. Конечно, на a. Неравенство Маркова неправильно написал. Конечно, на a поделить. Извините, пожалуйста, да, конечно, на a. Да, вот тогда здесь получается b в квадрате. А это что такое? Да это ж дисперсия. Дисперсия η поделить на b в квадрате. Вот она. Вот она. Здесь стоит модуль больший, либо равен b. Здесь стоит квадрат больший, либо равен b квадрат. Ну, понятно, что это одно и то же событие. Все. Мы получили, что вероятность такого уклонения оценивается сверху так, как здесь написано.