[SON] [AUDIO_VIDE] Bonjour, dans cette séance 3 du cours 5, nous allons nous amuser avec les différentes notions de convergences de suites de variables aléatoires, que nous avons définies dans la séance 2. Nous allons tout d'abord démontrer un premier théorème, qui est très simple, et qui va nous donner un lien entre la convergence en moyenne et la convergence en probabilité. Je vous rappelle que dire que X n, une suite de variables aléatoires intégrables, converge en moyenne vers X signifie que l'espérance de valeur absolue de X n moins X tend vers 0. La convergence en probabilité de la suite de variables aléatoires X n vers X signifie que, pour tout epsilon strictement positif, la probabilité que l'écart X n moins X soit plus grand que epsilon tend vers 0 quand n tend vers l'infini. Le théorème nous dit que, si X n converge en moyenne vers X, alors X n converge en probabilité vers X. La preuve est immédiate, c'est une ligne, puisque l'application de l'inégalité de Markov dans L 1. Donc je vous renvoie au cours numéro 3 pour la définition de cette inégalité de Markov et je vous rappelle qu'elle vous dit que la probabilité que X n moins X soit plus grand que epsilon est plus petit que 1 sur epsilon fois l'espérance de X n moins X. Puisqu'une probabilité est positive, vous voyez que si l'espérance de X n moins X vers 0, nécessairement, cela va entraîner que la probabilité que X n moins X plus grand que epsilon, epsilon étant fixé strictement positif a priori, donc cette probabilité tend vers 0. Nous avons montré le théorème. La réciproque est fausse, c'est-à-dire qu'on n'a pas équivalence entre ces deux convergences. Alors pour ce faire, nous allons encore introduire un exemple comme ceux que nous avons vus dans la séance 2, un exemple qui utilise une suite de variables aléatoires de type Bernoulli, c'est-à-dire qui prend deux valeurs distinctes et là, on va les changer un petit peu, donc on va considérer la suite de variables aléatoires Y, n suivants. On va supposer que pour chaque n entier, Y n peut prendre les valeurs n au carré ou 0, avec probabilité 1 sur n et 1 moins 1 sur n. Alors, vous voyez, de même que dans l'exemple 1 que nous avons traité dans la séance 2, si l'on se fixe epsilon strictement positif, la probabilité que Y n soit plus grand que epsilon est égale, en tout cas pour epsilon plus petit que n au carré, à la probabilité que Y n soit égal à n au carré. Donc à 1 sur n. Et quand n tend vers l'infini, cette probabilité tend vers 0. Donc nous allons encore avoir dans ce cas-là, la convergence de la suite de variables aléatoires Y, n, la convergence en probabilité vers 0. En revanche, que vaut l'espérance de l'écart de Y n a cette limite potentielle, c'est-à-dire l'espérance de Y n, puisque Y n est une variable positive. L'espérance de Y n vaut n au carré fois 1 sur n plus 0 fois 1 moins 1 sur n, donc elle vaut n et vous voyez que l'espérance de Y n ne converge pas vers 0, même diverge, quand n tend vers l'infini. Donc la suite Y n ne converge pas en moyenne vers 0. Ce contre-exemple vous dit qu'on n'a pas équivalence ici, on a seulement cette implication que nous avons démontrée dans ce théorème. Il y a une hiérarchie de ces deux notions-là, la convergence en moyenne est plus forte que la convergence en probabilité. Alors, une petite remarque. On a changé subtilement ici la valeur de Y n par rapport à l'exemple 1 que nous avions étudié en séance 1. Faites attention, chaque changement peut entraîner des comportements différents. Prenons un exemple qui y ressemble encore une fois. On va considérer maintenant une suite de variables aléatoires Z n qui va prendre les valeurs 1 ou 0 avec probabilité 1 sur n au carré et 1 moins 1 sur n au carré. Alors maintenant, on a un tout petit peu de maîtrise de ces notions de convergence. Pour epsilon strictement positif, on voit que la probabilité que Z n soit plus grand que epsilon est égale à 1 sur n au carré, donc tend vers 0 quand n tend vers l'infini, donc c'est immédiat de voir que la suite Z n tend en probabilité vers 0. Si je calcule l'espérance de Z n, c'est 1 fois 1 sur n au carré qui tend vers 0 donc, c'est 1 sur n carré qui tend vers 0 quand n tend vers l'infini, donc on a aussi de manière immédiate la convergence en moyenne vers 0. Qu'en est-il ici de la convergence presque sûre? Nous avons déjà vu les liens convergence en moyenne, convergence en probabilité. Qu'en est-il de la convergence presque-sûre? Dans un cas où on a déjà ces deux convergences en moyenne et en probabilité. Nous avons déjà vu, je vous rappelle, dans le cas de l'exemple 1, une suite de variables de Bernoulli, avec convergence en moyenne et en probabilité vers 0. Dans l'exemple 1 bis, il n'y avait pas convergence presque-sûre et dans l'exemple 1 ter, il y avait convergence presque-sûre vers 0. Alors ici, comme dans l'exemple 1 bis, nous allons introduire l'événement aléatoire Z n plus grand que epsilon. Je ne l'ai pas réécrit, mais epsilon est toujours un nombre réel fixé a priori strictement positif. Donc la différence avec le cas l'exemple 1 bis de la séance 2 est qu'ici, la probabilité de B n étant égale à 1 sur n carré vérifie que la série de terme général probabilité de B n converge, puisque la série de terme général 1 sur n au carré est convergente. Donc nous allons appliquer ici encore le théorème de Borel-Cantelli, mais dans sa forme la plus simple, c'est-à-dire qu'ici, on n'a pas à supposer d'indépendance de la suite de variables aléatoires. Nous savons que quelle que soit la suite d'événements aléatoires B n, dès lors que la série de terme général probabilité de B n est convergente, on peut assurer que pour presque tout oméga, il y a un nombre fini au plus d'événements aléatoires B n qui sont réalisés. C'est-à-dire qu'ici, pour presque tout oméga, on peut assurer qu'il y aura au plus un nombre fini de variables aléatoires Z n de oméga qui seront supérieurs à epsilon. Une autre manière de dire ça, c'est dire que la suite Z n converge presque sûrement vers 0, puisque pour presque tout oméga, pour un ensemble de oméga de probabilité 1, à partir d'un certain rang, tous les Z n de oméga seront dans le complémentaire de B n, c'est-à-dire vérifieront Z n de oméga est plus petit que epsilon. Vous voyez qu'ici, on a la convergence presque-sûre vers 0, sans supposer rien du tout sur les variables aléatoires Z n de oméga. Quelle est la différence avec l'exemple 1 de la séance 2? Bien, c'est que la probabilité d'avoir Z n égal 1 ici est beaucoup plus petite. Elle était de 1 sur n avec une série des 1 sur n qui divergeait dans l'exemple 1, ici on a juste une probabilité 1 sur n2 d'être égal à 1 donc, et la série de terme général 1 sur n2 est finie. Donc vous voyez, toutes ces choses-là sont assez subtiles et les utilisations du théorème de Borel-Cantelli, en revanche, apportent des résultats immédiatement. Donc je vous demande de revoir à cette occasion, ce théorème qu'on avait vu il y a déjà un certain temps. Alors maintenant, ce qui nous intéresse, c'est de nous poser la question quel est le lien entre cette convergence presque-sûre et les convergences en moyenne ou en probabilité et en probabilité, on va voir puisque, pour l'instant, on a vu divers exemples qui nous poussent à dire qu'on n'a pas de systématisme entre les liens entre ces trois convergences. Il faut sans doute des hypothèses supplémentaires. Alors, on va voir en premier lieu, un théorème très fort, qu'on appelle le théorème de convergence dominée, qui est, en fait, un théorème de théorie de la mesure et que nous n'allons pas démontrer dans le cadre de ce cours, donc si voulez revoir une démonstration, je vous conseille de vous pencher sur un livre plus sophistiqué, de théorie de la mesure ou un livre de probabilité de niveau plus élevé où vous trouverez la preuve. C'est une preuve très lourde et je n'ai pas envie de rentrer ici dans cette preuve. En revanche, ce qu'il important, c'est de bien comprendre l'énoncé de ce théorème et de savoir l'utiliser correctement. Donc ce théorème va nous donner un lien entre la convergence presque-sûre et la convergence en moyenne. Ce théorème, on l'appelle de convergence dominée, vous allez le voir dans les hypothèses qu'on fait, la justification de ce nom. On l'appelle aussi théorème de Lebesgue et vous pourrez le trouver sous les deux noms. Donc on va supposer que la suite X n ici converge presque sûrement vers X, mais ça ne suffit pas, on va aussi supposer qu'il existe une variable aléatoire Z qui est intégrable, telle que pour tout n valeur absolue de X n est plus petit que Z, ce qui veut dire que Z est positive. Ҫa, je vous rappelle, c'est une inégalité fonctionnelle, au sens où pour tout oméga, et non pas presque tout, pour tout oméga de grand oméga Xn de oméga est plus petit que Z de oméga. Donc nécessairement, Xn, X, et Z vont être construits sur le même espace de probabilités puisqu'on peut comparer Xn de oméga et Z de oméga. Donc c'est là qu'on parle d'hypothèse de domination, d'où le terme de convergence dominée, toutes les v.a. Xn sont dominées par une v.a. qui est intégrable, son espérance est finie. Dans ce cas-là, on peut montrer que les Xn sont dans L1, ça c'est immédiat, parce qu'on l'a vu, je vous renvoie au cours 3, c'est que, si valeur absolue de Xn est plus petite que Z, l'espérance de Xn donc valeur absolue de Xn est une variable positive, on peut toujours définir son espérance, mais comme elle est plus petite que l'espérance de Z qui est finie, l'espérance de Xn va être finie, donc Xn est intégrable. On peut également montrer que X, la limite presque sûre de Xn, est intégrable, et que Xn converge vers X en moyenne. L'espérance de valeur absolue de Xn- X tend vers 0 quand n tend vers l'infini. Alors un corollaire de ça que j'aurais pu signaler lors de la définition de la convergence en moyenne, et je vous laisse le montrer à titre d'exercice, si c'est juste l'inégalité triangulaire, mais c'est que ça entraîne, la convergence en moyenne entraîne la convergence de la suite de nombres réels espérance de Xn vers l'espérance de X. La moyenne de Xn tend vers la moyenne de X. Et ce qui est important, c'est surtout cette première partie du théorème, à savoir que si la suite Xn converge presque sûrement vers X, et que si les v.a. de Xn sont dominées par une v.a. intégrable, alors, toutes les Xn et X sont intégrables et la suite Xn converge en moyenne vers X. Donc je répète que je ne démontrerai pas ce théorème, en revanche nous allons voir comment on peut l'appliquer et nous allons en voir les limites. Alors, première chose, attention. Il n'y a pas de réciproque à ce théorème. Il n'y a pas une réciproque dans le cas où la suite Xn converge en moyenne. Et je vous renvoie pour cela à l'exemple 1 bis de la séance 2 du cours 5, où donc là nous avons construit une suite Xn qui tend en moyenne vers 0, mais qui ne converge pas presque sûrement. Et pourtant, la suite Xn est bornée par 1. Donc, attention au sens dans lequel on applique ce théorème. Alors on appelle le théorème convergence dominée, on a vu qu'il y avait 7 hypothèses de domination, et donc attention, ce théorème ne marche plus si l'on n'a pas cette hypothèse de domination, donc il faut absolument ne pas oublier de la vérifier quand vous avez une convergence presque sûre pour passer à la convergence en moyenne, ou même pour montrer la convergence des espérances des v.a. Il faut absolument cette hypothèse de domination. Prenons l'exemple suivant : on va considérer la suite de v.a. Tn qui prennent les deux valeurs n² ou 0 avec probabilité 1 sur n racine de n, et 1- 1 sur n racine de n. Alors maintenant, vous commencez à être habitués au raisonnement que nous utilisons depuis deux séances, si je fixe epsilon positif, la probabilité que Tn soit plus grand que epsilon c'est égal à la probabilité pour n assez grand, que Tn soit égal à n², et donc c'est 1 sur n racine de n. La série de terme général 1 sur n racine de n converge, donc on a déjà vu ce raisonnement là tout à l'heure, donc on peut en déduire, par le théorème de Borel-Cantelli, que la suite Tn converge presque sûrement vers 0. Maintenant, si je calcule l'espérance de Tn, vous voyez que c'est n² fois 1 sur n racine de n, et ceci vaut racine de n, donc vous voyez que l'espérance de Tn tend vers l'infini quand n tend vers l'infini, donc la suite de n ne peut pas converger en moyenne. Vous voyez qu'ici, biensûr, comme Tn vaut n², quand n tend vers l'infini les Tn vont prendre des valeurs de plus en plus grandes, et on ne peut pas dominer, majorer, cette suite de v.a. Tn par une v.a. qui est d'espérance finie. Donc, on n'a pas d'hypothèse de domination ici ce qui explique qu'on puisse avoir convergence presque sûre vers 0 et pas de convergence en moyenne pour cette suite de v.a. Alors un deuxième résultat, qui est intéressant, dont je ne vais pas donner la preuve en cours mais qui vous sera donné en exercice, c'est le théorème suivant : en fait, c'est une application du théorème de convergence dominée, c'est pour ça que vous le verrez plutôt en exercice, et ce théorème nous dit que, si on a convergence presque sûre, alors, on a convergence en probabilité. Donc finalement, on va avoir un certain nombre de relations entre ces convergences, on a vu que la convergence en moyenne entraînait la convergence en probabilité, on vient de voir que la convergence presque sûre entraîne la convergence en probabilité, on a vu, en début de séance 3, un exemple qui montre que l'on peut avoir convergence en probabilité, sans avoir convergence en moyenne, et on a vu, dans l'exemple 1 bis de la séance 2 du cours 5, qu'on pouvait avoir convergence en probabilité, sans avoir convergence presque sûre. Donc on ne peut pas non plus, ici, remonter cette flèche et prouver une équivalence entre ces deux convergences. Donc vous voyez que la convergence en probabilité ici, est plus faible, peut arriver plus souvent en fait, que ces deux convergences en moyenne ou presque sûres. Et le théorème de convergence dominée vous donne une flèche, mais que j'ai mise en pointillés ici, et qui vous dit que si l'on a convergence presque sûre alors on a convergence en moyenne, puisque cette flèche n'est valable que si la suite de v.a. est dominée par une v.a. intégrable.