[SON] [AUDIO_VIDE] Bonjour. Dans cette séance 2 du cours 5, nous allons étudier des notions de convergence pour des suites de variables aléatoires. Tout d'abord, nous allons motiver pourquoi nous souhaitons étudier ces convergences. Je vous rappelle que nous avons vu en première séance, que nous voulions dans ce cours 5 justifier tout ce modèle probabiliste que nous avons construit depuis le cours 1, à partir d'une approche en fréquence empirique, je vous rappelle qu'on a construit les axiomes qui définissaient une probabilité, en observant les propriétés des fréquences empiriques qui décrivent les fréquences de réalisation d'un certain événement aléatoire, quand on répète un très grand nombre de fois une expérience dans des conditions similaires. Donc tout notre but, maintenant, c'est de justifier ce modèle et de prouver le théorème qui est un des points clés du cours, que l'on appelle la loi des grands nombres. Donc, la manière dont on va justifier ce théorème, et nous reviendrons sur cela en fin de la séance numéro 4 du cours 5, nous allons en fait étudier une suite de variables aléatoires indépendantes, que je vais noter X1, etc, X2, X3,... Xn, qui vont être non seulement indépendantes mais aussi de même loi, et qui vont modéliser le résultat d'une expérience, l'indice i ou n, qui varie dans N, modélisant le numéro de l'expérience que l'on répète. Donc, imaginez par exemple, si vous posez la question sur un sondage, où la réponse est 1 ou 0, on va interroger n personnes, chacune de ces personnes va vous donner une réponse, qui sera 1 ou 0, que vous allez pouvoir modéliser par une donnée, xi, qui est la valeur numérique d'une variable aléatoire de Bernoulli, qui prend ce nombre de valeurs O et 1. Donc, on va ainsi modéliser les résultats des expériences consécutives. Donc, si l'on veut avoir une information sur ces variables aléatoires, là on sait qu'elles ont même loi, on sait que ces variables Xi, qui nous donnent un résultat quantitatif quand on a tiré nos n expériences, nous donnent des valeurs d'une même loi de variable aléatoire, et si on veut avoir une idée de la valeur moyenne, on va en étudier la moyenne empirique. C'est-à-dire regarder la moyenne des résultats (X1 + X2... + Xn) / n. Donc, cette quantité-là est une variable aléatoire, qui ici, décrit la moyenne des données X1, X2,... Xn. Maintenant nous avons dit que nous voulons répéter un très grand nombre de fois l'expérience, et même je vous rappelle, dans le modèle heuristique, donc le modèle probabiliste que nous avons construit, l'idée est de faire tendre le nombre d'expériences vers l'infini. Donc notre but ici, est de comprendre quel est le comportement de cette variable aléatoire, qui est la moyenne empirique de n variables aléatoires indépendantes et de même loi, quand n tend vers l'infini. Donc, ça, c'est un problème compliqué qui a été résolu pour un jeu de Pile ou Face, donc pour le jeu de réponses au sondage 0, 1 qu'on a vu tout à l'heure donc par Bernoulli, donc au début du XVIIIe siècle, mais je vous ai juste mis, à titre indicatif, que des généralisations dont celles que l'on verra dans la séance 4, n'ont été apportées qu'au XXe siècle. Donc en fait, pour comprendre et définir ces notions de convergence, et prouver des résultats de convergence sur ce type de suite de variables aléatoires, eh bien ça a demandé beaucoup de temps et ce sont des choses assez délicates. Donc, la question, première question, je vous rappelle que les Xi ne sont pas des nombres, mais ce sont des fonctions, puisque les variables aléatoires sont des fonctions de l'aléa, et on a donc ici une suit, indexée par n, de fonctions définies de oméga à valeur dans R ou un sous-ensemble de R, bon, on va parler de variables réelles mais on pourrait parler aussi de vecteur aléatoire, puisqu'on a vu dans le cours 4 ce que c'était qu'un vecteur aléatoire à valeur dans R puissance d, donc ici, on a une suite de fonctions. Et la question, c'est : comment allons-nous définir une notion de convergence pour cette suite de variables aléatoires? En fait on va voir qu'on a plusieurs notions de convergence possibles, et que nous allons définir, et nous allons jouer en fait entre toutes ces notions, et voir les liens entre les différentes notions que nous allons définir. Donc le but maintenant de cette séance, est de commencer à réfléchir à cette définition de limite, quand n tend vers l'infini, de la suite de fonctions, qui à oméga associent X1 de oméga ou +Xn de oméga sur n. Quand n, bien sûr, tend vers l'infini. Alors on va oublier un petit moment ces moyennes empiriques, et plus généralement, on va oublier le contexte de la loi des grands nombres qui nous intéresse, plus généralement, on va introduire une suite de variables aléatoires Xn, et on cherche à définir des notions de convergence de cette suite de variables aléatoires. Comme je vous l'ai dit, il y a plusieurs notions de convergence, qui ne seront pas équivalentes, mais il y a deux types de notions de convergence. Il y a une notion, donc il y a une famille de convergence qui va décrire la proximité des variables aléatoires, et qui va donc nécessiter que les variables aléatoires soient définies sur le même espace de probabilité, ce sont les notions de convergence que l'on va définir aujourd'hui, et puis il y a une notion de convergence qui va décrire la proximité des lois des variables aléatoires, et celle-là on ne va pas la regarder tout-de-suite, on va l'introduire dans le cours numéro 6. C'est ce qu'on appellera la convergence en loi. Donc pour l'instant, nous allons nous limiter à essayer de décrire la proximité de variables aléatoires, pour une suite de variables aléatoires, donc la proximité de variables qui sont définies sur le même espace de probabilités. Je vais vous expliquer quels sont ces types de convergences que l'on peut définir, et on va voir qu'on a trois notions de convergences différentes, pour une suite de variables aléatoires Xn, qui est définie sur un certain espace de probabilités ( Oméga, A, P ). Une autre question, c'est comment dire que Xn converge vers une variable aléatoire X, qui va elle aussi être définie sur le même espace de probabilités ( Oméga, A, P ), c'est-à-dire quel sens voulons-nous donner au fait que Xn- X, en distance, en valeur absolue, en norme si on a des vecteurs aléatoires dans Rd, dans quel sens on peut dire que Xn- X tend vers 0? Alors n'oublions pas que Xn et X sont des variables aléatoires. La première définition, va nécessiter que Xn et X soient intégrables, qu'elles admettent une espérance finie, qui est de dire Xn- X va tendre vers 0 si sa moyenne tend vers 0. C'est ce qu'on appelle la convergence en moyenne, et on dit définition : si tous les Xn sont dans L1 sont intégrables, et si X est intégrable, on dira que la suite Xn converge en moyenne vers X, si et seulement si l'espérance de valeur absolue de Xn- X, qui est donc bien définie, tend vers 0 quand n tend vers l'infini. Donc là, c'est la moyenne de cet écart entre Xn et X, qui tend vers 0 quand n tend vers l'infini. C'est une définition de convergence assez naturelle, et très inspirée par l'analyse, pour ceux qui connaissent bien, des résultats d'analyses et l'étude de convergence de suites de fonctions dans L1. Une deuxième notion plus probabiliste est de quantifier la probabilité que l'écart Xn- X soit plus grand qu'une certaine quantité strictement positive. Quantifier, l'erreur qu'on fait en disant que Xn s'approche vers X, en probabilité. Donc on va dire que la suite Xn converge en probabilité vers X si, et seulement si, dès qu'on se donne Epsilon strictement positif, donc un nombre réel strictement positif, la probabilité que l'écart Xn- X en valeur absolue, soit plus grand que Epsilon, tende vers 0 quand n tend vers l'infini. Cela veut dire que la probabilité que cet écart soit plus grand qu'un nombre strictement positif donné, qui, bien sûr, ne dépend pas de n, que cette probabilité vous le voyez tend vers 0, c'est-à-dire qu'on a de moins en moins de chances d'avoir Xn- X plus grand que Epsilon et quand n tend vers l'infini, cette probabilité tend vers 0. Ca, c'est ce qu'on appelle la convergence en probabilité. La troisième notion de convergence est plus subtile, et vous prendrez le temps de bien la comprendre, c'est ce qu'on appelle la convergence presque sûre, en fait elle est plus subtile, mais c'est peut-être la plus proche de la convergence ponctuelle que peut-être, vous avez vue pour certains d'entre vous, la convergence ponctuelle d'une suite de fonctions, qui est de dire (Xn), on a vu que la suite (Xn) c'est une suite de fonction de l'aléa, (Xn) de Oméga, et on pourrait avoir envie de dire : ben, (Xn) c'est une fonction de Oméga, X aussi, Xn va tendre vers X si et seulement si pour tout Oméga Xn de Oméga tend vers Oméga. Bon ça pour en fait ce qui nous occupe et en particulier pour obtenir notre résultat loi des grands nombres c'est trop exigeant et en plus, vous voyez que si on dit pour tout Oméga Xn de Oméga tend vers Oméga on oublie complètement le modèle probabiliste et la manière dont les réalisations de l'espace grand Oméga sont satisfaites en fonction du choix de la probabilité P. Donc on va pas dire que pour tout Oméga Xn de Oméga tend vers Oméga, mais on va dire que pour presque tout Oméga, Xn de Oméga tend vers X de Oméga au sens où l'ensemble des Oméga pour lequel Xn de Oméga moins X de Oméga ne tend pas vers 0 est de probabilité nulle. C'est à dire que la probabilité P ne charge que des éléments petit Oméga tel que Xn de Oméga tend vers X de Oméga quand n tend vers l'infini. Donc c'est dans ce sens là qu'on parle de convergence presque sûr de l'ensemble des Oméga pour lequel Xn de Oméga tend vers X de Oméga quand n tend vers l'infini de probabilité égal à 1. Mais ça n'est pas forcément tout l'ensemble grand Oméga. Alors maintenant nous allons voir un certain nombre d'exemples pour essayer d'assimiler ces différentes notions. Et dans la séance suivante nous donnerons un certain nombre de liens entre ces notions de convergence, on va déjà en voir quelques uns du reste aujourd'hui. Donc premier exemple, on va prendre des exemples simples pour voir que ces définitions ne sont pas équivalentes. Donc supposons qu'on considère une suite de variables aléatoires de Bernoulli donc qui vont prendre uniquement les valeurs 0 1 et pour la variable Xn je vais supposer que la probabilité que Xn soit égale à 1 est égale à 1 sur n et donc bien sûr la probabilité d'avoir Xn égal 0 égale 1 moins 1 sur n. Étudions déjà la convergence en probabilités vers X. Alors revenons sur la définition, alors excusez moi on va montrer en fait que Xn converge en probabilité vers 0. Donc qu'est-ce que ça veut dire, donc on se fixe Epsilon positif, dire que Xn converge en probabilités vers 0, c'est dire que la probabilité que valeur absolue de Xn soit plus grand que Epsilon tend vers 0 quand n tend vers l'infini. Donc nous allons calculer la probabilité que valeur absolue de Xn soit plus grand que Epsilon où Epsilon est un nombre réel strictement positif donné. Donc on prend on choisit ce Epsilon et on voit que Xn n'a pas d'autre choix que d'être égal à 1 ou à 0. donc si je calcule la probabilité d'avoir Xn en valeur absolue plus grand que Epsilon ce qui la même chose que Xn en valeur absolue puisque Xn est positif. Eh bien, en fait, pour Epsilon strictement plus grand que 1 cette probabilité sera 0 et pour Epsilon compris entre strictement entre 0 et 1 fermé en 1. La probabilité d'avoir Xn plus grand que Epsilon c'est exactement la probabilité d'avoir Xn égal 1 et donc c'est 1 sur n. Vous voyez que cette quantité là tend vers 0 quand elle tend vers l'infini. Donc on a montré la convergence en probabilité de la suite Xn vers 0. Maintenant si je veux calculer la moyenne de alors de Xn moins sa limite en valeur absolue, ici la limite, la candidat limite est toujours X égal 0. donc cela revient pour nous à calculer l'espérance de Xn. Puisque Xn est positive. donc si je calcule l'espérance de Xn donc c'est 1 fois 1 sur n plus 0 fois 1 moins 1 sur n donc c'est 1 sur n. donc là aussi vous voyez que Xn converge en moyenne vers 0. alors pour étudier la convergence presque sûre d'une telle suite il faut plus d'informations et en général nous verrons dans les cours suivants les preuves pour la convergence presque sûre sont en général plus subtiles. Alors nous allons donner une information de plus sur l'exemple précédent donc c'est pour ça que maintenant je l'appelle l'exemple 1 bis et je vais supposer de plus que les variables aléatoires Xn sont indépendantes, ce que je n'avais pas supposé dans le transparent précédent. Donc nous avons vu rappelons le que si Epsilon est fixée strictement positif la probabilité d'avoir Xn plus grand que Epsilon est égale à 1 sur n. Je vous rappelle que la série de terme général 1 sur n, c'est la série harmonique, est divergente. et maintenant, voyez que je vais poser An, je vais considérer l'évènement aléatoire An égal à l'ensemble des Oméga tels que Xn de Oméga est supérieur ou égal à Epsilon. Donc une remarque, vu ce qu'on vient de voir ici, on sait que la série de terme général probabilité de An, diverge, donc la série, la somme de la série vaut plus l'infini. et de plus nous avons supposé que les variables aléatoires Xn sont indépendantes. Donc cela entraîne que les évènements aléatoire An sont indépendants. Nous pouvons, je ne sais pas si vous vous rappelez encore de ce théorème que nous avons vu dans la séance 7 du cours 1 mais nous avions vu à l'époque un théorème qui s'appelle théorème de Borel-Cantelli qui va nous être extrêmement utile dans toutes les études de convergence presque sûre de suites de variables aléatoires. Donc je vous renvois au cours 1 séance 7 et vous verrez que si vous avez une suite d'évènements aléatoires An indépendants tels que la série de terme général probabilité de An est égale à plus l'infini, on peut en déduire que pour presque tout Oméga on a une infinité de An qui sont réalisés et donc on a une infinité de Xn de Oméga qui vont être supérieurs à Epsilon. Je vous rappelle que Epsilon était fixé à priori, Donc si vous montrez que pour presque tout Oméga une infinité de Xn de Oméga sont supérieurs à Epsilon ça veut dire que la suite Xn ne peut pas converger presque sûrement vers 0. Donc premier exemple où on voit l'utilisation du théorème de Borel-Cantelli on le retrouvera dans les séances suivantes vous verrez que même pour la preuve de la loi de grands nombres ça va être un outil très important dès lors qu'on veut étudier la convergence presque sûre de la suite de variables aléatoires. Alors donc rappelons nous, nous étions partis de ce cadre de variables aléatoires de Bernoulli très général on avait convergence en probabilités, convergence vers 0 dans les 2 cas bien sûr et on vient de montrer que si on suppose de plus que les variables sont indépendantes, eh bien, on ne peut pas avoir convergence presque sûre. On va prendre un autre exemple de variables aléatoires de Bernoulli mais qui sont définies de la manière suivante. On se donne a priori une variable aléatoire uniforme sur 0, 1 grand U. Et je vais poser Zn est égal indicatrice de grand U plus petit que 1 sur n. Alors rappelons nous ce que ça veut dire, ça veut dire que Zn de Oméga va être égal à 1 si grand U de Oméga est plus petit que 1 sur n et Zn de Oméga va être égal à 0 si grand U de Oméga est plus grand que 1 sur n. Je vous rappelle que par définition grand U de Oméga appartient à 0, 1. Donc la probabilité que Zn égal 1 Est égale par définition à la probabilité que grand U est plus petit ou égal à 1 sur n donc ça vaut 1 sur n et la probabilité que Zn égal 0 vaut 1 moins 1 sur n puisque Zn ne peut prendre que les valeurs 0 ou 1. Donc nous avons bien Zn est bien une suite de variables aléatoires de Bernoulli qui prend la valeur 1 avec la probabilité 1 sur n. Donc on est dans le cadre de l'exemple 1. Donc on a déjà vu que la suite Zn converge en probabilités et en moyenne vers 0. Eh bien dans ce cas là, nous allons montrer que Zn converge également presque sûrement vers 0. En effet fixons petit oméga. Nous savons que comme grand U suit une loi uniforme, elle a une densité qui charge l'intervalle ouvert O, 1 et donc avec probabilité 1 nous sommes sûr que grand U de oméga va être strictement positif. Puisque grand U de oméga est strictement positif en prenant n0 suffisamment grand, c'est à dire 1 sur n0 suffisamment petit, nous allons pouvoir coincer le 1 sur n0 entre grand de oméga et n0, et assurer pour ce oméga fixé que grand U de oméga est plus grand que 1 sur n0. Donc dans ce cas là vous voyez que ça va entraîner que Zn0 de oméga va être égal à 0, je vous rappelle que Zn, Zn0 c'est indicatrice de grand U plus petit que 1 sur n0, donc en oméga comme U de oméga est strictement plus grand que 1 sur n0, Zn0 de oméga sera égal à 0. Et pour n supérieur ou égal à n0, puisque 1 sur n va être plus petit que 1 sur n0, nous aurons également grand U de oméga plus grand que 1 sur n et donc Zn de oméga égal 0. donc vous voyez qu'à partir d'un certain rang, Zn de oméga était nul ce qui est la définition de la convergence presque sûre. Alors on pourrait dire qu'il y a contradiction entre l'exemple 1 bis et l'exemple 1 père, et bien non parcequ'en fait je vous rappelle que dans l'exemple 1 bis on avait supposé que les variables aléatoires Xn étaient indépendantes. Or ici il est clair que les variables aléatoires Zn, qui sont définies à partir de la même variable aléatoire grand U ne sont pas indépendantes. Pour le voir on peut considérer par exemple l'évènement aléatoire Zn égal 1 intersecté avec Zn plus 1 égal 1. donc que vaut cet évènement, et bien il vaut grand U inférieur ou égal à 1 sur n intersecté avec grand U inférieur ou égal à 1 sur n plus 1, Et cet évènement là est de toute évidence égal à grand U inférieur ou égal à 1 sur n plus 1. Donc sa probabilité vaut 1 sur n plus 1. Alors que le produit des probabilités de Zn égal 1 et de Zn plus 1 égal 1 vaut 1 sur n, n plus 1. Ce qui montre que la suite n'est pas indépendante. donc il n'y a pas contradiction mais vous voyez que les notions sont quand même assez délicates à manipuler.