[SON] Bienvenue dans cette nouvelle séance de Simuler l'aléatoire, qui va être consacrée à une illustration de la loi des grands nombres. Je vais commencer par quelques rappels sur ce fameux théorème. On se donne une suite de variables aléatoires X n, définie sur un espace de probabilité. Les variables aléatoires X n prennent des valeurs dans R d, et le théorème qu'on appelle la loi des grands nombres s'énonce de la manière suivante. Si ces variables aléatoires sont indépendantes et de même loi, et qu'elles sont de carrés intégrables, ce qu'on note X n appartient à L 2, alors on note presque sûrement et en moyenne, on a que la moyenne de ces variables aléatoires converge vers m, où m est l'espérance commune de ces variables aléatoires. Et c'est une notation traditionnelle, S n la somme de X 1 + X2 + jusqu'à X n. Deux petites remarques. La première est qu'on appelle traditionnellement loi faible des grands nombres, l'énoncé qui consiste à ne parler que de la convergence en moyenne. Et la loi forte des grands nombres est, correspond à la convergence presque sûre. Rappelons rapidement ce que signifie la convergence presque sûre. Cela signifie que si je prends l'ensemble des réalisations pour lesquelles la moyenne tend effectivement vers m, cet ensemble de réalisations a pour probabilité 1. On peut le dire de façon complémentaire. L'ensemble des réalisations tel que cette limite n'est pas m, ou n'existe pas, l'ensemble de ces réalisations forme un ensemble de probabilité nul. J'attire votre attention sur le fait qu'on parle de loi des grands nombres. Et il s'agit bien d'un théorème de mathématiques, mais cette expression loi des grands nombres est restée, on l'utilise toujours. Je vais illustrer cette loi avec plusieurs exemples. Le premier va être un exemple où on utilise des variables aléatoires exponentielles. Alors, on prend (X n), une suite de variables aléatoires, de loi exponentielle de paramètre 1. Cela veut dire que ces variables aléatoires prennent des valeurs positives, et qu'elles sont décrites par une densité qui e (- x), pour x positif. On peut facilement vérifier que l'espérance commune de (X n), c'est 1. Et, on peut calculer l'espérance du carré, c'est-à-dire vérifier que (X n) est bien dans L 2. On calcule cette petite intégrale, et on trouve 2, qui est un nombre plus petit que l'infini. On peut donc appliquer la loi forte des grands nombres, pour conclure que la moyenne de ces variables aléatoires tend bien vers 1, presque sûrement. 1 étant petit m, c'est-à-dire l'espérance commune de ces variables aléatoires. Voici une expérience numérique qui va illustrer ce que je viens de dire. Ici, nous représentons la moyenne (S n) / n, en fonction de n. Et la représentation usuelle qui permet d'être pratique, et de relier entre eux les points (S n) / n, en fonction de n, comme on regarde ici, la variable est discrète, donc on a une série de points. Et, pour que ce soit beaucoup plus visuel, on les relie par des segments. D'accord? Donc, on a une représentation comme cela d'une réalisation de (S n) / n, en fonction de n, comme une ligne brisée. Là, j'ai représenté une réalisation, donc on a tiré un oméga. Et vous pouvez augmenter le nombre de tirages, c'est-à-dire le petit n. Ce qu'on constate, c'est qu'au fur et à mesure que n grandit, on se stabilise autour de la valeur 1, qui est la valeur moyenne, qui est l'espérance. Il ne faut pas perdre de vue que (S n) / n dépend d'oméga, dépend de la réalisation. C'est donc une quantité aléatoire, et qu'en conséquence, le rang n à partir duquel (S n) / n est proche de 1 à une précision donnée, il dépend vraiment de la réalisation. En particulier, on peut le visualiser en augmentant le nombre de réalisations. On voit bien que globalement, (S n) / n, pour diverses réalisations, semble se concentrer autour de la valeur 1. Mais, on peut voir les excursions, par exemple ici, qui montrent qu'on ne se retrouve pas à une précision arbitrairement proche de 1 à partir d'un certain rang, pour tous les oméga. Pour comprendre un peu mieux ces phénomènes de fluctuations, nous aurons besoin d'un résultat ultérieur, que nous décrirons dans une séance suivante. Un deuxième exemple qui illustre la loi des grands nombres, est l'exemple du jeu de Pile ou Face infini. Pour le formaliser, X n est défini sur l'espace oméga qui est l'ensemble de toutes les suites formées de 0 et de 1, donc ce sont des suites infinies de 0 et de 1. Et, si on se donne petit oméga, X n (oméga), c'est simplement le n-ième terme de cette suite, qu'on a choisie. Et par convention, 0 représente Face, et 1 représente Pile. Sans rentrer dans les détails, on peut construire une probabilité P indice p, telle que ces variables aléatoires sont indépendantes, chacune suivant une loi de Bernoulli de paramètre petit p, petit p étant un nombre strictement compris en 0 et 1. On peut appliquer la loi des grands nombres, puisqu'on a des variables aléatoires qui sont bornées, donc toutes les hypothèses sont satisfaites. On voit que la moyenne de ces variables aléatoires tend vers p, puisque p est l'espérance d'une variable aléatoire de Bernoulli de paramètre p. Cette convergence a lieu pour toute suite qui n'est pas dans un ensemble grand N, qui est de probabilité nulle pour cette probabilité P indice p. Puisque 1 représente Pile, et 0 Face, vous pouvez facilement voir que cette moyenne (S n) / n, compte tout simplement la fréquence de Pile, lorsqu'on a exécuté n lancers. Pour un ensemble de suites de lancers de probabilité 1 pour cette probabilité P indice p, la fréquence de Pile est asymptotiquement donc, égale à p. C'est ce que vient de nous dire la loi forte des grands nombres. On peut se demander quelle suite de lancers ne sont pas dans l'ensemble de probabilité 1, pour lequel ceci est vrai. Vous pouvez tout de suite penser à des suites étranges, comme avoir constamment Face. On comprend bien qu'on n'aura pas asymptotiquement une fréquence qui correspond à p. Et en fait c'est, la situation est plus compliquée. On peut avoir d'autres types de suites qui ne satisfont pas cette propriété. Prenons par exemple, un paramètre, pour la loi de Bernoulli, q différent de p. On peut recommencer ce que j'ai dit précédemment. On obtient un ensemble de suites de probabilité 1, pour P indice q, pour lequel la fréquence de Pile va être asymptotiquement égale à q, mais cet ensemble, il va être de probabilité nulle pour P indice p. Donc, on voit bien que l'ensemble des suites pour lesquelles on n'a pas la fréquence asymptotique correcte par rapport au modèle qu'on a fixé, c'est un ensemble, en fait, qui est assez compliqué. Mais, cela recouvre l'idée naturelle que si, par exemple, vous pensez à une pièce équilibrée, p = 1 / 2, ce que vous allez voir typiquement, c'est bien asymptotiquement à peu près autant de Pile que de Face. Et plus généralement, si la pièce est biaisée, et qu'on trouve un peu plus souvent Pile que Face, on va bien obtenir les observations typiques qui correspondent à cela. Revenons à l'expérience numérique, cette fois-ci dans le cadre de ce tirage, ce Pile ou Face, avec biais possible. Donc, on représente à nouveau (S n) / n, la moyenne en fonction de n. Ici, on va commencer avec p = 1 / 2, on a autant de chance d'avoir Pile que Face. Et vous pouvez, comme précédemment, varier les paramètres qui sont les nombres de tirages. On peut mettre plusieurs réalisations. Et on peut également modifier le paramètre de Bernoulli. Donc, quand on l'abaisse, la moyenne change puisqu'elle est la moyenne asymptotique, l'espérance est égale à p. Et, on peut aller jusqu'aux cas extrêmes qu'on a exclus, qui sont p = 0 et p = 1. Quand p = 0, il y a une probabilité nulle que Pile apparaisse, donc on reste à 0, et tout est plat, c'est parfaitement déterministe. Et l'autre cas extrême qu'on avait exclu, c'est p = 1. Il n'y a que Pile qui est possible. Donc, (S n) / n, quoiqu'il arrive, est toujours égal à 1. Dans ces deux cas extrêmes, il n'y a plus du tout d'aléas, mais dès qu'on est entre les deux, on voit que selon les réalisations, on a des fluctuations pour la moyenne en fonction de la réalisation. Et comme je l'ai dit tout à l'heure, nous verrons comment réaliser ces fluctuations ultérieurement. Revenons au théorème de la loi forte des grands nombres. Tout à l'heure, j'ai utilisé dans l'énoncé l'hypothèse que (X n) était dans (L 2), c'est-à-dire que l'espérance de (X n) carré était finie. Comme vous l'avez vu en cours, on peut remplacer cette hypothèse plus faible, qui est que X n est intégrable, c'est-à-dire dans L 1, autrement dit l'espérance de valeur absolue de (X n) est finie. Vous avez lu la démonstration dans le cas L 2. Et on vous a signalé qu'en fait on peut utiliser seulement cette hypothèse. En complément de cours, je voudrais vous mentionner que c'est non seulement suffisant, cette hypothèse, mais c'est en fait nécessaire. C'est Kolmogorov qui a montré en particulier que si X n n'est pas intégrable, n'est pas dans L 1, la moyenne des variables aléatoires, X n ne peut pas converger, et elle ne peut converger vers aucune limite finie. Un exemple qui illustre cette situation est un exemple qu'on a déjà rencontré. Et, on verra que c'est un exemple où la loi des grands nombres ne s'applique pas. C'est une suite de variables aléatoires, dont chacune suit une loi de Cauchy de paramètre 1. Je vous rappelle que cela signifie que la densité de la loi de chaque X n est donnée par cette formule. Si on regarde l'espérance de la valeur absolue de X n, on a donc à calculer valeur absolue de x fois cette densité, intégrée de moins l'infini à plus l'infini. Une variable aléatoire qui suit une loi de Cauchy prend a priori des valeurs négatives ou positives. A cause de la parité de la fonction qu'on intègre, c'est 2 * l'intégrale de 0 à l'infini. Et on se retrouve à intégrer une fonction qui, vous voyez quand x devient très grand, quand x tend vers l'infini, ceci est équivalent à 1 / x. Autrement dit, il y a une divergence logarithmique de l'intégrale. Cette intégrale donc vaut plus l'infini. Donc, on ne peut pas appliquer la version générale de la loi forte des grands nombres, qui nous dit qu'il faut absolument que cette quantité soit finie. En particulier, (S n) / n ne converge vers aucune limite, conformément à ce que dit le théorème de Kolmogorov. Je vais vous montrer ce qui se passe si vous simulez cette situation et si vous ne saviez que ce théorème existe. On va voir qu'on se rend vite compte qu'il y a un problème avec la loi de Cauchy. Voici ce que donne la simulation de lois de Cauchy et de leurs moyennes. Donc, on représente à nouveau (S n) / n en fonction de n. J'ai mis un exemple où on a 69 lois de Cauchy qui ont été tirées successivement. On a représenté une réalisation. Cela donne cette trajectoire très erratique. On peut se dire que peut-être elles se stabilisent si on augmente n, le nombre de tirages. Ce qu'on constate c'est que, par moments, cela semble effectivement se tasser. Être assez plat, mais cela se remet à fluctuer de façon assez brutale. On peut se dire qu'on est tombé sur une mauvaise réalisation. Alors, on peut recalculer ce qui se passe pour un autre oméga, un autre petit oméga. Et vous voyez, en particulier on a représenté ici le maximum et le minimum de ce qu'on a vu sur les n lancers. Et on voit qu'on obtient des choses très différentes selon les petits oméga. Vous voyez, c'est extrêmement différent. Donc, on voit bien d'une façon expérimentale que la moyenne de lois de Cauchy, la variable aléatoire qui suit une loi de Cauchy, ne converge manifestement vers rien du tout, ce qui est effectivement le cas, comme nous l'avons vu précédemment. Voilà, nous avons terminé cette séance. Maintenant c'est à vous de jouer, vous pouvez utiliser cette simulation et explorer tout ce qui peut se passer en faisant vous-même varier tous les paramètres.