[MUSIQUE] Bienvenue. Dans les séances précédentes, nous avons vu comment simuler une variable aléatoire réelle en inversant sa fonction de répartition. Ça, c'était la méthode de base qui était efficace à condition qu'on sache, qu'on connaisse l'expression de la fonction de répartition et qu'on sache en particulier l'inverser. Nous avons vu après comment aller bien au-delà en utilisant la méthode du rejet et on utilise une variable aléatoire auxiliaire pour laquelle on sait par exemple utiliser la méthode d'inversion de la fonction de répartition. Dans cette séance, je voudrais vous montrer deux exemples où on peut utiliser des méthodes spéciales qui sont bien adaptées à, aux variables aléatoires que je vais considérées, qui vont être d'une part une variable aléatoire normale et d'autre part une variable aléatoire qui suit une loi de Poisson. Le premier exemple que je vous montrerai est celui de la simulation d'une loi normale centrée réduite. On l'appelle la méthode polaire et c'est une méthode qui s'appelle aussi Box-Mueller, du nom des personnes à qui on attribue cette méthode. Et cette méthode est extrêmement pratique pour simuler une variable normale centrée réduite et plus efficace et plus simple que la méthode d'inversion de la fonction de répartition. N'oubliez pas qu'en plus, la fonction de répartition d'une gaussienne n'est pas connue explicitement donc il faut utiliser des tables qui, ou il y a des valeurs approximatives donc ce n'est vraiment pas pratique. Donc le théorème qu'on va étudier et démontrer, c'est le suivant. Si on se donne deux variables aléatoires uniformes U1, U2 sur l'intervalle 0 1 indépendantes, alors si vous prenez la variable aléatoire moins 2 ln de U1, vous prenez la racine carré, vous multipliez par le cosinus de 2 pi U2, on va voir que ça suit une loi normale centrée réduite. C'est-à-dire que cette variable aléatoire a pour loi ce qu'on note habituellement N 0 1 ou N 0 variance 1. Et un petit changement de variable en fait vous permet de déduire facilement que si vous avez deux nombres mu et sigma, si vous prenez mu plus sigma, la même chose, vous allez simuler une loi normale de moyenne mu et de variance sigma carré. Donc, démontrons ce théorème. En fait, il va être la conséquence de, du théorème suivant que j'appelle proposition qui dit la chose suivante. Si vous prenez une variable aléatoire que je vais appeler grand R, vous verrez dans un instant pourquoi, qui suit une loi exponentielle de paramètre un demi. Si je prends grand thêta qui est uniforme sur 0 2 pi, indépendante, alors, ce couple de variables aléatoires X égal racine de R cos thêta et Y égal racine de R sinus thêta je dis qu'elles sont indépendantes normales centrées réduites. J'ai mis deux fois indépendantes, ça ne sert à rien évidemment. Et donc, c'est ça qui va nous permettre de déduire le résultat précédent. Alors si la preuve que je vais vous donner utilise le, un changement de variable pour des fonctions de deux variables donc si vous êtes familiers avec ça, tout va bien. Sinon, vous pouvez éventuellement sauter cette démonstration. Donc démonstration de la proposition. Donc on va employer la méthode qu'ils appellent la méthode de la fonction muette. [AUDIO_VIDE] Et ça a été vu en cours 3, séance 6 ou c'est appelé aussi calcul de loi. Donc, on part d'une fonction de R2 dans R continue bornée et donc on écrit, on veut calculer l'espérance de g XY qui est égale à cause de la définition de X et Y hein, c'est l'espérance aussi de g de R, racine de R cos thêta racine de R sinus thêta. Donc l'idée c'est que ça va être de de d'écrire ce que c'est cette intégrale et de passer aux coordonnées x y pour faire apparaître une densité pour le couple xy. Et on verra que ça fait apparaître le produit de densités de variables gaussiennes centrées réduites; Donc, si je développe ça, puisqu'on sait que R suit une loi géométrique de paramètre un demi et grand thêta une loi uniforme de, sur 0 2 pi, ça c'est l'intégrale, donc il y a le un demi qui vient de la loi exponentielle mais on intègre de 0 à l'infini. Il y a, il y aura le 1 sur 2 pi qui vient de la loi uniforme. On a intégré sur 0 2 pi donc on a la fonction à intégrer, g racine de r cos thêta racine de r sinus thêta fois donc il y a la densité de la loi exponentielle qui est e moins r2 sur 2 dr et puis il y a d thêta puisque uniforme, il y a, la densité est 1 sur l'intervalle 0 2 pi. Donc, je vous, je note dans un petit coin qu'on a utilisé le fait que si j'appelle fR la densité de la loi exponentielle de paramètre un demi, c'est un demi e moins r2 sur 2 indicatrice de R+ et grand f thêta, la densité de la variable grand thêta, c'est 1 sur 2 pi indicatrice de 0 2 pi. Voilà, j'ai utilisé ça. Donc maintenant on va faire un changement de variable qui est le suivant, c'est qu'on veut passer de, on veut changer r thêta en x y. Donc on a une fonction x y qui phi de thêta r et phi de têta r c'est racine de r cos thêta racine de r sinus thêta. Phi donc, c'est une fonction qui va de 0 plus l'infini fois 0 2 pi sur le plan privé de l'axe des x positifs et défini comme ça, c'est bien une bijection qui est C1 et son inverse aussi est C1. Donc, tout va bien. On peut calculer la matrice jacobienne qu'on peut noter comme ça, c'est une notation standard. Sinon on appelle ça aussi j. Ça consiste donc à regarder la matrice où pour la première coordonnée, la première entrée en haut à gauche, c'est, on dérive x par rapport à r donc ça nous fait cos thêta divisé par 2 racine de r. On divise x par rapport à, on dérive x par rapport à thêta, ça fait moins racine de r sinus thêta. On fait pareil pour y sur la deuxième ligne, Ca nous fait sinus thêta sur 2 racine de r racine de r cos thêta. Le déterminant qui vient de nous donner déjà la façon de passer des coordonnées r thêta à x y. Bien vous voyez que c'est tout simplement un demi. Donc, on en déduit que dxy, dx fois dy, ça va être égal à un demi de dr d thêta. Et notez au passage que à cause de la définition de, de phi, vous voyez que x2 plus y2, c'est petit r. La conclusion, c'est que l'espérance de g de x y c'est 1 sur 2 pi. Il y a un 2 qui s'en va à cause de ce deux-là. Donc ça fait bien 1 sur 2 pi intégrale sur R2 g x y e moins x2 plus y2 divisé par 2 dx dy. Et là, on reconnaît ici, ça, ça s'écrit comme le produit, en tenant compte bien sûr de 1 sur 2 pi, vous voyez que c'est le produit de 1 sur racine de 2 pi e moins x2 sur 2 fois 1 sur racine de 2 pi e moins y2 sur 2. Donc on a obtenu que toute fonction continue bornée de x y elle s'intègre contre le produit de densité de loi normale centrée réduite, ce qui veut dire que x et y sont normales centrées réduites et qu'elles sont indépendantes. Donc, on a démontré le, la proposition. Donc pour revenir à ce que nous disions tout à l'heure, on vient de démontrer cette proposition et on en déduit la chose suivante. On a vu les fois précédentes que pour simuler une loi exponentielle de paramètre un demi, il suffisait de prendre moins 2 ln de U1, donc 2 c'est l'inverse d'un demi, l'inverse du paramètre de la loi exponentielle et 2 pi U2, ça, ça va simuler thêta. Donc, si je mets ici ce qui simule racine de R et là ce qui simule thêta, j'ai bien que cette variable aléatoire va avoir la même loi que X et la même chose que celle là, où on a un sinus, on va avoir la même loi que Y. Donc, la proposition qu'on vient de démontrer hein, qu'on n'a pas admise, qu'on vient de démontrer, on en déduit donc que ces deux variables aléatoires sont des variables normales centrées réduites donc juste une loi N 0 1 indépendante, en particulier si je prends par exemple la première, j'obtiens bien que cette La variable aléatoire va simuler une normale centrée réduite. Je peux, bien sûr, prendre l'autre. Voilà en ce qui concerne la loi normale. La deuxième loi que je voulais vous montrer, où on peut utiliser une méthode particulière, concerne la loi de Poisson. Bien sûr, c'est une loi discrète. On avait dit qu'on pouvait utiliser un algorithme général pour des lois de probabilité discrètes. En fait, c'est beaucoup plus efficace, la méthode que je vais vous montrer, et elle utilise des variables aléatoires exponentielles. On va voir pourquoi. Voilà le résultat. Je vous rappelle qu'une loi de Poisson de paramètre lambda, la probabilité que X vaille k, c'est donné par cette expression, lambda étant le paramètre strictement positif de la loi, et elle peut prendre toutes les valeurs entières 0, 1, 2, 3 etc. jusqu'à l'infini. Le théorème que je vais vous montrer est le suivant. Si vous prenez une suite de variables indépendantes qui suivent toutes une loi uniforme dans l'intervalle 0, 1, alors si vous prenez le produit U 1 etc. U n plus 1 et vous regardez l'indice n tel que ce produit est strictement plus petit que e moins lambda, cette variable aléatoire suit une loi de Poisson de paramètre lambda. La démonstration est la suivante. Elle repose sur un Lemme que nous allons montrer juste après. Si vous prenez des variables aléatoires exponentielles de paramètre lambda, je note le i, et je définis cette variable aléatoire N, alors il faut commencer par poser 0, si jamais E 1 est plus grand ou égal à 1, sinon N, c'est, vous regardez la somme de ces variables exponentielles jusqu'à i et vous regardez le plus grand i tel que cette somme est plus petite ou égale à 1. Ҫa, c'est grand N. Ce lemme vous dit que N suit une loi de Poisson de paramètre lambda positif. Si on admet ce lemme pendant un instant, on a vu que si on prend des variables U i uniformes sur l'intervalle 0, 1, E i égal moins 1 sur lambda ln de U i, c'est des variables exponentielles de paramètre lambda. Donc vous voyez que la condition que la somme de E j jusqu'à i soit plus petite ou égale à 1, c'est exactement la même chose que dire que moins 1 sur lambda ln du produit de U j jusqu'à i soit plus petit ou égal à 1. On a juste transformé, on a une somme de log, simplement ça devient le log d'un produit. et en passant l'exponentielle, vous voyez que ça veut dire ni plus ni moins que le produit des U j jusqu'à i est plus grand ou égal à e moins lambda. Vous voyez, en particulier, supposant que la variable aléatoire qu'on vient de définir vaille exactement k, par définition, ça veut dire que le produit jusqu'à k est plus grand ou égal à e moins lambda et si vous mettez k plus 1, e moins lambda domine strictement ce produit. Donc ça donne un algorithme qui est, je prends des variables uniformes les unes après les autres, je forme le produit, et je regarde au bout de la première fois que le produit va satisfaire cette condition. Nous allons donc démontrer le lemme qui sert à établir ce résultat. Et donc il faut vérifier que la probabilité que N vaille k soit bien, on trouve bien la formule pour la loi de Poisson. Donc allons-y! La probabilité que N égal k, comme on vient de le voir, la définition même de N, c'est que c'est la probabilité que la somme de j entre 1 et k soit plus petite ou égale à 1 et strictement plus petite que la somme de j égal 1 jusqu'à k plus 1 d'E j. Je vais mettre une étoile pour plus tard. Donc ce qu'il faut remarquer, c'est qu'on a un vecteur aléatoire que je peux noter V k plus 1, qui est la forme E1 etc. E k, E k plus 1, et sa densité, comme on a des variables exponentielles indépendantes, c'est tout simplement le produit des densités et donc ça fait lambda puissance k plus 1. Il y a k plus 1 variables aléatoires, exponentielle moins lambda x 1 plus etc. X k plus 1. Et il faut multiplier, on a droit qu'aux valeurs positives, donc il faut multiplier par l'indicatrice de R plus, k plus 1, X 1 etc. k plus 1. Donc on a vecteur aléatoire de composantes indépendantes. Ensuite, il faut remarquer qu'on va intégrer ce vecteur dans une région qui est défini comme ça. On prend les vecteurs dans R k plus 1, qui sont dans la somme des composantes jusqu'à k et plus petites que 1, par contre, si je prends une composante de plus, c'est strictement plus grand que 1. Donc on peut calculer ce que j'ai appelé étoile là au-dessus. Ҫa va être l'intégrale sur R sur k plus 1 lambda k plus 1 fois e moins lambda X 1 plus etc. plus X k plus X k plus 1, d x 1 etc. d x k plus 1. Alors, pour me faciliter la vie, je vais appeler la somme des quatre premiers S k. Je continue mon calcul. Ҫa fait ça, lambda k plus 1 et là, je vais tout simplement intégrer sur la variable X k plus 1. Donc là, vous voyez que ça s'écrit S k plus x k plus 1. Alors évidemment, là j'ai oublié l'intersection avec a k plus 1, donc maintenant je le mets dans l'intégrant, et ça fait S k plus petit ou égal à 1 fois l'indicatrice que X k plus 1 soit strictement plus grand que 1 moins S k. Et bien sûr, je rajoute d x 1 etc. d x k. Maintenant, je peux utiliser Fubini, pour pouvoir intégrer par rapport à la k plus unième variable. J'obtiens ici R plus k lambda k, parce que je vais prendre un lambda que je vais mettre plus loin, e moins lambda S k, je garde l'indicatrice que S k est plus petit ou égal à 1 et j'intègre donc de 1 moins S k jusqu'à l'infini, lambda e moins lambda x k plus 1, d x k plus 1. Et bien sûr, je laisse d x 1 etc. d x k. On compte, dessus j'avais oublié un k plus 1. Voilà, ici. Donc ça, évidemment, c'est très facile à calculer, ça donne tout simplement e moins lambda, e lambda S k. Vous voyez ce qui se passe, c'est que ce terme-là est positif, il va compenser cela. Donc on obtient lambda k, on peut le sortir, 2 moins lambda, ça ressemble de plus en plus à la loi de Poisson, R plus k et on a juste à intégrer cette indicatrice, que S k est plus petit ou égal à 1 d x 1, d x k. Voilà. Maintenant, il nous reste à calculer cette quantité. Comment s'y prend-on? On fait un changement de variable, qui est phi. C'est un changement variable linéaire qui transforme X 1, X k en S 1, S 2 etc. S k. Et vous avez deviné que S j, c'est la somme des X i de i égal 1 jusqu'à j, donc je somme les j premières coordonnées. Et j'en comme ça k. J 1 égal 1 jusqu'à k. L'intégrale qui nous intéresse, c'est celle-là. Là, il faut remarquer la chose suivante. On va encore utiliser Fubini. Remarquez que S k on peut l'écrire comme une somme télescopique, S 1 plus S 2 moins S 1 plus etc. plus S k moins S k moins 1. Vous voyez que, par construction, on a donc S 1 égal à X 1, S 2 moins S 1, c'est X 2 et S k moins S k moins 1, c'est X k. Puisqu'on intègre là-dessus, on sait qu'on veut que ce S k soit plus petit ou égal à 1 et vous voyez que à chaque fois X 1, comme on intègre ici, X 1 doit être positif ou nul, X 2 doit être positif ou nul etc., donc on voit que S 2 moins S 1 doit être positif ou nul, etc. S k moins S k moins 1 doit être positif ou nul. Donc, ça se réécrit tout simplement, alors il faut le lire de la droite vers la gauche, je vais l'écrire de la gauche vers la droite, on va l'interpréter dans l'autre sens. Ҫa fait ça. Intégrale de 0, S k de S k moins 1 etc. 0, S 2 d S 1. Et ce que je prétends, c'est que ça donne une intégrale assez facile à calculer, c'est tout simplement 1 sur k factorielle. Alors, pourquoi ça? Vous remarquez, si je commence par la droite, 0 intégrale de 0 à S 2 d S 1 c'est S 2. Ensuite, vous voyez qu'on se retrouve avec l'intégrale de 0 à S 3 d S 2 intégrale de 0 à S 2 de d S 1. Et ça fait tout simplement, on vient de calculer S 2, ça fait 0 à S 3 S 2 d S 2, qui fait S 3 carré sur 2. Et vous voyez bien le mécanisme qui se présente, c'est qu'en remontant, en l'intégrant de la droite vers la gauche, de proche en proche, on arrive à la dernière intégrale qui va être 0 à 1 de ex S k plus k moins 1 divisé par k moins 1 factorielle, puisqu'on aura chaque fois multiplié par 1/2 et après on aura 1/3 etc. On augmente les puissances de S. Et on obtient bien 1 sur k factorielle. Donc on a bien terminé notre démonstration, puisque il nous reste juste à vérifier que cette intégrale-là était bien égale à 1 sur k factorielle pour avoir exactement la loi de Poisson. Voilà donc notre théorème complètement démontré. Je termine cette séance par une remarque qui nous dit que, si par exemple, vous voulez simuler 400 variables aléatoires de Poisson paramètre disons 4, ça consomme un nombre de variables uniformes compris entre 1600 et 2400, avec une probabilité d'au moins 99 %. Pour montrer ça, il faudra un peu plus travailler, mais ça repose essentiellement sur l'inégalité de Chebychev, qui vous donne quantitativement, la qualité de ce simulateur d'une loi de Poisson. Et ceci termine la séance 3.