[AUDIO_VIDE] Bonjour. Dans cette séance du Cours 6, nous allons étudier quelques propriétés de la fonction caractéristique d'un vecteur aléatoire. Je vous rappelle que nous avons défini cette fonction caractéristique dans la séance 1. Nous allons voir en particulier que cette fonction mérite bien son nom puisqu'elle caractérise la loi de X. C'est le sens de ce premier théorème qui nous dit que la fonction caractéristique Φ indice X du vecteur aléatoire X, caractérise sa loi. Cela veut dire que si nous avons deux vecteurs aléatoires qui ont même fonction caractéristique, ils auront même loi. Rappelons-nous, nous avons déjà vu deux fonctions qui avaient ce type de propriété, pour les variables aléatoires discrètes à valeurs dans N. Nous avons défini la fonction génératrice, rappelez-vous, vous pouvez, vous pouvez retrouver ça dans le Cours 2. La fonction génératrice était définie comme la somme d'une série entière, caractérisée par la loi de la variable aléatoire X, et cette fonction caractérisait la loi de X. Intérêt, c'est que plutot que de regarder la loi de la variable aléatoire, qui est une mesure et qui est compliquée, on se limite à regarder une fonction réelle, de variables réelles, dans le cas de la fonction génératrice. Dans le cours 3, pour des variables aléatoires à valeurs réelles, nous avons également introduit une fonction, qui s'appelle la fonction de répartition, et dont nous avons vu, qu'elle aussi, caractérisait la loi de X. Néanmoins, nous avons vu que pour un vecteur aléatoire, cela devenait compliqué de manipuler la fonction de répartition. Ici, l'intérêt c'est que cette fonction caractéristique, Φ indice X, va être définie, et assez souvent facile à calculer pour tout vecteurs aléatoire de R puissance d, quelle que soit la taille, ou R puissance n, quelle que soit la dimension de l'espace. Bien évidemment, la contrepartie c'est que cette fonction n'est pas une fonction réelle de variables réelles, mais une fonction réelle de variables complexes. Donc là, il y a une difficulté supplémentaire dans la manipulation de cette fonction caractéristique. Alors on ne va pas démontrer ce théorème car la preuve est vraiment technique, elle utilise les propriétés de la transformée de Fourier mais du point de vue probabiliste, elle ne nous apportera pas d'information. En revanche, rappelez-vous, si l'on peut montrer que deux vecteurs aléatoires ont la même fonction caractéristique, nous serons certains qu'ils auront même loi. Nous allons nous concentrer sur un corollaire particulièrement important de ce théorème, qui est le corollaire suivant, et qui va nous caractériser l'indépendance de variables aléatoires. On va considérer un vecteur aléatoire dont les coordonnées sont X1, X2 etc, Xn, donc vecteur aléatoire, par exemple, de R puissance n. Et nous allons montrer que les composantes Xi sont indépendantes, si et seulement si, pour tout n-uplet u1, u2,..., un de réels, on peut montrer que la fonction caractéristique du vecteur aléatoire X, pris le n-uplet (u1, u2,... un), est égale au produit des fonctions caractéristiques des variables aléatoires xj, pris en le point uj. Donc tout ça est bien cohérent. Si X est la fonction caractéristique d'un vecteur, donc, elle est définie de R puissance n à valeurs dans C et elle vaut espérance de exponentielle de i facteur de u scalaire X, c'est-à-dire u1x1+u2x2+...unxn. De même, le produit des ϕxj(uj) va être égal au produit de j égal 1 à n, de espérance de e puissance iujxj. Ici, xj est une variable aléatoire à valeurs réelles et uj inréelle. Donc ce corollaire présente une équivalence, le si et seulement si, donc y a un sens qui est immédiat, c'est le sens où les composantes xi sont indépendantes. En effet, nous savons dans ce cas, et je vous renvoie au cours 4, que l'espérance d'un produit de fonctions qui dépendent chacune d'une des composantes xi, va etre égale au produit des espérances de ces fonctions dans le cas où les xi sont indépendantes. Donc si l'on regarde l'espérance de exponentielle i facteur de u1x1+u2x2+...+unxn, voyez qu'ici cette exponentielle c'est en fait égale au produit de j égal 1 à n de exponentielle iujxj. Et donc vous avez l'espérance d'un produit, chacun des termes du produit ne dépend que d'une des composantes xj. Donc, si on applique l'indépendance des variables aléatoires xj, on obtient immédiatement que cette espérance ici vaut le produit de j égal 1 à n des espérances de exponentielle iujxj. Donc si les variables aléatoires sont indépendantes, nous avons bien cette propriété. Plus intéressant est de montrer la réciproque qui va nous caractériser l'indépendance des composantes xj. L'astuce va être la suivante, va être que nous allons pouvoir construire sur un espace de probabilité auxiliaire, des variables aléatoires x'j, pour j apparentant à l'ensemble {1,...n}, qui vont être indépendantes et telles que, quelque soit j dans {1,...,n}, la loi de x'j soit égale à la loi de xj. Donc je ne vais pas m'étendre sur cette construction. Je vous renvoie à un exercice du Cours 1 pour voir la construction d'un espace de probabilité produit. Il s'agit donc, pour construire ces variables aléatoires de telle sorte qu'elles soient independantes, il faut les définir sur un espace de probabilité qui a une forme de, d'espace de probabilité produit auxiliaire. Les x'j n'ont pas besoin d'être définis sur le même espace de probabilité que celui sur lequel sont définies les variables aléatoires xj. Bien. Nous savons maintenant que les x'j sont indépendantes et donc par le corollaire, condition nécessaire, nous connaissons la forme de la fonction caractéristique du vecteur x' = (x'1, x'2,..., x'n). Nous savons que cette fonction caractéristique, prise en un point (u1, u2,...,un), est égale, par indépendance, donc par construction des x'j, au produit de j égal 1 à n de la, des fonctions caractéristiques de x'j en uj. Mais nous avons vu la semaine dernière que la fonction caractéristique, par définition la fonction caractéristique d'une variable aléatoire, ne dépend que de sa loi puisque nous avons construit les x'j de telle sorte que loi de x'j égale loi de xj. Cette quantité ici, fonction caractéristique de x'j pris en uj, est égale, j par j, à la fonction caractéristique de uj, de xj, pardon, pris en uj. Donc ça, ça vient du fait que la loi de x'j égale loi de xj. Donc vous voyez que nous avons ainsi, que Φ x'j(u1,u2,..., un) est égal au produit de j égale 1 à n de Φxj (u1, u2, ..., un). Et nous allons maintenant appliquer l'hypothèse que nous faisons pour prouver cette proposition réciproque dans le corollaire, qui est de dire que si ce produit de j égal 1 à n de Φxj(u1,..., un) est égal à Φx(u1, ..., un). Alors nous allons montrer que les xi sont indépendantes. Donc vous voyez que de ces propriétés que nous avons montrées sur les fonctions caractéristiques de x', d'une part, et des variables aléatoires xj, d'autre part, nous en déduisons que Φx, donc je le réécris, Φx' = Φx. Ça, je vous rappelle donc, c'est l'hypothèse que l'on a mis dans cette réciproque. Donc nous avons Φx' égal Φx, et je vous rappelle, c'est le premier théorème que nous avons énoncé dans cette séance, que cela, l'égalité des fonctions caractéristiques, entraîne que la loi du vecteur x' est égale à la loi du vecteur x. Puisque les x'i sont indépendantes, cela va donc entraîner que les variables aléatoires xi sont indépendantes. Donc, voyez, c'est assez sophistiquée comme preuve. Les variables, pardon, aléatoires xi sont indépendantes. Donc pour i égal 1 à n. Donc ça, ça mérite que vous réfléchissez assez finement à cette démonstration. Nous allons voir maintenant une autre application, extrêmement importante, de l'utilisation des fonctions caractéristiques à la caractérisation de la loi d'une somme de variables aléatoires indépendantes. Et là aussi je vous demande de vous rappeler de cette proposition qui est très utile dans la pratique, et qui va généraliser, en fait, une proposition qu'on avait vue dans le cas des variables aléatoires à valeurs discrètes, où on avait caractérisé la loi de la somme de deux variables aléatoires indépendantes, en utilisant la fonction génératrice. Ici l'idée va être la même. On suppose, maintenant, que X et Y sont deux variables aléatoires indépendantes à valeurs dans R. Et on regarde la fonction caractéristique de la somme. Donc celle-ci va être une fonction de R à valeurs dans C, et pour tout U réel, phi de grand X plus Y de U va être, par définition, égal à l'espérance de e puissance iu facteur de X plus Y, que nous pouvons bien sûr décomposer en e puissance iu X, e puissance iu Y. De même que dans le corollaire que nous venons de voir, les deux fonctions ici e puissance iu X, les deux variables aléatoires e puissance iu X et e puissance iu Y sont indépendantes, comme fonctions de X et Y, et donc, l'espérance du produit est égal au produit des espérances, c'est-à-dire que la fonction caractéristique de X plus Y, prise en U va être égale à phi X de U, phi Y de U. Donc ça c'est très utile dans les calculs, très utile pour trouver la loi d'une somme de deux variables aléatoires, ou en itérant cette procédure, la somme de N variables aléatoires. Alors un exemple immédiat, que nous avons déjà énoncé en utilisant des calculs très lourds de densité, et que si X et Y suivent des lois normales, paramétrées pour X par m et sigma 2 et pour Y par m prime et sigma prime au carré. Si l'on suppose de plus que X et Y sont indépendantes, alors nous allons pouvoir montrer que la somme de ces deux variables aléatoires X et Y, que j'appelle Z, suit une loi normale qui va être d'espérance m plus m prime et de variance sigma 2 plus sigma prime au carré. Alors là, la preuve presque immédiate. Donc par la proposition nous savons que phi Z de U est égal à phi X de U phi Y de U. Or, puisque X suit une loi normale de paramètre m et sigma 2, je vous renvoie à la séance 1 du cours 6, nous savons que phi X de U est égal à e puissance ium e puissance moins sigma 2 sur 2. De même, nous savons que phi Y de U est égal à e puissance ium prime e puissance moins sigma prime au carré sur 2. Et donc il nous suffit donc de faire le produit de ces deux fonctions pour voir que phi Z de U est égal à e puissance iu m plus m prime e puissance moins sigma 2 plus sigma prime carré, le tout sur 2. Et là c'est fini, on n'a rien d'autre à faire, pourquoi, parce que on reconnaît ici la fonction caractéristique d'une loi normale paramétrée par, donc d'espérance m plus m prime et de variance sigma 2 plus sigma prime au carré. Or nous avons vu que la fonction caractéristique, rappelez vous son nom, caractérise la loi d'une variable aléatoire, et donc cela nous suffit pour assurer que Z admet, pour loi, la loi normale d'espérance m plus m prime et de variance sigma 2 plus sigma prime carré. Donc c'est extrêmement efficace. Alors nous allons voir maintenant une deuxième série de propriétés sur ces fonctions caractéristiques qui concernent leurs liens avec les moments d'une variable aléatoire. Supposons par exemple que X soit une variable aléatoire à valeurs réelles et qu'elle soit de carré intégrable, donc on peut définir son espérance et sa variance. Par ailleurs, nous savons que pour tout U réel, sa fonction caractéristique prise en U vaut l'espérance de e puissance iuX. Donc vous voyez que cette fonction est une fonction de la variable réelle U, on aurait envie de la dériver. Supposons qu'on puisse la dériver sous le signe somme, c'est-à-dire dériver en U à l'intérieur de l'espérance. Voyez que dans ce cas, donc on fixe X, et si on dérive en U, heuristiquement, on aurait que la dérivée en U nous donnerait : espérance de iX fois e puissance iuX. Mais de même, si on dérive deux fois, eh bien on va avoir ici du iX au carré, c'est-à-dire du moins X au carré e puissance iuX. Ainsi, si l'on peut faire ça, vous voyez que si on prend, maintenant, ces quantités-là en U égal 0, les exponentielles disparaissent, et vous obtiendriez ici : espérance de iX et ici espérance de moins X au carré. Ce qui nous donne, donc, les calculs des valeurs de moments de la variable aléatoire X. Donc la question est : sous quelle hypothèse pouvons-nous faire ça, pouvons-nous dériver sous le signe somme, c'est-à-dire sous le signe, ici, espérance? Donc la proposition dont nous allons montrer une partie est la proposition suivante : si nous considérons un vecteur aléatoire X1, X2, Xm, donc ça va être un peu plus général qu'une variable aléatoire réelle, si l'on suppose que, la variable, alors norme de X puissance m est intégrable pour un entier m, donc quand je prends cette notation, un peu condensée, pour un vecteur aléatoire, ça veut dire que pour toute coordonnée j allant de 1 à n, valeur absolue de Xj puissance m est dans 'iii', est intégrable. Eh bien si l'on suppose cette propriété d'intégrabilité, pour un m entier quelconque, eh bien nous allons montrer que la fonction phi X est m fois continûment différentiable sur Rn, et l'on peut calculer ses dérivées partielles en fonction, donc, de ses valeurs d'espérance. A savoir nous allons pouvoir dériver m fois sous le signe somme, et la dérivée partielle m-ième de phi X par rapport aux variable Xi1, Xi2, Xim, j'aurais pu mettre dui1, dui2, duim, hein, comme vous préferez, eh bien cette dérivée va être égale à i puissance m, donc i puissance m, vous savez ce que ça vaut suivant les parités de m, fois espérance de exponentielle iu scalaire X, facteur de Xi1, Xi2, Xim. Donc vous voyez que c'est une généralisation de ce qu'on avait vu dans notre petite introduction, qui nous permet de dériver au moins autant de fois que X puissance m est intégrable. Alors, en application, évidemment, comme on vient de le voir, si on prend U, le vecteur U égal à 0, eh bien cette quantité-là disparaît, et vous allez obtenir ici que l'espérance du produit Xi1, Xi2 etc Xim, est égale à 1 sur im fois la dérivée partielle m-ième de phi X prise en 000. En particulier, ce théorème justifie cette écriture-là, ces valeurs-là, dès que X est deux fois intégrable, hein, donc X de carré intégrable. Et dans ce cas-là vous voyez que espérance de X va être égale à 1 sur i phi prime X de 0, c'est-à-dire moins i phi prime X de 0, et espérance de X2 va être égale à moins phi seconde x de 0, ce qui est écrit ici en rouge. Alors, nous allons finir cette séance par la preuve, une preuve partielle de ce résultat. Donc je vais juste vous montrer le cas où m égal 1, on va juste regarder les premières dérivées partielles. Et nous supposons, donc, que Xj est intégrable, hein, on va voir où intervient cette hypothèse dans la preuve. Donc on étudie la première dérivée partielle, on va regarder en fait les dérivées partielles, on va regarder la j-ième, pardon, dérivée partielle, donc je vais considérer Vj le vecteur qui accroît juste, enfin qui est nul partout, sauf en la j-ième coordonnée, où il vaut 1. Et on va regarder l'accroissement phi X de U plus tvj moins phi X de U sur t, hein, donc c'est le taux d'accroissement autour de, d'un vecteur U1, U2, Un, qui est donné et fixé ici. Et donc je veux faire tendre t vers 0. Donc ça, par définition, ça vaut espérance de exponentielle de i u plus tvj scalaire j moins espérance de e puissance i u scalaire x. Donc l'espérance est linéaire, donc je fais la différence, et vous voyez qu'on peut mettre en facteurs exponentielle de i u scalaire X, et qu'ici je vais avoir en facteurs e puissance i tvj, tv, pardon, i tvj Xj, donc je vois qu'ici il manque un vj, moins 1 et divisé par t, puisqu'on regarde le taux d'accroissement. Bon je vous ai dit une bêtise, le vj vaut 1 en la coordonnée j donc c'était tout à fait bien, ce que j'avais fait. Donc maintenant on va regarder la limite de ces quantités-là quand t tend vers 0. Alors on va prendre une suite t indice p qui tend vers 0 quand p tend vers l'infini, et je vais regarder la suite de variables aléatoires e puissance i t indice pXj moins 1 sur t indice p. Donc ce qu'on sait immédiatement c'est que si on fixe oméga et qu'on regarde cette quantité en oméga, eh bien en tant que fonction de t, ces quantités-là vont converger simplement, hein vont converger vers iXj de oméga, ce qui veut dire que les variables aléatoires ici, quand p tend vers l'infini, convergent simplement, oméga par oméga, vers iXj. De plus, si maintenant je regarde la variable aléatoire complète qui intervient ici, c'est-à-dire multipliée par l'exponentielle, eh bien, je peux voir très facilement que ces variables aléatoires sont bornées, en module, hein, c'est une variable aléatoire à valeurs complexes. Nous avons vu que cette quantité-là, enfin c'est immédiat, est en module bornée par 1, et ces quantités-là sont bornées, par exemple, par deux fois valeur absolue de Xj. Or je sais que deux fois valeur absolue de Xj est intégrable, hein, c'est une variable aléatoire de L1. Donc, vous voyez, nous pouvons appliquer le théorème de convergence dominée. Nous savons que ces quantités-là convergent simplement vers e puissance iu scalaire X fois iXj et qu'elles sont bornées par une variable aléatoire intégrable. Donc le théorème de convergence dominée, je vous rappelle que nous l'avons vu dans le cours 5, donc ce théorème entraîne que la suite des espérances de nos variables aléatoire, ici, convergent vers l'espérance de la limite, c'est-à-dire vers i espérance de e puissance i u scalaire X point Xj, quand p, bien sûr, tend vers l'infini. Et donc, vous voyez que nous avons montré que on a bien une limite à ces quantités-là, et qui était la limite annoncée quand t tend vers 0. On termine cette preuve d'existence d'une première dérivée partielle et de son identification en termes de moments.