Chapitre 4 : Lois de Probabilité

3  Lois continues

Par définition, les variables aléatoires continues prennent des valeurs continues sur un intervalle donné.

3.1     Loi uniforme

3.1.1   Définition

La loi uniforme est la loi exacte de phénomènes continus uniformément répartis sur un intervalle.

La variable aléatoire X suit une loi uniforme sur le segment [a,b] avec a < b  si sa densité de probabilité est donnée par :

                           f(x) =    si  x Î [a,b]

                           f(x) = 0          si  x Ï [a,b]

                                  

 


Quelques commentaires :

(1) La loi uniforme continue étant une loi de probabilité, l’aire hachurée en rouge sur la figure ci-dessus vaut 1. Ceci implique que la valeur prise par f(x) vaut .

(2) La probabilité que X Î [a’,b’] avec  a’ < b’ et a’,bÎ [a,b] vaut :

(3) La fonction de répartition associée à la loi uniforme continue est telle que :

                        FX (x) = 0 si x < a

                        FX (x) = 1 si x > b

                        FX (x) =   si  a £ x £ b

 

3.1.2  Espérance et variance

L’espérance de la loi uniforme continue vaut : 

           

En effet par définition         

           cours analyse (Intégrale)

or  et   par définition de la loi uniforme continue

d’où

La variance de la loi uniforme continue vaut : 

            

En effet par définition             

 même simplification que pour l’espérance

 or        et   

d’où     

3.2            Loi normale ou loi de Laplace-Gauss

3.2.1  Définition

On parle de loi normale lorsque l’on a affaire à une variable aléatoire continue dépendant d’un grand nombre de causes indépendantes dont les effets s’additionnent et dont aucune n’est prépondérante (conditions de Borel). Cette loi acquiert sa forme définitive avec Gauss (en 1809) et Laplace (en 1812). C’est pourquoi elle porte également les noms de : loi de Laplace, loi de Gauss et loi de Laplace-Gauss.

 

Exemple :

Ainsi la taille corporelle d’un animal dépend des facteurs environnementaux (disponibilité pour la nourriture, climat, prédation, etc.) et  génétiques. Dans la mesure où ces facteurs sont indépendants et qu’aucun n’est prépondérant, on peut supposer que la taille corporelle suit une loi normale.

 

Une variable aléatoire absolument continue X suit une loi normale de paramètres (m , s) si sa densité de probabilité est donnée par :

          : R  ® R

                                                     avec m Î R et s Î R+

             Notation :                    X  ® N(m , s)

 

Remarque : On admet que  =1 dans la mesure où l’intégration analytique est impossible.

 

3.2.2                 Etude de la fonction densité de probabilité

La fonction  f est paire autour d’un axe de symétrie x = m  car  f(x + m ) = f(m - x

d’où DE = [m , +¥[

La dérivé première f’’(x) est égale à : f’’(x) =  f(x)                              Démonstration

d’où  f ’(x) = 0 pour x = m  et  f ’(x) < 0 pour x > m

La dérivé seconde f ’’(x) est égale à :      f ’’(x) =         Démonstration

            d’où f ’’(x) = 0  pour  x = m + s  et  f ’’(x) > 0  pour  x > m + s

 

 m             ms         +             

 

 f ’’(x)

      -             0          +

 f ’(x)

0                   -

 

 f(x)

           

         

                                   

                                      0

 

Remarque : Le paramètre  m représente l’axe de symétrie et s le degré d’aplatissement de la courbe de la loi normale dont la forme est celle d’une courbe en cloche.

 

3.2.3                 Espérance et variance

L’espérance de la loi normale vaut :

E(X) = m

La variance de la loi normale vaut :

V(X) = s2

 

 

3.2.4       Stabilité de la loi normale

 

 Théorème :

Soient X1 et X2  deux variables aléatoires normales indépendantes de paramètres

respectifs (m1, s1) , (m2, s2), alors leur somme X1+X2 est une variable aléatoire normale

de paramètres (m1 + m2,  ).

 
 
Voici pourquoi :

(1) E(X1+X2) = E(X1 ) + E(X2)                Propriété P1 de l’espérance.

or E(X1 ) = m1  et E(X2 ) = m2                      d’où     E(X1+X2) = m1 + m2

(2) V(X1+X2) =V(X1) + V(X2)      Propriété P1 de la variance lorsque X1 et X2 sont indépendantes.

or V(X1) = s12  et V(X2) =  s22   d’où     V(X1+X2 ) = s12 + s22

 

Ce théorème se généralise immédiatement à la somme de n variables aléatoires normales indépendantes.

 

3.3            Loi normale réduite

3.3.1  Définition

Une variable aléatoire continue X suit une loi normale réduite si sa densité de probabilité

est donnée par :

: R ® R

 

 

Remarque : f est bien une loi de probabilité car :

•  " x ÎR,          f(x) ³ 0

•  f   est intégrable sur ]-¥, + ¥[   et

3.3.2                 Etude de la fonction densité de probabilité

 

La fonction f est paire car f(-x) = f(x) d’où DE = [0,+¥ [

La dérivé première est  f ’(x) = -x f(x) avec f ’(x) £ 0 pour  x ≥ 0.

 La dérivée seconde est  f ’’(x)  = -f(x) + x2f(x) = (x2 –1) f(x) qui s’annule pour x = 1 sur DE.

 

 

0              1               + ¥

f ’’(x)

      +       0           -

f ’(x)

0              -

 

f(x)

           

                                      0

 

Remarque : L’axe de symétrie correspond à l’axe des ordonnées (x=0) et le degré d’aplatissement de la courbe de la loi normale réduite est 1.

3.3.3                 Espérance et variance

L’espérance d’une loi normale réduite est :                

E(X) = 0

En effet par définition .

Or la fonction à intégrer est impaire d’où  E(X)=0      (cours d’analyse : intégrale)

La variance d’une loi normale réduite est :                 

V(X) = 1

En effet par définition

d’où  

En effectuant une intégration par partie :

 avec  = 0

or  =1  par définition d’une fonction de répartition

d’où    V(X) = 1

 

3.3.4                 Relation avec la loi normale

Si X suit une loi normale N (m,s), alors  , une variable centrée réduite suit

une la loi normale réduite N (0,1). 

3.3.5                 Calcul des probabilités de la loi normale

 

La fonction de répartition de la loi normale réduite permet d’obtenir les probabilités associées à toutes variables aléatoires normales N(m,s) après transformation en variable centrée réduite.

 

On appelle fonction p , la fonction de répartition d’une variable normale réduite X

telle que :                    p  : R ® R

                                           

 

Les propriétés associées à la fonction de répartition p  sont :

(P1)         p est croissante, continue et dérivable sur R et vérifie :

                et  

 

(P2)          R       p (t) + p (-t) = 1

        R      p (t) - p (-t) = 2p(t) - 1

 

 

Une application directe de la fonction  est la lecture des probabilités sur la table de la loi normale réduite.

 

Exemple :

On suppose que la taille des individus suit une loi normale de paramètres (m,s). Sachant que 4% des individus mesurent moins de 160cm et 11% mesurent plus de 180cm, quelle est la valeur de m et s ? Réponse.

 

 

3.4            Lois déduites de la loi normale

3.4.1  Loi du  de Pearson

 

Définition

La loi de Pearson ou loi de  (Khi deux) trouve de nombreuses applications dans le cadre de la comparaison de proportions, des tests de conformité d’une distribution observée à une distribution théorique et le test d’indépendance de deux caractères qualitatifs. Ce sont les test du khi-deux.

 

Soit X1, X2, …, Xi,…, Xnn variables normales centrées réduites, on appelle

c2  la variable aléatoire définie par :

                                          c2 = X12 + X22 +…+ Xi2 +…+ Xn2 =

On dit que c2 suit une loi de Pearson à n degrés de liberté (d.d.l.).

 

Remarque : Si n =1, la variable du c2 correspond au carré d’une variable normale réduite de loi N(0,1)

(voir Rapport entre loi de probabilité).

 

Propriétés :

(P1) Si X1, X2, X3, …, Xi,…, Xn  sont n variables normales centrées réduites et s’il existe k relations de dépendance entre ces variables alors X12 + X22 + X32 +…+ Xi2 +…+ Xn2  suit une loi de Pearson à n - k degrés de liberté.

 

(P2) Si U suit une loi de Pearson à n d.d.l.,

       si V suit une loi de Pearson à m d.d.l.,

et si U et V sont indépendantes  alors U+ V suit une loi de Pearson à n+m ddl

                                                            U-V suit une loi de Pearson à n-m ddl (si n<m)

 

 

 

Pour  c2 > 0, la fonction densité de probabilité est de la forme :

 avec

Pour c2  £ 0 ,   f(c2) = 0

Pour n > 1, on utilise la table du Khi 2

 

 

Remarque : La constante  est telle que . La distribution du c2 est dissymétrique et tend à devenir symétrique lorsque n augmente en se rapprochant de la distribution normale à laquelle elle peut être assimilée lorsque n > 30.

 

 

Espérance et variance

L’espérance de la variable du c2 est :                       

E(c2) = n

car par définition          E(c2) =      avec Xi variable normale réduite

or V(Xi) = E(Xi 2) - E(Xi)2 = 1 pour la variable normale réduite  avec E(Xi) = 0

d’où E(Xi 2) = 1 et donc E(c2) = n

La variance de la variable du c2 est :             

V(c2) = 2n

car par définition les Xi variables normales réduites étant indépendantes,

V(c2) =  et d’autre part V(Xi2) = E(Xi 4) – [E(Xi2)]2

or      E(Xi 4) = 3 d’où V(Xi2) = 3 – 1 = 2

ainsi V(c2) =  = 2n

 

3.4.2                 Loi de student

 

Définition

La loi de Student (ou loi de Student-Fisher) est utilisée lors des tests de comparaison de paramètres comme la moyenne et dans l’estimation de paramètres de la population à partir de données sur une échantillon (Test de Student). Student est le pseudonyme du statisticien anglais William Gosset qui travaillait comme conseiller à la brasserie Guinness et qui publia en 1908 sous ce nom, une étude portant sur cette variable aléatoire.

 

Soit U une variable aléatoire suivant une loi normale réduite N(0,1) et V une variable aléatoire suivant une loi de Pearson à n degrés de liberté cn2 , U et V étant indépendantes, on dit alors que   suit une loi de Student à n degrés de liberté.

 

 

La fonction densité de probabilité est de la forme :

Calcul des probabilités avec la table de la loi de Student

 

 

 

Remarque : La constante  est telle que . La distribution du T de Student est symétrique et tend vers une loi normale lorsque n augmente indéfiniment.

 

 

Espérance et variance

L’espérance de la variable de Student est :       

    si n >1   

La variance de la variable de Student est :       

  si n > 2

 

3.4.3 Loi de Fisher-Snedecor

 

La loi de Fisher-Snedecor est utilisée pour comparer deux variances observées et sert surtout dans les très nombreux tests d’analyse de variance et de covariance.

Soit U et V deux variables aléatoires indépendantes suivant une loi de Pearson respectivement  à n et m degrés de liberté.

On dit que  suit une loi de Fisher-Snedecor à  degrés de liberté.

 

 

 

Pour F > 0, la fonction densité de probabilité est de la forme :

Pour F £ 0, f(F) = 0

Utilisation des tables de Fisher-Snedecor pour le calcul des probabilités.

 

 

 

Remarque : Si  n = 1, alors on a la relation suivante :   (voir Rapport entre loi de probabilité).

 

 

Espérance et variance

L’espérance de la variable de Fisher-Snédecor est :        

   si m >2   

La variance de la variable de Fisher-Snédecor est :       

  si  m > 4