Chapitre 6 : Estimation

3         Estimateur 

3.1         Définition

Soient X1 , X2 ,…, Xi , ..., Xn , n réalisations indépendantes de la variable aléatoire X (discrète ou continue) et q un paramètre associé à la loi de probabilité suivi par X, un estimateur du paramètre q  est une variable aléatoire  Q  fonction des Xi :

                                               Q = f (X1 , X2 ,…, Xi , ..., Xn)

Si on considère n observations x1 , x2 ,…, xi , ..., xn, l’estimateur Q fournira une estimation de q notée également :

                             = f (x1 , x2 ,…, xi , ..., xn)

L'estimation d'un paramètre inconnu, noté q est fonction des observations résultant d'un échantillonnage aléatoire simple de la population. L’estimateur est donc une nouvelle variable aléatoire construite à partir des données expérimentales et dont la valeur se rapproche  du paramètre que l’on cherche à connaître.

L'estimation de q est une variable aléatoire Q dont la distribution de probabilité s'appelle

la distribution d'échantillonnage du paramètre q. L'estimateur Q admet donc une

espérance E(Q) et une variance V(Q).

 

 

3.2       Propriétés

3.2.1                   Convergence

 

 L’estimateur Q doit tendre vers la valeur réelle du paramètre q lorsque le nombre

d'individus étudié augmente. On dit que l'estimateur est convergent.

                        si   "e > 0        P(½Q - q½) > e) ® 0   lorsque   n ® ¥

 

Ceci équivaut à dire qu’en limite  Q ® q  lorsque   n ® ¥.

 

3.2.2                 Biais d’un estimateur

Le biais d’un estimateur noté B(Q) est la différence moyenne entre sa valeur et celle du paramètre qu’il estime. Le biais doit être égal à 0 pour avoir un bon estimateur.

            B(Q) = E(Q-q) = E(Q)-E(q) = E(Q)-q = 0           (voir propriétés de l’espérance)

         d’où   E(Q) = q

Ainsi l'estimateur sera sans biais si son espérance est égale à la valeur du

paramètre de la population.

E(Q) = q

 

 

Exemple :

Soit les densités de probabilité de 3 estimateurs d’une espérance m,

 

 

Q1 et Q2 sont des estimateurs sans biais de m car   E(Q1) = E(Q2) = m

 

Q3 est un estimateur biaisé de  m car  

E(Q3) - m =  m- m ¹ 0

 

Dans l’exemple ci-dessus, Q1 et Q2 sont des estimateurs sans biais de m car

B(Q1) = E(Q1- m ) = E(Q1) - m  = 0 car E(Q1) = m , de même pour B(Q2)

 

alors que Q3 est un estimateur biaisé de m car

B(Q3) = E(Q3 - m ) = E(Q3) - m  = m’ - m ¹ 0 car E(Q3) = m

 

Remarque : Un estimateur est asymptotiquement sans biais si E(Q) ® q lorsque n ®

3.2.3                 Variance d’un estimateur

Si deux estimateurs sont convergents et sans biais, le plus efficace est celui qui a la variance la plus faible car ses valeurs sont en moyenne plus proches de la quantité estimée.

 

                                            V(Q) = E(Q - E(Q))2  minimale

 

Exemple 

Dans l’exemple précédent, on voit que V(Q1) < V(Q2). On peut donc conclure que Q1 est un meilleur estimateur de m  que Q2.

Remarque : Quand les estimateurs sont biaisés, en revanche, leur comparaison n’est pas simple.

Ainsi un estimateur peu biaisé mais de variance très faible, pourrait même être préféré à un estimateur sans biais mais de grande variance

 

Théorème :

Si un estimateur est asymptotiquement sans biais et si sa variance tend vers 0 lorsque n ® ¥, il est convergent. 

                                               P(½Q - q ½ ³ e ) £    avec  e > 0

  (Inégalité de Bienaymé-Tchébycheff)

 

Cette inégalité exprime que si ½Q - q ½tend vers 0 quand n augmente, V(Q) doit aussi tendre vers 0.