Soient X1 , X2 ,…, Xi , ..., Xn , n réalisations indépendantes de la variable aléatoire X (discrète ou continue) et q un paramètre associé à la loi de probabilité suivi par X, un estimateur du paramètre q est une variable aléatoire Q fonction des Xi :
Q = f (X1 , X2 ,…, Xi , ..., Xn)
Si on considère n observations x1 , x2 ,…, xi , ..., xn, l’estimateur Q fournira une estimation de q notée également :
= f (x1 , x2 ,…, xi , ..., xn)
L'estimation d'un paramètre inconnu, noté q est fonction des observations résultant d'un échantillonnage aléatoire simple de la population. L’estimateur est donc une nouvelle variable aléatoire construite à partir des données expérimentales et dont la valeur se rapproche du paramètre que l’on cherche à connaître.
L'estimation de q est une variable aléatoire Q dont la distribution de probabilité s'appelle
la distribution d'échantillonnage du paramètre q. L'estimateur Q admet donc une
espérance E(Q) et une variance V(Q).
L’estimateur Q doit tendre vers la valeur réelle du paramètre q lorsque le nombre
d'individus étudié augmente. On dit que l'estimateur est convergent.
si "e > 0 P(½Q - q½) > e) ® 0 lorsque n ® ¥
Ceci équivaut à dire qu’en limite Q ® q lorsque n ® ¥.
Le biais d’un estimateur noté B(Q) est la différence moyenne entre sa valeur et celle du paramètre qu’il estime. Le biais doit être égal à 0 pour avoir un bon estimateur.
B(Q) = E(Q-q) = E(Q)-E(q) = E(Q)-q = 0 (voir propriétés de l’espérance)
d’où E(Q) = q
Exemple :
Soit les densités de probabilité de 3 estimateurs d’une espérance m,
|
Q1 et Q2 sont des estimateurs sans biais de m car E(Q1) = E(Q2) = m
Q3 est un estimateur biaisé de m car E(Q3) - m = m’- m ¹ 0 |
Dans l’exemple ci-dessus, Q1 et Q2 sont des estimateurs sans biais de m car
B(Q1) = E(Q1- m ) = E(Q1) - m = 0 car E(Q1) = m , de même pour B(Q2)
alors que Q3 est un estimateur biaisé de m car
B(Q3) = E(Q3 - m ) = E(Q3) - m = m’ - m ¹ 0 car E(Q3) = m’
Remarque : | Un estimateur est asymptotiquement sans biais si E(Q) ® q lorsque n ® ∞ |
Si deux estimateurs sont convergents et sans biais, le plus efficace est celui qui a la variance la plus faible car ses valeurs sont en moyenne plus proches de la quantité estimée.
V(Q) = E(Q - E(Q))2 minimale
Exemple
Dans l’exemple précédent, on voit que V(Q1) < V(Q2). On peut donc conclure que Q1 est un meilleur estimateur de m que Q2.
Remarque : | Quand les estimateurs sont biaisés, en revanche, leur comparaison n’est pas simple. |
Ainsi un estimateur peu biaisé mais de variance très faible, pourrait même être préféré à un estimateur sans biais mais de grande variance |
Théorème :
Si un estimateur est asymptotiquement sans biais et si sa variance tend vers 0 lorsque n ® ¥, il est convergent.
P(½Q - q ½ ³ e ) £ avec e > 0
Cette inégalité exprime que si ½Q - q ½tend vers 0 quand n augmente, V(Q) doit aussi tendre vers 0.