MetMat

Comment montrer qu'une suite d'estimateurs est convergente via la condition suffisante E(Tn)g(θ)E(T_n)\to g(\theta) et V(Tn)0V(T_n)\to 0 ?

En vérifiant que TnT_n est sans biais et que V(Tn)0V(T_n)\to 0 pour appliquer Bienaymé-Tchebychev

L'objectif

Démontrer qu'un estimateur sans biais de variance tendant vers 00 converge en probabilité vers le paramètre g(θ)g(\theta).

Le principe

Si Eθ(Tn)=g(θ)E_\theta(T_n) = g(\theta) pour tout nn, alors Bienaymé-Tchebychev donne Pθ(Tng(θ)ε)Vθ(Tn)/ε2P_\theta(|T_n - g(\theta)|\geq \varepsilon)\leq V_\theta(T_n)/\varepsilon^2, qui tend vers 00 dès que Vθ(Tn)0V_\theta(T_n)\to 0.

La méthode
  1. 1
    Je vérifie que TnT_n admet une espérance et une variance finies sous PθP_\theta, et je calcule Eθ(Tn)E_\theta(T_n) pour constater Eθ(Tn)=g(θ)E_\theta(T_n) = g(\theta) (absence de biais).
  2. 2
    Je calcule Vθ(Tn)V_\theta(T_n) et je montre limn+Vθ(Tn)=0\lim_{n\to +\infty} V_\theta(T_n) = 0, pour tout θ\theta.
  3. 3
    J'applique Bienaymé-Tchebychev : ε>0,  Pθ(Tng(θ)ε)Vθ(Tn)/ε2\forall \varepsilon > 0,\; P_\theta(|T_n - g(\theta)|\geq \varepsilon)\leq V_\theta(T_n)/\varepsilon^2.
    Voir
  4. 4
    Je conclus par encadrement : Pθ(Tng(θ)ε)0P_\theta(|T_n - g(\theta)|\geq \varepsilon)\to 0, donc TnPθg(θ)T_n \xrightarrow{P_\theta} g(\theta) : l'estimateur est convergent.

Exemple corrigé

Difficulté croissante de 1 à 3

Exercices aujourd'hui0 / 3

Prêt à t'entraîner ?

Génère un exercice personnalisé sur cette méthode et entraîne-toi avec la correction IA.