MetMat

Comment exploiter l'inégalité de Markov ou de Bienaymé-Tchebychev pour établir la convergence d'un estimateur ?

En appliquant Bienaymé-Tchebychev à un estimateur sans biais pour majorer P(Tng(θ)ε)P(|T_n - g(\theta)|\geq \varepsilon)

L'objectif

Appliquer Bienaymé-Tchebychev à un estimateur sans biais pour en déduire sa convergence en probabilité.

Le principe

Si TnT_n est sans biais pour g(θ)g(\theta) et admet une variance, Bienaymé-Tchebychev donne P(Tng(θ)ε)V(Tn)/ε2P(|T_n - g(\theta)|\geq \varepsilon)\leq V(T_n)/\varepsilon^2, qui tend vers 00 dès que V(Tn)0V(T_n)\to 0.

La méthode
  1. 1
    Je vérifie les hypothèses : TnT_n admet une espérance et une variance finies sous PθP_\theta, et Eθ(Tn)=g(θ)E_\theta(T_n) = g(\theta).
  2. 2
    J'applique l'inégalité de Bienaymé-Tchebychev à TnT_n : pour tout ε>0\varepsilon > 0, Pθ(Tng(θ)ε)Vθ(Tn)/ε2P_\theta(|T_n - g(\theta)|\geq \varepsilon) \leq V_\theta(T_n)/\varepsilon^2.
    Voir
  3. 3
    Je montre que Vθ(Tn)n+0V_\theta(T_n)\xrightarrow[n\to +\infty]{} 0 (en général V(Tn)=c(θ)/nV(T_n) = c(\theta)/n pour des moyennes empiriques).
  4. 4
    Je conclus par encadrement : limn+Pθ(Tng(θ)ε)=0\lim_{n\to+\infty} P_\theta(|T_n - g(\theta)|\geq \varepsilon) = 0, donc TnPθg(θ)T_n\xrightarrow{P_\theta} g(\theta).

Exemple corrigé

Difficulté croissante de 1 à 3

Exercices aujourd'hui0 / 3

Prêt à t'entraîner ?

Génère un exercice personnalisé sur cette méthode et entraîne-toi avec la correction IA.