MetMat

Comment montrer qu'une suite d'estimateurs est convergente via la condition suffisante E(Tn)g(θ)E(T_n)\to g(\theta) et V(Tn)0V(T_n)\to 0 ?

En combinant E(Tn)g(θ)E(T_n)\to g(\theta) et V(Tn)0V(T_n)\to 0 pour un estimateur asymptotiquement sans biais

L'objectif

Montrer qu'un estimateur biaisé dont le biais tend vers 00 et la variance aussi converge en probabilité vers g(θ)g(\theta).

Le principe

L'inégalité P(Tng(θ)ε)(V(Tn)+(E(Tn)g(θ))2)/ε2P(|T_n - g(\theta)|\geq \varepsilon)\leq (V(T_n) + (E(T_n)-g(\theta))^2)/\varepsilon^2 (obtenue via Markov sur (Tng(θ))2(T_n - g(\theta))^2) entraîne la convergence dès que E(Tn)g(θ)E(T_n)\to g(\theta) et V(Tn)0V(T_n)\to 0.

La méthode
  1. 1
    Je calcule Eθ(Tn)E_\theta(T_n) et je vérifie limn+Eθ(Tn)=g(θ)\lim_{n\to +\infty} E_\theta(T_n) = g(\theta) : l'estimateur est asymptotiquement sans biais.
    Voir
  2. 2
    Je calcule Vθ(Tn)V_\theta(T_n) et je vérifie limn+Vθ(Tn)=0\lim_{n\to +\infty} V_\theta(T_n) = 0.
  3. 3
    J'écris P(Tng(θ)ε)P(TnE(Tn)ε/2)+P(E(Tn)g(θ)ε/2)P(|T_n - g(\theta)|\geq \varepsilon) \leq P(|T_n - E(T_n)|\geq \varepsilon/2) + P(|E(T_n) - g(\theta)|\geq \varepsilon/2) pour nn assez grand : le second terme est nul, le premier majoré par 4V(Tn)/ε24V(T_n)/\varepsilon^2 via Bienaymé-Tchebychev.
    Voir
  4. 4
    Je conclus par encadrement : P(Tng(θ)ε)0P(|T_n - g(\theta)|\geq \varepsilon) \to 0, donc TnPθg(θ)T_n\xrightarrow{P_\theta} g(\theta) : estimateur convergent.

Exemple corrigé

Difficulté croissante de 1 à 3

Exercices aujourd'hui0 / 3

Prêt à t'entraîner ?

Génère un exercice personnalisé sur cette méthode et entraîne-toi avec la correction IA.