MetMat

Comment exploiter l'inégalité de Markov ou de Bienaymé-Tchebychev pour établir la convergence d'un estimateur ?

En appliquant l'inégalité de Markov à (Tng(θ))2(T_n - g(\theta))^2 pour contrôler un estimateur biaisé

L'objectif

Établir la convergence en probabilité d'un estimateur biaisé en appliquant Markov à (Tng(θ))2(T_n - g(\theta))^2.

Le principe

Pour Y=(Tng(θ))20Y = (T_n - g(\theta))^2 \geq 0 d'espérance V(Tn)+(E(Tn)g(θ))2V(T_n) + (E(T_n)-g(\theta))^2, Markov donne P(Tng(θ)ε)=P(Yε2)(V(Tn)+(E(Tn)g(θ))2)/ε2P(|T_n - g(\theta)|\geq \varepsilon) = P(Y\geq \varepsilon^2)\leq (V(T_n) + (E(T_n)-g(\theta))^2)/\varepsilon^2.

La méthode
  1. 1
    Je vérifie que TnT_n admet une espérance et une variance, je calcule Eθ(Tn)E_\theta(T_n) et je pose le biais bn(θ)=Eθ(Tn)g(θ)b_n(\theta) = E_\theta(T_n) - g(\theta).
  2. 2
    Je pose Yn=(Tng(θ))20Y_n = (T_n - g(\theta))^2 \geq 0 d'espérance E(Yn)=Vθ(Tn)+bn(θ)2E(Y_n) = V_\theta(T_n) + b_n(\theta)^2 (décomposition biais-variance).
  3. 3
    J'applique Markov à YnY_n : P(Tng(θ)ε)=P(Ynε2)E(Yn)/ε2=(Vθ(Tn)+bn(θ)2)/ε2P(|T_n - g(\theta)|\geq \varepsilon) = P(Y_n \geq \varepsilon^2)\leq E(Y_n)/\varepsilon^2 = (V_\theta(T_n) + b_n(\theta)^2)/\varepsilon^2.
  4. 4
    Je conclus : si Vθ(Tn)0V_\theta(T_n)\to 0 et bn(θ)0b_n(\theta)\to 0, alors P(Tng(θ)ε)0P(|T_n - g(\theta)|\geq \varepsilon) \to 0 pour tout ε>0\varepsilon > 0, donc TnPθg(θ)T_n\xrightarrow{P_\theta} g(\theta).

Exemple corrigé

Difficulté croissante de 1 à 3

Exercices aujourd'hui0 / 3

Prêt à t'entraîner ?

Génère un exercice personnalisé sur cette méthode et entraîne-toi avec la correction IA.