Anotações & Informações | Fim pág | Voltar |


Probabilidades e Estatística III-40

| Índice do grupo | Página anterior | Próxima página |

Tópicos: Estimadores Tendenciosos e não Tendenciosos | Exemplo: Média da Distribuição Normal | Exemplo: Variância da Distribuição Normal |


1) Estimadores Tendenciosos e não Tendenciosos

(Topo | Fim pág)

Os métodos já vistos para determinação de estimadores não dão informações sobre a qualidade, isto é, os desvios em relação aos valores verdadeiros dos parâmetros estimados. Uma forma simples de analisar é comparar a sua esperança com o parâmetro estimado. Assim, um estimador é dito não tendencioso se a igualdade abaixo é verdadeira.

$$E(\hat \theta) = \theta \tag{1A}$$
Para um estimador tendencioso, essa igualdade não ocorre.


2) Exemplo: Média da Distribuição Normal

(Topo | Fim pág)

Seja uma amostra de n valores { x1, x2 ... xn } de uma população com distribuição normal. Já verificado que o estimador para a média é

$$\hat \mu = (1\big/ n) \sum x_i = \overline x$$
Considerando as propriedades da esperança,

$$E(\hat \mu) = (1\big/ n) \sum E(x_i)$$
Mas E(xi) = μ porque cada valor tem esperança da própria população. Assim,

$$E(\hat \mu) = (1\big/ n) \sum \mu = (1\big/ n) n \ \mu= \mu$$
Ou seja, a média da amostra $\overline x$ é um estimador não tendencioso para a média da população.


3) Exemplo: Variância da Distribuição Normal

(Topo | Fim pág)

Seja uma amostra de n elementos { x1 ... xn } da população. A média é dada por:

$$\overline x = (1\big/ n) \sum x_i \tag{3A}$$
Calculando o quadrado da média,
$$(\overline x)^2 = (1\big/ n^2) \left(\sum x_i\right)^2 = (1\big/ n^2) \left(\sum x_i^2 + \sum_{i \neq j} x_ix_j \right) \tag{3B}$$

Desde que as observações são supostamente independentes,

$$E(x_i x_j) = E(x_i) E(x_j) = \mu^2 \tag{3C}$$
Considerando que, para i≠j, há n(n−1) combinações possíveis,

$$E \Big( \sum_{i \neq j} x_ix_j \Big) = \sum_{i \neq j} E( x_ix_j ) = n (n-1) \mu^2 \tag{3D}$$

A variância de cada elemento xi é a variância da população σ2. Considera-se uma das propriedades da variância,

$$\mathrm{Var}(x_i) = \sigma^2 = E(x_i^2) - \mu;^2$$
Portanto,

$$E( x_i^2 ) = \sigma^2 + \mu^2 \tag{3E}$$
Calculando a esperança de (1B), com substituição dos dados de (3D) e (3E) e simplificando,

$$E( \overline x^2) = \sigma^2 / n + \mu^2 \tag{3F}$$
Já visto que o estimador para a variância da população é:

$$\hat \sigma^2 = \frac{1}{n} \sum \left( x_i - \overline x \right)^2 \tag{3G}$$
Considera-se a igualdade matemática:

$$(a - b)^2 = a^2 - 2ab + b^2$$
Combinando com a relação (3A), a equação anterior pode ser modificada para:

$$\hat \sigma^2 = (1/n) \big( \sum x_i^2 - n \overline x^2 \big) \tag{3H}$$
Determinando agora a esperança do estimador,

$$E(\hat \sigma^2) = (1/n) \sum E(x_i^2) - (1/n) n E(\overline x^2) \tag{3J}$$

Considerando (3E) e (3F),

$$E(\hat \sigma^2) = (1/n) n (\sigma^2 + \mu^2) - (\sigma^2/n + \mu^2) \tag{3K}$$

Simplificando,

$$E(\hat \sigma^2) = \frac{n-1}{n} \sigma^2 \neq \sigma^2 \tag{3L}$$
O resultado mostra que (3G) é um estimador tendencioso para a variância da população. Entretanto, se multiplicado por $n/(n - 1)$, a igualdade ocorre, obtendo-se o estimador não tendencioso usual para a variância, simbolizado por s:

$$s^2 = \frac{1}{n-1} \sum (x_i - \overline x)^2 \tag{3M}$$
Referências
APOSTOL, Tom M. Calculus. USA: Blaisdell, 1969.
GRINSTEAD, Charles M. SNELL, J. Laurie. Introduction to Probability.
NIST/SEMATECH e-Handbook of Statistical Methods. http://www.itl.nist.gov/div898/handbook/.

Topo | Rev: Fev/2018