Anotações & Informações | Índice | Fim pág | Voltar |


Probabilidades e Estatística III-30

| Índice do grupo | Página anterior | Próxima página |

Tópicos: Estimador Pontual - Conceito | Estimador Pontual - Método dos Momentos |


1) Estimador Pontual - Conceito

(Topo | Fim pág)

Conforme pode ser visto nas páginas sobre Distribuições Estatísticas, as funções básicas (de densidade e de distribuição) dependem sempre de um ou mais parâmetros. Exemplos: na distribuição exponencial, há o parâmetro λ; na distribuição normal, ocorrem os parâmetros μ e σ; etc. Em vários casos práticos, sabe-se o tipo de distribuição da população estudada e, portanto, o objetivo é determinar esses parâmetros a partir de uma amostra.


2) Estimador Pontual - Método dos Momentos

(Topo | Fim pág)

Seja uma variável aleatória X cuja distribuição estatística é dada pela função de densidade genérica, onde θ1, ..., θk são k parâmetros dessa distribuição:

$$f(x, \theta_1, \cdots, \theta_k) \tag{2A}$$
Seja também uma amostra de n elementos dessa população x1, x2 ... xn.

Se é feita a igualdade entre os momentos da amostra e os da população até os momentos de ordem k, o resultado é um sistema de k equações, cuja solução pode dar os valores dos k parâmetros anteriores (j = 1, 2 ... k):

$$m_j' = \mu_j' \tag{2B}$$

Exemplo 01: para a Distribuição Gama, as igualdades a seguir indicam a função de densidade (com os parâmetros α e β), a média e a variância:

$$f(x) = \dfrac{\beta^\alpha x^{\alpha-1} \mathrm e^{-\beta x}}{\Gamma(\alpha)}\\E(X) = \mu_1' = \alpha / \beta\\ \mathrm{Var}(X) = \mu_2 = \mu_2' - (\mu_1')^2 = \alpha / \beta^2 \tag{2C}$$

Fazendo as igualdades,

$$m_1'= (1/n) \sum x_i = \mu_1' = \alpha / \beta\\ m_2' = (1/n) \sum (x_i)^2 = \mu_2' = \alpha/\beta^2 + (\mu_1')^2 = \alpha/\beta^2 + \alpha^2/\beta^2$$

Resolvendo essas equações, chega-se aos resultados (usando a notação de estimador para α e β):

$$\hat \alpha = \frac{(m_1')^2}{m_2' - (m_1')^2}\\\hat \beta = \frac{m_1'}{m_2' - (m_1')^2} \tag{2D}$$

Exemplo 02: para a Distribuição Normal, tem-se:

$$f(x) = \frac{1}{\sigma \sqrt{2 \pi}} \mathrm e^{\dfrac{-(x-\mu)^2}{2 \sigma^2}}\\E(X) = \mu_1' = \mu \\ \mathrm{Var}(X) = \mu_2 = \mu_2' - (\mu_1')^2 = \sigma^2 \tag{2E}$$
Igualando os momentos da população e da amostra,

$$m_1'= (1/n) \sum x_i = \mu_1' = \mu\\ m_2' = (1/n) \sum (x_i)^2 = \mu_2' = \sigma^2 + (\mu_1')^2$$

Considerando as relações dadas na página anterior s2 = m2 = m'2 − (m'1)2 e resolvendo as igualdades acima,

$$\hat \mu = m_1' = (1/n) \sum x_i = \overline x\\ \hat{\sigma^2} = m_2 = (1/n) \sum (x_i - \overline x)^2 \tag{2F}$$
Referências
APOSTOL, Tom M. Calculus. USA: Blaisdell, 1969.
GRINSTEAD, Charles M. SNELL, J. Laurie. Introduction to Probability.
NIST/SEMATECH e-Handbook of Statistical Methods. http://www.itl.nist.gov/div898/handbook/.

Topo | Rev: Fev/2018