Anotações & Informações | Índice | Fim pág | Voltar |


Probabilidades e Estatística III-50

| Índice do grupo | Página anterior | Próxima página |

Tópicos: Distribuição chi-quadrado |


1) Distribuição chi-quadrado

(Topo | Fim pág)

A distribuição chi-quadrado (χ2), é uma das mais usadas em processos de inferência estatística. É um caso particular da Distribuição Gama, com os parâmetros α = k / 2 e β = 1/2.

Uma variável aleatória X é dita ter distribuição χ2 com k graus de liberdade (k inteiro e positivo) se a função de densidade de probabilidades é dada por:

$$f(x) = \left \{ \begin{array}{ll} \dfrac{(1/2)^{k/2} x^{k/2-1} \mathrm e^{-x/2}}{\Gamma(k/2)} & x \geq 0 \\0 & x < 0 \end{array}\right. \tag{1A}$$

Onde Γ é a Função Gama:

$$\Gamma(\alpha) = \int_0^\infty x^{\alpha-1} \mathrm e^{-x} dx \tag{1B}$$
A função de distribuição acumulada é dada por:

$$F(x) = P(X \leq x) = \int_{-\infty}^x f(t) dt = \frac{\gamma(k/2, x/2)}{\Gamma(k/2)} \tag{1C}$$

Onde γ é a Função Gama Incompleta Inferior:

$$\gamma(a, x) = \int_0^x t^{a-1} \mathrm e^{-t} dt \tag{1D}$$
Notação usual para indicar uma variável aleatória X de distribuição chi-quadrado com parâmetro k:

$$X \mathrm \ \sim \ \chi_k^2 \tag{1E}$$
A figura seguinte exibe gráficos aproximados para as funções de distribuição e de densidade para k = 3.

Distribuição chi quadrado
Fig I-1

Média e variância da distribuição chi-quadrado:

$$E(X) = k\\ \mathrm{Var}(X) = 2k \tag{1F}$$
Nota-se que a distribuição chi-quadrado com dois graus de liberdade equivale a uma Distribuição Exponencial com λ = 1/2. É possível também verificar que, à medida que o valor de k aumenta, a distribuição chi-quadrado tende lentamente para a distribuição normal.

Teorema 01 (sem demonstração):

Seja { X1, X2 ... Xk } um conjunto de k variáveis aleatórias independentes com distribuição normal padrão, isto é, média 0 e variância 1. Seja a variável Y dada por:

$$Y = \sum_{i=0}^k X_i^2 \tag{1G}$$
Então Y tem distribuição χ2 com k graus de liberdade. Essa relação com distribuição da soma dos quadrados é possivelmente a razão do nome chi-quadrado.

Exemplo 01: seja uma população com distribuição normal de média μ e variância σ2, isto é, $X \sim N(\mu, \sigma)$. Se { X1 ... Xn } é uma amostra aleatória dessa população, determinar a distribuição da variável definida por:

$$Y = \frac{1}{\sigma^2} \sum_{i=1}^n (X_i - \mu)^2 \tag{1H}$$
Solução: cada elemento da amostra tem a mesma distribuição da população, ou seja, $X_i \sim N(\mu, \sigma)$. Sejam as variáveis Yi dadas por:

$$Y_i = \frac{X_i - \mu}{\sigma}$$
Da Distribuição Normal, verifica-se que Yi tem distribuição normal padrão ou $Y_i \sim N(0, 1)$. Mas, conforme (1H), a variável Y é a soma dos quadrados de Yi:

$$Y = \sum_{i=1}^n Y_i^2$$
Então, segundo Teorema 01, $Y \mathrm \ \sim \ \chi_n^2$.

Exemplo 02: deseja-se conhecer a distribuição da variável abaixo, da mesma população do exemplo anterior.

$$U^2 = \frac{n (\overline X - \mu)^2}{\sigma^2} \tag{1I}$$
Solução: conforme Probabilidades e Estatística II-40, Teorema 03, $E(\Sigma X_i) = n \mu$, assim $E(\overline X) = \mu$. Desse mesmo tópico e com uso das propriedades da variância,

$$\mathrm{Var} (\overline X - \mu) = \mathrm{Var} (\overline X) = \mathrm{Var} [(1/n)\Sigma X_i] = \sigma^2 n/n^2 = \sigma^2 / n \tag{1J}$$

De (1I), tem-se,

$$U = \frac{(\overline X - \mu)}{\sqrt{\sigma^2/n}}$$
De (1J) e, considerando que $E(\overline X - \mu) = 0$, conclui-se que, conforme Distribuição Normal, $U \sim N(0,1)$, Portanto, segundo Teorema 01, $U^2 \sim \chi_1^2$.

Exemplo 03: na expressão do Exemplo 01, se substituída a média da população μ pela média da amostra $\overline X$,

$$Y = \frac{1}{\sigma^2} \sum_{i=1}^n (X_i - \overline X)^2 \tag{1K}$$
A demonstração não é dada. Deduz-se que:

$$Y \sim \chi_{n-1}^2 \tag{1Ka}$$
Seja agora o estimador não tendencioso para a variância conforme já visto em Probabilidades e Estatística III-40:

$$s^2 = \frac{1}{n-1} \sum_{i=1}^n (X_i - \overline X)^2 \tag{1L}$$
Substituindo em (1K),

$$Y = \frac{(n-1) s^2}{\sigma^2} \tag{1M}$$
Considerando (1Ka), isto é, n-1 graus de liberdade, aplicando (1F) e usando propriedades da esperança,

$$E(Y) = n - 1 = E \Big[\frac{(n-1) s^2}{\sigma^2}\Big] = \frac{n-1}{\sigma^2} E(s^2)$$

Portanto, $E(s^2) = \sigma^2$, o que confirma a característica não polarizada (ou não tendenciosa) do estimador. Usando agora (1F) para a variância:

$$\mathrm{Var}(Y) = \mathrm{Var}\left[\frac{(n-1) s^2}{\sigma^2}\right] = 2 (n - 1) \tag{1N}$$

$$\frac{(n-1)^2}{\sigma^4} = \mathrm{Var}(s^2) = 2 (n - 1) \tag{1O}$$

$$\mathrm{Var}(s^2) = \frac{2 \sigma^4}{n-1} \tag{1P}$$
Referências
APOSTOL, Tom M. Calculus. USA: Blaisdell, 1969.
GRINSTEAD, Charles M. SNELL, J. Laurie. Introduction to Probability.
NIST/SEMATECH e-Handbook of Statistical Methods. http://www.itl.nist.gov/div898/handbook/.

Topo | Rev: Fev/2018