Anotações & Informações | Índice | Fim pág | Voltar |


Probabilidades e Estatística II-40

| Índice do grupo | Página anterior | Próxima página |

Tópicos: Distribuição Normal |


1) Distribuição Normal

(Topo | Fim pág)

É também denominada distribuição gaussiana, por ter sido usada pelo físico e matemático alemão Carl Friedrich Gauss (1777 - 1855) no estudo de dados astronômicos. A expressão curva do sino é associada a essa distribuição em razão da semelhança geométrica da curva da função de densidade (a qualificação normal tem origem histórica e não significa que outras distribuições não sejam normais, no sentido usual da palavra).

Uma variável aleatória X é dita ter distribuição normal se a função de densidade de probabilidade é dada por:

$$f(x) = \frac{1}{\sigma \sqrt{2 \pi}} \mathrm e^{\dfrac{-(x-\mu)^2}{2 \sigma^2}} \tag{1A}$$
π: constante matemática (≈ 3,14159)
e: constante matemática (≈ 2,71828)
μ: parâmetro de localização (média)
σ: parâmetro de forma (desvio-padrão)

A função de distribuição acumulada é usualmente dada em termos de integral da função de densidade de acordo com a relação básica entre elas:

$$F(x) = \frac{1}{\sigma \sqrt{2 \pi}} \int_{-\infty}^x \mathrm e^{\dfrac{-(u-\mu)^2}{2 \sigma^2}} du \tag{1B}$$

Média e variância da distribuição normal:

$$E(X) = \mu \\ \mathrm{Var}(X) = \sigma^2 \tag{1C}$$
A figura a seguir exibe gráficos aproximados das funções de distribuição e de densidade para algumas combinações de μ e σ².

Distribuição Normal
Fig I-1

Distribuição normal padrão: é a distribuição normal com média nula e desvio-padrão unitário, isto é, μ = 0 e σ = 1 (na Figura I-1, corresponde às curvas de linha contínua). As funções de densidade e de distribuição para este caso são identificadas pelo uso das letras gregas φ e Φ (minúscula e maiúscula) no lugar de f e F. Portanto,

$$\varphi(x) = \frac{1}{\sqrt{2 \pi}} \mathrm e^{-x^2/2}\\ \Phi(x) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^x \mathrm e^{-u^2/2} du \tag{1D}$$
Notação usual para a distribuição normal: se uma variável aleatória X tem distribuição normal de média μ e variância σ2, escreve-se

$$X \mathrm \ \sim \ N(\mu, \sigma^2) \tag{1E}$$
Portanto, se Z tem distribuição normal padrão,

$$Z \mathrm \ \sim \ N(0, 1) \tag{1F}$$
Função geratriz de momentos da distribuição normal: pode ser deduzida a partir da definição. O resultado é:

$$M_X(t) = E(\mathrm e^{tX}) = \mathrm e^{\mu t + \sigma^2t^2} \tag{1G}$$

Teorema 01: seja a variável aleatória $X \sim N(\mu, \sigma^2)$. Se Y é uma variável aleatória tal que $Y = aX + b$ onde a ≠ 0, então:

$$Y \sim N(a \mu + b, a^2 \sigma^2)$$
Para a demonstração, considera-se a propriedade da função geratriz de momentos, $M_Y(t) = e^{bt} M_X{at}$. Portanto,

$$M_Y(t) = e^{\large{bt}} + e^ {\large{a \mu t + a^2 \sigma^2 t^2}} = e^{\large{(a\mu + b) t + a^2 \sigma^2 t^2}}$$

E esta última é a função geratriz de momentos para média (aμ + b) e variância (a2σ2).

Voltando ao enunciado desse teorema, considera-se a hipótese de $a = \frac{1}{\sigma}$ e $b = -\frac{\mu}{\sigma}$. Usando Z no lugar de Y por coerência com a notação anterior, tem-se:

$$Z \sim N[(1/\sigma) \mu − \mu/\sigma, (1/\sigma)^2 \sigma^2 ] = Z \sim N(0, 1)$$

Em outros termos, pode-se dizer que, para $X \sim N(\mu, \sigma^2)$, vale a relação:

$$\left(Z = \frac{X - \mu}{\sigma}\right)\sim N(0,1) \tag{1H}$$
Isso significa que, a partir de valores tabelados da distribuição normal padrão, é possível o cálculo para quaisquer μ e σ2.


Teorema 02: refere-se à soma de variáveis com distribuição normal. A demostração é omitida. Sejam n variáveis aleatórias independentes e de distribuição normal:

$$X_i \sim N(\mu_i, \sigma_i^2)$$
Então a soma tem distribuição normal:

$$\sum X_i \sim N(\sum \mu_i, \sum \sigma_i^2)$$
Considera-se agora que as n variáveis têm as mesmas médias e variâncias:

$$X_i \sim N(\mu, \sigma^2)$$
Aplicando o teorema anterior (com a=1/n e b=0), obtém-se os parâmetros para a média de variáveis aleatórias de distribuição normal da mesma população:

$$\left(\overline X = (1/n)\sum X_i \right) \sim N(\mu, \sigma^2/n)$$

Teorema 03: usualmente denominado Teorema do Limite Central (demonstração não é aqui apresentada). Sejam X1, X2, ... , Xn variáveis aleatórias independentes de uma mesma população que apresenta uma determinada distribuição de probabilidades, média μ e desvio-padrão σ. A soma X = X1 + X2 + ... + Xn tem média (n μ) e desvio-padrão (σ √n). Então, quando n tende para infinito, a distribuição de X se aproxima da distribuição normal, isto é,

$$X \sim N(n \mu, \sigma^2 n) \tag{1I}$$
Em outros termos, a distribuição da soma das variáveis aleatórias converge para a distribuição normal se o número de parcelas tende para infinito. Como exemplo de aplicação, seja a distribuição binomial, que converge para a normal com n grande e com p em valores intermediários, não próximos dos extremos 0 e 1. Neste caso, a média da distribuição normal aproximada é np e a variância np(1 − p). Outro exemplo é a distribuição de Poisson, que, para λ grande, se aproxima da normal com μ = λ e σ2 = λ.


Considerações sobre o desvio-padrão: a Figura I-2 mostra a função de densidade para a distribuição normal padrão. De acordo com propriedades da função de densidade, a área total sob a curva é unitária porque indica a probabilidade de todo o conjunto observado. E a área sob a curva entre dois valores quaisquer de x indica a probabilidade da ocorrência entre esses valores.

Distribuição Normal
Fig I-2

A análise da curva permite a conclusão matemática do que se observa na prática: as ocorrências tendem a concentrar-se em torno de uma média e se tornam mais raras ou menos prováveis à medida que dela se afastam. Com a integração da função de densidade, é possível calcular a probabilidade de ocorrência em função do afastamento da média segundo o número de desvios-padrão (valores aproximados com 3 dígitos significativos):

• 0,682 ou 68,2% para faixa (μ ± 1 σ)
• 0,954 ou 95,4% para faixa (μ ± 2 σ)
• 0,997 ou 99,7% para faixa (μ ± 3 σ)

Na faixa (μ ± 3 σ) ocorre a quase totalidade (99,7%) dos valores. Por isso, ela é, em algumas referências, denominada dispersão natural do processo.
Referências
APOSTOL, Tom M. Calculus. USA: Blaisdell, 1969.
GRINSTEAD, Charles M. SNELL, J. Laurie. Introduction to Probability.
NIST/SEMATECH e-Handbook of Statistical Methods. http://www.itl.nist.gov/div898/handbook/.

Topo | Rev: Fev/2018