Anotações & Informações | Índice | Fim pág | Voltar |


Probabilidades e Estatística II-40

| Índice do grupo | Página anterior | Próxima página |

Tópicos: Distribuição Normal |


1) Distribuição Normal

(Topo | Fim pág)

É também denominada distribuição gaussiana, por ter sido usada pelo físico e matemático alemão Carl Friedrich Gauss (1777 - 1855) no estudo de dados astronômicos. A expressão curva do sino é associada a essa distribuição em razão da semelhança geométrica da curva da função de densidade (a qualificação normal tem origem histórica e não significa que outras distribuições não sejam normais, no sentido usual da palavra).

Uma variável aleatória X é dita ter distribuição normal se a função de densidade de probabilidade é dada por:

$$f(x) = \frac{1}{\sigma \sqrt{2 \pi}} \mathrm e^{\dfrac{-(x-\mu)^2}{2 \sigma^2}} \tag{1A}$$
π: constante matemática (≈ 3,14159)
e: constante matemática (≈ 2,71828)
μ: parâmetro de localização (média)
σ: parâmetro de forma (desvio-padrão)

A função de distribuição acumulada é usualmente dada em termos de integral da função de densidade de acordo com a relação básica entre elas:

$$F(x) = \frac{1}{\sigma \sqrt{2 \pi}} \int_{-\infty}^x \mathrm e^{\dfrac{-(u-\mu)^2}{2 \sigma^2}} du \tag{1B}$$

Média e variância da distribuição normal:

$$E(X) = \mu \\ \mathrm{Var}(X) = \sigma^2 \tag{1C}$$
A figura a seguir exibe gráficos aproximados das funções de distribuição e de densidade para algumas combinações de μ e σ².

Distribuição Normal
Fig I-1

Distribuição normal padrão: é a distribuição normal com média nula e desvio-padrão unitário, isto é, μ = 0 e σ = 1 (na Figura I-1, corresponde às curvas de linha contínua). As funções de densidade e de distribuição para este caso são identificadas pelo uso das letras gregas φ e Φ (minúscula e maiúscula) no lugar de f e F. Portanto,

$$\varphi(x) = \frac{1}{\sqrt{2 \pi}} \mathrm e^{-x^2/2}\\ \Phi(x) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^x \mathrm e^{-u^2/2} du \tag{1D}$$
Notação usual para a distribuição normal: se uma variável aleatória X tem distribuição normal de média μ e variância σ2, escreve-se

$$X \mathrm \ \sim \ N(\mu, \sigma^2) \tag{1E}$$
Portanto, se Z tem distribuição normal padrão,

$$Z \mathrm \ \sim \ N(0, 1) \tag{1F}$$
Função geratriz de momentos da distribuição normal: pode ser deduzida a partir da definição. O resultado é:

$$M_X(t) = E(\mathrm e^{tX}) = \mathrm e^{\mu t + \sigma^2t^2} \tag{1G}$$

Teorema 01: seja a variável aleatória $X \sim N(\mu, \sigma^2)$. Se Y é uma variável aleatória tal que $Y = aX + b$ onde a ≠ 0, então:

$$Y \sim N(a \mu + b, a^2 \sigma^2)$$
Para a demonstração, considera-se a propriedade da função geratriz de momentos, $M_Y(t) = e^{bt} M_X{at}$. Portanto,

$$M_Y(t) = e^{\large{bt}} + e^ {\large{a \mu t + a^2 \sigma^2 t^2}} = e^{\large{(a\mu + b) t + a^2 \sigma^2 t^2}}$$

E esta última é a função geratriz de momentos para média (aμ + b) e variância (a2σ2).

Voltando ao enunciado desse teorema, considera-se a hipótese de $a = \frac{1}{\sigma}$ e $b = -\frac{\mu}{\sigma}$. Usando Z no lugar de Y por coerência com a notação anterior, tem-se:

$$Z \sim N[(1/\sigma) \mu − \mu/\sigma, (1/\sigma)^2 \sigma^2 ] = Z \sim N(0, 1)$$

Em outros termos, pode-se dizer que, para $X \sim N(\mu, \sigma^2)$, vale a relação:

$$\left(Z = \frac{X - \mu}{\sigma}\right)\sim N(0,1) \tag{1H}$$
Isso significa que, a partir de valores tabelados da distribuição normal padrão, é possível o cálculo para quaisquer μ e σ2.


Teorema 02: refere-se à soma de variáveis com distribuição normal. A demostração é omitida. Sejam n variáveis aleatórias independentes e de distribuição normal:

$$X_i \sim N(\mu_i, \sigma_i^2)$$
Então a soma tem distribuição normal:

$$\sum X_i \sim N(\sum \mu_i, \sum \sigma_i^2)$$
Considera-se agora que as n variáveis têm as mesmas médias e variâncias:

$$X_i \sim N(\mu, \sigma^2)$$
Aplicando o teorema anterior (com a=1/n e b=0), obtém-se os parâmetros para a média de variáveis aleatórias de distribuição normal da mesma população:

$$\left(\overline X = (1/n)\sum X_i \right) \sim N(\mu, \sigma^2/n)$$

Teorema 03: usualmente denominado Teorema do Limite Central (demonstração não é aqui apresentada). Sejam X1, X2, ... , Xn variáveis aleatórias independentes de uma mesma população que apresenta uma determinada distribuição de probabilidades, média μ e desvio-padrão σ. A soma X = X1 + X2 + ... + Xn tem média (n μ) e desvio-padrão (σ √n). Então, quando n tende para infinito, a distribuição de X se aproxima da distribuição normal, isto é,

$$X \sim N(n \mu, \sigma^2 n) \tag{1I}$$
Em outros termos, a distribuição da soma das variáveis aleatórias converge para a distribuição normal se o número de parcelas tende para infinito. Como exemplo de aplicação, seja a distribuição binomial, que converge para a normal com n grande e com p em valores intermediários, não próximos dos extremos 0 e 1. Neste caso, a média da distribuição normal aproximada é np e a variância np(1 − p). Outro exemplo é a distribuição de Poisson, que, para λ grande, se aproxima da normal com μ = λ e σ2 = λ.


Considerações sobre o desvio-padrão: a Figura I-2 mostra a função de densidade para a distribuição normal padrão. De acordo com propriedades da função de densidade, a área total sob a curva é unitária porque indica a probabilidade de todo o conjunto observado. E a área sob a curva entre dois valores quaisquer de x indica a probabilidade da ocorrência entre esses valores.

Distribuição Normal
Fig I-2

A análise da curva permite a conclusão matemática do que se observa na prática: as ocorrências tendem a concentrar-se em torno de uma média e se tornam mais raras ou menos prováveis à medida que dela se afastam. Com a integração da função de densidade, é possível calcular a probabilidade de ocorrência em função do afastamento da média segundo o número de desvios-padrão (valores aproximados com 3 dígitos significativos):

• 0,682 ou 68,2% para faixa (μ ± 1 σ)
• 0,954 ou 95,4% para faixa (μ ± 2 σ)
• 0,997 ou 99,7% para faixa (μ ± 3 σ)

Na faixa (μ ± 3 σ) ocorre a quase totalidade (99,7%) dos valores. Por isso, ela é, em algumas referências, denominada dispersão natural do processo.
Referências
Apostol, Tom M. Calculus. Blaisdell, 1969.
Grinstead, Charles M. Snell, J. Laurie. Introduction to Probability.
Mitteleuropäische Brautechnische Analysenkommission. Grundlagen der Statistik.
Nist/Sematech e-Handbook of Statistical Methods. http://www.itl.nist.gov/div898/handbook/.

Topo | Rev: Fev/2018