Anotações & Informações | Índice | Fim pág | Voltar |


Probabilidades e Estatística II-10

| Índice do grupo | Página anterior | Próxima página |

Tópicos: Esperança de uma Variável Aleatória | Variância de uma Variável Aleatória | Momentos |


1) Esperança de uma Variável Aleatória

(Topo | Fim pág)

Também denominada valor esperado ou média de uma variável aleatória X, é um parâmetro simbolizado por E(X) ou μ e definido por:

• Se X é uma variável aleatória discreta:

$$E(X) = \mu = \sum_i x_i \ p(x_i) \tag{1A}$$
Onde p(xi) é a função de probabilidade da variável X conforme visto em página anterior.

• Se X é uma variável aleatória contínua:

$$E(X) = \mu = \int_{-\infty}^{+\infty} x\ f(x) dx \tag{1B}$$
Onde f(x) é a função de densidade de probabilidade de X conforme visto em página anterior.

Algumas propriedades da média

Fórmula Condição ou Observação Ref
$E(a X) = k E(X)$ k é uma constante (1C)
$E(X \pm k) = E(X) \pm k$ k é uma constante (1D)
$E(\sum X_i) = \sum E(X_i)$ se cada E(Xi) existe (1E)
$E(\prod X_i) = \prod E(X_i)$ se cada E(Xi) existe e as variáveis são independentes (1F)

Exemplo: seja o caso discreto da soma dos valores de dois dados conforme ilustrado em página anterior. A tabela abaixo dá os valores das probabilidades.

i 1 2 3 4 5 6 7 8 9 10 11
xi 2 3 4 5 6 7 8 9 10 11 12
p(xi) 0,028 0,056 0,083 0,111 0,139 0,167 0,139 0,111 0,083 0,056 0,028

Calculando com os dados da tabela acima, $E(X) = \sum x_i p(x_i) = 7,00$


2) Variância de uma Variável Aleatória

(Topo | Fim pág)

A variância de uma variável aleatória X, simbolizada por Var(X), σ2X ou simplesmente σ2, é definida por:

$$\mathrm{Var}(X) = E[(X-\mu)^2] \tag{2A}$$
Onde $\mu = E(X)$ é a esperança ou média da variável X. Aplicando as fórmulas dadas no tópico anterior,

• se X é uma variável aleatória discreta:

$$\mathrm{Var}(X) = \sum_i (x_i-\mu)^2 p(x_i) \tag{2B}$$
Onde p(xi) é a função de probabilidade da variável discreta X.

• se X é uma variável aleatória contínua:

$$\mathrm{Var}(X) = \int_{-\infty}^{+\infty} (x-\mu)^2 f(x) dx \tag{2C}$$
Onde f(x) é a função de densidade de probabilidade da variável contínua X.

Exemplo: no exemplo do tópico anterior, $E(X) = \mu = 7$. Portanto, a variância pode ser calculada por:

$\mathrm{Var} (X) = \sum (x_i - 7)^2 p(x_i) \approx 5,83$

Algumas propriedades da variância

Fórmula Condição ou Observação Ref
$$\mathrm{Var}(\alpha X + \beta) = \alpha^2 \mathrm{Var} (X)$$ α e β são constantes (2D)
$$\mathrm{Var} (X) = E(X^2) - [E(X)]^2$$ (2E)
$$\mathrm{Var}(X_1 \pm X_2 \pm \cdots) = \mathrm{Var}(X_1) + \mathrm{Var}(X_2) + \cdots$$ se X1, X2, ... são independentes (2F)
$$\mathrm{Var}(X) = 0$$ se e somente se P( X = k ) = 1, onde k é uma constante (2G)

Algumas considerações sobre esperança (média) e variância

Em mecânica, um corpo real pode muitas vezes ser considerado um ponto imaginário de mesma massa localizado no seu centro de massa. A média tem caráter análogo na estatística, uma vez que, em muitos casos, pode-se usar o seu valor em vez de todos os valores observados. Mas o centro de massa de um corpo não dá nenhuma noção da distribuição da massa no espaço. Também na estatística, a média não proporciona informação sobre a distribuição ou dispersão dos valores.

O momento de segunda ordem ou momento de inércia de um corpo dá ideia da distribuição da sua massa. Um corpo fictício, com toda a massa concentrada em um ponto de dimensões infinitesimais, teria momento de inércia nulo. Para um corpo real e considerando a mesma massa, o momento de inércia aumenta com um maior afastamento das partículas de massa em relação ao centro de massa.

A variância é o momento de segunda ordem da estatística, ou seja, o seu valor aumenta com o aumento da dispersão dos valores observados. E, de forma similar, uma distribuição ideal, com todos os valores iguais, teria variância nula.

Embora a média possa ser negativa, a variância é sempre positiva. É usual o símbolo σ² (sigma ao quadrado) para a variância. A sua raiz quadrada positiva (σ) é denominada desvio-padrão. Matematicamente, o desvio-padrão pode ser considerado o valor médio quadrático ponderado dos desvios de cada elemento em relação à média. A analogia mecânica é o raio de giração, isto é, a distância, em relação a um eixo central, de uma massa pontual que produziria, em relação a esse eixo, um momento de inércia idêntico ao do corpo de mesma massa.


3) Momentos

(Topo | Fim pág)

Seja X uma variável aleatória genérica. A expressão genérica de esperança é denominada n-ésimo momento ou momento de ordem n de X:

$$E(X^n) \tag{3A}$$
O n-ésimo momento central ou n-ésimo momento em torno da média de X é a forma anterior calculada em relação à média μ = E(X):

$$E[(X - \mu)^n] \tag{3B}$$
Da definição de variância, conclui-se que ela é o segundo momento central da variável aleatória.

Função geratriz de momentos de uma variável aleatória X é definida por:

$$M_X (t) = E\big(e^{tX}\big) \tag{3C}$$
Onde t é um número real.

A função geratriz pode proporcionar qualquer momento da variável aleatória. Exemplo: é possível demonstrar que a n-ésima derivada é dada por:

$$M_X^n (0) = E\big(X^n\big) \tag{3D}$$
A igualdade a seguir também pode ser usada.

$$M_X (t) = \int_{-\infty}^{+\infty} \mathrm e^{tX} dF(X) \tag{3E}$$
Onde F é a função de distribuição acumulada.
Referências
APOSTOL, Tom M. Calculus. USA: Blaisdell, 1969.
GRINSTEAD, Charles M. SNELL, J. Laurie. Introduction to Probability.
NIST/SEMATECH e-Handbook of Statistical Methods. http://www.itl.nist.gov/div898/handbook/.

Topo | Rev: Fev/2018