Anotações & Informações | Índice | Fim pág | Voltar |


Probabilidades e Estatística II-12

| Índice do grupo | Página anterior | Próxima página |

Tópicos: Esperança Condicional | Covariância |


1) Esperança Condicional

(Topo | Fim pág)

Por simplicidade, considera-se apenas o caso discreto. Sejam os parâmetros:

X: uma variável aleatória
S = {x1, x2, ...}: espaço amostral de X
F: um evento qualquer

A esperança condicional de X dado F é definida por:

$$E(X | F) = \sum_i x_i P(X=x_i | F) \tag{1A}$$
É, portanto, a esperança calculada com as probabilidades condicionais para o evento F. Do conceito de probabilidade condicional, pode-se concluir que $E(X | Y) = E(X)$ se X e Y são independentes.

O Teorema da Esperança Total (aqui não demonstrado) estabelece que, para qualquer X e Y, vale:

$$E\big[ E(X | Y) \big] = E(X) \tag{1B}$$
Exemplo: um dado ideal é jogado e, em seguida, é jogado um número de moedas ideais igual ao valor da face do dado voltada para cima. Determinar a esperança de caras nesse experimento. Solução: seja D a variável aleatória que representa o valor do dado. Então, o espaço amostral é $d = \lbrace 1, 2, 3, 4, 5, 6\rbrace$ com $p(d_i) = 1/6$. Assim,

$E(D) = (1/6) (1 + 2 + 3 + 4 + 5 + 6)\\E(D)) = 3,5$

Se C é a variável que indica o número de caras e, considerando que foram jogadas D moedas, a esperança condicional é a metade desse valor porque as moedas são ideais: $E( C | D) = D/2$. Usando (1B),

$E(C) = E[ E( C | D) ] = E( D/2 )\\E(C) = E(D) / 2 = 3,5 / 2$


2) Covariância

(Topo | Fim pág)

Sejam as variáveis aleatórias X e Y e as respectivas esperanças:

$$E(X) = \mu_X\\ E(Y) = \mu_Y$$
A covariância entre ambas é definida por:

$$\mathrm{Cov}(X, Y) = E\big[ (X - \mu_X) (Y - \mu_Y) \big] \tag{2A}$$

Algumas relações para a covariância (sem demonstração):

Fórmula Condição ou Observação Ref
$\mathrm{Cov}(X, X) = \mathrm{Var}(X)$ (2B)
$\mathrm{Cov}(X, Y) = \mathrm{Cov}(Y, X)$ (2C)
$\mathrm{Cov}(X + a, Y + b) = \mathrm{Cov}(X, Y)$ a e b são constantes (2D)
$\mathrm{Cov}(a X, b Y) = ab \mathrm{Cov}(X, Y)$ a e b são constantes (2E)
$\mathrm{Cov}(X, Y) = E( X Y ) - E(X) E(Y)$ (2F)
$\mathrm{Var}(X + Y) = \mathrm{Var}(X) + \mathrm{Var}(Y) + 2 \mathrm{Cov}(X, Y)$ (2G)
$\mathrm{Var} (\Sigma X_i) = \Sigma\ \mathrm{Var} (X_i) + 2\ \Sigma_{i < j} \mathrm{Cov}(X_i, X_j)$ (2H)

Obs: da propriedade (2B), $\mathrm{Cov}(X, X) = \mathrm{Var}(X) = \sigma_X^2$, que pode ser visto como σXX. Isso induz uma outra notação para a covariância: $\sigma_{XY} = \mathrm{Cov}(X, Y)$.

Se não há correlação estatística entre as variáveis X e Y, ocorre $\mathrm{Cov}(X, Y) = 0$. Assim, a covariância não é nula para variáveis estatisticamente correlacionadas. Se $\mathrm{Cov}(X, Y) > 0$, Y tende a aumentar com o aumento de X. Se $\mathrm{Cov}(X, Y) < 0$, Y tende a diminuir com o aumento de X.

Variáveis estatisticamente independentes são sempre não-correlacionadas, mas a recíproca nem sempre é verdadeira, ou seja, se a covariância é nula, as variáveis não são necessariamente independentes.

O coeficiente de correlação entre duas variáveis aleatórias X e Y é dado por:

$$\rho(X,Y) = \frac{\mathrm{Cov}(X,Y)}{ \sqrt{\mathrm{Var}(X)\mathrm{Var}(Y)}} \tag{2I}$$
É possível demonstrar que

$$-1 \leq \rho(X, Y) \leq +1 \tag{2J}$$
Referências
APOSTOL, Tom M. Calculus. USA: Blaisdell, 1969.
GRINSTEAD, Charles M. SNELL, J. Laurie. Introduction to Probability.
NIST/SEMATECH e-Handbook of Statistical Methods. http://www.itl.nist.gov/div898/handbook/.

Topo | Rev: Fev/2018