COVARIANCIA, VARIENCIA DE SUMAS Y SUS 5 PROPIEDADES IMPORTANTES

COVARIANZA, VARIENCIA DE SUMAS Y CORRELACIONES DE VARIABLES ALEATORIAS

  Los parámetros estadísticos de las variables aleatorias de diferente naturaleza utilizando la definición de expectativa de variable aleatoria es fácil de obtener y comprender, a continuación encontraremos algunos parámetros con la ayuda de la expectativa matemática de variable aleatoria.

Momentos de la cantidad de eventos que ocurren

    Hasta ahora sabemos que la expectativa de diferentes potencias de la variable aleatoria son los momentos de las variables aleatorias y cómo encontrar la expectativa de la variable aleatoria de los eventos si el número de eventos ya ocurrió, ahora nos interesa la expectativa si un par de números de eventos ya ocurrió, ahora si X representa el número de eventos ocurridos, entonces para los eventos A1, Una2, ….,An definir la variable indicadora Ii as

I_ {i} = \ begin {cases} 1, & \ text {if} A_ {i} \ ocurre \\ 0, & \ text {de lo contrario} \ end {cases}

la expectativa de X en sentido discreto será

E [X] = E \ left [\ sum_ {i = 1} ^ {n} I_ {i} \ right] = \ sum_ {i = 1} ^ {n} E [I_ {i}] = \ sum_ { i = 1} ^ {n} P \ left (A_ {i} \ right)

porque la variable aleatoria X es

E = \ sum_ {i = 1} ^ {n} E I_ {i}

ahora para encontrar la expectativa si el número de pares de eventos ya ocurrió, tenemos que usar la combinación como

\ binom {X} {2} = \ sum_ {i <j} I_ {i} J_ {i}

esto da expectativa como

E \ left [\ binom {X} {2} \ right] = \ sum_ {i <j} E [I_ {i} I_ {j}] = \ sum_ {i <j} P (A_ {i} A_ { j})

E \ left [\ frac {X (X-1)} {2} \ right] = \ sum_ {i <j} ^ {} P (A_ {i} A_ {j})

E [X ^ {2}] -E [X] = 2 \ sum_ {i <j} ^ {} P (A_ {i} A_ {j})

de esto obtenemos la expectativa de x cuadrado y el valor de la varianza también por

Var (X) = E [X ^ {2}] - (E [X]) ^ {2}

Al usar esta discusión, enfocamos diferentes tipos de variables aleatorias para encontrar tales momentos.

Momentos de variables aleatorias binomiales

   Si p es la probabilidad de éxito de n ensayos independientes, denotemos Ai para la prueba yo como un éxito así

Cuando \ \ i \ neq j, P (A_ {i} A_ {j}) = p ^ {2}

E \ left [\ binom {X} {2} \ right] = \ sum_ {i <j} ^ {} p ^ {2} = \ binom {n} {2} p ^ {2}

E [X (X-1)] = n (n-1) p ^ {2}

E [X ^ {2}] -E [X] = n (n-1) p ^ {2}

y por lo tanto la varianza de la variable aleatoria binomial será

Var (X) = E [X ^ {2}] - (E [X]) ^ {2} = n (n-1) p ^ {2} + np - (np) ^ {2} = np (1 -pag)

porque

E [X] = \ sum_ {i = 1} ^ {n} P (A_ {i}) = np

si generalizamos para k eventos

P (A_ {i_ {1}} A_ {i_ {2}} \ cdot \ cdot \ cdot A_ {i_ {k}}) = p ^ {k}

E [X (X-1) \ cdot \ cdot \ cdot \ cdot (X-k + 1)] = n (n-1) \ cdot \ cdot \ cdot (n-k + 1) p ^ {k}

esta expectativa la podemos obtener sucesivamente para el valor de k mayor que 3 encontremos para 3

E[X(X-1)(X-2) ] =n(n-1)(n-2)p^{3}

E[X^{3} -3X^{2} +2X] =n(n-1)(n-2)p^{3}

E [X ^ {3}] = 3E [X ^ {2}] -2E [X] + n (n-1) (n-2) p ^ {3}

= 3n (n-1) p ^ {2} + np + n (n-1) (n-2) p ^ {3}

usando esta iteración podemos obtener

E [X ^ {k}], k \ geq 3,

Momentos de variables aleatorias hipergeométricas

  Los momentos de esta variable aleatoria los comprenderemos con la ayuda de un ejemplo, supongamos que se seleccionan al azar n plumas de una caja que contiene N plumas de las cuales m son azulesi denotar los eventos que el i-ésimo lápiz es azul, ahora X es el número de lápiz azul seleccionado es igual al número de eventos A1,A2,…..,An que ocurren porque la i-ésima pluma seleccionada es igualmente probable que cualquiera de las N plumas de las cuales m son azules

P (A_ {i}) = \ frac {m} {N} \ \, E [X] = \ sum_ {i = 1} ^ {n} P (A_ {i})

y entonces

P (A_ {i} A_ {j}) = P (A_ {i}) P (A_ {j} / A_ {i}) = \ frac {m} {N} \ frac {m-1} {N- 1}

E \ left [\ binom {X} {2} \ right] = \ sum_ {i <j} ^ {} \ frac {m (m-1)} {n (n-1)} = \ binom {n} {2} \ frac {m (m-1)} {n (n-1)}

X [X (X-1)] = n (n-1) \ frac {m (m-1)} {N (N-1)}

esto da

E [X ^ {2}] = n (n-1) \ frac {m (m-1)} {N (N-1)} + E [X]

por lo que la varianza de la variable aleatoria hipergeométrica será

Var (X) = E [X ^ {2}] - (E [X]) ^ {2}

= n (n-1) \ frac {m (m-1)} {N (N-1)} + \ frac {nm} {N} - \ frac {n ^ {2} m ^ {2}} { N ^ {2}}

= \ frac {nm} {N} \ left [\ frac {(n-1) (m-1)} {N-1} +1 + - \ frac {mn} {N} \ right]

de manera similar para los momentos superiores

P (A_ {i_ {1}} A_ {i_ {2}} \ cdot \ cdot \ cdot \ cdot A_ {i_ {k}}) = \ frac {m (m-1) \ cdot \ cdot \ cdot \ cdot (m-k + 1)} {N (N-1) \ cdot \ cdot \ cdot \ cdot (N-k + 1)}

E \ izquierda [\ binom {X} {k} \ derecha] = \ binom {n} {k} \ frac {m (m-1) \ cdot \ cdot \ cdot \ cdot (m-k + 1)} { N (N-1) \ cdot \ cdot \ cdot \ cdot (N-k + 1)}

por lo tanto

E [X (X-1) \ cdot \ cdot \ cdot (X-k + 1)] = n (n-1) \ cdot \ cdot \ cdot \ cdot (n-k + 1) \ frac {m (m -1) \ cdot \ cdot \ cdot \ cdot (m-k + 1)} {N (N-1) \ cdot \ cdot \ cdot \ cdot (N-k + 1)}

Momentos de las variables aleatorias hipergeométricas negativas

  considere el ejemplo de un paquete que contiene n + m vacunas, de las cuales n son especiales y m son ordinarias, estas vacunas se retiran una a la vez, y cada nueva extracción es igualmente probable que sea cualquiera de las vacunas que quedan en el paquete. Ahora dejemos que la variable aleatoria Y denote el número de vacunas que deben retirarse hasta que se hayan eliminado un total de r vacunas especiales, que es una distribución hipergeométrica negativa, esto es de alguna manera similar con binomio negativo a binomio en cuanto a la distribución hipergeométrica. para encontrar el probabilidades función de masa si la extracción k-ésima da la vacuna especial después de la extracción k-1 da la vacuna especial r-1 y la vacuna ordinaria kr

P (X = k) = \ frac {\ binom {n} {r-1} \ binom {m} {kr}} {\ binom {n + m} {k-1}} \ frac {n-r + 1} {n + m-k + 1}

ahora la variable aleatoria Y

Y = r + X

para los eventos Ai

E [Y] = r + E [X] = r + \ sum_ {i = 1} ^ {m} P (A_ {i})

E [Y] = r + m \ frac {r} {n + 1} = \ frac {r (n + m + 1)} {n + 1}

as

P (A_ {i}) = \ frac {r} {n + 1}

por lo tanto, para encontrar la varianza de Y debemos conocer la varianza de X para

E (X (X-1)) = 2 \ sum_ {i <j} ^ {} P (A_ {i} A_ {j})

\ sum_ {i <j} ^ {} P (A_ {i} A_ {j}) = \ frac {\ binom {2} {2} \ binom {n} {r-1}} {\ binom {n + 2} {r + 1}} = \ frac {r (r + 1)} {(n + 1) (n + 2)}

E[X(X-1)]=2\binom{m}{2}\frac{r(r+1)}{(n+1)(n+2)}

E [X ^ {2}] = m (m-1) \ frac {r (r + 1)} {(n + 1) (n + 2)} + E [X]

Var (Y) = Var (X) = m (m-1) \ frac {r (r + 1)} {(n + 1) (n + 2)} m \ frac {r} {n + 1} - \ left (m \ frac {r} {n + 1} \ right) ^ {2}

por lo tanto

Var(Y) =\frac{mr(n+1-r)(m+n+1)}{(n+1)^{2}(n+2)}

COVARIANCIA             

La relación entre dos variables aleatorias se puede representar mediante el parámetro estadístico covarianza, antes de la definición de covarianza de dos variables aleatorias X e Y recuerde que la expectativa de dos funciones g y h de variables aleatorias X e Y respectivamente da

E [g (X) h (Y)] = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} g (x) h (y) f (x, y) dx dy

= \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} g (x) h (y) f_ {X} (x) f_ {Y} (x) dx dy

= \ int _ {- \ infty} ^ {\ infty} h (y) f_ {Y} (x) dy \ int _ {- \ infty} ^ {\ infty} g (x) f_ {X} (x) dx

= E [h (Y)] E [g (X)]

E [g (X) h (Y)] = E [h (Y)] E [g (X)]

usando esta relación de expectativa podemos definir la covarianza como

   "La covarianza entre la variable aleatoria X y la variable aleatoria Y denotada por cov (X, Y) se define como

Cov (X, Y) = E [(XE [X]) (YE [Y])]

usando la definición de expectativa y expandiéndonos obtenemos

Cov (X, Y) = E [XY-E [X] Y -XE [Y] + E [Y] E [X]]

= E [XY] - E [X] E [Y] - E [X] E [Y] + E [X] E [Y]

= E [XY] - E [X] E [Y]

está claro que si las variables aleatorias X e Y son independientes, entonces

Cov (X, Y) = 0

pero lo contrario no es cierto, por ejemplo, si

P(X=0)=P(X=1)=p(X=-1)=\frac{1}{3}

y definiendo la variable aleatoria Y como

Y = \ begin {cases} 0 & \ text {if} X \ neq 0 \\ 1 & \ text {if} X = 0 \ end {cases}

so

Cov (X, Y) = E [XY] -E [X] E [Y] = 0

aquí claramente X e Y no son independientes, pero la covarianza es cero.

Propiedades de la covarianza

  La covarianza entre las variables aleatorias X e Y tiene algunas propiedades como sigue

\ \ (i) \ \ Cov (X, Y) = Cov (Y, X)

\ \ (ii) \ \ Cov (X, X) = Var (X)

\ \ (iii) \ \ Cov (aX, Y) = aCov (X, Y)

\ \ (iv) \ \ Cov \ left (\ sum_ {i = 1} ^ {n} X_ {i}, \ sum_ {j = 1} ^ {m} Y_ {j} \ right) = \ sum_ {i = 1} ^ {n} \ sum_ {j = 1} ^ {m} Cov (X_ {i}, Y_ {j})

usando la definición de la covarianza, las primeras tres propiedades son inmediatas y la cuarta propiedad sigue considerando

E \ left [\ sum_ {i = 1} ^ {n} X_ {i} \ right] = \ sum_ {i = 1} ^ {n} \ mu {i}, \ \ E \ left [\ sum {j = 1} ^ {m} Y_ {j} \ right] = \ sum_ {j = 1} ^ {m} v_ {j}

ahora por definición

covarianza

Varianza de las sumas

El resultado importante de estas propiedades es

var \ left (\ sum_ {i = 1} ^ {n} X_ {i} \ right) = \ sum_ {i = 1} ^ {n} Var (X_ {i})

as

var \ left (\ sum_ {i = 1} ^ {n} X_ {i} \ right) = Cov \ left (\ sum_ {i = 1} ^ {n} X_ {i} \ sum_ {j = 1} ^ {n} X_ {j} \ derecha)

= \ sum_ {i = 1} ^ {n} \ sum_ {j = 1} ^ {n} X_ {i} X_ {j}

= \ sum_ {i = 1} ^ {n} Var (X_ {i}) \ sum \ sum_ {i \ neq j} ^ {} Cov (X_ {i}, X_ {j})

Var \ left (\ sum_ {i = 1} ^ {n} X_ {i} \ right) = \ sum_ {i = 1} ^ {n} Var (X_ {i}) +2 \ sum \ sum_ {i < j} ^ {} Cov (X_ {i}, X_ {j})

Si Xi son independientes por pares, entonces

Var \ left (\ sum_ {i = 1} ^ {n} X_ {i} \ right) = \ sum_ {i = 1} ^ {n} Var (X_ {i})

Ejemplo: varianza de una variable aleatoria binomial

  Si X es la variable aleatoria

X = X_ {1} + \ cdot \ cdot \ cdot \ cdot + X_ {n}

donde Xi son las variables aleatorias independientes de Bernoulli tales que

X_ {i} = \ begin {cases} 1 & \ text {si la ruta i-ésima es correcta} \\ 0 & \ text {de lo contrario} \ end {cases}

 luego encuentre la varianza de una variable aleatoria binomial X con los parámetros ny p.

Solución:

desde

Var \ left (\ sum_ {i = 1} ^ {n} X_ {i} \ right) = \ sum_ {i = 1} ^ {n} Var (X_ {i})

Var (X) = Var (X_ {1}) + \ cdot \ cdot \ cdot \ cdot + Var (X_ {n})

así que para una sola variable tenemos

Var (X_ {i}) = E [X_ {i} ^ {2}] - (E [X_ {i}]) ^ {2}

= E [X_ {i}] - (E [X_ {i}]) ^ {2} \ \ Desde \ \ X_ {i} ^ {2} = X_ {i}

= pp ^ {2}

entonces la varianza es

Var (X) = np (1-p)

Ejemplo

  Para las variables aleatorias independientes Xi con las respectivas medias y varianza y una nueva variable aleatoria con desviación como

S ^ {2} = \ sum_ {i = 1} ^ {n} \ frac {(X_ {i} - \ overline {X}) ^ {2}} {n-1}

luego calcula

\ \ (a) \ \ Var (\ overline {X}) \ \ y \ \ (b) \ \ E [S ^ {2}]

solución:

Al usar la propiedad y definición anteriores, tenemos

\ \ (a) \ \ Var (\ overline {X}) = \ left (\ frac {1} {n} \ right) ^ {2} Var \ left (\ sum_ {i = 1} ^ {n} X_ {i} \ derecha)

= \ izquierda (\ frac {1} {n} \ derecha) ^ {2} \ sum_ {i = 1} ^ {n} Var (X_ {i}) \ \ por \ \ independencia

= \ frac {\ sigma ^ {2}} {n}

ahora para la variable aleatoria S

COVARIANCIA

toma la expectativa

(n-1) E [S ^ {2}] = \ sum_ {i = 1} ^ {n} E [(X_ {i} - \ mu) ^ {2}] -nE [(\ overline {X} - \ mu) ^ {2}]

Ejemplo:

Encuentre la covarianza de las funciones indicadoras para los eventos A y B.

Solución:

para los eventos A y B, las funciones del indicador son

I_ {A} = \ begin {cases} 1 & \ text {si A ocurre} \\ 0 & \ text {de lo contrario} \ end {cases}

I_ {B} = \ begin {cases} 1 & \ text {si aparece B} \\ 0 & \ text {de lo contrario} \ end {cases}

entonces la expectativa de estos son

E [I_ {A}] = P (A)

E [I_ {B}] = P (B)

E [I_ {A} I_ {B}] = P (AB)

por lo tanto, la covarianza es

Cov (I_ {A}, I_ {B}) = P (AB) - P (A) P (B)

= P (B) [P (A / B) - P (A)]

Ejemplo:

     Muestra esa

Cov (X_ {i} - \ overline {X}, \ overline {X}) = 0

donde Xi son variables aleatorias independientes con varianza.

Solución:

La covarianza usando las propiedades y la definición será

Cov (X_ {i} - \ overline {X}, \ overline {X}) = Cov (X_ {i}, \ overline {X}) - Cov (\ overline {X}, \ overline {X})

Cov \ left (X_ {i}, \ frac {1} {n} \ sum_ {j = 1} ^ {n} X_ {j} \ right) - Var (\ overline {X})

= \ frac {1} {n} \ sum_ {j = 1} ^ {n} Cov (X_ {i}, X_ {j}) - \ frac {\ sigma ^ {2}} {n}

= \ frac {\ sigma ^ {2}} {n} - \ frac {\ sigma ^ {2}} {n} = 0

Ejemplo:

  Calcule la media y la varianza de la variable aleatoria S, que es la suma de n valores muestreados si un conjunto de N personas, cada una de las cuales tiene una opinión sobre un tema determinado que se mide mediante un número real v que representa la "fuerza de sentimiento" de la persona sobre el tema. Dejar  representar la fuerza del sentimiento de la persona  lo cual se desconoce, para recolectar información se toma aleatoriamente una muestra de n de N, se interroga a estas n personas y se obtiene su sentimiento para calcular vi

solución

definamos la función del indicador como

I_ {i} = \ begin {cases} 1 & \ text {si la persona i está en la muestra aleatoria} \\ 0 & \ text {de lo contrario} \ end {cases}

así podemos expresar S como

S = \ sum_ {i = 1} ^ {N} v_ {i} I_ {i}

y su expectativa como

E [S] = \ sum_ {i = 1} ^ {N} v_ {i} E [I_ {i}]

esto da la varianza como

Var (S) = \ sum_ {i = 1} ^ {N} Var (v_ {i} I_ {i}) +2 \ sum _ {} ^ {} \ sum_ {i <j} ^ {} Cov (v_ { i} I_ {i}, v_ {j} I_ {j})

= \ sum_ {i = 1} ^ {N} v_ {i} ^ {2} Var (I_ {i}) +2 \ sum _ {} ^ {} \ sum_ {i <j} ^ {} v_ {i} v_ {j} Cov (I_ {i}, I_ {j})

desde

E [I_ {i}] = \ frac {n} {N}

E [I_ {i} I_ {j}] = \ frac {n} {N} \ frac {n-1} {N-1}

tenemos

Var (I_ {i}) = \ frac {n} {N} \ left (1- \ frac {n} {N} \ right)

Cov (I_ {i}, I_ {j}) = \ frac {n (n-1)} {N (N-1)} - \ left (\ frac {n} {N} \ right) ^ {2}

= \ frac {-n (N-1)} {N ^ {2} (N-1)}

E [s] = n \ sum_ {i = 1} ^ {N} \ frac {v_ {i}} {N} = n \ overline {v}

Var (S) = \ frac {n} {N} \ frac {Nn} {N} \ sum_ {i = 1} ^ {N} v_ {i} ^ {2} - \ frac {2n (Nn)} { N ^ {2} (N-1)} \ sum \ sum_ {i <j} ^ {} v_ {i} v_ {j}

conocemos la identidad

(v_ {1} + \ cdot \ cdot \ cdot + v_ {N}) ^ {2} = \ sum_ {i = 1} ^ {N} v_ {i} ^ {2} +2 \ sum \ sum_ {i <j} ^ {} v_ {i} v_ {j}

so

Var (S) = \ frac {n (N-1)} {(N-1)} \ left (\ frac {\ sum_ {i = 1} ^ {N} v_ {i} ^ {2}} {N } - \ overline {v} ^ {2} \ right)

E [S] = n \ overline {v} = np \ \ since \ \ n \ overline {v} = \ frac {Np} {N} = p

Var (S) = \ frac {n (Nn)} {N-1} \ left (\ frac {Np} {N} -p ^ {2} \ right)

= \ frac {n (Nn)} {N-1} p (1-p)

por lo que la media y la varianza de dicha variable aleatoria serán

E \ left [\ frac {S} {n} \ right] = p

Var \ left (\ frac {S} {n} \ right) = \ frac {Nn} {n (N-1)} p (1-p)

Conclusión:

La correlación entre dos variables aleatorias se define como covarianza y usando la covarianza se obtiene la suma de la varianza para diferentes variables aleatorias, se obtiene la covarianza y los diferentes momentos con la ayuda de la definición de expectativa, si necesita más lectura pase por

https://en.wikipedia.org/wiki/Expectation

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH.

Para obtener más publicaciones sobre matemáticas, siga nuestro Página de matemáticas

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Frikis Lambda