Varianza condicional y predicciones | Sus propiedades importantes con 5+ ejemplo

En este artículo, analizaremos la varianza condicional y las predicciones utilizando la expectativa condicional para los diferentes tipos de variables aleatorias con algunos ejemplos.

Tabla de Contenido

Varianza condicional

La varianza condicional de la variable aleatoria X dada Y se define de manera similar como Expectativa condicional de la variable aleatoria X dada Y como

Var (X | Y) = E [(XE [X | Y]) ^ {2} | Y]

aquí la varianza es la expectativa condicional de la diferencia entre la variable aleatoria y el cuadrado de la expectativa condicional de X dado Y cuando se da el valor de Y.

La relación entre la varianza condicional y la expectativa condicional es

\ operatorname {Var} (X \ mid Y) = E \ left [X ^ {2} \ mid Y \ right] - (E [X \ mid Y]) ^ {2} \\\ begin {alineado} E [ \ operatorname {Var} (X \ mid Y)] & = E \ left [E \ left [X ^ {2} \ mid Y \ right] \ right] -E \ left [(E [X \ mid Y]) ^ {2} \ right] \\ & = E \ left [X ^ {2} \ right] -E \ left [(E [X \ mid Y]) ^ {2} \ right] \ end {alineado} \ \desde \; E [E [X \ mid Y]] = E [X], \; nosotros \; have \\\ operatorname {Var} (E [X \ mid Y]) = E \ left [(E [X \ mid Y]) ^ {2} \ right] - (E [X]) ^ {2}

esto es de alguna manera similar a la relación de varianza incondicional y expectativa que fue

\ operatorname {Var} (X) = E \ left [X ^ {2} \ right] - (E [X]) ^ {2}

y podemos encontrar la varianza con la ayuda de la varianza condicional como

\ operatorname {Var} (X) = E [\ operatorname {Var} (X \ mid Y)] + \ operatorname {Var} (E [X \ mid Y])

Ejemplo de varianza condicional

Encuentre la media y la varianza del número de viajeros que entran en el autobús si las personas que llegaron a la estación de autobuses se distribuye en Poisson con media λt y el autobús inicial que llegó a la estación de autobuses se distribuye uniformemente en el intervalo (0, T) independientemente de las personas. llegado o no.

Solución:

Para encontrar la media y la varianza para cualquier tiempo t, Y es la variable aleatoria para el tiempo en que llega el autobús y N (t) es el número de llegadas.

E [N (Y) \ mid Y = t] = E [N (t) \ mid Y = t] \\ = E [N (t)]

por la independencia de Y y N (t)

= \ lambda t

ya que N (t) es Poisson con media \lambda t
Por lo tanto

E [N (Y) \ mid Y] = \ lambda Y

así que tomar expectativas da

E [N (Y)] = \ lambda E [Y] = \ frac {\ lambda T} {2}

Para obtener Var (N (Y)), usamos la fórmula de varianza condicional

\ operatorname {Var} (N (Y) \ mid Y = t) = \ operatorname {Var} (N (t) \ mid Y = t) \\ = \ operatorname {Var} (N (t)) \ quadby \ independencia cuádruple \ quad \ quad \\ = \ lambda t

así

\ begin {alineado} \ operatorname {Var} (N (Y) \ mid Y) & = \ lambda Y \\ E [N (Y) \ mid Y] & = \ lambda Y \ end {alineado}

Por lo tanto, de la fórmula de varianza condicional,

\ begin {align} \ operatorname {Var} (N (Y)) & = E [\ lambda Y] + \ operatorname {Var} (\ lambda Y) \\ & = \ lambda \ frac {T} {2} + \ lambda ^ {2} \ frac {T ^ {2}} {12} \ end {alineado}

donde hemos utilizado el hecho de que Var (Y) = T2 / 12.

Varianza de una suma de un número aleatorio de variables aleatorias

considerar la secuencia de variables aleatorias independientes e idénticamente distribuidas X1,X2,X3, ………. y otra variable aleatoria N independiente de esta secuencia, encontraremos la varianza de la suma de esta secuencia como

\ operatorname {Var} \ left (\ sum_ {i = 1} ^ {N} X_ {i} \ right)

usar

\ begin {alineado} E \ left [\ sum_ {i = 1} ^ {N} X_ {i} \ mid N \ right] & = NE [X] \\ \ operatorname {Var} \ left (\ sum_ {i = 1} ^ {N} X_ {i} \ mid N \ right) & = N \ operatorname {Var} (X) \ right] \ end {alineado}

lo cual es obvio con la definición de varianza y varianza condicional para la variable aleatoria individual a la suma de la secuencia de variables aleatorias, por lo tanto

\\ \ operatorname {Var} \ left (\ sum_ {i = 1} ^ {N} X_ {i} \ right) = E [N] \ operatorname {Var} (X) + (E [X]) ^ { 2} \ operatorname {Var} (N)

Predicción

En la predicción, el valor de una variable aleatoria se puede predecir sobre la base de la observación de otra variable aleatoria, para la predicción de la variable aleatoria Y, si la variable aleatoria observada es X, usamos g (X) como la función que indica el valor predicho, obviamente, intente elegir g (X) cerrado a Y para esto, la mejor g es g (X) = E (Y | X) para esto debemos minimizar el valor de g usando la desigualdad

\\ E \ left [(Yg (X)) ^ {2} \ right] \ geq E \ left [(YE [Y \ mid X]) ^ {2}

Esta desigualdad la podemos obtener como

\ begin {alineado} E \ left [(Yg (X)) ^ {2} \ mid X \ right] = & E \ left [(YE [Y \ mid X] + E [Y \ mid X] -g ( X)) ^ {2} \ mid X \ right] \\ = & E \ left [(YE [Y \ mid X]) ^ {2} \ mid X \ right] \\ & + E \ left [(E [Y \ mid X] -g (X)) ^ {2} \ mid X \ right] \\ & + 2 E [(YE [Y \ mid X]) (E [Y \ mid X] -g (X )) \ mid X] \ end {alineado}

Sin embargo, dado X, E [Y | X] -g (X), siendo una función de X, puede tratarse como una constante. Por lo tanto,

\ \ begin {alineado} E [& (YE [Y \ mid X]) (E [Y \ mid X] -g (X)) \ mid X] \\ & = (E [Y \ mid X] -g (X)) E [YE [Y \ mid X] \ mid X] \\ & = (E [Y \ mid X] -g (X)) (E [Y \ mid X] -E [Y \ mid X ]) \\ & = 0 \ end {alineado}

que da la desigualdad requerida

\ E \ left [(Yg (X)) ^ {2} \ right] \ geq E \ left [(YE [Y \ mid X]) ^ {2}

a

Ejemplos de predicción

1. Se observa que la altura de una persona es de seis pies, cuál sería la predicción de la altura de su hijo después de adulto si la altura del hijo que ahora es x pulgadas se distribuye normalmente con media x + 1 y varianza 4.

Solución: sea X la variable aleatoria que denota la altura de la persona e Y sea la variable aleatoria para la altura del hijo, entonces la variable aleatoria Y es

Y = X + e + 1

aquí e representa la variable aleatoria normal independiente de la variable aleatoria X con media cero y varianza cuatro.

entonces la predicción para la altura del hijo es

E [Y \ mid X = 72] = E [X + 1 + e \ mid X = 72] \\ = 73 + E [e \ mid X = 72] \\ = 73 + E (e) \ quad por \ independencia cuádruple \\ = 73

por lo que la altura del hijo será de 73 pulgadas después del crecimiento.

2. Considere un ejemplo de envío de señales desde la ubicación A y la ubicación B, si desde la ubicación A se envía un valor de señal s que en la ubicación B recibió por distribución normal con media sy varianza 1 mientras que si la señal S enviada en A se distribuye normalmente con media \ mu y varianza \ sigma ^ 2, ¿cómo podemos predecir que el valor de señal R enviado desde la ubicación A será recibido r en la ubicación B?

Solución: Los valores de señal S y R denotan aquí las variables aleatorias distribuidas normalmente, primero encontramos la función de densidad condicional S dada R como

\ \ begin {alineado} f_ {S \ mid R} (s \ mid r) & = \ frac {f_ {S, R} (s, r)} {f_ {R} (r)} \\ & = \ frac {f_ {S} (s) f_ {R \ mid S} (r \ mid s)} {f_ {R} (r)} \\ & = K e ^ {- (s- \ mu) ^ {2 } / 2 \ sigma ^ {2}} e ^ {- (rs) ^ {2} / 2} \ end {alineado}

este K es independiente de S, ahora

\ \begin{aligned} \frac{(s-\mu)^{2}}{2 \sigma^{2}}+\frac{(r-s)^{2}}{2}&=s^{2}\left(\frac{1}{2 \sigma^{2}}+\frac{1}{2}\right)-\left(\frac{\mu}{\sigma^{2}}+r\right) s+C_{1}\\ &=\frac{1+\sigma^{2}}{2 \sigma^{2}}\left[s^{2}-2\left(\frac{\mu+r \sigma^{2}}{1+\sigma^{2}}\right) s\right]+C_{1} \\ &=\frac{1+\sigma^{2}}{2 \sigma^{2}}\left(s-\frac{\left(\mu+r \sigma^{2}\right)}{1+\sigma^{2}}\right)^{2}+C_{2} \end{aligned}

aquí también C1 y C2 son independientes de S, por lo que el valor de la función de densidad condicional es

\ f_S \ mid R (s \ mid r) = C e ^ {\ left \ {\ frac {- \ left [s- \ frac {\ left (\ mu + r \ sigma ^ {2} \ right)} { 1+ \ sigma ^ {2}} \ right] ^ {2}} {2 \ left (\ frac {\ sigma ^ {2}} {1+ \ sigma ^ {2}} \ right)} \ right \} }}

C también es independiente de s, por lo tanto, la señal enviada desde la ubicación A como R y recibida en la ubicación B como r es normal con media y varianza

\ begin {array} {l} E [S \ mid R = r] = \ frac {\ mu + r \ sigma ^ {2}} {1+ \ sigma ^ {2}} \\ \ operatorname {Var} ( S \ mid R = r) = \ frac {\ sigma ^ {2}} {1+ \ sigma ^ {2}} \ end {matriz}

y el error cuadrático medio para esta situación es

E [S \ mid R = r] = \ frac {1} {1+ \ sigma ^ {2}} \ mu + \ frac {\ sigma ^ {2}} {1+ \ sigma ^ {2}} r

Predictor lineal

Cada vez que no podemos encontrar la función de densidad de probabilidad conjunta, incluso se conoce la media, la varianza y la correlación entre dos variables aleatorias, en tal situación, el predictor lineal de una variable aleatoria con respecto a otra variable aleatoria es muy útil que puede predecir el mínimo. , entonces para el predictor lineal de la variable aleatoria Y con respecto a la variable aleatoria X tomamos ayb para minimizar

\ begin {alineado} E \ left [(Y- (a + b X)) ^ {2} \ right] = & E \ left [Y ^ {2} -2 a Y-2 b X Y + a ^ { 2} +2 ab X + b ^ {2} X ^ {2} \ right] \\ = & E \ left [Y ^ {2} \ right] -2 a E [Y] -2 b E [XY] + a ^ {2} +2 ab E [X] + b ^ {2} E \ left [X ^ {2} \ right] \ end {alineado}

Ahora diferencie parcialmente con respecto a ayb obtendremos

\ begin {alineado} \ frac {\ parcial} {\ parcial a} E \ left [(Yab X) ^ {2} \ right] & = - 2 E [Y] +2 a + 2 b E [X] \ \ \ frac {\ parcial} {\ parcial b} E \ left [(Yab X) ^ {2} \ right] & = - 2 E [XY] +2 a E [X] +2 b E \ left [X ^ {2} \ right] \\ \ end {alineado}

resolviendo estas dos ecuaciones para un nd b obtendremos

\ begin {alineado} b & = \ frac {E [XY] -E [X] E [Y]} {E \ left [X ^ {2} \ right] - (E [X]) ^ {2}} = \ frac {\ operatorname {Cov} (X, Y)} {\ sigma_ {x} ^ {2}} = \ rho \ frac {\ sigma_ {y}} {\ sigma_ {x}} \\ a & = E [ Y] -b E [X] = E [Y] - \ frac {\ rho \ sigma_ {y} E [X]} {\ sigma_ {x}} \ end {alineado}

minimizando así esta expectativa da el predictor lineal como

\ mu_ {y} + \ frac {\ rho \ sigma_ {y}} {\ sigma_ {x}} \ left (X- \ mu_ {x} \ right)

donde las medias son las medias respectivas de las variables aleatorias X e Y, el error para el predictor lineal se obtendrá con la expectativa de

\ begin {array} {l} E \ left [\ left (Y- \ mu_ {y} - \ rho \ frac {\ sigma_ {y}} {\ sigma_ {x}} \ left (X- \ mu_ {x } \ derecha) \ derecha) ^ {2} \ derecha] \\ \ quad = E \ izquierda [\ izquierda (Y- \ mu_ {y} \ derecha) ^ {2} \ derecha] + \ rho ^ {2} \ frac {\ sigma_ {y} ^ {2}} {\ sigma_ {x} ^ {2}} E \ left [\ left (X- \ mu_ {x} \ right) ^ {2} \ right] -2 \ rho \ frac {\ sigma_ {y}} {\ sigma_ {x}} E \ left [\ left (Y- \ mu_ {y} \ right) \ left (X- \ mu_ {x} \ right) \ right ] \\ \ quad = \ sigma_ {y} ^ {2} + \ rho ^ {2} \ sigma_ {y} ^ {2} -2 \ rho ^ {2} \ sigma_ {y} ^ {2} \\ \ quad = \ sigma_ {y} ^ {2} \ left (1- \ rho ^ {2} \ right) \ end {array}

varianza condicional
varianza condicional: error en la predicción

Este error estará más cerca de cero si la correlación es perfectamente positiva o perfectamente negativa, es decir, el coeficiente de correlación es +1 o -1.

Conclusión

Se discutió la varianza condicional para la variable aleatoria discreta y continua con diferentes ejemplos, una de las aplicaciones importantes de la expectativa condicional en la predicción también se explica con ejemplos adecuados y con el mejor predictor lineal, si necesita más lectura, consulte los enlaces a continuación.

Para obtener más publicaciones sobre matemáticas, consulte nuestro Página de matemáticas

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/