Expectativa condicional | Sus propiedades importantes con más de 5 ejemplos

Tabla de Contenido

Porque la variable aleatoria dependiente entre sí requiere el cálculo de probabilidades condicionales que ya discutimos, ahora discutiremos algunos parámetros más para tales variables aleatorias o experimentos como expectativa condicional y varianza condicional para diferentes tipos de variables aleatorias.

Expectativa condicional

   La definición de la función de masa de probabilidad condicional de la variable aleatoria discreta X dado Y es

p_ {X | Y} (x | y) = P \ left {X = x | Y = y \ right} = \ frac {p (x, y)} {p_ {Y} (y)}

aquí pY(y)> 0, por lo que la expectativa condicional para la variable aleatoria discreta X dada Y cuando pY (y)> 0 es

E \ left [X | Y = y \ right] = \ sum_ {x} ^ {} xP \ left \ {X = x | Y = y \ right \}

= \ sum_ {x} ^ {} xp_ {X | Y} (x | y)

en la probabilidad de expectativa anterior es la probabilidad condicional.

  De manera similar, si X e Y son continuos, entonces la función de densidad de probabilidad condicional de la variable aleatoria X dada Y es

f_ {X | Y} (x | y) = \ frac {f (x, y)} {f_ {Y} (y)}

donde f (x, y) es la función de densidad de probabilidad conjunta y para todo yfY(y)> 0, por lo que la expectativa condicional para la variable aleatoria X dada y será

E \ left [X | Y = y \ right] = \ int _ {- \ infty} ^ {\ infty} xf_ {X | Y} (x | y) dx

para todos yfY(y)> 0.

   Como sabemos que todas las propiedades de la probabilidad son aplicables a la probabilidad condicional, lo mismo ocurre con la expectativa condicional, todas las propiedades de la expectativa matemática se satisfacen mediante la expectativa condicional, por ejemplo, la expectativa condicional de la función de la variable aleatoria será

\ begin {matriz} {c} E [g (X) \ mid Y = y] = \ left \ {\ begin {matriz} {l} \ sum_ {x} g (x) p_ {X \ mid Y} ( x \ mid y) \ quad \ text {en el caso discreto} \\ \ int _ {- \ infty} ^ {\ infty} g (x) f_ {X \ mid} \ gamma (x \ mid y) dx \ text {en el caso continuo} \ end {matriz} \ end {matriz}

y la suma de las variables aleatorias en la expectativa condicional será

\ begin {alineado} E \ left [\ sum_ {i = 1} ^ {n} X_ {i} \ mid Y = y \ right] = \ sum_ {i = 1} ^ {n} E \ left [X_ { i} \ mid Y = y \ right] \ end {alineado}

Expectativa condicional para la suma de variables aleatorias binomiales

    Para encontrar la expectativa condicional de la suma de las variables aleatorias binomiales X e Y con parámetros n y p que son independientes, sabemos que X + Y también será una variable aleatoria binomial con los parámetros 2n y p, por lo que para la variable aleatoria X dada X + Y = m la expectativa condicional se obtendrá calculando la probabilidad

\ begin {alineado} P [X = k \ mid X + Y = m] & = \ frac {P [X = k, X + Y = m]} {P (X + Y = m)} \\ & = \ frac {P [X = k, Y = mk]} {P [X + Y = m]} \\ & = \ frac {P [X = k \ mid P [Y = mk \ mid} {P (X + Y = m]} \\ & = \ frac {\ left (\ begin {array} {l} n \\ k \ end {array} \ right) p ^ {k} (1-p) ^ {nk} \ left (\ begin {array} {c} n \\ mk \ end {array} \ right) p ^ {mk} (1-p) ^ {n-m + k}} {\ left (\ begin {array } {l} 2 n \\ m \ end {matriz} \ right) p ^ {m} (1-p) ^ {2 nm}} \ end {alineado}

ya que sabemos que

E [X] = E \ left [X_ {1} \ right] + \ cdots + E \ left [X_ {m} \ right] = \ frac {mn} {N}

por tanto, la expectativa condicional de X dado X + Y = m es

E [X \ mid X + Y = m] = \ frac {m} {2}

Ejemplo:

Encuentra la expectativa condicional

E [X \ mid Y = y].

si la función de densidad de probabilidad conjunta de las variables aleatorias continuas X e Y se da como

f (x, y) = \ frac {e ^ {- x / y} e ^ {- y}} {y} & 0

solución:

Para calcular la expectativa condicional se requiere la función de densidad de probabilidad condicional, por lo que

\ begin {alineado} f_ {X \ mid Y} (x \ mid y) & = \ frac {f (x, y)} {f_ {Y} (y)} \\ & = \ frac {f (x, y)} {\ int _ {- \ infty} ^ {\ infty} f (x, y) dx} \\ & = \ frac {(1 / y) e ^ {- x / y} e ^ {- y} } {\ int_ {0} ^ {\ infty} (1 / y) e ^ {- x / y_ {e} -y} dx} \\ & = \ frac {(1 / y) e ^ {- x / y}} {\ int_ {0} ^ {\ infty} (1 / y) e ^ {- x / y} dx} \\ & = \ frac {1} {y} e ^ {- x / y} \ final {alineado}

ya que para la variable aleatoria continua la expectativa condicional es

E [X \ mid Y = y] = \ int _ {- \ infty} ^ {\ infty} x f_ {X \ mid Y} (x \ mid y) dx

por lo tanto, para la función de densidad dada, la expectativa condicional sería

E [X \ mid Y = y] = \ int_ {0} ^ {\ infty} \ frac {x} {y} e ^ {- x / y} dx = y

Expectativa por condicionamiento || Expectativa por expectativa condicional

                Podemos calcular la expectativa matemática con la ayuda de la expectativa condicional de X dada Y como

E [X] = E [E [X \ mid Y]]

para las variables aleatorias discretas esto será

E [X] = \ sum_ {y} E [X \ mid Y = y] P \ {Y = y \}

que se puede obtener como

\ begin {alineado} \ sum_ {y} E [X \ mid Y = y] P \ {Y = y \} & = \ sum_ {y} \ sum_ {x} x P [X = x \ mid Y = y \} P \ {Y = y \} \\ & = \ sum_ {y} \ sum_ {x} x \ frac {P \ {X = x, Y = y \}} {P \ {Y = y \} } P [Y = y \} \\ & = \ sum_ {y} \ sum_ {x} x P [X = x, Y = y \} \\ & = \ sum_ {x} x \ sum_ {y} P \ {X = x, Y = y \} \\ & = \ sum_ {x} x P \ {X = x \} \\ & = E [X] \ end {alineado}

y para el azar continuo podemos mostrar de manera similar

E [X] = \ int _ {- \ infty} ^ {\ infty} E \ left [X | Y = y | f_ {Y} (y) dy \ right.

Ejemplo:

                Una persona queda atrapada en su edificio subterráneo ya que la entrada está bloqueada debido a una carga pesada, afortunadamente hay tres tuberías de las cuales puede salir la primera tubería lo saca de manera segura después de 3 horas, la segunda después de 5 horas y la tercera tubería después. 7 horas, si cualquiera de estos oleoductos elegidos con la misma probabilidad por él, entonces cuál sería el tiempo esperado en que saldrá a salvo.

Solución:

Sea X la variable aleatoria que denota el tiempo en horas hasta que la persona salió a salvo e Y denote la tubería que elige inicialmente, entonces

E [X] = E [X \ mid Y = 1] P \ {Y = 1 \} + E [X \ mid Y = 2] P \ {Y = 2 \} + E [X \ mid Y = 3] P \ {Y = 3 \} \\ = \ frac {1} {3} (E [X \ mid Y = 1] + E [X \ mid Y = 2] + E [X \ mid Y = 3])

desde

$ E [X \ mid Y = 1] = 3 $ \\ $ E [X \ mid Y = 2] = 5 + E [X] $ \\ $ E [X \ mid Y = 3] = 7 + E [ X] $

Si la persona elige la segunda pipa, pasa 5 casas en esa pero sale con el tiempo esperado

E [X \ mid Y = 2] = 5 + E [X]

entonces la expectativa será

E[X]=\frac{1}{3}(3+5+E[X]+7+E[X]) \quad E[X]=15

Expectativa de la suma de un número aleatorio de variables aleatorias utilizando la expectativa condicional

                Sea N el número aleatorio de variables aleatorias y la suma de variables aleatorias es     entonces la expectativa  

E \ left [\ sum_ {1} ^ {N} X_ {i} \ right] = E \ left [E \ left [\ sum_ {1} ^ {N} X_ {i} \ mid N \ right] \ right ]

desde

E \ left [\ sum_ {1} ^ {N} X_ {i} \ mid N = n \ right] = E \ left [\ sum_ {1} ^ {n} X_ {i} \ mid N = n \ right ] \\ = E \ left [\ sum_ {1} ^ {n} X_ {i} \ right] \ text {por la independencia de} X_ {i} \ text {y} N \\ = n E [X ] \ text {donde} E [X] = E \ left [X_ {i} \ right]

as

E \ left [\ sum_ {1} ^ {N} X_ {i} \ mid N \ right] = NE [X]

así

E \ left [\ sum_ {i = 1} ^ {N} X_ {i} \ right] = E [NE [X]] = E [N] E [X]

Correlación de distribución bivariada

Si la función de densidad de probabilidad de la variable aleatoria bivariada X e Y es

\ begin {matriz} {c} f (x, y) = \ frac {1} {2 \ pi \ sigma_ {x} \ sigma_ {y} \ sqrt {1- \ rho ^ {2}}} \ exp \ izquierda \ {- \ frac {1} {2 \ izquierda (1- \ rho ^ {2} \ derecha)} \ derecha. & {\ left [\ left (\ frac {x- \ mu_ {x}} {\ sigma_ {x}} \ right) ^ {2} + \ left (\ frac {y- \ mu_ {y}} {\ sigma_ {y}} \ right) ^ {2} \ right.} & \ left. \ left.-2 \ rho \ frac {\ left (x- \ mu_ {x} \ right) \ left (y- \ mu_ {y} \ right)} {\ sigma_ {x} \ sigma_ {y}} \ derecha] \ derecha \} \ end {matriz}

dónde

\ mu_ {x} = E [X], \ sigma_ {x} ^ {2} = \ operatorname {Var} (X) $ y $ \ mu_ {y} = E [Y], \ sigma_ {y} ^ {2} = \ operatorname {Var} (Y) $

entonces la correlación entre la variable aleatoria X e Y para la distribución bivariada con la función de densidad es

ya que la correlación se define como

$ \ operatorname {Corr} (X, Y) = \ frac {\ operatorname {Cov} (X, Y)} {\ sigma_ {x} \ sigma_ {y}} $ \\ $ = \ frac {E [XY] - \ mu_ {x} \ mu_ {y}} {\ sigma_ {x} \ sigma_ {y}} $

ya que la expectativa que usa la expectativa condicional es

E [XY] = E [E [XY \ mid Y]]

para la distribución normal, la distribución condicional X dada Y tiene media

mu_ {x} + \ rho \ frac {\ sigma_ {x}} {\ sigma_ {y}} \ left (y- \ mu_ {y} \ right)

ahora la expectativa de XY dado Y es

expectativa condicional
Distribución normal

esto da

comenzar {alineado} E [XY] & = E \ left [Y \ mu_ {x} + \ rho \ frac {\ sigma_ {x}} {\ sigma_ {y}} \ left (Y ^ {2} - \ mu_ {y} Y \ right) \ right] \\ & = \ mu_ {x} E [Y] + \ rho \ frac {\ sigma_ {x}} {\ sigma_ {y}} E \ left [Y ^ {2 } - \ mu_ {y} Y \ right] \\ & = \ mu_ {x} \ mu_ {y} + \ rho \ frac {\ sigma_ {x}} {\ sigma_ {y}} \ left (E \ left [Y ^ {2} \ right] - \ mu_ {y} ^ {2} \ right) \\ & = \ mu_ {x} \ mu_ {y} + \ rho \ frac {\ sigma_ {x}} {\ sigma_ {y}} \ operatorname {Var} (Y) \\ & = \ mu_ {x} \ mu_ {y} + \ rho \ sigma_ {x} \ sigma_ {y} \ end {alineado}

por lo tanto

\ operatorname {Corr} (X, Y) = \ frac {\ rho \ sigma_ {x} \ sigma_ {y}} {\ sigma_ {x} \ sigma_ {y}} = \ rho

Varianza de la distribución geométrica

    En la distribución geométrica, realicemos ensayos sucesivamente independientes que resulten exitosos con probabilidad p. Si N representa el tiempo del primer éxito en esta sucesión, entonces la varianza de N, por definición, será

\ operatorname {Var} (N) = E \ left [N ^ {2} \ right] - (E [N]) ^ {2}

Deje que la variable aleatoria Y = 1 si el primer ensayo da como resultado un éxito y Y = 0 si el primer ensayo da como resultado un fracaso, ahora para encontrar la expectativa matemática aquí, aplicamos la expectativa condicional como

E \ left [N ^ {2} \ right] = E \ left [E \ left [N ^ {2} \ mid Y \ right] \ right]

desde

E \ left [N ^ {2} \ mid Y = 1 \ right] = 1 \\ E \ left [N ^ {2} \ mid Y = 0 \ right] = E \ left [(1 + N) ^ { 2} \ derecha]

si el éxito es en la primera prueba, entonces N = 1 y N2= 1 si ocurre el fracaso en la primera prueba, entonces para obtener el primer éxito, el número total de pruebas tendrá la misma distribución que 1, es decir, la primera prueba que da como resultado la falla más el número necesario de pruebas adicionales, es decir

E \ left [N ^ {2} \ mid Y = 0 \ right] = E \ left [(1 + N) ^ {2} \ right]

Por lo tanto, la expectativa será

E \ left [N ^ {2} \ right] = E \ left [N ^ {2} \ mid Y = 1 \ right] P \ {Y = 1 \} + E \ left [N ^ {2} \ mid Y = 0 \ right] P \ {Y = 0 \} \\ = p + (1-p) E \ left [(1 + N) ^ {2} \ right] \\ = 1 + (1-p) E \ left [2 N + N ^ {2} \ right]

ya que la expectativa de distribución geométrica es so

E [N] = 1 / p

por lo tanto

E\left[N^{2}\right]=1+\frac{2(1-p)}{p}+(1-p) E\left[N^{2}

y

E \ left [N ^ {2} \ right] = \ frac {2-p} {p ^ {2}}

por lo que la varianza de la distribución geométrica será

\ begin {alineado} \ operatorname {Var} (N) & = E \ left [N ^ {2} \ right] - (E [N]) ^ {2} \\ = & \ frac {2-p} { p ^ {2}} - \ left (\ frac {1} {p} \ right) ^ {2} \\ = & \ frac {1-p} {p ^ {2}} \ end {alineado}

Expectativa del mínimo de secuencia de variables aleatorias uniformes

   La secuencia de variables aleatorias uniformes U1, ELLA ES2 … .. sobre el intervalo (0, 1) y N se define como

N = \ min \ left \ {n: \ sum_ {i = 1} ^ {n} U_ {i}> 1 \ right \}

entonces para la expectativa de N, para cualquier x ∈ [0, 1] el valor de N

N (x) = \ min \ left \ {n: \ sum_ {i = 1} ^ {n} U_ {i}> x \ right \}

estableceremos la expectativa de N como

m (x) = E [N (x)]

para encontrar la expectativa usamos la definición de expectativa condicional en variable aleatoria continua

E [X \ mid Y = y] = \ int _ {- \ infty} ^ {\ infty} x f_ {X \ mid Y} (x \ mid y) dx

ahora condicionando el primer término de la secuencia  tenemos

m (x) = \ int_ {0} ^ {1} E \ left [N (x) \ mid U_ {1} = y \ right] dy

aquí tenemos

E \ left [N (x) \ mid U_ {1} = y \ right] = \ left \ {\ begin {array} {ll} 1 & \ text {if} y> x \\ 1 + m (xy) & \ text {if} y \ leq x \ end {matriz} \ right.

el número restante de variable aleatoria uniforme es el mismo en el punto donde el primer valor uniforme es y, al inicio y luego se van a agregar variables aleatorias uniformes hasta que su suma supere x - y.

así que usando este valor de expectativa, el valor de la integral será

m (x) = 1 + \ int_ {0} ^ {x} m (xy) dy \\ = 1 + \ int_ {0} ^ {x} m (u) du \ text {dejando} u = xy

si diferenciamos esta ecuación

m ^ {\ prime} (x) = m (x)

y

\ frac {m ^ {\ prime} (x)} {m (x)} = 1

ahora integrando esto da

\ log [m (x)] = x + c

por lo tanto

m (x) = ke ^ {x}

el valor de k = 1 si x = 0, entonces

m (x) = e ^ {x}

y m (1) = e, el número esperado de variables aleatorias uniformes en el intervalo (0, 1) que deben agregarse hasta que su suma supere 1, es igual a e

Probabilidad usando expectativa condicional || probabilidades usando condicionamiento

   Podemos encontrar la probabilidad también usando la expectativa condicional como la expectativa que encontramos con la expectativa condicional, para obtener esto, considere un evento y una variable aleatoria X como

X = \ left \ {\ begin {array} {ll} 1 & \ text {if} E \ text {ocurre} \\ 0 & \ text {si} E \ text {no ocurre} \ end {array} \ derecho.

de la definición de esta variable aleatoria y la expectativa claramente

E [X] = P (E) \\ E [X \ mid Y = y] = P (E \ mid Y = y) $ para cualquier variable aleatoria $ Y $

ahora por expectativa condicional en cualquier sentido tenemos

P (E) = \ sum_ {y} P (E \ mid Y = y) P (Y = y) \ quad $ si $ Y $ es discreto \\ $ = \ int _ {- \ infty} ^ {\ infty} P (E \ mid Y = y) f_ {Y} (y) dy \ quad $ si $ Y $ es continuo

Ejemplo:

Calcule la función de masa de probabilidad de la variable aleatoria X, si U es la variable aleatoria uniforme en el intervalo (0,1), y considere la distribución condicional de X dada U = p como binomial con los parámetros ny p.

Solución:

Para el valor de U, la probabilidad por condicionamiento es

\ begin {alineado} P [X = i] & = \ int_ {0} ^ {1} P \ left [X = i \ mid U = pl f_ {U} (p) dp \ right. \\ & = \ int_ {0} ^ {1} P [X = i \ mid U = p \} dp \\ & = \ frac {n!} {i! (ni)!} \ int_ {0} ^ {1} p ^ {i} (1-p) ^ {ni} dp \ end {alineado}

tenemos el resultado

\ int_ {0} ^ {1} p ^ {i} (1-p) ^ {ni} dp = \ frac {i! (ni)!} {(n + 1)!}

así que conseguiremos

P [X = i] = \ frac {1} {n + 1} \ quad i = 0, \ ldots, n

Ejemplo:

cuál es la probabilidad de X <Y, si X e Y son las variables aleatorias continuas con funciones de densidad de probabilidad fX yY respectivamente.

Solución:

Usando expectativa condicional y probabilidad condicional

\ begin {alineado} P \ {X

as

FX (y) = \ int _ {- \ infty} ^ {y} f_ {X} (x) dx

Ejemplo:

Calcule la distribución de la suma de variables aleatorias independientes continuas X e Y.

Solución:

Para encontrar la distribución de X + Y tenemos que encontrar la probabilidad de la suma usando el condicionamiento de la siguiente manera

\ begin {alineado} P (X + Y

Conclusión:

La expectativa condicional para la variable aleatoria discreta y continua con diferentes ejemplos considerando algunos de los tipos de estas variables aleatorias discutidos usando la variable aleatoria independiente y la distribución conjunta en diferentes condiciones, también la expectativa y probabilidad de cómo encontrar usando la expectativa condicional se explica con ejemplos, si necesita más lectura, consulte los libros a continuación o para obtener más artículos sobre probabilidad, siga nuestras Páginas de matemáticas.

https://en.wikipedia.org/wiki/probability_distribution

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/