Expectativa matemática y variable aleatoria | Sus 5 propiedades importantes

Expectativa matemática y variable aleatoria    

     La expectativa matemática juega un papel muy importante en la teoría de la probabilidad, la definición básica y las propiedades básicas de la expectativa matemática ya discutimos en algunos artículos anteriores ahora después de discutir las diversas distribuciones y tipos de distribuciones, en el siguiente artículo nos familiarizaremos con algunas más propiedades avanzadas de la expectativa matemática.

Expectativa de suma de variables aleatorias | Expectativa de función de variables aleatorias | Expectativa de distribución de probabilidad conjunta

     Sabemos que la expectativa matemática de una variable aleatoria de naturaleza discreta es

E [X] = \ sum_ {x} xp (x)

y para el continuo es

E [X] = \ int _ {- \ infty} ^ {\ infty} xf (x) dx

ahora para la variable aleatoria X e Y, si son discretas, entonces con la función de masa de probabilidad conjunta p (x, y)

La expectativa de función de la variable aleatoria X e Y será

E \ left [g (X, Y) \ right] = \ sum_ {y} \ sum_ {x} g (x, y) p (x, y)

y si es continuo, entonces con la función de densidad de probabilidad conjunta f (x, y) la expectativa de función de la variable aleatoria X e Y será

E \ left [g (X, Y) \ right] = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} g (x, y) f (x, y) dxdy

si g es la suma de estas dos variables aleatorias en forma continua,

E \ left [X + Y \ right] = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} (x + y) f (x, y) dxdy

= \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} xf (x, y) dydx + \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} yf (x, y) dxdy

= \ int _ {- \ infty} ^ {\ infty} x f_ {X} (x) dx + \ int _ {- \ infty} ^ {\ infty} yf_ {Y} (y) dy

= E [X] + E [Y]

y si para las variables aleatorias X e Y tenemos

X \ geq Y

entonces la expectativa también

E [X] \ geq E [Y]

Ejemplo

Un hospital Covid-19 se distribuye uniformemente en la carretera de la longitud L en un punto X, un vehículo que transporta oxígeno para los pacientes se encuentra en una ubicación Y que también se distribuye uniformemente en la carretera, Calcule la distancia esperada entre el hospital Covid-19 y vehículo portador de oxígeno si son independientes.

Solución:

Para encontrar la distancia esperada entre X e Y tenemos que calcular E {| XY | }

Ahora la función de densidad conjunta de X e Y será

f (x, y) = \ frac {1} {L ^ {2}}, \ \ 0 <x <L, \ \ 0 <y <L

desde

E \ left [g (X, Y) \ right] = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {\ infty} g (x, y) f (x, y) dxdy

siguiendo esto tenemos

E \ left [\ left | X -Y \ derecha | \ right] = \ frac {1} {L ^ {2}} \ int_ {0} ^ {L} \ int_ {0} ^ {L} \ left | xy \ right | dy dx

ahora el valor de la integral será

\ int_ {0} ^ {L} \ left | xy \ right | dy = \ int_ {0} ^ {x} (xy) dy + \ int_ {x} ^ {L} (yx) dy

= \ frac {x ^ {2}} {2} + \ frac {L ^ {2}} {2} - \ frac {x ^ {2}} {2} -x (Lx)

= \ frac {L ^ {2}} {2} + x ^ {2} -xL

Por lo tanto, la distancia esperada entre estos dos puntos será

E \ left [\ left | X -Y \ derecha | \ right] = \ frac {1} {L ^ {2}} \ int_ {0} ^ {L} \ left (\ frac {L ^ {2}} {2} + x ^ {2} -xL \ right ) dx = \ frac {L} {3}

Expectativa de la media de la muestra

  Como media muestral de la secuencia de variables aleatorias X1, X2, ………, Xn con la función de distribución F y el valor esperado de cada uno como μ es

\ overline {X} = \ sum_ {i = 1} ^ {n} \ frac {X_ {i}} {n}

por lo que la expectativa de esta media muestral será

E \ left [\ overline {X} \ right] = E \ left [\ sum_ {i = 1} ^ {n} \ frac {X_ {i}} {n} \ right]

= \ frac {1} {n} E \ left [\ sum_ {i = 1} ^ {n} X_ {i} \ right]

= \ frac {1} {n} \ sum_ {i = 1} ^ {n} E [X_ {i}]

= \ mu \ \ desde \ \ E [X_ {i}] \ equiv \ mu

que muestra que el valor esperado de la media muestral también es μ.

Desigualdad de Boole

                La desigualdad de Boole se puede obtener con la ayuda de las propiedades de las expectativas, supongamos que la variable aleatoria X definida como

X = \ sum_ {i = 1} ^ {n} X_ {i}

dónde

X_ {i} = \ begin {cases} 1 \ \ if \ \ A_ {i} \ \ ocurre \\ 0 \ \ \ \ de lo contrario \ end {cases}

Aquí uni son los eventos aleatorios, esto significa que la variable aleatoria X representa la ocurrencia del número de eventos Ai y otra variable aleatoria Y como

Y = \ begin {cases} 1 \ \ if \ \ X \ geq 1 \ \ \\ 0 \ \ \ de lo contrario \ end {cases}

sin duda.

X \ geq Y

y tambien

E [X] \ geq E [Y]

ahora, si tomamos el valor de la variable aleatoria X e Y, estas expectativas serán

E [X] = \ sum_ {i = 1} ^ {n} E \ left [X_ {i} \ right] = \ sum_ {i = 1} ^ {n} P (A_ {i})

y

E [Y] = P \ izquierda (\ \ al \ \ menos \ \ uno \ \ de \ \ la \ \ A_ {i} \ \ ocurre \ derecha) = P \ izquierda (\ bigcup_ {i = 1} ^ { n} A_ {i} \ derecha)

Sustituyendo estas expectativas en la desigualdad anterior, obtendremos la desigualdad de Boole como

P \ left (\ bigcup_ {i = 1} ^ {n} A_ {i} \ right) \ leq \ sum_ {i = 1} ^ {n} P \ left (A_ {i} \ right)

Expectativa de la variable aleatoria binomial | Media de la variable aleatoria binomial

  Sabemos que la variable aleatoria binomial es la variable aleatoria que muestra el número de éxitos en n ensayos independientes con probabilidad de éxito como p y fracaso como q = 1-p, entonces si

X = X1 + X2+ ……. + Xn

Dónde

X_ {i} = \ begin {cases} 1 \ \ if \ \ the \ \ ith \ \ trail \ \ is \ \ a \ \ success \\ 0 \ \ if \ \ the \ ith \ \ trail \ \ es \ \ a \ \ failure \ end {cases}

aquí estas Xi son los Bernoulli y la expectativa será

E (X_ {i}) = 1 (p) +0 (1-p) = p

entonces la expectativa de X será

E [X] = E [X_ {1}] + E [X_ {2}] + \ cdot \ cdot \ cdot + E [X_ {n}]

Expectativa de variable aleatoria binomial negativa | Media de la variable aleatoria binomial negativa

  Sea una variable aleatoria X que representa el número de ensayos necesarios para recolectar r éxitos, entonces dicha variable aleatoria se conoce como variable aleatoria binomial negativa y se puede expresar como

X = X_ {1} + X_ {2} + \ cdot \ cdot \ cdot + X_ {r}

aquí cada Xi denotar el número de intentos necesarios después del (i-1) st éxito para obtener el total de i éxitos.

Dado que cada uno de estos Xi representar la variable aleatoria geométrica y sabemos que la expectativa para la variable aleatoria geométrica es

E [X_ {i}] = \ frac {1} {p}

so

E [X] = E [X_ {1}] + \ cdot \ cdot \ cdot \ cdot \ cdot + E [X_ {r}] = \ frac {r} {p}

que es la expectativa de una variable aleatoria binomial negativa.

Expectativa de variable aleatoria hipergeométrica | Media de la variable aleatoria hipergeométrica

La expectativa o media de la variable aleatoria hipergeométrica la obtendremos con la ayuda de un ejemplo simple de la vida real, si se selecciona aleatoriamente n número de libros de un estante que contiene N libros de los cuales m son de matemáticas, entonces para encontrar el número esperado de Los libros de matemáticas permiten que X denote el número de libros de matemáticas seleccionados, entonces podemos escribir X como

X = X_ {1} + X_ {2} + \ cdot \ cdot \ cdot + X_ {m}

dónde

X_ {i} = \ begin {cases} 1, \ \ if \ \ ith \ \ mathics \ \ book \ \ is \ \ selected \\ 0, \ \ \ \ othewise \ end {cases}

so

E [X_ {i}] = P \ left \ {X_ {i} = 1 \ right. \ Left. \derecho \}

= \ frac {\ binom {1} {1} \ binom {N-1} {n-1}} {\ binom {N} {n}}

= \ frac {n} {N}

lo que da

E [X] = E [X_ {1}] + \ cdot \ cdot \ cdot \ cdot + E [X_ {m}] = \ frac {mn} {N}

que es la media de dicha variable aleatoria hipergeométrica.

Número esperado de coincidencias

   Este es un problema muy popular relacionado con la expectativa, suponga que en una habitación hay N número de personas que arrojan sus sombreros en el medio de la habitación y todos los sombreros se mezclan después de que cada persona elija al azar un sombrero y luego el número esperado de personas. que seleccionan su propio sombrero podemos obtener al dejar que X sea el número de coincidencias, por lo que

X = X_ {1} + X_ {2} + \ cdot \ cdot \ cdot \ cdot + X_ {N}

Dónde

X_ {i} = \ begin {cases} 1, \ \ if \ \ the \ \ ith \ \ person \ \ selecciona \ \ his \ \ own \ \ hat \\ 0, \ \ \ \ othewise \ end {cases}

dado que cada persona tiene la misma oportunidad de seleccionar cualquiera de los sombreros de N sombreros, entonces

E [X_ {i}] = P \ left {X_ {i} = 1 \ right. \ Left. \ right} = \ frac {1} {N}

so

E [X] = E [X_ {1}] + \ cdot \ cdot \ cdot \ cdot \ cdot + E [X_ {n}] = \ left (\ frac {1} {N} \ right) N = 1

lo que significa que exactamente una persona en promedio elige su propio sombrero.

La probabilidad de una unión de eventos.

     Obtengamos la probabilidad de la unión de los eventos con la ayuda de la expectativa para los eventos Ai

X_ {i} = \ begin {cases} 1, \ \ if \ \ A_ {i} \ \ ocurre \\ 0, \ \ othewise \ end {cases}

con esto tomamos

1- \ prod_ {i = 1} ^ {n} (1-X_ {i}) = \ begin {cases} 1, \ \ if \ \ A_ {i} \ \ ocurre \\ 0, \ \ othewise \ end {casos}

así que la expectativa de esto será

E \ left [1- \ prod_ {i = 1} ^ {n} (1-X_ {i}) \ right] = P \ left (\ bigcup_ {i = 1} ^ {n} A_ {i} \ right )

y expandir usando la propiedad de expectativa como

P \ left (\ bigcup_ {i = 1} ^ {n} A_ {i} \ right) = E \ left [\ sum_ {i = 1} ^ {n} X_ {i} - \ sum \ sum_ {i < j} X_ {i} X_ {j} + \ sum \ sum_ {i <j <k} \ sum X_ {i} X_ {j} X_ {k} - \ cdot \ cdot \ cdot \ cdot \ cdot \ cdot \ cdot + (-) ^ {n + 1} X_ {1} \ cdot \ cdot \ cdot X_ {n} \ right]

Desde que tenemos

Expectativa matemática
Expectativa matemática: la probabilidad de una unión de eventos

y

X_ {i_ {1}} X_ {i_ {2}} \ cdot \ cdot \ cdot \ cdot X_ {i_ {k}} = \ begin {cases} 1, \ \ if \ \ A_ {i_ {1}} A_ {i_ {2}} \ cdot \ cdot \ cdot A_ {i_ {k}} \ \ ocurre \\ 0, \ \ othewise \ end {cases}

so

E \ left [X_ {i_ {1}} X_ {i_ {2}} \ cdot \ cdot \ cdot \ cdot X_ {i_ {k}} \ right] = P \ left (A_ {i_ {1}} A_ { i_ {2}} \ cdot \ cdot \ cdot A_ {i_ {k}} \ right)

esto implica la probabilidad de unión como

P \ left (\ cup A_ {i} \ right) = \ sum_ {i} P (A_ {i}) - \ sum \ sum_ {i <j} P \ left (A_ {i} A_ {j} \ right ) + \ sum \ sum_ {i <j <k} \ sum P \ left (A_ {i} A_ {j} A_ {k} \ right) - \ cdot \ cdot \ cdot + (-1) ^ {n + 1} P \ izquierda (A_ {1} \ cdot \ cdot \ cdot A_ {n} \ derecha)

Límites de la expectativa usando el método probabilístico

    Suponga que S es un conjunto finito yf es la función sobre los elementos de S y

m = \ underset {s \ in \ mathfrak {s}} {max} f (s)

aquí podemos obtener el límite inferior para este m por la expectativa de f (s) donde "s" es cualquier elemento aleatorio de S cuya expectativa podemos calcular de modo

m \ geq f (S)

m \ geq E \ left [f (S) \ right]

aquí obtenemos la expectativa como el límite inferior para el valor máximo

Identidad máxima-mínima

 Máximo La identidad mínima es el máximo del conjunto de números al mínimo de los subconjuntos de estos números que es para cualquier número xi

\ underset {i} {max} \ \ x_ {i} = \ sum_ {i} x_ {i} - \ sum_ {i <j} min (x_ {i}, x_ {j}) + \ sum_ {i < j <k} min (x_ {i}, x_ {j}, x_ {k}) + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} min \ left (x_ {1}, \ cdot \ cdot \ cdot, x_ {n} \ derecha)

Para mostrar esto, restrinjamos la xi dentro del intervalo [0,1], suponga una variable aleatoria uniforme U en el intervalo (0,1) y los eventos Ai ya que la variable uniforme U es menor que xi es decir

A_ {i} = \ left {U <x_ {i} \ right. \ Left. \derecho }

ya que al menos uno de los eventos anteriores ocurre cuando U es menor que uno del valor de xi

U_ {i} A_ {i} = \ left {U <\ underset {i} {max} \ \ x_ {i} \ right. \ Left. \derecho }

y

P \ left (U_ {i} A_ {i} \ right) = P \ left (U <\ underset {i} {max} x_ {i} \ right) = \ underset {i} {max} x_ {i}

Claramente sabemos

<a href="https://www.codecogs.com/eqnedit.php?latex=P\left&space;(&space;U_{i}A_{i}&space;\right&space;)=&space;P\left&space;\{&space;U<a href="https://www.codecogs.com/eqnedit.php?latex=P\left&space;(&space;U_{i}A_{i}&space;\right&space;)=&space;P\left&space;\{&space;U

P (A_ {i}) = P \ izquierda (U <x_ {i} \ derecha) = x_ {i}

y todos los eventos ocurrirán si U es menor que todas las variables y

A_ {i_ {1}} \ cdot \ cdot \ cdot A_ {i_ {r}} = \ left (U <\ underset {j = 1 \ cdot \ cdot \ cdot r} {min} x_ {i_ {j}} \derecho )

la probabilidad da

P \ left (A_ {i_ {1}} \ cdot \ cdot \ cdot A_ {i_ {r}} \ right) = P \ left (U <\ underset {j = 1 \ cdot \ cdot \ cdot r} {min } x_ {i_ {j}} \ right) = \ underset {j = 1 \ cdot \ cdot \ cdot r} {min} x_ {i_ {j}}

tenemos el resultado de la probabilidad de unión como

P \ izquierda (U_ {i} A_ {i} \ derecha) \ sum_ {i} P \ izquierda (A_ {i} \ derecha) - \ sum_ {i <j} P (A_ {i} A_ {j}) + \ sum_ {i <j <k} P (A_ {i} A_ {j} A_ {k}) + \ cdot \ cdot \ cdot \ cdot + (-1) ^ {n + 1} P (A_ {1 } \ cdot \ cdot \ cdot \ cdot A_ {n})

siguiendo esta fórmula de exclusión de inclusión para la probabilidad

\ underset {i} {max} (x_ {i} + b) = \ sum_ {i} (x_ {i} + b) - \ sum_ {i <j} min (x_ {i} + b, x_ {j } + b) + \ cdot \ cdot \ cdot \ cdot + (-1) ^ {n + 1} min (x_ {1} + b, \ cdot \ cdot \ cdot, x_ {n} + b)

que consideren

M = \ sum_ {i} x_ {i} - \ sum_ {i <j} min (x_ {i}, x_ {j}) + \ cdot \ cdot \ cdot \ cdot + (-1) ^ {n + 1 } min (x_ {1}, \ cdot \ cdot \ cdot \ cdot x_ {n})

esto da

\ underset {i} {max} \ \ x_ {i} + b = M + b \ left (n- \ binom {n} {2} + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} \ binom {n} {n} \ derecha)

desde

0 = (1-n) ^ {n} = 1-n + \ binom {n} {2} + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} \ binom {n} {n}

lo que significa

\ underset {i} {max} \ \ x_ {i} = M

  • por lo tanto, podemos escribirlo como

\ underset {i} {max} \ \ x_ {i} = \ sum_ {i} x_ {i} - \ sum_ {i <j} min (x_ {i}, x_ {j}) \ sum_ {i <j <k} min (x_ {i}, x_ {j}, x_ {k}) + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} min (x_ {1}, \ cdot \ cdot \ cdot, x_ {n})

tomando la expectativa podemos encontrar los valores esperados de los mínimos máximos y parciales como

E \ left [\ underset {i} {max} \ \ X_ {i} \ right] = \ sum_ {i} E \ left [X_ {i} \ right] - \ sum_ {i <j} E \ left [ min (X_ {i}, X_ {j}) \ right] + \ cdot \ cdot \ cdot + (-1) ^ {n + 1} E \ left [min \ left (X_ {1}, \ cdot \ cdot \ cdot \ cdot \ cdot, X_ {n} \ derecha) \ derecha])

Conclusión:

La expectativa en términos de diversas distribuciones y correlación de la expectativa con algunos de los conceptos de la teoría de la probabilidad fueron el enfoque de este artículo, que muestra el uso de la expectativa como una herramienta para obtener valores esperados de diferentes tipos de variables aleatorias, si necesita más lectura, vaya a través de los libros siguientes.

Para obtener más artículos sobre matemáticas, consulte nuestro Página de matemáticas.

https://en.wikipedia.org/wiki/Expectation

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/