Teorema de desigualdad y límite central de Chebyshev | Sus propiedades importantes con más de 10 ejemplos críticos

En la teoría de la probabilidad el Desigualdad de Chebyshev El teorema del límite central se ocupa de las situaciones en las que queremos encontrar la distribución de probabilidad de la suma de un gran número de variables aleatorias en condiciones aproximadamente normales. Antes de mirar los teoremas del límite, vemos algunas de las desigualdades, que proporcionan los límites para las probabilidades si el se conoce la media y la varianza.

Tabla de Contenido

La desigualdad de Markov

La desigualdad de Markov para la variable aleatoria X que toma solo un valor positivo para a> 0 es

P \ {X \ geq a \} \ leq \ frac {E [X]} {a}

para probar esto para un> 0 considerar

I = \ left \ {\ begin {array} {ll} 1 & \ text {if} X \ geq a \\ 0 & \ text {de lo contrario} \ end {array} \ right.

Como

X \ geq 0 \\ \\ I \ leq \ frac {X} {a}

ahora teniendo la expectativa de esta desigualdad obtenemos

E [I] \ leq \ frac {E [X]} {a}

la razón es

E [I] = P \ {X \ geq a \}

que da la desigualdad de Markov para a> 0 como

P \ {X \ geq a \} \ leq \ frac {E [X]} {a}

La desigualdad de Chebyshev

    Para la media finita y la varianza de la variable aleatoria X, la desigualdad de Chebyshev para k> 0 es

P (| X- \ mu | \ geq k \} \ leq \ frac {\ sigma ^ {2}} {k ^ {2}}

donde sigma y mu representan la varianza y la media de la variable aleatoria, para probar esto usamos el La desigualdad de Markov como la variable aleatoria no negativa

(X- \ mu) ^ {2}

para el valor de a como un cuadrado constante, por lo tanto

P \ left \ {(X- \ mu) ^ {2} \ geq k ^ {2} \ right \} \ leq \ frac {E \ left [(X- \ mu) ^ {2} \ right]} { k ^ {2}}

esta ecuación es equivalente a

P (| X- \ mu | \ geq k \} \ leq \ frac {E \ left [(X- \ mu) ^ {2} \ right]} {k ^ {2}} = \ frac {\ sigma ^ {2}} {k ^ {2}}

tan claramente

(X- \ mu) ^ {2} \ equiv k ^ {2} \ text {si y solo si} | X- \ mu | \ geq k

Ejemplos de desigualdades de Markov y Chebyshev :

  1. Si la producción de un artículo específico se toma como variable aleatoria para la semana con media 50, calcule la probabilidad de que la producción exceda 75 en una semana y cuál sería la probabilidad si la producción de una semana está entre 40 y 60 siempre que la varianza para ese semana es 25?

Solución: Considere la variable aleatoria X para la producción del artículo durante una semana y luego, para encontrar la probabilidad de producción superior a 75, usaremos La desigualdad de Markov as

P(X>75\} \leq \frac{E[X]}{75}=\frac{50}{75}=\frac{2}{3}

Ahora, la probabilidad de producción entre 40 y 60 con varianza de 25 usaremos La desigualdad de Chebyshev as

P \ {| X-50 | \ geq 10 \} \ leq \ frac {\ sigma ^ {2}} {10 ^ {2}} = \ frac {1} {4}

so

P\{|X-50|<10\} \geq 1-\frac{1}{4}=\frac{3}{4}

esto muestra que la probabilidad de la semana si la producción está entre 40 y 60 es 3/4.

2. Demuestre que la desigualdad de chebyshev que proporciona el límite superior de la probabilidad no está particularmente más cerca del valor real de la probabilidad.

Solución:

Considere que la variable aleatoria X se distribuye uniformemente con media 5 y varianza 25/3 en el intervalo (0,1) y luego por el la desigualdad de chebyshev podemos escribir

P (| X-5 |> 4 \} \ leq \ frac {25} {3 (16)} \ aproximadamente 0.52

pero la probabilidad real será

P (| X-5 |> 4 \} = 0.20

que está lejos de la probabilidad real de la misma manera si tomamos la variable aleatoria X como distribuida normalmente con media y varianza, entonces La desigualdad de Chebyshev se mostrarán

P \ {| X- \ mu |> 2 \ sigma \} \ leq \ frac {1} {4}

pero la probabilidad real es

P (| X- \ mu |> 2 \ sigma \} = P \ left \ {\ left | \ frac {X- \ mu} {\ sigma} \ right |> 2 \ right \} = 2 [1- \ Phi (2)] \ aproximadamente 0.0456

Ley débil de los números grandes

La ley débil para la secuencia de variables aleatorias será seguida por el resultado de que La desigualdad de Chebyshev se puede utilizar como herramienta para pruebas, por ejemplo, para demostrar

P \ {X = E [X] \} = 1

si la varianza es cero, las únicas variables aleatorias que tienen varianzas iguales a 0 son las que son constantes con probabilidad 1, así que por La desigualdad de Chebyshev para n mayor o igual a 1

P \ left \ {| X- \ mu |> \ frac {1} {n} \ right \} = 0

as

n \ rightarrow \ infty

por la continuidad de la probabilidad

\ begin {align} 0 = \ lim _ {n \ rightarrow \ infty} P \ left \ {| X- \ mu |> \ frac {1} {n} \ right \} & = P \ left \ {\ lim _ {n \ flecha derecha \ infty} \ izquierda \ {| X- \ mu |> \ frac {1} {n} \ derecha \} \ derecha \} \\ & = P \ {X \ neq \ mu \} \ final {alineado}

que prueba el resultado.

Ley débil de los números grandes: Para la secuencia de variables aleatorias independientes e idénticamente distribuidas X1,X2, ……. cada uno de los cuales tiene la media finita E [Xi] = μ, entonces para cualquier ε> 0

P \ left \ {\ left | \ frac {X_ {1} + \ cdots + X_ {n}} {n} - \ mu \ right | \ geq \ varepsilon \ right \} \ rightarrow 0 \ quad \ text {as} \ quad n \ rightarrow \ infty

Para probar esto, asumimos que la varianza también es finita para cada variable aleatoria en la secuencia, por lo que la expectativa y la varianza

E \ left [\ frac {X_ {1} + \ cdots + X_ {n}} {n} \ right] = \ mu \ quad \ text {y} \ quad \ operatorname {Var} \ left (\ frac {X_ {1} + \ cdots + X_ {n}} {n} \ right) = \ frac {\ sigma ^ {2}} {n}

ahora desde el La desigualdad de Chebyshev el límite superior de la probabilidad como

P \ left \ {\ left | \ frac {X_ {1} + \ cdots + X_ {n}} {n} - \ mu \ right | \ geq \ varepsilon \ right \} \ leq \ frac {\ sigma ^ {2}} {n \ varepsilon ^ {2}}

que para n tendiendo al infinito será

P \ left \ {\ left | \ frac {X_ {1} + \ cdots + X_ {n}} {n} - \ mu \ right | \ geq \ varepsilon \ right \} \ rightarrow 0 \ quad \ text {as} \ quad n \ rightarrow \ infty

Teorema del límite central

La teorema del límite central es uno de los resultados importantes en la teoría de la probabilidad, ya que da la distribución a la suma de números grandes que es aproximadamente normal Además del método para encontrar las probabilidades aproximadas para sumas de variables aleatorias independientes, el teorema del límite central también muestra que las frecuencias empíricas de tantas poblaciones naturales exhiben curvas medias normales en forma de campana. Antes de dar la explicación detallada de este teorema, usamos el resultado.

"Si la secuencia de variables aleatorias Z1,Z2,…. tienen la función de distribución y la función generadora de momentos como FZn y Mzn luego

M_ {Z_ {n}} (t) \ rightarrow M_ {Z} (t) \ text {para todo t, luego} F_ {Z_ {n}} (t) \ rightarrow F_ {Z} (t) \ text { para todo t en el que} F_ {Z} (t) \ text {es continuo "}

Teorema del límite central: Para la secuencia de variables aleatorias independientes e idénticamente distribuidas X1,X2, ……. cada uno de los cuales tiene la media μ y la varianza σ2 luego la distribución de la suma

\ frac {X_ {1} + \ cdots + X_ {n} -n \ mu} {\ sigma \ sqrt {n}}

tiende a la normal estándar ya que n tiende a infinito para que a sean valores reales

P \ left \ {\ frac {X_ {1} + \ cdots + X_ {n} -n \ mu} {\ sigma \ sqrt {n}} \ leq a \ right \} \ rightarrow \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {a} e ^ {- x ^ {2} / 2} dx \ quad \ text {as} n \ rightarrow \ infty

Prueba: Para probar el resultado, considere la media como cero y la varianza como uno, es decir. μ = 0 y σ2= 1 y el función generadora de momentos para Xi existe y tiene un valor finito, por lo que la función generadora de momentos para la variable aleatoria Xi/ √n será

E \ left [\ exp \ left \ {\ frac {t X_ {i}} {\ sqrt {n}} \ right \} \ right] = M \ left (\ frac {t} {\ sqrt {n}} \derecho)

hene la función generadora de momentos para la suma ΣXi/ √n será

\ left [M \ left (\ frac {L} {\ sqrt {n}} \ right) \ right] ^ {n}

Ahora tomemos L (t) = logM (t)

so

\ begin {align} L (0) & = 0 \\ L ^ {\ prime} (0) & = \ frac {M ^ {\ prime} (0)} {M (0)} \\ & = \ mu \\ & = 0 \\ L ^ {\ prime \ prime} (0) & = \ frac {M (0) M ^ {\ prime \ prime} (0) - \ left [M ^ {\ prime} (0 ) \ right] ^ {2}} {[M (0)] ^ {2}} \\ & = E \ left [X ^ {2} \ right] \\ & = 1 \ end {alineado}

para mostrar la prueba que mostramos primero

[M (t / \ sqrt {n})] ^ {n} \ rightarrow e ^ {2 ^ {2} / 2} \ text {as} n \ rightarrow \ infty

mostrando su forma equivalente

n L (t / \ sqrt {n}) \ flecha derecha t ^ {2} / 2

desde

\ begin {alineado} \ lim _ {n \ rightarrow \ infty} \ frac {L (t / \ sqrt {n})} {n ^ {- 1}} & = \ lim _ {n \ rightarrow \ infty} \ frac {-L ^ {\ prime} (t / \ sqrt {n}) n ^ {- 3/2} t} {- 2 n ^ {- 2}} \ quad \ text {según la regla de L'Hôpital} \ \ & = \ lim _ {n \ rightarrow \ infty} \ left [\ frac {L ^ {\ prime} (t / \ sqrt {n}) t} {2 n ^ {- 1/2}} \ right] \\ & = \ lim _ {n \ rightarrow \ infty} \ left [\ frac {-L ^ {\ prime \ prime} (t / \ sqrt {n}) n ^ {- 3/2} t ^ {2 }} {- 2 n ^ {- 3/2}} \ right] \ quad \ text {nuevamente según la regla de L'Hôpital} \\ & = \ lim _ {n \ rightarrow \ infty} \ left [L ^ {\ prime \ prime} \ left (\ frac {t} {\ sqrt {n}} \ right) \ frac {t ^ {2}} {2} \ right] \\ & = \ frac {t ^ {2}} {2} \ end {alineado}

por lo tanto, esto muestra el resultado para la media cero y la varianza 1, y este mismo resultado se sigue para el caso general también tomando

X_ {i} ^ {*} = \ izquierda (X_ {i} - \ mu \ derecha) / \ sigma

y para cada uno tenemos

P \ left \ {\ frac {X_ {1} + \ cdots + X_ {n} -n \ mu} {\ sigma \ sqrt {n}} \ leq a \ right \} \ rightarrow \ Phi (a)

Ejemplo del teorema del límite central

Para calcular la distancia en años luz de una estrella desde el laboratorio de un astrónomo, está usando algunas técnicas de medición, pero debido al cambio en la atmósfera cada vez que la distancia medida no es exacta pero con algún error, para encontrar la distancia exacta que planea recorrer. observar continuamente en una secuencia y el promedio de estas distancias como la distancia estimada, Si considera los valores de medición distribuidos idénticamente y una variable aleatoria independiente con media dy varianza de 4 años luz, encuentre el número de medición a realizar para obtener el error 0.5 en el valor estimado y real?

Solución: Consideremos las medidas como las variables aleatorias independientes en la secuencia X1,X2,…….Xn así que por el Teorema del límite central podemos escribir

Z_ {n} = \ frac {\ sum_ {i = 1} ^ {n} X_ {i} -nd} {2 \ sqrt {n}}

que es la aproximación a la distribución normal estándar, por lo que la probabilidad será

\ left. \ begin {array} {rl} P \ left \ {- 0.5 \ leq \ frac {\ sum_ {i = 1} ^ {n} X_ {i}} {n} -d \ leq 0.5 \ right. \ end {matriz} \ right \} = P \ left \ {- 0.5 \ frac {\ sqrt {n}} {2} \ leq Z_ {n} \ leq 0.5 \ frac {\ sqrt {n}} {2} \ right \} \ approx \ Phi \ left (\ frac {\ sqrt {n}} {4} \ right) - \ Phi \ left (\ frac {- \ sqrt {n}} {4} \ right) = 2 \ Phi \ left (\ frac {\ sqrt {n}} {4} \ right) -1

así que para obtener la precisión de la medición al 95 por ciento, el astrónomo debe medir n * distancias donde

2 \ Phi \ left (\ frac {\ sqrt {n ^ {*}}} {4} \ right) -1 = 0.95 \ quad \ text {o} \ quad \ Phi \ left (\ frac {\ sqrt {n ^ {*}}} {4} \ right) = 0.975

entonces de la tabla de distribución normal podemos escribirlo como

\ frac {\ sqrt {n ^ {*}}} {4} = 1.96 \ quad \ text {o} \ quad n ^ {*} = (7.84) ^ {2} \ aprox 61.47

que dice que la medición debe realizarse 62 veces, esto también se puede observar con la ayuda de La desigualdad de Chebyshev tomando

E \ left [\ sum_ {i = 1} ^ {n} \ frac {X_ {i}} {n} \ right] = d \ quad \ operatorname {Var} \ left (\ sum_ {i = 1} ^ { n} \ frac {X_ {i}} {n} \ right) = \ frac {4} {n}

entonces la desigualdad resulta en

P \ left \ {\ left | \ sum_ {i = 1} ^ {n} \ frac {X_ {i}} {n} -d \ right |> 0.5 \ right \} \ leq \ frac {4} {n (0.5) ^ {2}} = \ frac {16} {n}

por lo tanto, para n = 16 / 0.05 = 320, lo que da certeza de que solo habrá un error de 5% en la medición de la distancia de la estrella desde el laboratorio de observaciones.

2. El número de estudiantes admitidos en el curso de ingeniería se distribuye en Poisson con una media de 100, se decidió que si los estudiantes admitidos son 120 o más la enseñanza será en dos secciones de lo contrario en una sola sección, cuál será la probabilidad de que haya ¿Serán dos secciones para el curso?

Solución: Siguiendo la distribución de Poisson, la solución exacta será

e ^ {- 100} \ sum_ {i = 120} ^ {\ infty} \ frac {(100) ^ {i}} {i!}

que obviamente no da el valor numérico particular, si consideramos la variable aleatoria X como los estudiantes admitieron entonces por el teorema del límite central

P \ {X \ geq 120 \} = P \ {X \ cong 119.5 \}

que puede ser

\ begin {array} {l} = P \ left \ {\ frac {X-100} {\ sqrt {100}} \ geq \ frac {119.5-100} {\ sqrt {100}} \ right \} \\ \ approx 1- \ Phi (1.95) \\ \ approx 0.0256 \ end {matriz}

que es el valor numérico.

3. Calcule la probabilidad de que la suma de diez dados cuando se lance esté entre 30 y 40, incluidos 30 y 40.

Solución: aquí considerando el dado como Xi para diez valores de i. la media y la varianza serán

E\left(X_{i}\right)=\frac{7}{2}, \quad \operatorname{Var}\left(X_{i}\right)=E\left[X_{i}^{2}\right]-\left(E\left[X_{i}\right]\right)^{2}=\frac{35}{12}

siguiendo así el teorema del límite central podemos escribir

\ begin {align} P [29.5 \ leq X \ leq 40.5 \} & = P \ left \ {\ frac {29.5-35} {\ sqrt {\ frac {350} {12}}} \ leq \ frac {X -35} {\ sqrt {\ frac {350} {12}}} \ leq \ frac {40.5-35} {\ sqrt {\ frac {350} {12}}} \ right \} \\ & \ approx 2 \ Phi (1.0184) -1 \\ & \ approx 0.692 \ end {alineado}

que es la probabilidad requerida.

4. Para las variables aleatorias independientes uniformemente distribuidas Xi en el intervalo (0,1) cuál será la aproximación de la probabilidad

P \ left \ {\ sum_ {i = 1} ^ {10} X_ {i}> 6 \ right \}

Solución: De la distribución Unifrom sabemos que la media y la varianza serán

E \ left [X_ {i} \ right] = \ frac {1} {2} \ qquad \ operatorname {Var} \ left (X_ {i} \ right) = \ frac {1} {12}

Ahora usando el teorema del límite central podemos

\ begin {align} P \ left \ {\ sum_ {1} ^ {10} X_ {i}> 6 \ right \} & = P \ left \ {\ frac {\ sum_ {1} ^ {10} X_ { i} -5} {\ sqrt {10 \ left (\ frac {1} {12} \ right)}}> \ frac {6-5} {\ sqrt {10 \ left (\ frac {1} {12} \ right)}} \ right \} \\ & \ approx 1- \ Phi (\ sqrt {1.2}) \\ & \ approx 0.1367 \ end {alineado}

por tanto, la suma de la variable aleatoria será del 14 por ciento.

5. Calcule que la probabilidad de que el evaluador del examen dé calificaciones será de 25 exámenes en 450 min iniciales si hay 50 exámenes cuyo tiempo de calificación es independiente con una media de 20 min y una desviación estándar de 4 min.

Solución: considere el tiempo necesario para calificar el examen con la variable aleatoria Xi por lo que la variable aleatoria X será

X = \ sum_ {i = 1} ^ {25} X_ {i}

Dado que esta tarea para el examen 25 está dentro de 450 minutos,

P \ {X \ leq 450 \}

E[X]=\sum_{i=1}^{25} E\left[X_{i}\right]=25(20)=500

\operatorname{Var}(X)=\sum_{i=1}^{25}\\  \operatorname{Var}\left(X_{i}\right)=25(16)=400

aquí usando el teorema del límite central

\ begin {align} P [X \ leq 450 \} & = P \ left (\ frac {X-500} {\ sqrt {400}} \ leq \ frac {450-500} {\ sqrt {400}} \ derecha) \\ & \ approx P (Z \ leq-2.5 \} \\ & = P (Z \ geq 2.5 \} \\ & = 1- \ Phi (2.5) = 0.006 \ end {alineado}

que es la probabilidad requerida.

Teorema del límite central para variables aleatorias independientes

Para la secuencia que no tiene una distribución idéntica pero que tiene variables aleatorias independientes X1,X2, ……. cada uno de los cuales tiene la media μ y la varianza σ2 siempre que satisfaga

  1. cada Xi está uniformemente acotado
  2. suma de las varianzas es infinita, entonces

P \ left \ {\ frac {\ sum_ {i = 1} ^ {n} \ left (X_ {i} - \ mu_ {i} \ right)} {\ sqrt {\ sum_ {i = 1} ^ {n } \ sigma_ {i} ^ {2}}} \ simeq a \ right \} \ rightarrow \ Phi (a) \ quad \ text {as} n \ rightarrow \ infty

Ley fuerte de los números grandes

La ley fuerte de los números grandes es un concepto muy crucial de la teoría de la probabilidad que dice que el promedio de la secuencia de una variable aleatoria comúnmente distribuida con probabilidad uno convergerá a la media de esa misma distribución.

Posicionamiento: Para la secuencia de variables aleatorias independientes e idénticamente distribuidas X1,X2, ……. cada uno de los cuales tiene la media finita con probabilidad uno entonces

\ frac {X_ {1} + X_ {2} + \ cdots + X_ {n}} {n} \ rightarrow \ mu \ quad \ text {as} \ quad n \ rightarrow \ infty ^ {\ dagger}

Prueba: Para probar esto, considere que la media de cada una de las variables aleatorias es cero y la serie

S_ {n} = \ sum_ {i = 1} ^ {n} X_ {i}

ahora para esto, considere el poder de esto como

\ begin {alineado} E \ left [S_ {n} ^ {4} \ right] = & E \ left [\ left (X_ {1} + \ cdots + X_ {n} \ right) \ left (X_ {1 } + \ cdots + X_ {n} \ right) \ right. \\ & \ left. \ times \ left (X_ {1} + \ cdots + X_ {n} \ right) \ left (X_ {1} + \ cdots + X_ {n} \ derecha) \ derecha] \ end {alineado}

después de tomar la expansión de los términos del lado derecho tenemos los términos de la forma

X_ {i} ^ {4}, \ quad X_ {i} ^ {3} X_ {j}, \ quad X_ {i} ^ {2} X_ {j} ^ {2}, \ quad X_ {i} ^ {2} X_ {j} X_ {k}, \ quad \ quad X_ {i} X_ {j} X_ {k} X_ {l}

ya que estos son independientes, por lo que la media de estos será

\ begin {alineado} E \ left [X_ {i} ^ {3} X_ {j} \ right] & = E \ left [X_ {i} ^ {3} \ right] E \ left [X_ {j} \ derecha] = 0 \\ E \ izquierda [X_ {i} ^ {2} X_ {j} X_ {k} \ derecha] & = E \ izquierda [X_ {i} ^ {2} \ derecha] E \ izquierda [ X_ {j} \ right] E \ left [X_ {k} \ right] = 0 \\ E \ left [X_ {i} X_ {j} X_ {k} X_ {l} \ right] & = 0 \\ \ end {alineado}

con la ayuda de la combinación del par, la expansión de la serie ahora será

\ begin {alineado} E \ left [S_ {n} ^ {4} \ right] & = n E \ left [X_ {i} ^ {4} \ right] +6 \ left (\ begin {array} {l } n \\ 2 \ end {matriz} \ right) E \ left [X_ {i} ^ {2} X_ {j} ^ {2} \ right] \\ & = n K + 3 n (n-1) E \ left [X_ {i} ^ {2} \ right] E \ left [X_ {j} ^ {2} \ right] \ end {alineado}

desde

0 \leq \operatorname{Var}\left(X_{i}^{2}\right)=E\left[X_{i}^{4}\right]-\left(E\left[X_{i}^{2}\right]\right)^{2}

so

\ left (E \ left [X_ {i} ^ {2} \ right] \ right) ^ {2} \ leq E \ left [X_ {i} ^ {4} \ right] = K

obtenemos

E \ izquierda [S_ {n} ^ {4} \ derecha] \ leq n K + 3 n (n-1) K

esto sugiere la desigualdad

E \ left [\ frac {S_ {n} ^ {4}} {n ^ {4}} \ right] \ leq \ frac {K} {n ^ {3}} + \ frac {3 K} {n ^ {2}}

por lo tanto

E\left[\sum_{n=1}^{\infty} \frac{s_{n}^{4}}{n^{4}}\right]=\sum_{n=1}^{\infty} E\left[\frac{s_{n}^{4}}{n^{4}}\right]<\infty

Por la convergencia de la serie, ya que la probabilidad de cada variable aleatoria es uno, entonces

\ lim _ {n \ rightarrow \ infty} \ frac {S_ {n} ^ {4}} {n ^ {4}} = 0

desde

\ frac {S_ {n}} {n} \ rightarrow 0 \ quad \ text {as} \ quad n \ rightarrow \ infty

si la media de cada variable aleatoria no es igual a cero, entonces con desviación y probabilidad uno podemos escribirlo como

\ lim _ {n \ rightarrow \ infty} \ sum_ {i = 1} ^ {n} \ frac {\ left (X_ {i} - \ mu \ right)} {n} = 0

or

\ lim _ {n \ rightarrow \ infty} \ sum_ {i = 1} ^ {n} \ frac {X_ {i}} {n} = \ mu

que es el resultado requerido.

Desigualdad de Chebyshev unilateral

La desigualdad de Chebysheve unilateral para la variable aleatoria X con media cero y varianza finita si a> 0 es

Desigualdad de Chebyshev
desigualdad de chebyshev

para probar esto, considere para b> 0 sea la variable aleatoria X como

X \ geq a \ text {es equivalente a} X + b \ geq a + b

lo que da

P [X \ geq a] = P [X + b \ geq a + b] \\ \ leq P [(X + b) ^ {2} \ geq (a + b) ^ {2}]

así que usando el La desigualdad de Markov

Desigualdad de Chebyshev
chebyshev unilateral

lo que da la desigualdad requerida. para la media y la varianza podemos escribirlo como

P (X- \ mu \ geq a \} \ leq \ frac {\ sigma ^ {2}} {\ sigma ^ {2} + a ^ {2}} \\ P (\ mu-X \ geq a \} \ leq \ frac {\ sigma ^ {2}} {\ sigma ^ {2} + a ^ {2}}

Esto además se puede escribir como

\ begin {matriz} {l} P (X \ geq \ mu + a \} \ leq \ frac {\ sigma ^ {2}} {\ sigma ^ {2} + a ^ {2}} \\ P \ { X \ leq \ mu-a \} \ leq \ frac {\ sigma ^ {2}} {\ sigma ^ {2} + a ^ {2}} \ end {matriz}

Ejemplo:

Encuentre el límite superior de la probabilidad de que la producción de la empresa que se distribuye aleatoriamente sea de al menos 120, si la producción de esta determinada empresa tiene una media de 100 y una varianza de 400.

Solución:

Usando el unilateral desigualdad de chebyshev

P \ {X \ geq 120 \} = P (X-100 \ geq 20 \} \ leq \ frac {400} {400+ (20) ^ {2}} = \ frac {1} {2}

entonces esto da la probabilidad de la producción dentro de una semana al menos 120 es 1/2, ahora el límite para esta probabilidad se obtendrá usando La desigualdad de Markov

P [X \ geq 120 \} \ leq \ frac {E (X)} {120} = \ frac {5} {6}

que muestra el límite superior de la probabilidad.

Ejemplo:

Se toman cien pares de doscientas personas que tienen cien hombres y cien mujeres y se encuentra el límite superior de la probabilidad de que como máximo treinta pares estén formados por hombres y mujeres.

Solución:

Deje que la variable aleatoria Xi as

X_ {i} = \ left \ {\ begin {array} {ll} 1 & \ text {si el hombre i está emparejado con una mujer} \\ 0 & \ text {de lo contrario} \ end {array} \ right.

por lo que el par se puede expresar como

X = \ sum_ {i = 1} ^ {100} X_ {i}

Dado que todos los hombres tienen la misma probabilidad de estar emparejados con las personas restantes en las que cien son mujeres, la media

E \ left [X_ {i} \ right] = P \ left \ {X_ {i} = 1 \ right \} = \ frac {100} {199}

de la misma manera si i y j no son iguales, entonces

\ begin {alineado} E \ left [X_ {i} X_ {j} \ right] & = P \ left \ {X_ {i} = 1, X_ {j} = 1 \ right \} \\ & = P \ izquierda \ {X_ {i} = 1 \ derecha \} P \ izquierda [X_ {j} = 1 \ mid X_ {i} = 1 \ derecha \} = \ frac {100} {199} \ frac {99} { 197} \ end {alineado}

as

P \ left \ {X_ {j} = 1 \ mid X_ {i} = 1 \ right \} = 99/197

por lo tanto tenemos

comenzar {alineado} E [X] & = \ sum_ {i = 1} ^ {100} E \ left [X_ {i} \ right] \\ & = (100) \ frac {100} {199} \\ & \ approx 50.25 \\ \ operatorname {Var} (X) & = \ sum_ {i = 1} ^ {100} \ operatorname {Var} \ left (X_ {i} \ right) +2 \ sum_ {i

usando el desigualdad de chebyshev

P \ {X \ leq 30 \} \ leq P \ {| X-50.25 | \ geq 20.25 \} \ leq \ frac {25.126} {(20.25) ^ {2}} \ approx 0.061

que dice que la posibilidad de emparejar 30 hombres con mujeres es menos de seis, por lo que podemos mejorar el límite usando desigualdad chebyshev unilateral

\ begin {align} P [X \ leq 30 \} & = P [X \ leq 50.25-20.25 \ rangle \\ & \ leq \ frac {25.126} {25.126+ (20.25) ^ {2}} \\ & \ aprox, 0.058 \ end {alineado}

Chernoff Bound

Si la función generadora de momento ya se conoce entonces

\ begin {alineado} P [X \ geq a \} & = P \ left (e ^ {\ ell X} \ geq e ^ {\ downarrow a} \ right) \\ & \ leq E \ left [e ^ { t X} \ right] e ^ {- ta} \ end {alineado}

as

M (t) = E \ left [e ^ {LX} \ right]

de la misma manera podemos escribir para t <0 como

\ begin {alineado} P \ {X \ leq a \} & = P \ left \ {e ^ {IX} \ geq e ^ {[\ alpha} \ right \} \\ & \ leq E \ left [e ^ {t X} \ right] e ^ {- ta} \ end {alineado}

Por lo tanto, el límite de Chernoff se puede definir como

\ begin {array} {ll} P \ {X \ geq a \} \ leq e ^ {- f \ tau} M (t) & \ text {para todos} t> 0 \\ P \ {X \ leq a \} \ leq e ^ {- \ pi \ tau} M (t) & \ text {para todos} t <0 \ end {matriz}

esta desigualdad representa todos los valores de t positivos o negativos.

Límites de Chernoff para la variable aleatoria normal estándar

Los límites de Chernoff para la variable aleatoria normal estándar cuya función generadora de momento

M (t) = e ^ {e ^ {2} / 2}

is

P \ {Z \ geq a \ rangle \ leq e ^ {- ta} e ^ {t ^ {2} / 2} \ quad \ text {para todos} \ quad t> 0

así que minimizar esta desigualdad y los términos de potencia del lado derecho da para a> 0

P \ {Z \ geq a \} \ simeq e ^ {- \ lambda ^ {2} / 2}

y para un <0 es

P \ {Z \ leq a \} \ leqq e ^ {- \ alpha ^ {2} / 2}

Límites de Chernoff para la variable aleatoria de Poisson

Los límites de Chernoff para la variable aleatoria de Poisson cuya función generadora de momento

M (t) = e ^ {\ lambda \ left (e ^ {\ prime} -1 \ right)}

is

P \ {X \ geq i \} \ leq e ^ {\ lambda \ left (e ^ {t} -1 \ right)} e ^ {- it} \ quad t> 0

así que minimizar esta desigualdad y los términos de potencia del lado derecho da para a> 0

P \ {X \ geq i \} \ leq e ^ {\ lambda \ omega / \ lambda-1)} \ left (\ frac {\ lambda} {i} \ right)

y seria

P \ {X \ geq i \} \ leq \ frac {e ^ {- 2} (e \ lambda) ^ {i}} {l ^ {i}}

Ejemplo de Chernoff Bounds

En un juego, si un jugador tiene la misma probabilidad de ganar o perder el juego independientemente de cualquier puntaje pasado, encuentre el límite de chernoff para la probabilidad

Solución: Sea Xi denotar la victoria del jugador, entonces la probabilidad será

P \ left \ {X_ {i} = 1 \ right \} = P \ left \ {X_ {i} = - 1 \ right \} = \ frac {1} {2}

para la secuencia de n jugadas deja

S_ {n} = \ sum_ {i = 1} ^ {n} X_ {i}

por lo que la función generadora de momento será

E \ left [e ^ {\ ell X} \ right] = \ frac {e ^ {t} + e ^ {- t}} {2}

aquí usando las expansiones de términos exponenciales

\ begin {alineado} e ^ {I} + e ^ {- l} & = 1 + t + \ frac {t ^ {2}} {2!} + \ frac {t ^ {3}} {3!} + \ cdots + \ left (1-t + \ frac {t ^ {2}} {2!} - \ frac {t ^ {3}} {3!} + \ cdots \ right) \\ & = 2 \ left \ { 1+ \ frac {t ^ {2}} {2!} + \ Frac {t ^ {4}} {4!} + \ Cdots \ right \} \\ & = 2 \ sum_ {n = 0} ^ { \ infty} \ frac {t ^ {2 n}} {(2 n)!} \\ & \ simeq 2 \ sum_ {n = 0} ^ {\ infty} \ frac {\ left (t ^ {2} / 2 \ right) ^ {n}} {n!} \ Quad \ operatorname {since} (2 n)! \ geq n! 2 ^ {n} \\ & = 2 e ^ {t ^ {2} / 2} \ end {alineado}

entonces tenemos

E \ izquierda [e ^ {t X} \ derecha] \ geq e ^ {t ^ {2} / 2}

ahora aplicando la propiedad de la función generadora de momentos

\ begin {alineado} E \ left [e ^ {\ mathcal {S} _ {n}} \ right] & = \ left (E \ left [e ^ {LX} \ right] \ right) ^ {n} \ \ & \ leq e ^ {n ^ {2} / 2} \ end {alineado}

Esto da la desigualdad

P \ left \ {S_ {n} \ geq a \ right \} \ leq e ^ {- \ alpha ^ {2} / 2 n} \ quad a> 0

por lo tanto

P \ left \ {S_ {10} \ geq 6 \ right \} \ leq e ^ {- 36/20} \ approx 0.1653

Conclusión:

Se discutieron las desigualdades y el teorema del límite para los números grandes y también se tomaron los ejemplos justificables para los límites de las probabilidades para vislumbrar la idea. el concepto fácilmente, si necesita más lectura, consulte los libros a continuación o para obtener más artículos sobre probabilidad, siga nuestras Páginas de matemáticas.

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/