Variable aleatoria geométrica | Su característica importante

Alguna variable aleatoria discreta adicional y sus parámetros

    La variable aleatoria discreta con su función de masa de probabilidad combina la distribución de la probabilidad y, dependiendo de la naturaleza de la variable aleatoria discreta, la distribución de probabilidad puede tener diferentes nombres como distribución binomial, distribución de Poisson, etc., como ya hemos visto los tipos de discreta variable aleatoria, variable aleatoria binomial y variable aleatoria de Poisson con los parámetros estadísticos para estas variables aleatorias. La mayoría de las variables aleatorias se caracterizan en función de la naturaleza de la función de masa de probabilidad, ahora veremos algún tipo más de variables aleatorias discretas y sus parámetros estadísticos.

Variable aleatoria geométrica y su distribución

      Una variable aleatoria geométrica es la variable aleatoria que se asigna para los ensayos independientes realizados hasta la ocurrencia del éxito después de una falla continua, es decir, si realizamos un experimento n veces y obtenemos inicialmente todas las fallas n-1 veces y luego, al final, obtenemos el éxito. La función de masa de probabilidad para tal variable aleatoria discreta será

P (X = n) = (1-p) ^ {n-1} \ veces p, \; \; por\; n = 1,2,3,4 ……

En esta variable aleatoria, la condición necesaria para el resultado del ensayo independiente es la inicial, todo el resultado debe ser un fracaso antes que el éxito.

Así, en resumen, la variable aleatoria que sigue a la función de masa de probabilidad se conoce como variable aleatoria geométrica.

Se observa fácilmente que la suma de tales probabilidades será 1 en el caso de la probabilidad.

\sum_{n=1}^{\infty}P(X=n)=p\sum_{n=1}^{\infty}( 1-p)^{n-1}=p*\frac{1}{1-(1-p))}=1

Por lo tanto, la variable aleatoria geométrica con tal función de masa de probabilidad es distribución geométrica.

Expectativa de variable aleatoria geométrica

    Como la expectativa es uno de los parámetros importantes para la variable aleatoria, la expectativa para la variable aleatoria geométrica será 

E [X] = \ frac {1} {p} \ \,

donde p es la probabilidad de éxito.

desde

E [X] = \ sum_ {n = 1} ^ {\ infty} X * P (X = n)

Sea la probabilidad de falla q = 1-p

so

\\ E [X] = \ sum_ {i = 1} ^ {\ infty} i * P (X = n)

\ E [X] = \ sum_ {i = 1} ^ {\ infty} i * q ^ {i-1} p

\ = \ sum_ {i = 1} ^ {\ infty} (i-1 + 1) * q ^ {i-1} p

\=\sum_{i=1}^{\infty}(i-1) *q^{i-1}p+\sum_{i=1}^{\infty}q^{i-1}p

\ = \ sum_ {j = 1} ^ {\ infty} (j) * q ^ {j} p + 1

\ = q \ sum_ {j = 1} ^ {\ infty} (j) * q ^ {j-1} p + 1

\ E [X] = qE [X] +1

\ (1-q) E [X] = 1

\ pE [X] = 1

así obtenemos

E [X] = \ frac {1} {p} \ \,

Por lo tanto, podemos seguir el valor esperado o la media de la información dada por el valor inverso de la probabilidad de éxito en una variable aleatoria geométrica.

Varianza y desviación estándar de la variable aleatoria geométrica

De manera similar podemos obtener la varianza y la desviación estándar de otros parámetros estadísticos importantes para la variable aleatoria geométrica y sería

var (X) = \ frac {1-p} {p ^ {2}}

y

sd = \ sqrt {\ frac {1-p} {p ^ {2}}}

Para obtener estos valores usamos la relación

var (X) = E [X ^ {2}] - {E [X]} ^ {2}

Así que calculemos primero

E [X ^ {2}]

conjunto \ \ q = 1-p

E [X] = \ sum_ {n = 1} ^ {\ infty} X * P (X = n)

\\ E [X] = \ sum_ {i = 1} ^ {\ infty} i * q ^ {i-1} p

so

\ \ E [X ^ {2}] = \ sum_ {i = 1} ^ {\ infty} i ^ {2} * q ^ {i-1} p

\\E[X^{2}]= \sum_{i=1}^{\infty}(i-1+1)^{2} *q^{i-1}p

\\E[X^{2}]= \sum_{i=1}^{\infty}(i-1)^{2} *q^{i-1}p+\sum_{i=1}^{\infty}2(i-1) *q^{i-1}p+\sum_{i=1}^{\infty}q^{i-1}p

\\ E [X ^ {2}] = \ sum_ {j = 0} ^ {\ infty} (j) ^ {2} * q ^ {j} p + 2 \ sum_ {j = 0} ^ {\ infty } j * q ^ {j} p + 1

\\E[X^{2}]=q \sum_{j=1}^{\infty}(j)^{2} *q^{j-1}p+2q\sum_{j=1}^{\infty}j *q^{j-1}p+1

\\ E [X ^ {2}] = qE [X ^ {2}] + 2qE [X] +1

\\ E [X ^ {2}] - qE [X ^ {2}] = 2qE [X] +1

ya que \ \ E [X] = \ frac {1} {p}, 1-q = p

pE [X ^ {2}] = \ frac {2q} {p} +1

\\ E [X ^ {2}] = \ frac {2q + p} {p ^ {2}} = \ frac {q + q + p} {p ^ {2}} = \ frac {q + 1} {p ^ {2}}

Entonces ahora escribimos

Var(X)= \frac{q+1}{p^{2}}-\frac{1}{p^{2}}=\frac{q}{p^{2}}=\frac{1-p}{p^{2}}

así tenemos

var (X) = \ frac {1-p} {p ^ {2}} \ \ y

sd = \ sqrt {\ frac {1-p} {p ^ {2}}}

Variable aleatoria binomial negativa

    Este azar cae en otra variable aleatoria discreta debido a la naturaleza de su función de masa de probabilidad, en la variable aleatoria binomial negativa y en su distribución a partir de n ensayos de un experimento independiente se deben obtener inicialmente r éxitos

    \ [\ [P \ {X = n \} = \ left (\ begin {array} {c} n-1 \\ r-1 \ end {array} \ right) p ^ {r} (1-p) ^ {nr} \ quad n = r, r + 1, \ ldots \\ \ left (\ begin {array} {c} n-1 \\ r-1 \ end {array} \ right) p ^ {r- 1} (1-p) ^ {nr} \] \]

En otras palabras, una variable aleatoria con la función de masa de probabilidad anterior es una variable aleatoria binomial negativa con parámetros (r, p), tenga en cuenta que si restringimos r = 1, la distribución binomial negativa se convierte en distribución geométrica, podemos verificar específicamente

    \ [\ sum_ {n = r} ^ {\ infty} P \ {X = n \} = \ sum_ {n = r} ^ {\ infty} \ left (\ begin {array} {c} n-1 \ \ r-1 \ end {matriz} \ right) p ^ {r} (1-p) ^ {nr} = 1 \]

Expectativa, varianza y desviación estándar de la variable aleatoria binomial negativa

La expectativa y la varianza para la variable aleatoria binomial negativa serán

E [X] = \ frac {r} {p} \ quad \ operatorname {Var} (X) = \ frac {r (1-p)} {p ^ {2}}

con la ayuda de la función de masa de probabilidad de la variable aleatoria binomial negativa y la definición de expectativa podemos escribir

\\ E \ left [X ^ {k} \ right] = \ sum_ {n = r} ^ {\ infty} n ^ {k} \ left (\ begin {array} {c} n-1 \\ r- 1 \ end {matriz} \ right) p ^ {r} (1-p) ^ {nr} \\ = \ frac {r} {p} \ sum_ {n = r} ^ {\ infty} n ^ {k -1} \ left (\ begin {array} {c} n \\ r \ end {array} \ right) p ^ {r + 1} (1-p) ^ {nr} \ text {since} n \ left (\ begin {array} {c} n-1 \\ r-1 \ end {array} \ right) = r \ left (\ begin {array} {c} n \\ r \ end {array} \ right) \\ = \ frac {r} {p} \ sum_ {m = r + 1} ^ {\ infty} (m-1) ^ {k-1} \ left (\ begin {array} {c} m-1 \\ r \ end {matriz} \ right) p ^ {r + 1} (1-p) ^ {m- (r + 1)} \ begin {matriz} {c} \ text {por configuración} \\ m = n + 1 \ end {matriz} \\ = \ frac {r} {p} E \ left [(Y-1) ^ {k-1} \ right]

aquí Y no es más que la variable aleatoria binomial negativa ahora pon k = 1 obtendremos

    \ [\\ E [X] = \ frac {r} {p} \ \ y \ \ k = 2 \ \ \\ E \ left [X ^ {2} \ right] = \ frac {r} {p} E [Y-1] \\ = \ frac {r} {p} \ left (\ frac {r + 1} {p} -1 \ right) \]

Por lo tanto, para la varianza

    \ [var (X) = E [X ^ {2}] - {E [X]} ^ {2} \]

    \ [\\ \ operatorname {Var} (X) = \ frac {r} {p} \ left (\ frac {r + 1} {p} -1 \ right) - \ left (\ frac {r} {p } \ derecha) ^ {2} \\ = \ frac {r (1-p)} {p ^ {2}} \]

Ejemplo: Si se lanza un dado para obtener 5 en la cara del dado hasta que obtengamos 4 veces este valor, encuentre la expectativa y la varianza.Sine, la variable aleatoria asociada con este experimento independiente es la variable aleatoria binomial negativa para r = 4 y la probabilidad de éxito p = 1/6 para obtener 5 en un tiro

como sabemos para la variable aleatoria binomial negativa 

    \ [E [X] = \ frac {r} {p} \\ \ operatorname {Var} (X) = \ frac {r (1-p)} {p ^ {2}} \]

so

    \ [\\ E [X] = 24 \\ \ operatorname {Var} (X) = \ frac {4 \ left (\ frac {5} {6} \ right)} {\ left (\ frac {1} { 6} \ right) ^ {2}} = 120 \]

Variable aleatoria hipergeométrica

       Si elegimos particularmente una muestra de tamaño n de un total N que tiene my Nm dos tipos, entonces se seleccionó la variable aleatoria para que la primera función de masa de probabilidad sea

\\ P \ {X = i \} = \ frac {\ left (\ begin {array} {c} m \\ i \ end {array} \ right) \ left (\ begin {array} {c} Nm \ \ ni \ end {matriz} \ right)} {\ left (\ begin {matriz} {l} N \\ n \ end {matriz} \ right)} \ quad i = 0,1, \ ldots, n

por ejemplo, supongamos que tenemos un saco del cual una muestra de tamaño n libros tomados al azar sin reemplazo que contiene N libros de los cuales m son matemáticas y Nm son física.Si asignamos la variable aleatoria para denotar el número de libros de matemáticas seleccionados, entonces la masa de probabilidad La función para dicha selección será según la función de masa de probabilidad anterior.

  En otras palabras, se sabe que la variable aleatoria con la función de masa de probabilidad anterior es la variable aleatoria hipergeométrica.

Ejemplo: De un lote de algunos componentes electrónicos, si el 30% de los lotes tienen cuatro componentes defectuosos y el 70% tiene uno defectuoso, siempre que el tamaño del lote sea 10 y para aceptar el lote, se elegirán tres componentes aleatorios y se comprobarán si todos no tienen defectos. se seleccionará el lote. Calcule qué porcentaje del lote total se rechaza.

aquí considera que A es el evento para aceptar el lote

\\ P \ {X = i \} = \ frac {\ left (\ begin {array} {c} m \\ i \ end {array} \ right) \ left (\ begin {array} {c} Nm \ \ ni \ end {matriz} \ right)} {\ left (\ begin {matriz} {l} N \\ n \ end {matriz} \ right)} \ quad i = 0,1, \ ldots, n

N = 10, m = 4, n = 3

P (Un lote de \ mid $ tiene 4 defectuosos $) = \ frac {\ left (\ begin {array} {l} 4 \\ 0 \ end {array} \ right) \ left (\ begin {array} {l} 6 \\ 3 \ end {matriz} \ right)} {\ left (\ begin {matriz} {c} 10 \\ 3 \ end {matriz} \ right)}

para N = 10, m = 1, n = 3

P (Un lote de \ mid $ tiene 1 $ defectuoso) = \ frac {\ left (\ begin {array} {l} 1 \\ 0 \ end {array} \ right) \ left (\ begin {array} {l} 9 \\ 3 \ end {matriz} \ right)} {\ left (\ begin {matriz} {c} 10 \\ 3 \ end {matriz} \ right)}

\ begin {align} P (A) & = P (A \ mid \ text {lote tiene} 4 \ text {defectuosos}) \ frac {3} {10} + P (A \ mid \ text {lote tiene} 1 \ text {defectuoso}) \ frac {7} {10} \\ & = \ frac {\ left (\ begin {array} {l} 4 \\ 0 \ end {array} \ right) \ left (\ begin { array} {l} 6 \\ 3 \ end {array} \ right)} {\ left (\ begin {array} {c} 10 \\ 3 \ end {array} \ right)} \ left (\ frac {3 } {10} \ right) + \ frac {\ left (\ begin {array} {l} 1 \\ 0 \ end {array} \ right) \ left (\ begin {array} {l} 9 \\ 3 \ end {array} \ right)} {\ left (\ begin {array} {c} 10 \\ 3 \ end {array} \ right)} \ left (\ frac {7} {10} \ right) \\ = & \ frac {54} {100} \ end {alineado}

Por lo tanto, se rechazará el lote del 46%.

Expectativa, varianza y desviación estándar de la variable aleatoria hipergeométrica

    La expectativa, la varianza y la desviación estándar para la variable aleatoria hipergeométrica con los parámetros n, my N serían

\\ E [X] = \ frac {nm} {N} \ quad \ operatorname {Var} (X) = np (1-p) \ left (1- \ frac {n-1} {N-1} \ derecho)

o por el gran valor de N

\\ \ nombre de operador {Var} (X) \ approx np (1-p)

y la desviación estándar es la raíz cuadrada de la varianza.

Al considerar la definición de la función de masa de probabilidad de la función hipergeorométrica y la expectativa, podemos escribirla como

\ begin {alineado} E \ left [X ^ {k} \ right] & = \ sum_ {i = 0} ^ {n} i ^ {k} P \ {X = i \} \\ & = \ sum_ { i = 1} ^ {n} i ^ {k} \ left (\ begin {array} {c} m \\ i \ end {array} \ right) \ left (\ begin {array} {c} Nm \\ ni \ end {matriz} \ derecha) / \ izquierda (\ begin {matriz} {c} N \\ n \ end {matriz} \ derecha) \ end {alineado}

aquí mediante el uso de las relaciones e identidades de las combinaciones que tenemos

\ begin {alineado} \\ i \ left (\ begin {array} {c} m \\ i \ end {array} \ right) & = m \ left (\ begin {array} {c} m-1 \\ i-1 \ end {matriz} \ right) \ text {y} n \ left (\ begin {matriz} {c} N \\ n \ end {matriz} \ right) = N \ left (\ begin {matriz} {c} N-1 \\ n-1 \ end {matriz} \ right) \ end {alineado}

entonces seria

\\ E \ left [X ^ {k} \ right] & = \ frac {nm} {N} \ sum_ {i = 1} ^ {n} i ^ {k-1} \ left (\ begin {array} {c} m-1 \\ i-1 \ end {matriz} \ derecha) \ izquierda (\ begin {matriz} {c} Nm \\ ni \ end {matriz} \ derecha) / \ izquierda (\ begin {matriz } {c} N-1 \\ n-1 \ end {matriz} \ right) \\ & = \ frac {nm} {N} \ sum_ {j = 0} ^ {n-1} (j + 1) ^ {k-1} \ left (\ begin {array} {c} m-1 \\ j \ end {array} \ right) \ left (\ begin {array} {c} Nm \\ n-1-j \ end {matriz} \ derecha) / \ izquierda (\ begin {matriz} {c} N-1 \\ n-1 \ end {matriz} \ derecha) \\ & = \ frac {nm} {N} E \ izquierda [(Y + 1) ^ {k-1} \ right] \ end {alineado}

aquí Y juega el papel de variable aleatoria hipergeométrica con los parámetros respectivos ahora si ponemos k = 1 obtendremos

E [X] = \ frac {nm} {N}

y para k = 2

    \ [\ begin {alineado} E \ left [X ^ {2} \ right] & = \ frac {nm} {N} E [Y + 1] \\ & = \ frac {nm} {N} \ left [ \ frac {(n-1) (m-1)} {N-1} +1 \ right] \ end {alineado} \]

entonces la varianza sería

\ operatorname {Var} (X) = \ frac {nm} {N} \ left [\ frac {(n-1) (m-1)} {N-1} + 1- \ frac {nm} {N} \derecho]

para p = m / N y

    \[\\ \frac{m-1}{N-1}=\frac{N p-1}{N-1}=p-\frac{1-p}{N-1}\]

obtenemos

    \ [\\ \ nombre del operador {Var} (X) = np \ left [(n-1) p- (n-1) \ frac {1-p} {N-1} + 1-np \ right] \\ \]

para un valor muy grande de N obviamente

    \ [\\ \ nombre de operador {Var} (X) \ approx np (1-p) \]

Variable aleatoria Zeta (Zipf)

        Se dice que una variable aleatoria discreta es Zeta si su función de masa de probabilidad está dada por

    \ [\\ \ qquad P \ {X = k \} = \ frac {C} {k ^ {\ alpha + 1}} \ quad k = 1,2, \ ldots \]

para los valores positivos de alfa.

De manera similar podemos encontrar los valores de la expectativa, la varianza y la desviación estándar.

     De manera similar, usando solo la definición de la función de masa de probabilidad y la expectativa matemática, podemos resumir el número de propiedades para cada una de las variables aleatorias discretas, por ejemplo, los valores esperados de las sumas de variables aleatorias como

Para variables aleatorias

$ X_ {1}, X_ {2}, \ ldots, X_ {n} $

E \ left [\ sum_ {i = 1} ^ {n} X_ {i} \ right] = \ sum_ {i = 1} ^ {n} E \ left [X_ {i} \ right]

Conclusión:

   En este artículo nos enfocamos principalmente en alguna variable aleatoria discreta adicional, sus funciones de masa de probabilidad, distribución y los parámetros estadísticos media o expectativa, desviación estándar y varianza. discutir En los próximos artículos, nos moveremos sobre las variables aleatorias continuas y los conceptos relacionados con la variable aleatoria continua. Si desea leer más, consulte el enlace sugerido a continuación. Para más temas sobre matemáticas, por favor este enlace.

Esquemas de probabilidad y estadística de Schaum

https://en.wikipedia.org/wiki/Probability

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Frikis Lambda