Funciones generadoras de momentos | Sus 6 distribuciones importantes

Función generadora de momentos    

La función generadora de momentos es una función muy importante que genera los momentos de la variable aleatoria que involucran media, desviación estándar y varianza, etc., por lo que con la ayuda de la función generadora de momentos únicamente, podemos encontrar momentos básicos y momentos superiores. verá funciones generadoras de momentos para las diferentes variables aleatorias discretas y continuas. ya que la función generadora de momento (MGF) se define con la ayuda de la expectativa matemática denotada por M (t) como

M (t) = E \ left [e ^ {t X} \ right]

y usando la definición de expectativa para la variable aleatoria discreta y continua, esta función será

M (t) = \ left \ {\ begin {array} {ll} \ sum_ {x} e ^ {tx} p (x) & \ text {if} X \ text {es discreto con función de masa} p (x ) \\ \ int _ {- \ infty} ^ {\ infty} e ^ {ix} f (x) dx & \ text {if} X \ text {es continuo con densidad} f (x) \ end {array} \ derecho.

que al sustituir el valor de t por cero genera momentos respectivos. Estos momentos tenemos que recopilar diferenciando esta función generadora de momentos, por ejemplo, para el primer momento o la media que podemos obtener diferenciando una vez

\ begin {alineado} M ^ {\ prime} (t) & = \ frac {d} {dt} E \ left [e ^ {t X} \ right] \\ & = E \ left [\ frac {d} {dt} \ left (e ^ {LX} \ right) \ right] \\ & = E \ left [X e ^ {t X} \ right] \ end {alineado}

Esto da la pista de que la diferenciación es intercambiable bajo la expectativa y podemos escribirla como

\ frac {d} {dt} \ left [\ sum_ {x} e ^ {ix} p (x) \ right] = \ sum_ {x} \ frac {d} {dt} \ left [e ^ {\ nombre del operador {tr}} p (x) \ right]

y

\ frac {d} {dt} \ left [\ int e ^ {ix} f (x) dx \ right] = \ int \ frac {d} {dt} \ left [e ^ {tx} f (x) \ derecha] dx

si t = 0 los momentos anteriores serán

M ^ {\ prime} (0) = E [X]

y

\ begin {alineado} M ^ {\ prime \ prime} (t) & = \ frac {d} {dt} M ^ {\ prime} (t) \\ & = \ frac {d} {dt} E \ left [X e ^ {t X} \ right] \\ & = E \ left [\ frac {d} {dt} \ left (X e ^ {t X} \ right) \ right] \\ & = E \ left [X ^ {2} e ^ {LX} \ right] \\ M ^ {\ prime \ prime} (0) & = E \ left [X ^ {2} \ right] \ end {alineado}

En general podemos decir que

M ^ {n} (t) = E \ left [X ^ {n} e ^ {t X} \ right] \ quad n \ geq 1

por lo tanto

M ^ {n} (0) = E \ left [X ^ {n} \ right] \ quad n \ geq 1

Función generadora de momento de la distribución binomial || Función generadora de momento de la distribución binomial || MGF de la distribución binomial || Media y varianza de la distribución binomial usando la función generadora de momento

La función generadora de momento para la variable aleatoria X, que es una distribución binomial, seguirá la función de probabilidad de la distribución binomial con los parámetros n y p como

\ begin {alineado} M (t) & = E \ left [e ^ {t X} \ right] \\ & = \ sum_ {k = 0} ^ {n} e ^ {tk} \ left (\ begin { matriz} {l} n \\ k \ end {matriz} \ right) p ^ {k} (1-p) ^ {nk} \\ & = \ sum_ {k = 0} ^ {n} \ left (\ begin {array} {l} n \\ k \ end {array} \ right) \ left (pe ^ {t} \ right) ^ {k} (1-p) ^ {nk} \\ & = \ left ( pe ^ {t} + 1-p \ right) ^ {n} \ end {alineado}

que es el resultado del teorema binomial, ahora diferenciando y poniendo el valor de t = 0

M ^ {\ prime} (t) = n \ left (pe ^ {t} + 1-p \ right) ^ {n-1} pe ^ {t} \\ E [X] = M ^ {\ prime} (0) = np

que es la media o el primer momento de la distribución binomial de manera similar, el segundo momento será

M ^ {\ prime} (t) = n (n-1) \ left (pe ^ {t} + 1-p \ right) ^ {n-2} \ left (pe ^ {t} \ right) ^ { 2} + n \ left (pe ^ {t} + 1-p \ right) ^ {n-1} pe ^ {t} \\ E \ left [X ^ {2} \ right] = M ^ {\ prime \ prime} (0) = n (n-1) p ^ {2} + np

por lo que la varianza de la distribución binomial será

\ begin {alineado} \ operatorname {Var} (X) & = E \ left [X ^ {2} \ right] - (E [X]) ^ {2} \\ & = n (n-1) p ^ {2} + n pn ^ {2} p ^ {2} \\ & = np (1-p) \ end {alineado}

que es la media estándar y la varianza de la distribución Binomial, de manera similar, los momentos más altos también podemos encontrar usando esta función generadora de momentos.

Función generadora de momento de Poisson distribución ||Poisson función de generación de momento de distribución || MGF de Poisson distribución || Media y varianza de la distribución de Poisson usando la función generadora de momentos

 Si tenemos la variable aleatoria X que es Poisson distribuida con el parámetro Lambda, entonces la función generadora de momento para esta distribución será

\ begin {alineado} M (t) & = E \ left [e ^ {\ ell X} \ right] \\ & = \ sum_ {n = 0} ^ {\ infty} \ frac {e ^ {in} e ^ {- \ lambda} \ lambda ^ {n}} {n!} \\ & = e ^ {- \ lambda} \ sum_ {n = 0} ^ {\ infty} \ frac {\ left (\ lambda e ^ {t} \ right) ^ {n}} {n!} \\ & = e ^ {- \ lambda} e \\ & = e ^ {\ left \ {\ lambda \ left (e ^ {t} -1 \ right) \ right \}} \ end {alineado}

ahora diferenciando esto dará

\ begin {alineado} M ^ {\ prime} (t) & = \ lambda e ^ {t} e ^ {\ left \ {\ lambda \ left (e ^ {t} -1 \ right) \ right \}} \\ M ^ {\ prime \ prime} (t) & = \ left (\ lambda e ^ {t} \ right) ^ {2} e ^ {\ left \ {\ lambda \ left (e ^ {t} - 1 \ right) \ right \}} + \ lambda e ^ {t} e ^ {\ left \ {\ lambda \ left (e ^ {t} -1 \ right) \ right \}} \ end {alineado}

esto da

\ begin {alineado} E [X] & = M ^ {\ prime} (0) = \ lambda \\ E \ left [X ^ {2} \ right] & = M ^ {\ prime \ prime} (0) = \ lambda ^ {2} + \ lambda \\ \ operatorname {Var} (X) & = E \ left [X ^ {2} \ right] - (E [X]) ^ {2} \\ & = \ lambda \ end {alineado}

que da la media y la varianza para la distribución de Poisson, lo cual es cierto

Función generadora de momento de distribución exponencial ||Exponencial función de generación de momento de distribución || MGF de Exponencial distribución || Media y varianza de Exponencial distribución usando la función de generación de momento

                La función generadora de Momento para la variable aleatoria exponencial X siguiendo la definición es

\ begin {alineado} M (t) & = E \ left [e ^ {t X} \ right] \\ & = \ int_ {0} ^ {\ infty} e ^ {\ lfloor x} \ lambda e ^ { - \ lambda x} dx \\ & = \ lambda \ int_ {0} ^ {\ infty} e ^ {- (\ lambda-t) x} dx \\ & = \ frac {\ lambda} {\ lambda-t } \ quad \ text {para} t <\ lambda \ end {alineado}

aquí el valor de t es menor que el parámetro lambda, ahora diferenciando esto dará

M ^ {\ prime} (t) = \ frac {\ lambda} {(\ lambda-t) ^ {2}} \ quad M ^ {\ prime \ prime} (t) = \ frac {2 \ lambda} { (\ lambda-t) ^ {3}}

que proporciona los momentos

E [X] = M ^ {\ prime} (0) = \ frac {1} {\ lambda} \ quad E \ left [X ^ {2} \ right] = M ^ {\ prime \ prime} (0) = \ frac {2} {\ lambda ^ {2}}

sin duda.

\ begin {alineado} \ operatorname {Var} (X) & = E \ left [X ^ {2} \ right] - (E [X]) ^ {2} \\ & = \ frac {1} {\ lambda ^ {2}} \ end {alineado}

Cuáles son la media y la varianza de la distribución exponencial.

Función generadora de momento de distribución normal ||Normal función de generación de momento de distribución || MGF de Normal distribución || Media y varianza de Normal distribución usando la función de generación de momento

  La función de generación de momento para las distribuciones continuas también es la misma que la discreta, por lo que la función de generación de momento para la distribución normal con la función de densidad de probabilidad estándar será

\ begin {alineado} M_ {Z} (t) & = E \ left [e ^ {t Z} \ right] \\ & = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ {tx} e ^ {- x ^ {2} / 2} dx \ end {alineado}

esta integración podemos resolver por ajuste como

\ begin {array} {l} = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ {\ left \ {- \ frac {\ left (x ^ {2} -2 tx \ right)} {2} \ right \}} dx \\ = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ {\ left \ {- \ frac {(xt) ^ {2}} {2} + \ frac {t ^ {2}} {2} \ right \}} dx \\ = e ^ {t ^ {2 } / 2} \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ {- (xt) ^ {2} / 2} dx \\ = e ^ {t ^ {2} / 2} \ end {matriz}

ya que el valor de integración es 1. Por lo tanto, la función generadora de momentos para la variable normal estándar será

M_ {Z} (t) = e ^ {t ^ {2} / 2}

de esto podemos encontrar para cualquier variable aleatoria normal general la función generadora de momento usando la relación

X = \ mu + \ sigma Z

así

\ begin {alineado} M_ {X} (t) & = E \ left [e ^ {t X} \ right] \\ & = E \ left [e ^ {t (\ mu + \ sigma Z)} \ right] \\ & = E \ left [e ^ {t \ mu} e ^ {b \ sigma Z} \ right] \\ & = e ^ {t \ mu} E \ left [e ^ {k \ sigma Z} \ derecha] \\ & = e ^ {t \ mu} M_ {Z} (t \ sigma) \\ & = e ^ {t \ mu} e ^ {(t \ sigma) ^ {2} / 2} \\ & = e ^ {\ left \ {\ frac {\ sigma ^ {2} t ^ {2}} {2} + \ mu t \ right \}} \ end {alineado}

así que la diferenciación nos da

\ begin {array} {l} M_ {X} ^ {\ prime} (t) = \ left (\ mu + t \ sigma ^ {2} \ right) \ exp \ left \ {\ frac {\ sigma ^ { 2} t ^ {2}} {2} + \ mu t \ right \} \\ M_ {X} ^ {\ prime \ prime} (t) = \ left (\ mu + t \ sigma ^ {2} \ derecha) ^ {2} \ exp \ left \ {\ frac {\ sigma ^ {2} t ^ {2}} {2} + \ mu t \ right \} + \ sigma ^ {2} \ exp \ left \ {\ frac {\ sigma ^ {2} t ^ {2}} {2} + \ mu t \ right \} \ end {array}

así

\ begin {alineado} E [X] & = M ^ {\ prime} (0) = \ mu \\ E \ left [X ^ {2} \ right] & = M ^ {\ prime \ prime} (0) = \ mu ^ {2} + \ sigma ^ {2} \ end {alineado}

entonces la varianza será

\ begin {alineado} \ operatorname {Var} (X) & = E \ left [X ^ {2} \ right] -E ([X]) ^ {2} \\ & = \ sigma ^ {2} \ end {alineado}

Función generadora de momento de la suma de variables aleatorias

La Función generadora de momentos de suma de variables aleatorias da la propiedad importante de que es igual al producto de la función generadora de momento de las respectivas variables aleatorias independientes que es para las variables aleatorias independientes X e Y, entonces la función generadora de momento para la suma de la variable aleatoria X + Y es

Función generadora de momentos
MGF DE SUMA

aquí las funciones generadoras de momentos de cada X e Y son independientes por la propiedad de la expectativa matemática. En la sucesión encontraremos la suma de funciones generadoras de momentos de diferentes distribuciones.

Suma de variables aleatorias binomiales

Si las variables aleatorias X e Y se distribuyen por distribución binomial con los parámetros (n, p) y (m, p) respectivamente, entonces la función generadora de momentos de su suma X + Y será

\ begin {alineado} M_ {X + Y} (t) = M_ {X} (t) M_ {Y} (t) & = \ left (pe ^ {t} + 1-p \ right) ^ {n} \ left (pe ^ {t} + 1-p \ right) ^ {m} \\ & = \ left (pe ^ {t} + 1-p \ right) ^ {m + n} \ end {alineado}

donde los parámetros para la suma son (n + m, p).

Suma de variables aleatorias de Poisson

La distribución para la suma de variables aleatorias independientes X e Y con medias respectivas que se distribuyen por distribución de Poisson podemos encontrar como

\ begin {alineado} M_ {X + Y} (t) & = M_ {X} (t) M_ {Y} (t) \\ & = \ exp \ left \ {\ lambda_ {1} \ left (e ^ {t} -1 \ right) \ right \} \ exp \ left \ {\ lambda_ {2} \ left (e ^ {t} -1 \ right) \ right \} \\ & = \ exp \ left \ { \ left (\ lambda_ {1} + \ lambda_ {2} \ right) \ left (e ^ {t} -1 \ right) \ right \} \ end {alineado}

Dónde

\ lambda_ {1} + \ lambda_ {2}

es la media de la variable aleatoria de Poisson X + Y.

Suma de variables aleatorias normales

     Considere las variables aleatorias normales independientes X e Y con los parámetros

izquierda (\ mu_ {1}, \ sigma_ {1} ^ {2} \ right) \ y \ \ left (\ mu_ {2}, \ sigma_ {2} ^ {2} \ right)

luego para la suma de variables aleatorias X + Y con parámetros

\ mu_ {1} + \ mu_ {2} \ y \ \ sigma_ {1} ^ {2} + \ sigma_ {2} ^ {2}

por lo que la función generadora de momento será

\ begin {alineado} M_ {X + Y} (t) & = M_ {X} (t) M_ {Y} (t) \\ & = e ^ {\ left \ {\ frac {\ sigma_ {1} ^ {2} t ^ {2}} {2} + \ mu_ {1} t \ right \} \ exp \ left \ {\ frac {\ sigma_ {2} ^ {2} t ^ {2}} {2} + \ mu_ {2} t \ right \}} \\ & = e ^ {\ left \ {\ frac {\ left (\ sigma_ {1} ^ {2} + \ sigma_ {2} ^ {2} \ right ) t ^ {2}} {2} + \ left (\ mu_ {1} + \ mu_ {2} \ right) t \ right \}} \ end {alineado}

que es una función generadora de momentos con media y varianza aditiva.

Suma de número aleatorio de variables aleatorias

Para encontrar la función generadora de momentos de la suma del número aleatorio de variables aleatorias, supongamos la variable aleatoria

Y = \ sum_ {i = 1} ^ {N} X_ {i

donde las variables aleatorias X1,X2, ... son una secuencia de variables aleatorias de cualquier tipo, que son independientes e idénticamente distribuidas, entonces la función generadora de momentos será

\ begin {alineado} E \ left [\ exp \ left \ {t \ sum_ {1} ^ {N} X_ {i} \ right \} \ mid N = n \ right] & = E \ left [\ exp \ izquierda \ {t \ sum_ {1} ^ {n} X_ {i} \ right \} \ mid N = n \ right] \\ & = E \ left [\ exp \ left \ {t \ sum_ {1} ^ {n} X_ {i} \ right \} \ right] \\ & = \ left [M_ {X} (t) \ right] ^ {n} \ end {alineado}

\ text {donde} MX (t) = E \ left [e ^ {t X_ {i}} \ right] \\ \ text {Así} E \ left [e ^ {t Y} \ mid N \ right] = \ left (M_ {X} (t) \ right) ^ {N} \\ M_ {Y} (t) = E \ left [\ left (M_ {X} (t) \ right) ^ {N} \ right ]

Lo que da la función de generación de momento de Y en la diferenciación como

M_ {Y} ^ {\ prime} (t) = E \ left [N \ left (M_ {X} (t) \ right) ^ {N-1} M_ {X} ^ {\ prime} (t) \ derecho]

por lo tanto

\ begin {align} E [Y] & = M_ {Y} ^ {\ prime} (0) \\ & = E \ left [N \ left (M_ {X} (0) \ right) ^ {N-1 } M_ {X} ^ {\ prime} (0) \ right] \\ & = E [NEX] \\ & = E [N] E [X] \ end {alineado}

de manera similar, la diferenciación dos veces dará

M_ {Y} ^ {\ prime \ prime} (t) = E \ left [N (N-1) \ left (M_ {X} (t) \ right) ^ {N-2} \ left (M_ {X } ^ {\ prime} (t) \ right) ^ {2} + N \ left (M_ {X} (t) \ right) ^ {N-1} M_ {X} ^ {\ prime \ prime} (t )\derecho]

que dan

\ begin {alineado} E \ left [Y ^ {2} \ right] & = M_ {Y} ^ {\ prime \ prime} (0) \\ & = E \ left [N (N-1) (E [ X]) ^ {2} + NE \ left [X ^ {2} \ right] \ right] \\ & = (E [X]) ^ {2} \ left (E \ left [N ^ {2} \ derecha] -E [N] \ derecha) + E [N] E \ izquierda [X ^ {2} \ derecha] \\ & = E [N] \ izquierda (E \ izquierda [X ^ {2} \ derecha] - (E [X]) ^ {2} \ right) + (E [X]) ^ {2} E \ left [N ^ {2} \ right] \\ & = E [N] \ operatorname {Var} (X) + (E [X]) ^ {2} E \ left [N ^ {2} \ right] \ end {alineado}

por lo tanto, la varianza será

\ begin {align} \ operatorname {Var} (Y) & = E [N] \ operatorname {Var} (X) + (E [X]) ^ {2} \ left (E \ left [N ^ {2} \ right] - (E [N]) ^ {2} \ right) \\ & = E [N] \ operatorname {Var} (X) + (E [X]) ^ {2} \ operatorname {Var} ( N) \ end {alineado}

Ejemplo de variable aleatoria de chi-cuadrado

Calcule la función generadora de momentos de la variable aleatoria Chi-cuadrado con n grados de libertad.

Solución: considere la variable aleatoria Chi-cuadrado con n grados de libertad para

Z_ {1} ^ {2} + \ cdots + Z_ {n} ^ {2}

la secuencia de variables normales estándar, entonces la función generadora de momento será

M (t) = \ left (E \ left [e ^ {t Z ^ {2}} \ right] \ right) ^ {n}

entonces da

\ begin {alineado} E \ left [e ^ {t Z ^ {2}} \ right] & = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ {tx ^ {2}} e ^ {- x ^ {2} / 2} dx \\ & = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} e ^ {- x ^ {2} / 2 \ sigma ^ {2}} dx \ quad \ text {donde} \ sigma ^ {2} = (1-2 t) ^ {- 1} \\ & = \ sigma \\ & = (1-2 t) ^ {- 1/2} \ end {alineado}

la densidad normal con media 0 y varianza σ2 se integra a 1

M (t) = (1-2 t) ^ {- n / 2}

que es la función generadora de momento requerida de n grados de libertad.

Ejemplo de variable aleatoria uniforme

Encuentre la función generadora de momentos de la variable aleatoria X que se distribuye binomialmente con los parámetros nyp dada la variable aleatoria condicional Y = p en el intervalo (0,1)

Solución: encontrar la función generadora de momentos de la variable aleatoria X dada Y

E \ left [e ^ {XX} \ mid Y = p \ right] = \ left (pe ^ {t} + 1-p \ right) ^ {n}

utilizando la distribución binomial, sin Y es la variable aleatoria uniforme en el intervalo (0,1)

\ begin {array} {l} E \ left [e ^ {t X} \ right] = \ int_ {0} ^ {1} \ left (pe ^ {t} + 1-p \ right) ^ {n} dp \\ = \ frac {1} {e ^ {t} -1} \ int_ {1} ^ {e ^ {t}} y ^ {n} dy \\ = \ frac {1} {n + 1} \ frac {e ^ {t (n + 1)} - 1} {e ^ {t} -1} \\ = \ frac {1} {n + 1} \ left (1 + e ^ {t} + e ^ {2 t} + \ cdots + e ^ {nt} \ right) \ end {matriz} \\\ text {sustituyendo} \ left.y = pe ^ {t} + 1-p \ right)

Función de generación de momento conjunto

La función generadora de momentos conjuntos para el n número de variables aleatorias X1,X2,…,Xn

M \ left (t_ {1}, \ ldots, t_ {n} \ right) = E \ left [e ^ {t_ {1} X_ {1} + \ cdots + t_ {n} X_ {n}} \ right ]

donde T1,t2, …… tn son los números reales, a partir de la función generadora de momentos conjuntos podemos encontrar la función generadora de momentos individuales como

M_ {X_ {i}} (t) = E \ left [e ^ {t X_ {i}} \ right] = M (0, \ ldots, 0, t, 0, \ ldots, 0)

Teorema: las variables aleatorias X1,X2,…,Xn son independientes si y solo si la función de generación de memento conjunto

M \ left (t_ {1}, \ ldots, t_ {n} \ right) = M X_ {1} \ left (t_ {1} \ right) \ cdots M X_ {n} \ left (t_ {n} \ derecho)

Prueba: supongamos que las variables aleatorias dadas X1,X2,…,Xn son independientes entonces

\ begin {alineado} M \ left (t_ {1}, \ ldots, t_ {n} \ right) & = E \ left [e ^ {\ left (t_ {1} X_ {1} + \ cdots + t_ { n} X_ {n} \ right)} \ right] \\ & = E \ left [e ^ {t_ {1} X_ {1}} \ ldots e ^ {t_ {n} X_ {n}} \ right] \\ & = E \ left [e ^ {t_ {1} X_ {1}} \ right] \ cdots E \ left [e ^ {t_ {n} X_ {n}} \ right] \ quad \ text {por independencia} \\ & = M_ {X_ {1}} \ left (t_ {1} \ right) \ cdots M_ {X_ {n}} \ left (t_ {n} \ right) \ end {alineado}

Ahora suponga que la función generadora de momentos articulares satisface la ecuación

M \ left (t_ {1}, \ ldots, t_ {n} \ right) = M X_ {1} \ left (t_ {1} \ right) \ cdots M X_ {n} \ left (t_ {n} \ derecho)

  • para probar las variables aleatorias X1,X2,…,Xn son independientes, tenemos el resultado de que la función generadora de momentos conjuntos proporciona de forma única la distribución conjunta (este es otro resultado importante que requiere prueba), por lo que debemos tener una distribución conjunta que muestre que las variables aleatorias son independientes, por lo que se demuestra la condición necesaria y suficiente.

Ejemplo de función generadora de momento articular

1.Calcule la función generadora de momento articular de la variable aleatoria X + Y y XY

Solución: Dado que la suma de las variables aleatorias X + Y y la resta de las variables aleatorias XY son independientes en cuanto a las variables aleatorias independientes X e Y, la función generadora de momentos conjuntos para estas será

\ begin {alineado} E \ left [e ^ {n (X + Y) + s (XY)} \ right] & = E \ left [e ^ {(t + s) X + (ts) Y} \ right] \\ & = E \ left [e ^ {(t + s) X} \ right] E \ left [e ^ {(ts) Y} \ right] \\ & = e ^ {\ mu (t + s) + \ sigma ^ {2} (t + s) ^ {2} / 2} e ^ {\ mu (ts) + \ sigma ^ {2} (ts) ^ {2} / 2} \\ & = e ^ {2 \ mu t + \ sigma ^ {2} t ^ {2}} e ^ {\ sigma ^ {2} s ^ {2}} \ end {alineado}

como esta función generadora de momentos determina la distribución conjunta, a partir de esto podemos tener X + Y y XY son variables aleatorias independientes.

2. Considere para el experimento el número de eventos contados y no contados distribuidos por distribución de Poisson con probabilidad py la media λ, demuestre que el número de eventos contados y no contados son independientes con las respectivas medias λp y λ (1-p).

Solución: Consideraremos X como el número de eventos y Xc el número de eventos contados, por lo que el número de eventos no contados es XXc, la función de generación de momento conjunto generará momento

\ begin {alineado} E \ left [e ^ {\ kappa X _ {\ varepsilon} + t \ left (X-X_ {c} \ right)} \ mid X = n \ right] & = e ^ {\ ln} E \ left [e ^ {(st) X_ {c}} \ mid X = n \ right] \\ & = e ^ {in} \ left (pe ^ {st} + 1-p \ right) ^ {n } \\ & = \ left (pe ^ {s} + (1-p) e ^ {t} \ right) ^ {n} \ end {alineado}

y por el momento función generadora de distribución binomial

E \ left [e ^ {s X _ {\ varepsilon} + t \ left (X-X _ {\ varepsilon} \ right)} \ mid X \ right] = \ left (pe ^ {s} + (1-p) e ^ {t} \ right) ^ {X}

y quitando la expectativa de estos darán

E \ left [e ^ {\ sum X_ {c} + t \ left (X-X_ {c} \ right)} \ right] = E \ left [\ left (pe ^ {s} + (1-p) e ^ {t} \ right) ^ {X} \ right] \\ \ begin {alineado} E \ left [e ^ {s X_ {c} + t \ left (X-X_ {c} \ right)} \ derecha] & = e ^ {\ lambda \ left (pe ^ {\ prime} + (1-p) e ^ {t} -1 \ right)} \\ & = e ^ {\ lambda p \ left (e ^ {c-1} \ right)} e ^ {\ lambda (1-p) \ left (e ^ {t} -1 \ right)} \ end {alineado}

Conclusión:

Utilizando la definición estándar de función generadora de momento, se discutieron los momentos para las diferentes distribuciones como binomial, poisson, normal, etc. y la suma de estas variables aleatorias, ya sea la función generadora de momento discreta o continua para esas y la función generadora de momento conjunto, se obtuvo con ejemplos adecuados, si necesita más lectura, consulte los siguientes libros.

Para obtener más artículos sobre matemáticas, consulte nuestro Página de matemáticas.

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/