Distribución gamma inversa | Sus 6 propiedades importantes

Distribución gamma inversa y función generadora de momento de la distribución gamma

      Continuando con la distribución gamma veremos el concepto de distribución gamma inversa y función generadora de momento, medida de la media de tendencias centrales, modo y mediana de la distribución gamma siguiendo algunas de las propiedades básicas de la distribución gamma.

propiedades de distribución gamma

Algunas de las propiedades importantes de la distribución gamma se enumeran a continuación

La función de densidad de probabilidad para la distribución gamma es

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

or

f (x) = \ begin {cases} \ frac {e ^ {- \ frac {x} {\ beta}} (x) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)}, & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

donde la función gamma es

\ tau (\ alpha) = \ int_ {0} ^ {\ infty} e ^ {- y} y ^ {\ alpha -1} dy

2.La función de distribución acumulativa para la distribución gamma es

f (a) = P (X \ in (- \ infty, a]) = \ int _ {- \ infty} ^ {a} f (x) dx

donde f (x) es la función de densidad de probabilidad como se indica anteriormente, en particular, la cdf es

F (x) = \ begin {cases} 0, & \ x \ leq 0, \ \ frac {1} {\ tau (\ alpha) \ beta ^ {\ alpha}} \ int_ {0} ^ {x} y ^ {\ alpha -1} e ^ - {(y / \ beta)} dy & \ x> 0 \ end {cases}

  • La media y la varianza de la distribución gamma es

E [X] = {\ alpha \ lambda}

y

Var (X) = {{\ alpha} \ lambda} ^ 2

respectivamente o

E [X] = α * β

y

Var (X) = {{\ alpha} \ beta} ^ 2

  • La función generadora de momentos M (t) para la distribución gamma es

= \ left (\ frac {1} {1- \ beta t} \ right) ^ {\ alpha} \ \ if \ \ t <\ frac {1} {\ beta}

or

= \ left (\ frac {\ lambda} {\ lambda - t} \ right) ^ {\ alpha}

  • La curva para pdf y cdf es
Distribución gamma inversa
  • La distribución gamma inversa se puede definir tomando el recíproco de la función de densidad de probabilidad de la distribución gamma como

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

  • La suma de la distribución gamma independiente es nuevamente la distribución gamma con la suma de los parámetros.

distribución gamma inversa | distribución gamma inversa normal

                Si en la distribución gamma en la función de densidad de probabilidad

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \ 0 & \ x <0 \ end {cases}

or

f (x) = \ begin {cases} \ frac {e ^ {- \ frac {x} {\ beta}} (x) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)}, & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

tomamos la variable recíproca o inversa, entonces la función de densidad de probabilidad será

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

Por lo tanto, se sabe que la variable aleatoria con esta función de densidad de probabilidad es la variable aleatoria gamma inversa o la distribución gamma inversa o la distribución gamma invertida.

f_ {Y} (y) = f_ {X} (1 / y) \ left | \ frac {\ mathrm {d}} {\ mathrm {d} y} y ^ {- 1} \ right |

= \ frac {1} {\ tau (\ alpha) \ beta ^ {\ alpha}} y ^ {- \ alpha +1} e ^ {(- 1 / \ beta y)} y ^ {- 2}

= \ frac {(\ frac {1} {\ beta}) ^ {\ alpha}} {\ tau (\ alpha)} y ^ {- \ alpha -1} e ^ {(- 1 / \ beta) / y }

La función de densidad de probabilidad anterior en cualquier parámetro que podamos tomar en forma de lambda o theta, la función de densidad de probabilidad que es el recíproco de la distribución gamma es la función de densidad de probabilidad de la distribución gamma inversa.

Función de distribución acumulativa o CDF de distribución gamma inversa

                La función de distribución acumulada para la distribución gamma inversa es la función de distribución

f (a) = P (X \ in (- \ infty, a]) = \ int _ {- \ infty} ^ {a} f (x) dx

en el que f (x) es la función de densidad de probabilidad de la distribución gamma inversa como

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

Media y varianza de la distribución gamma inversa

  La media y la varianza de la distribución gamma inversa siguiendo la definición habitual de expectativa y varianza serán

E [X] = \ frac {\ beta} {\ alpha -1} \ \, \ alpha> 1

y

Var [X] = \ frac {\ beta ^ {2}} {(\ alpha -1) ^ {2} (\ alpha -2)} \ \, \ alpha> 2

Media y varianza de la prueba de distribución gamma inversa

        Para obtener la media y la varianza de la distribución gamma inversa utilizando la función de densidad de probabilidad

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

y la definición de expectativas, primero encontramos la expectativa para cualquier potencia de x como

E (X ^ {n}) = \ frac {\ beta ^ {\ alpha}} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} x ^ {n} x ^ {- \ alpha - 1} e ^ {(- \ beta / x)} dx

E (X ^ {n}) = \ frac {\ beta ^ {\ alpha}} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} x ^ {n- \ alpha -1} e ^ {(- \ beta / x)} dx

E (X ^ {n}) = \ frac {\ beta ^ {\ alpha}} {\ tau (\ alpha)} \ frac {\ tau (\ alpha -n)} {\ beta ^ {\ alpha -n} }

= \ frac {\ beta ^ {n} \ tau (\ alpha-n)} {(\ alpha -1)…. (\ alpha -n) \ tau (\ alpha -n)}

= \ frac {\ beta ^ {n}} {(\ alpha -1)…. (\ alpha -n)}

en la integral anterior usamos la función de densidad como

f (x) = \ frac {\ beta ^ {\ alpha}} {\ tau \ alpha} x ^ {- \ alpha -1} e ^ {(- \ beta / x)}

ahora para el valor de α mayor que uno y n como uno

E (X) = \ frac {\ beta} {\ alpha -1}

de manera similar, el valor para n = 2 es para alfa mayor que 2

E (X ^ {2}) = \ frac {\ beta ^ {2}} {(\ alpha -1) (\ alpha -2)}

El uso de estas expectativas nos dará el valor de la varianza como

Var (X) = E (X ^ {2}) -E (X) ^ {2} = \ frac {\ beta ^ {2}} {(\ alpha -1) ^ {2} (\ alpha -2) }

Parcela de distribución Invers gamma | Gráfico de distribución de gamma inversa

                La distribución gamma inversa es el recíproco de la distribución gamma, por lo que al observar la distribución gamma es bueno observar la naturaleza de las curvas de distribución gamma inversa que tienen la función de densidad de probabilidad como

f (x) = \ begin {cases} \ frac {e ^ - {\ frac {1} {\ beta x}} (\ frac {1} {x}) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

y la función de distribución acumulativa siguiendo

F (a) = P (X \ in (- \ infty, a]) = \ int _ {- \ infty} ^ {a} f (x) dx

Distribución gamma inversa
Gráfico de distribución de gamma inversa

Descripción: gráficos para la función de densidad de probabilidad y la función de distribución acumulada fijando el valor de α en 1 y variando el valor de β.

Distribución gamma inversa
Gráfico de distribución de gamma inversa

Descripción: gráficos para la función de densidad de probabilidad y la función de distribución acumulada fijando el valor de α como 2 y variando el valor de β

Distribución gamma inversa
Gráfico de distribución de gamma inversa

Descripción: gráficos para la función de densidad de probabilidad y la función de distribución acumulada fijando el valor de α en 3 y variando el valor de β.

Distribución gamma inversa
Gráfico de distribución de gamma inversa

Descripción: gráficos para la función de densidad de probabilidad y la función de distribución acumulada fijando el valor de β en 1 y variando el valor de α.

Distribución gamma inversa
Gráfico de distribución de gamma inversa

Descripción: gráficos para la función de densidad de probabilidad y la función de distribución acumulada fijando el valor de β como 2 y variando el valor de α

Distribución gamma inversa
Gráfico de distribución de gamma inversa

Descripción: gráficos para la función de densidad de probabilidad y la función de distribución acumulada fijando el valor de β en 3 y variando el valor de α.

función generadora de momento de la distribución gamma

Antes de comprender el concepto de función generadora de momentos para la distribución gamma, recordemos algún concepto de función generadora de momentos

Momentos

    El momento de la variable aleatoria se define con la ayuda de la expectativa como

{\ mu_ {r}} '= E (X ^ {r})

esto se conoce como momento r-ésimo de la variable aleatoria X es el momento sobre el origen y comúnmente se conoce como momento bruto.

     Si tomamos el momento r-ésimo de la variable aleatoria alrededor de la media μ como

{\ mu_ {r}} = E [(X- \ mu) ^ {r}]

este momento sobre la media se conoce como momento central y la expectativa será según la naturaleza de la variable aleatoria como

{\ mu_ {r}} = \ sum (X- \ mu) ^ {r} f (x) \ \ (discreta \ \ variable)

{\ mu_ {r}} = \ int _ {- \ infty} ^ {\ infty} (X- \ mu) ^ {r} f (x) \ \ (continua \ \ variable)

en el momento central, si ponemos valores de r, obtenemos algunos momentos iniciales como

{\ mu} {0} = 1, {\ mu} {1} = 0, {\ mu} _ {2} = \ sigma ^ {2}

Si tomamos la expansión binomial en los momentos centrales, entonces podemos obtener fácilmente la relación entre los momentos centrales y crudos como

{\ mu} {r} = {\ mu} ' {r} - \ binom {r} {1} {\ mu}' {r-1} {\ mu} +… .. + (- 1) ^ { j} \ binom {r} {j} {\ mu} ' {rj} {\ mu} ^ {j} +… .. + (- 1) ^ {^ {r}} {\ mu}' _ {0 } {\ mu} ^ {r}

algunas de las relaciones iniciales son las siguientes

{\ mu} ' {1} = {\ mu} \ \ y \ \ {\ mu}' {0} = 1, \ \ \ {\ mu} {2} = {\ mu} ' {2} - { \ mu} ^ {2} \ {\ mu} {3} = {\ mu} ' {3} -3 {\ mu}' {2} {\ mu} +2 {\ mu} ^ {3} \ { \ mu} {4} = {\ mu} ' {4} -4 {\ mu}' {3} {\ mu} +6 {\ mu} ' {2} {\ mu} ^ {2} -3 { \ mu} ' {4}

Función generadora de momentos

   Los momentos que podemos generar con la ayuda de una función, esa función se conoce como función generadora de momentos y se define como

M_ {X} (t) = E (e ^ {tX})

esta función genera los momentos con la ayuda de la expansión de la función exponencial en cualquiera de las formas

M_ {X} (t) = \ sum e ^ {tX} f (x) \ \ (discreta \ \ variable) \ M_ {X} (t) = \ int _ {- \ infty} ^ {\ infty} e ^ {tX} f (x) \ \ (continua \ \ variable)

usando la forma de Taylors como

M_ {X} (t) = 1 + \ mu t + \ mu ' {2} \ frac {t ^ {2}} {2!} +…. + \ Mu' {r} \ frac {t ^ {r} } {r!} + ..

diferenciar esta función expandida con respecto a t da los diferentes momentos como

\ mu ' {r} = \ frac {\ mathrm {d ^ {r}}} {\ mathrm {d} t ^ {r}} M {X} (t) \ lvert_ {t = 0}

de otra manera si tomamos la derivada directamente como

M '(t) = \ frac {\ mathrm {d}} {\ mathrm {d} t} E [e ^ {tX}] \ = E \ left [\ frac {\ mathrm {d}} {\ mathrm { d} t} (e ^ {tX}) \ right] \ = E \ left [Xe ^ {tX} \ right]

ya que para ambos discretos

\ frac {\ mathrm {d}} {\ mathrm {d} t} \ left [\ sum_ {x} e ^ {tx} p (x) \ right] = \ sum_ {x} \ frac {\ mathrm {d }} {\ mathrm {d} t} [e ^ {tx} p (x)]

y continuo tenemos

\ frac {\ mathrm {d}} {\ mathrm {d} t} \ left [\ int e ^ {tx} f (x) dx \ right] = \ int \ frac {\ mathrm {d}} {\ mathrm {d} t} [e ^ {tx} f (x)] dx

entonces para t = 0 obtendremos

M '(0) = E [X]

igualmente

M '' (t) = \ frac {\ mathrm {d}} {\ mathrm {d} t} M '(t) \ = \ frac {\ mathrm {d}} {\ mathrm {d} t} E [ Xe ^ {tX}] \ = E \ left [\ frac {\ mathrm {d}} {\ mathrm {d} t} (Xe ^ {tX}) \ right] \ = E [X ^ {2} e ^ {tX}]

as

M '' (0) = E [X ^ {2}]

y en general

M ^ {n} (t) = E [X ^ {n} e ^ {tX}] \ \ n \ geq 1 \ M ^ {n} (0) = E [X ^ {n}] \ \ n \ geq 1

hay dos relaciones importantes por el momento que generan funciones

M _ {(X + a) / b} (t) = e ^ {at / b}] M_ {X} (t / b) \ M _ {(X + Y)} (t) = M_ {X} (t ) M_ {Y} (t)

función generadora de momentos de una distribución gamma | mgf de distribución gamma | función generadora de momento para la distribución gamma

Ahora para la distribución gamma, la función generadora de momento M (t) para el pdf

f (x) = \ begin {cases} \ frac {e ^ {- \ frac {x} {\ beta}} (x) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)}, & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

is

= \ left (\ frac {1} {1- \ beta t} \ right) ^ {\ alpha} \ \ if \ \ t <\ frac {1} {\ beta}

y para el pdf

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

la función generadora de momento es

= \ left (\ frac {\ lambda} {\ lambda -t} \ right) ^ {\ alpha}

prueba de función generadora de momentos de distribución gamma | mgf de prueba de distribución gamma

    Ahora primero tome la forma de función de densidad de probabilidad como

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

y usando la definición de la función generadora de momentos M (t) tenemos

M_ {X} (t) = E (e ^ {tX})

= E \ left [e ^ {tX} \ right] \ = \ frac {\ lambda ^ {\ alpha}} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} e ^ {tx} e ^ {- \ lambda x} x ^ {\ alpha -1} dx \ = \ frac {\ lambda ^ {\ alpha}} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} e ^ { - (\ lambda -t) x} x ^ {\ alpha -1} dx \ = \ frac {\ lambda} {\ lambda -t} ^ {\ alpha} \ frac {1} {\ tau (\ alpha)} \ int_ {0} ^ {\ infty} e ^ {- y} y ^ {\ alpha -1} dy \ \ \ \ [por \ \ y = (\ lambda -t) x] \ = \ frac {\ lambda } {\ lambda -t} ^ {\ alpha}

Podemos encontrar la media y la varianza de la distribución gamma con la ayuda de la función generadora de momentos, ya que diferenciando con respecto a t dos veces esta función obtendremos

= \ frac {\ alpha \ lambda ^ {\ alpha}} {(\ lambda -t) ^ {\ alpha +1}} \\ = \ frac {\ alpha (\ alpha +1) \ lambda ^ {\ alpha} } {(\ lambda -t) ^ {\ alpha +2}}

si ponemos t = 0 entonces el primer valor será

E [X] = \ frac {\ alpha} {\ lambda}

y

E [X ^ {2}] = \ frac {\ alpha (\ alpha +1)} {\ lambda ^ {2}}

Ahora poniendo el valor de estas expectativas en

Var (X) = E [X ^ {2}] -E [X] ^ {2} \ Var (X) = \ frac {\ alpha (\ alpha +1)} {\ lambda ^ {2}} - \ frac {\ alpha ^ {2}} {\ lambda ^ {2}} \ Var (X) = \ frac {\ alpha ^ {2} + \ alpha} {\ lambda ^ {2}} - \ frac {\ alpha ^ {2}} {\ lambda ^ {2}} = \ frac {\ alpha} {\ lambda ^ {2}}

alternativamente para el pdf del formulario

f (x) = \ begin {cases} \ frac {e ^ {- \ frac {x} {\ beta}} (x) ^ {\ alpha -1}} {\ beta ^ {\ alpha} \ tau (\ alpha)}, & \ x \ geq 0 \\ \ 0 & \ x <0 \ end {cases}

la función generadora de momento será

M (t) = \ frac {1} {\ tau (\ alpha) \ beta ^ {\ alpha}} \ int_ {0} ^ {\ infty} e ^ {^ (x (t-1 / \ beta)} x ^ {\ alpha -1} dx \ = \ left (\ frac {1} {1- \ beta t} \ right) ^ {\ alpha} \ int_ {0} ^ {\ infty} \ frac {y ^ { \ alpha -1} e ^ {- y}} {\ tau (\ alpha)} dy \ \, \ \ t <\ frac {1} {\ beta} \ = (1- \ beta t) ^ {- \ alpha} \ \ t <\ frac {1} {\ beta}

y diferenciar y poner t = 0 dará la media y la varianza de la siguiente manera

EX = M '(t) \ lvert_ {t = 0} = \ alpha \ beta, \ EX ^ {2} = M' '(t) \ lvert_ {t = 0} = \ alpha (\ alpha +1) \ beta ^ {2}, \ Var (X) = \ alpha \ beta ^ {2}

2do momento de distribución gamma

   El segundo momento de la distribución gamma al diferenciar la función generadora de momentos dos veces y al poner el valor de t = 0 en la segunda derivada de esa función, obtendremos

E [X ^ {2}] = \ frac {\ alpha (\ alpha +1)} {\ lambda ^ {2}}

tercer momento de distribución gamma

                El tercer momento de distribución gamma lo podemos encontrar diferenciando tres veces la función generadora de momento y poniendo el valor de t = 0 en la tercera derivada del mgf que obtendremos

E [X ^ {3}] = \ frac {\ alpha (\ alpha +1) (\ alpha +2)} {\ lambda ^ {3}}

o directamente integrando como

E [X ^ {3}] = \ int_ {0} ^ {\ infty} x ^ {3} f_ {X} (x) dx \ = \ int_ {0} ^ {\ infty} \ frac {\ lambda ^ {\ alpha} x ^ {3+ \ alpha -1} e ^ {- \ lambda x}} {\ tau (\ alpha)} dx \ = \ frac {1} {\ lambda ^ {3}} \ int_ { 0} ^ {\ infty} \ frac {\ lambda ^ {\ alpha +3} x ^ {3+ \ alpha -1} e ^ {- \ lambda x}} {\ tau (\ alpha)} dx \ = \ frac {\ tau (\ alpha +3)} {\ lambda ^ {3} \ tau (\ alpha)} \ int_ {0} ^ {\ infty} \ frac {\ lambda ^ {\ alpha +3} x ^ { 3+ \ alpha -1} e ^ {- \ lambda x}} {\ tau (\ alpha +3)} dx

 sigma para distribución gamma

   sigma o desviación estándar de la distribución gamma que podemos encontrar tomando la raíz cuadrada de la varianza de la distribución gamma de tipo

Var (X) = \ alpha \ beta ^ {2}

or

Var (X) = \ frac {\ alpha} {\ lambda ^ {2}}

para cualquier valor definido de alfa, beta y lambda.

función característica de la distribución gamma | función característica de distribución gamma

      Si la variable t en la función generadora de momentos es puramente un número imaginario como t = iω entonces la función se conoce como la función característica de distribución gamma denotada y expresada como

\ phi_ {X} (\ omega) = M_ {X} (i \ omega) = E (e ^ {i \ omega X})

como para cualquier variable aleatoria, la función característica será

\ phi_ {X} (\ omega) = \ sum E (e ^ {i \ omega X}) f (x) \ \ (discreto \ \ variable) \ \ phi_ {X} (\ omega) = \ int _ {- \ infty} ^ {\ infty} E (e ^ {i \ omega X}) f (x) \ \ (continua \ \ variable) \

Por lo tanto, para la distribución gamma, la función característica siguiendo el pdf de la distribución gamma es

\ phi_ {X} (\ omega) = (1-i \ beta \ omega) ^ {- \ alpha}

siguiendo

\ int _ {- \ infty} ^ {\ infty} x ^ {\ alpha -1} e ^ {- x} (1-i \ beta t) / \ beta dx = ((1-i \ beta t) / \ beta) ^ {- \ alpha} \ int_ {0} ^ {\ infty} x ^ {\ alpha -1} e ^ {- x} dx = \ tau (\ alpha) \ beta ^ {\ alpha} (1- i \ beta t) ^ {- \ alpha}

Hay otra forma de esta función de características también si

M_ {X} (t) = (1- \ frac {2h} {n} t) ^ {- n / 2}

luego

\ phi_ {X} (t) = (1- \ frac {2h} {n} it) ^ {- n / 2}

suma de distribuciones gamma | suma de la distribución exponencial gamma

  Para conocer el resultado de la suma de la distribución gamma, primero debemos entender la suma de la variable aleatoria independiente para la variable aleatoria continua, para esto, tengamos funciones de densidad de probabilidad para las variables aleatorias continuas X e Y, luego la función de distribución acumulativa para la suma de variables aleatorias será

F_ {X} + _ {Y} (a) = P {(X + Y \ leq a)} \ \
= \ iint {X + Y \ leq a} f_ {X} (x) f_ {Y} (y) dx dy \ = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ { ay} f_ {X} (x) f_ {Y} (y) dx dy \ = \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {ay} f_ {X} (x) dx f_ {Y} (y) dy \ = \ int _ {- \ infty} ^ {\ infty} F_ {X} (ay) f_ {Y} (y) dy

diferenciar esta convolución de integral para las funciones de densidad de probabilidad de X e Y dará la función de densidad de probabilidad para la suma de variables aleatorias como

F_ {X} + {Y} (a) = \ frac {\ mathrm {d}} {\ mathrm {d} a} \ int {- \ infty} ^ {\ infty} F_ {X} (ay) f_ { Y} (y) dy \ = \ int _ {- \ infty} ^ {\ infty} \ frac {\ mathrm {d}} {\ mathrm {d} a} F_ {X} (ay) f_ {Y} (y ) dy \ = \ int _ {- \ infty} ^ {\ infty} f_ {X} (ay) f_ {Y} (y) dy

Ahora demostremos si X e Y son las variables aleatorias gamma con las funciones de densidad respectivas, entonces la suma también será la distribución gamma con la suma de los mismos parámetros

considerando la función de densidad de probabilidad de la forma

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ tau (\ alpha)} & \ x \ geq 0 \ 0 & \ x <0 \ end {cases}

para la variable aleatoria X, tome alfa como s y para la variable aleatoria Y tome alfa como t, por lo que utilizando la densidad de probabilidad para la suma de variables aleatorias tenemos

F_ {X} + {Y} (a) = \ frac {1} {\ Gamma (s) \ Gamma (t)} \ int {0} ^ {a} \ lambda e ^ {- \ lambda (ay)} (\ lambda (ay)) ^ {s-1} \ lambda e ^ {- \ lambda y} (\ lambda y) ^ {t-1} dy

aquí C es independiente de a, ahora el valor será

F_ {X} + _ {Y} (a) = \ frac {\ lambda e ^ {- \ lambda a} (\ lambda a) ^ {s + t-1}} {\ Gamma (s + t)}

que representan la función de densidad de probabilidad de la suma de X e Y y que es de la distribución gamma, por lo tanto, la suma de la distribución gamma también representa la distribución gamma por la respectiva suma de parámetros.

modo de distribución gamma

    Para encontrar el modo de distribución gamma, consideremos la función de densidad de probabilidad como

f (x) = \ begin {cases} \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ Gamma (\ alpha)} & \ x \ geq 0 \ \ 0 & \ x <0 \ end {cases}

ahora diferenciar este pdf con respecto ax, obtendremos la diferenciación como

= \ frac {\ lambda ^ {\ alpha}} {\ Gamma (\ alpha)} e ^ {- \ lambda x} [(\ alpha -1) x ^ {\ alpha -2} - \ lambda x ^ {\ alpha -1}] = \ frac {\ lambda ^ {\ alpha}} {\ Gamma (\ alpha)} e ^ {- \ lambda x} [(\ alpha -1) x ^ {\ alpha -2} [( \ alpha -1) - \ lambda x]]

esto será cero para x = 0 o x = (α -1) / λ

por lo que estos son solo puntos críticos en los que nuestra primera derivada será cero si alfa mayor o igual a cero, entonces x = 0 no será modo porque esto hace que el pdf sea cero, por lo que el modo será (α -1) / λ

y para alfa estrictamente menor que uno, la derivada disminuye de infinito a cero cuando x aumenta de cero a infinito, por lo que esto no es posible, por lo que el modo de distribución gamma es

\ textbf {modo} = \ mathbf {\ frac {\ alpha -1} {\ lambda}}

mediana de la distribución gamma

La mediana de la distribución gamma se puede encontrar con la ayuda de la distribución gamma inversa como

\ textbf {mediana} = {\ frac {\ 1} {\ lambda} \ gamma ^ {- 1} \ left (\ alpha, \ frac {\ Gamma (\ alpha)} {2} \ right)}

or

\ textbf {mediana} = \ beta \ gamma ^ {- 1} \ left (\ alpha, \ frac {\ Gamma (\ alpha)} {2} \ right)

previsto

n+\frac{2}{3}< median(n)< min(n+log2,n+\frac{2}{3}+(2n+2)^{-1})

lo que da

median(n)=n+\frac{2}{3}+\frac{8}{405n} -\frac{64}{5103n^{2}}+…..

forma de distribución gamma

     La distribución gamma toma una forma diferente dependiendo del parámetro de forma cuando el parámetro de forma es una distribución gamma es igual a la distribución exponencial pero cuando variamos el parámetro de forma, la asimetría de la curva de distribución gamma disminuye a medida que aumenta el parámetro de forma, en otras palabras la forma de la curva de distribución gamma cambia según la desviación estándar.

asimetría de la distribución gamma

    La asimetría de cualquier distribución se puede observar observando la función de densidad de probabilidad de esa distribución y el coeficiente de asimetría.

\ gamma {1} = \ frac {E \ left [\ left (X - \ mu \ right) ^ {3} \ right]} {\ sigma ^ {3}} = \ frac {\ mu {3}} { \ sigma ^ {3}}

para la distribución gamma tenemos

E (X ^ {k}) = \ frac {(\ alpha + k-1) (\ alpha + k-2) ……. \ Alpha} {\ beta ^ {k}}

so

\ gamma _ {1} = \ frac {\ frac {(\ alpha +2) (\ alpha +1) \ alpha} {\ beta ^ {3}} - 3 \ frac {\ alpha} {\ beta} \ frac {\ alpha} {\ beta ^ {3}} - \ frac {\ alpha ^ {3}} {\ beta ^ {3}}} {{\ left (\ frac {\ alpha} {\ beta ^ {2} } \ right)} ^ {\ frac {3} {2}}} = \ frac {2} {\ sqrt {\ alpha}}

esto muestra que la asimetría depende de alfa solo si alfa aumenta hasta el infinito, la curva será más simétrica y nítida y cuando alfa llega a cero, la curva de densidad de distribución gamma está sesgada positivamente, lo que se puede observar en los gráficos de densidad.

distribución gamma generalizada | forma y parámetro de escala en la distribución gamma | distribución gamma de tres parámetros | distribución gamma multivariante

f (x) = \ frac {(\ frac {(x- \ mu)} {\ beta}) ^ {\ gamma -1} e ^ {- \ frac {x- \ mu} {\ beta}}} { \ beta \ Gamma (\ gamma)} \ \ x \ geq \ mu; \ gamma, \ beta> 0

donde γ, μ y β son los parámetros de forma, ubicación y escala respectivamente, al asignar valores específicos a estos parámetros podemos obtener la distribución gamma de dos parámetros específicamente si ponemos μ = 0, β = 1, entonces obtendremos la distribución gamma estándar como

f (x) = \ frac {x ^ {\ gamma -1} e ^ {- x}} {\ Gamma (\ gamma)} \ \ x \ geq 0; \ gamma> 0

utilizando esta función de densidad de probabilidad de distribución gamma de 3 parámetros, podemos encontrar la expectativa y la varianza siguiendo su definición respectivamente.

Conclusión:

El concepto de recíproco de distribución gamma que es distribución gamma inversa en comparación con la distribución gamma y la medición de las tendencias centrales de la distribución gamma con la ayuda de la función generadora de momentos fueron el enfoque de este artículo, si necesita más lectura, consulte los libros y enlaces sugeridos. Para obtener más publicaciones sobre matemáticas, visite nuestro página de matemáticas.

https://en.wikipedia.org/wiki/Gamma_distribution

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

Frikis Lambda