Distribución condicional | Sus 5 propiedades importantes

Distribución condicional

   Es muy interesante discutir el caso de distribución condicional cuando dos variables aleatorias siguen la distribución satisfaciendo una dada a otra, primero vemos brevemente la distribución condicional tanto en el caso de variables aleatorias, discretas como continuas, luego después de estudiar algunos prerrequisitos nos enfocamos en expectativas condicionales.

Distribución condicional discreta

     Con la ayuda de la función de masa de probabilidad conjunta en la distribución conjunta, definimos la distribución condicional para las variables aleatorias discretas X e Y utilizando la probabilidad condicional para X dada Y como la distribución con la función de masa de probabilidad

p_ {X | Y} (x | y) = P \ left {X = x | Y = y \ right}

= \ frac {P \ left {X = x, Y = y \ right}} {P \ left {Y = y \ right}}

= \ frac {p (x, y)} {p_ {Y} (y)}

siempre que la probabilidad del denominador sea mayor que cero, de manera similar, podemos escribir esto como

F_ {X | Y} (x | y) = P \ left {X \ leq x | Y \ leq y \ right}

= \ sum_ {a \ leq x} p_ {X | Y} (a | y)

en la probabilidad conjunta si X e Y son variables aleatorias independientes, esto se convertirá en

p_ {X | Y} (x | y) = P \ left {X = x | Y = y \ right}

= \ frac {P \ left {X = x, Y = y \ right}} {P \ left {Y = y \ right}}

= P \ left {X = x \ right}

por lo que la distribución condicional discreta o distribución condicional para las variables aleatorias discretas X dado Y es la variable aleatoria con la función de masa de probabilidad anterior de manera similar para Y dado X que podemos definir.

Ejemplo de distribución condicional discreta

  1. Encuentre la función de masa de probabilidad de la variable aleatoria X dado Y = 1, si la función de masa de probabilidad conjunta para las variables aleatorias X e Y tiene algunos valores como

p (0,0) = 0.4, p (0,1) = 0.2, p (1,0) = 0.1, p (1,1) = 0.3

Ahora, en primer lugar, para el valor Y = 1 tenemos

p_{Y}(1)=\sum_{x}p(x,1)=p(0,1)+p(1,1)=0.5

así que usando la definición de función de masa de probabilidad

p_ {X | Y} (x | y) = P \ left {X = x | Y = y \ right}

= \ frac {P \ left {X = x, Y = y \ right}} {P \ left {Y = y \ right}}

= \ frac {p (x, y)} {p_ {Y} (y)}

tenemos

p_{X|Y}(0|1)=\frac{p(0,1)}{p_{Y}(1)}=\frac{2}{5}

y

p_{X|Y}(1|1)=\frac{p(1,1)}{p_{Y}(1)}=\frac{3}{5}

  • obtener la distribución condicional de X dado X + Y = n, donde X e Y son distribuciones de Poisson con los parámetros λ1 y λ2 y X e Y son variables aleatorias independientes

Dado que las variables aleatorias X e Y son independientes, la distribución condicional tendrá una función de masa de probabilidad como

P \ left {X = k | X + Y = n \ right} = \ frac {P \ left {X = k, X + Y = n \ right}} {P \ left {X + Y = n \ right} }

= \ frac {P \ left {X = k, X = n -k \ right}} {P \ left {X + Y = n \ right}}

= \ frac {P \ left {X = k \ right} P \ left {Y = nk \ right}} {P \ left {X + Y = n \ right}}

dado que la suma de la variable aleatoria de Poisson es nuevamente Poisson, por lo que

P \ left {X = k | X + Y = n \ right} = \ frac {e ^ {- \ lambda {1}} \ lambda {1} ^ {k}} {k!} \ Frac {e ^ { - \ lambda_ {2} ^ {}} \ lambda {2} ^ {nk}} {(nk)!} \ left [\ frac {e ^ {- (\ lambda {1} + \ lambda {2})} (\ lambda {1} + \ lambda _ {2}) ^ {n}} {n!} \ right] ^ {- 1}

= \ frac {n!} {(nk)! k!} \ frac {\ lambda {1} ^ {k} \ lambda {2} ^ {nk}} {(\ lambda {1} + \ lambda {2} ) ^ {n}}

= \ binom {n} {k} \ left (\ frac {\ lambda {1}} {\ lambda {1} + \ lambda {2}} \ right) ^ {k} \ left (\ frac {\ lambda { 2}} {\ lambda {1} + \ lambda {2}} \ right) ^ {nk}

por lo tanto, la distribución condicional con la función de masa de probabilidad anterior será una distribución condicional para tales distribuciones de Poisson. El caso anterior se puede generalizar para más de dos variables aleatorias.

Distribución condicional continua

   La distribución condicional continua de la variable aleatoria X dado y ya definido es la distribución continua con la función de densidad de probabilidad

f_ {X | Y} (x | y) = \ frac {f (x, y)} {f_ {Y} (y)}

La densidad del denominador es mayor que cero, que para la función de densidad continua es

f_ {X | Y} (x | y) dx = \ frac {f (x, y) dxdy} {f_ {Y} (y) dy}

\ approx \ frac {P \ left {x \ leq X \ leq x + dx, y \ leq Y \ leq y + dy \ right}} {P \ left {y \ leq Y \ leq y + dy \ right}}

= P \ izquierda {x \ leq X \ leq x + dx | y \ leq Y \ leq y + dy \ right}

por tanto, la probabilidad de tal función de densidad condicional es

P \ left {X \ in A | Y = y \ right} = \ int_ {A} f_ {X | Y} (x | y) dx

De manera similar a discreto, si X e Y son independientes en continuo, entonces también

f_ {X | Y} (x | y) dx = \ frac {f (x, y)} {f_ {Y} (y)} = \ frac {f_ {X} (x) f_ {Y} (y) } {f_ {Y} (y)} = f_ {X} (x)

y por lo tanto

\ frac {P \ left {x <X <x + dx | N = n \ right}} {dx} = \ frac {P \ left {N = n | x <X <x + dx \ right}} {P \ left {N = n \ right}} \ frac {P \ left {x <X <x + dx \ right}} {dx}

\ lim_ {dx \ to 0} \ frac {P \ left {x <X <x + dx | N = n \ right}} {dx} = \ frac {P \ left {N = n | X = x \ right }} {P \ left {N = n \ right}} f (x)

para que podamos escribirlo como

f_ {X | N} (x | n) = \ frac {P \ left {N = n | X = x \ right}} {P \ left {N = n \ right}} f (x)

Ejemplo de distribución condicional continua

  1. Calcule la función de densidad condicional de la variable aleatoria X dada Y si la función de densidad de probabilidad conjunta con el intervalo abierto (0,1) está dada por

f (x, y) = \ begin {cases} \ frac {12} {5} x (2-xy) \ \ 0 <x <1, \ \ 0 <y <1 \\ \ \ 0 \ \ \ \ de lo contrario \ end {cases}

Si para la variable aleatoria X dada Y dentro de (0,1), entonces al usar la función de densidad anterior tenemos

f_ {X | Y} (x | y) = \ frac {f (x, y)} {f_ {Y} (y)}

= \ frac {f (x, y)} {\ int _ {- \ infty} ^ {\ infty} f (x, y) dx}

= \ frac {x (2-xy)} {\ int_ {0} ^ {1} x (2-xy) dx}

= \ frac {x (2-xy)} {\ frac {2} {3} - \ frac {y} {2}}

= \ frac {6x (2-xy)} {4-3y}

  • Calcular la probabilidad condicional

P \ left {X> 1 | Y = y \ right}

si la función de densidad de probabilidad conjunta está dada por

f (x, y) = \ begin {cases} \ frac {e ^ {- \ frac {x} {y}} e ^ {- y}} {y} \ \ 0 <x <\ infty, \ \ 0 <y <\ infty \\ \ \ 0 \ \ \ \ de lo contrario \ end {cases}

Para encontrar la probabilidad condicional primero, requerimos la función de densidad condicional, por lo que según la definición sería

f_ {X | Y} (x | y) = \ frac {f (x, y)} {f_ {Y} (y)}

= \ frac {e ^ {- x / y} e ^ {- y} / y} {e ^ {- y} \ int_ {0} ^ {\ infty} (1 / y) e ^ {- x / y } dx}

= \ frac {1} {y} e ^ {- x / y}

ahora usando esta función de densidad en la probabilidad de que la probabilidad condicional is

P \ left {X> 1 | Y = y \ right} = \ int_ {1} ^ {\ infty} \ frac {1} {y} e ^ {- x / y} dx

= e ^ {- x / y} \ lvert_ {1} ^ {\ infty}

= e ^ {- 1 / año}

Distribución condicional de distribución normal bivariada

  Sabemos que la distribución normal bivariada de las variables aleatorias normales X e Y con las respectivas medias y varianzas como parámetros tiene la función de densidad de probabilidad conjunta

Distribución condicional
Distribución condicional de distribución normal bivariada

así que para encontrar la distribución condicional para tal distribución normal bivariada para X dado Y se define siguiendo la función de densidad condicional de la variable aleatoria continua y la función de densidad conjunta anterior tenemos

Distribución condicional
Distribución condicional de distribución normal bivariada

Al observar esto, podemos decir que se distribuye normalmente con la media

\ left (\ mu {x} + \ rho \ frac {\ sigma {x}} {\ sigma {y}} (y- \ mu {y}) \ right)

y varianza

\ sigma _ {x} ^ {2} (1- \ rho ^ {2})

De manera similar, la función de densidad condicional para Y dado X ya definido será simplemente intercambiando las posiciones de los parámetros de X con Y,

La función de densidad marginal para X la podemos obtener de la función de densidad condicional anterior usando el valor de la constante

Distribución condicional
Distribución condicional de distribución normal bivariada

sustituyamos en la integral

w = \ frac {y- \ mu {y}} {\ sigma {y}}

la función de densidad será ahora

ya que el valor total de

por la definición de la probabilidad, por lo que la función de densidad será ahora

que no es más que la función de densidad de la variable aleatoria X con la media y la varianza habituales como parámetros.

Distribución de probabilidad conjunta de la función de variables aleatorias

  Hasta ahora conocemos la distribución de probabilidad conjunta de dos variables aleatorias, ahora si tenemos funciones de tales variables aleatorias, ¿cuál sería la distribución de probabilidad conjunta de esas funciones, cómo calcular la función de densidad y distribución porque tenemos situaciones de la vida real en las que tienen funciones de las variables aleatorias,

Si y1 y Y2 son las funciones de las variables aleatorias X1 y X2 respectivamente que son conjuntamente continuas, entonces la función de densidad continua conjunta de estas dos funciones será

f_{Y_{1}Y_{2}}(y_{1}y_{2})=fX_{1}X_{2}(x_{1},x_{2})|J(x_{1},x_{2})|^{-1}

dónde Jacobiano

J (x_ {1}, x_ {2}) = \ begin {vmatrix} \ frac {\ parcial g_1} {\ parcial x_1} & \ frac {\ parcial g_1} {\ parcial x_2} \ \ \\ \ frac { \ Particular g_2} {\ Parcial x_1} & \ frac {\ Parcial g_2} {\ Parcial x_2} \ end {vmatrix} \ equiv \ frac {\ Parcial g_1} {\ Parcial x_1} \ frac {\ Parcial g_2} {\ parcial x_2} - \ frac {\ parcial g_1} {\ parcial x_2} \ frac {\ parcial g_2} {\ parcial x_1} \ neq 0

y Y1 =g1 (X1, X2) y Y2 =g2 (X1, X2) para algunas funciones g1 y g2 . Aquí g1 y g2 satisface las condiciones del jacobiano como continuo y tiene derivadas parciales continuas.

Ahora la probabilidad de tales funciones de variables aleatorias será

Ejemplos de distribución de probabilidad conjunta de función de variables aleatorias

  1. Encuentre la función de densidad conjunta de las variables aleatorias Y1 =X1 +X2 y Y2=X1 -X2 , donde X1 y X2 son la función de densidad de probabilidad conjunta continua con conjunta. también discutir la diferente naturaleza de la distribución.

Aquí primero comprobaremos el jacobiano.

J (x_ {1}, x_ {2}) = \ begin {vmatrix} \ frac {\ parcial g_1} {\ parcial x_1} & \ frac {\ parcial g_1} {\ parcial x_2} \ \\ \ frac {\ parcial g_2} {\ parcial x_1} & \ frac {\ parcial g_2} {\ parcial x_2} \ end {vmatrix}

desde g1(x1, X2) = x1 + x2  y g2(x1, X2) = x1 - X2 so

J (x_ {1}, x_ {2}) = \ begin {vmatrix} 1 & 1 \ \\ 1 & -1 \ end {vmatrix} = -2

simplificando Y1 =X1 +X2 y Y2=X1 -X2 , por el valor de X1 = 1/2 (Y1 +Y2 ) y X2 = Y1 -Y2 ,

f_{Y_{1}},<em>{Y</em>{2}}(y_{1},y_{2})=\frac{1}{2}f_{X_{1},X_{2}}\left ( \frac{y_{1}+y_{2}}{2},\frac{y_{1} - y_{2}}{2} \right )

si estas variables aleatorias son variables aleatorias uniformes independientes

f_ {Y_ {1}, Y_ {2}} (y_ {1}, y_ {2}) = \ begin {cases} \ frac {1} {2} \ \ 0 \ leq y_ {1} + y_ {2 } \ leq 2 \ \, \ \ 0 \ leq y_ {1} - y_ {2} \ leq 2 \\ 0 \ \ de lo contrario \ end {cases}

o si estas variables aleatorias son variables aleatorias exponenciales independientes con parámetros habituales

o si estas variables aleatorias son variables aleatorias normales independientes, entonces

f_{Y_{1},Y_{2}} (y_{1},y_{2}) =\frac{1}{4\pi }e^{-[(y_{1}+y_{2})^{2}/8 + (y_{1} -y_{2})^{2}/8]}

= \ frac {1} {4 \ pi} e ^ {- \ left (y_ {1} ^ {2} + y_ {2} ^ {2} \ right) / 4}

=\frac{1}{\sqrt{4\pi }}e^{-y_{1}^{2}/4} \frac{1}{\sqrt{4\pi }}e^{-y_{2}^{2}/4}

  • Si X e Y son las variables normales estándar independientes como se indica
Distribución condicional

calcular la distribución conjunta para las respectivas coordenadas polares.

Convertiremos por conversión habitual X e Y en r y θ como

g_ {1} (x, y) = \ sqrt {x ^ {2} + y ^ {2}} \ \ y \ \ \ theta = g_ {2} (x, y) = tan ^ {- 1} \ frac {y} {x}

por lo que las derivadas parciales de estas funciones serán

\ frac {\ parcial g_ {1}} {\ parcial x} = \ frac {x} {\ sqrt {x ^ {2} + y ^ {2}}}

\ frac {\ parcial g_ {2}} {\ parcial x} = \ frac {1} {1+ (y / x) ^ {2}} \ left (\ frac {-y} {x ^ {2}} \ right) ^ {2} = \ frac {-y} {x ^ {2} + y ^ {2}}

\ frac {\ parcial g_ {1}} {\ parcial y} = \ frac {y} {\ sqrt {x ^ {2} + y ^ {2}}}

\ frac {\ parcial g_ {2}} {\ parcial y} = \ frac {1} {x \ left [1+ (y / x) ^ {2} \ right]} = \ frac {x} {x ^ {2} + y ^ {2}}

por lo que el jacobiano que usa estas funciones es

J(x,y)=\frac{x^{2}}{(x^{2}+y^{2})^{3/2}} + \frac{y^{2}}{(x^{2}+y^{2})^{3/2}} =\frac{1}{\sqrt{x^{2}+y^{2}}}=\frac{1}{r}

si ambas variables aleatorias X e Y son mayores que cero, entonces la función de densidad conjunta condicional es

f (x, y | X> 0, Y> 0) = \ frac {f (x, y)} {P (X> 0, Y> 0)} = \ frac {2} {\ pi} e ^ { - (x ^ {2} + y ^ {2}) / 2} \ \ x> 0, \ \ y> 0

ahora la conversión de la coordenada cartesiana a la coordenada polar usando

r = \ sqrt {x ^ {2} + y ^ {2}} \ \ y \ \ \ theta = tan ^ {- 1} \ left (\ frac {y} {x} \ right)

por lo que la función de densidad de probabilidad para los valores positivos será

f (r, \ theta | X> 0, Y> 0) = \ frac {2} {\ pi} re ^ {- r ^ {2} / 2}, \ \ 0 <\ theta <\ frac {\ pi } {2}, \ \ 0 <r <\ infty

para las diferentes combinaciones de X e Y, las funciones de densidad de formas similares son

f (r, \ theta | X 0) = \ frac {2} {\ pi} re ^ {- r ^ {2} / 2}, \ \ \ pi / 2 <\ theta <\ pi, \ \ 0 < r <\ infty

f (r, \ theta | X <0, Y <0) = \ frac {2} {\ pi} re ^ {- r ^ {2} / 2}, \ \ \ pi <\ theta <3 \ pi / 2, \ \ 0 <r <\ infty

f (r, \ theta | X> 0, Y <0) = \ frac {2} {\ pi} re ^ {- r ^ {2} / 2}, \ \ 3 \ pi / 2 <\ theta <2 \ pi, \ \ 0 <r <\ infty

ahora, a partir del promedio de las densidades anteriores, podemos establecer la función de densidad como

f (r, \ theta) = \ frac {1} {2 \ pi} re ^ {- r ^ {2} / 2}, \ \ 0 <\ theta <2 \ pi, \ \ 0 <r <\ infty

y la función de densidad marginal de esta densidad conjunta de coordenadas polares en el intervalo (0, 2π)

f (r) = re ^ {- r ^ {2} / 2}, \ \ 0 <r <\ infty

  • Encuentre la función de densidad conjunta para la función de variables aleatorias

U = X + Y y V = X / (X + Y)

donde X e Y son la distribución gamma con parámetros (α + λ) y (β + λ) respectivamente.

Usando la definición de distribución gamma y función de distribución conjunta, la función de densidad para la variable aleatoria X e Y será

f_ {X, Y} (x, y) = \ frac {\ lambda e ^ {- \ lambda x} (\ lambda x) ^ {\ alpha -1}} {\ Gamma (\ alpha)} \ frac {\ lambda e ^ {- \ lambda y} (\ lambda y) ^ {\ beta -1}} {\ Gamma (\ beta)}

= \ frac {\ lambda ^ {\ alpha + \ beta}} {\ Gamma (\ alpha) \ Gamma (\ beta)} e ^ {- \ lambda (x + y)} x ^ {\ alpha -1} y ^ {\ beta -1}

considerar las funciones dadas como

g1 (x, y) = x + y, g2 (x, y) = x / (x + y),

por lo que la diferenciación de estas funciones es

\ frac {\ g parcial_ {1}} {\ parcial x} = \ frac {\ parcial g_ {1}} {\ parcial y} = 1

\ frac {\ parcial g_ {2}} {\ parcial x} = \ frac {y} {(x + y) ^ {2}}

\ frac {\ parcial g_ {2}} {\ parcial y} = - \ frac {x} {(x + y) ^ {2}}

ahora el jacobiano es

J (x, y) = \ begin {vmatrix} 1 & 2 \ \\ \ frac {y} {(x + y) ^ {2}} & \ frac {-x} {(x + y) ^ {2 }} \ end {vmatrix} = - \ frac {1} {x + y}

después de simplificar las ecuaciones dadas las variables x = uv y y = u (1-v) la función de densidad de probabilidad es

f_ {U, V} (u, v) = f_ {X, Y} \ left [uv, u (1-v) \ right] u

= \ frac {\ lambda e ^ {- \ lambda u} (\ lambda u) ^ {\ alpha + \ beta -1}} {\ Gamma (\ alpha + \ beta)} \ frac {v ^ {\ alpha - 1} (1-v) ^ {\ beta -1} \ Gamma (\ alpha + \ beta)} {\ Gamma (\ alpha) \ Gamma (\ beta)}

podemos usar la relación

B (\ alpha, \ beta) = \ int_ {0} ^ {1} v ^ {\ alpha -1} (1-v) ^ {\ beta -1} dv

= \ frac {\ Gamma (\ alpha) \ Gamma (\ beta)} {\ Gamma (\ alpha + \ beta)}

  • Calcule la función de densidad de probabilidad conjunta para

Y1 =X1 +X2+ X3 , Y2 =X1- X2 , Y3 =X1 - X3

donde las variables aleatorias X1 , X2, X3 son las variables aleatorias normales estándar.

Ahora calculemos el jacobiano usando derivadas parciales de

Y1 =X1 +X2+ X3 , Y2 =X1- X2 , Y3 =X1 - X3

as

J = \ begin {vmatrix} 1 & 1 & 1 \ \\ 1 & -1 & 0 \\ \ 1 & 0 & -1 \ end {vmatrix} = 3

simplificando para las variables X1 , X2 y X3

X1 = (Y1 + Y2 + Y3) / 3, X2 = (Y1 - 2 años2 + Y3) / 3, X3 = (Y1 + Y2 -2 años3) / 3

podemos generalizar la función de densidad conjunta como

f_ {Y_ {1} \ cdot \ cdot \ cdot Y_ {n}} (y_ {1} \ cdot \ cdot \ cdot y_ {n}) = f_ {X_ {1} \ cdot \ cdot \ cdot X_ {n} } (x_ {1} \ cdot \ cdot \ cdot x_ {n}) | J (x_ {1} \ cdot \ cdot \ cdot x_ {n}) | ^ {- 1}

entonces tenemos

f_{Y_{1}, Y_{2},Y_{3}}(y_{1}, y_{2},y_{3})=\frac{1}{3}f_{X_{1},X_{2},X_{3}}\left ( \frac{y_{1}+y_{2}+y_{3}}{3}, \frac{y_{1}-2y_{2}+y_{3}}{3}, \frac{y_{1}+y_{2} -2y_{3}}{3} \right )

para la variable normal, la función de densidad de probabilidad conjunta es

f_{X_{1}, X_{2},X_{3}}(x_{1}, x_{2},x_{3})=\frac{1}{(2\pi )^{3/2}}e^{-\sum_{i=1}^{3}x_{i}^{2}/2}

por lo tanto

f_{Y_{1}, Y_{2}, Y_{3}}(y_{1}, y_{2}, y_{3})=\frac{1}{3(2\pi )^{3/2}}e^{-Q(y_{1},y_{2},y_{3})/2}

donde está el índice

Q (y_ {1}, y_ {2}, y_ {3}) = \ left (\ frac {(y_ {1} + y_ {2} + y_ {3})} {3} \ right) ^ {2 } + \ left (\ frac {(y_ {1} -2y_ {2} + y_ {3})} {3} \ right) ^ {2} + \ left (\ frac {(y_ {1} + y_ { 2} -2y_ {3})} {3} \ right) ^ {2}

=\frac{y_{1}^{2}}{3} + \frac{2}{3} y_{2}^{2} +\frac{2}{3} y_{3}^{2} -\frac{2}{3}y_{2}y_{3}

calcular la función de densidad conjunta de Y1 …… Yn y función de densidad marginal para Yn dónde

Y_ {i} = X_ {1} + \ cdot \ cdot \ cdot. + X_ {i} \ \ i = 1, \ cdot \ cdot \ cdot .., n

y Xi son variables aleatorias exponenciales independientes distribuidas de forma idéntica con el parámetro λ.

para las variables aleatorias de la forma

Y1 =X1 , Y2 =X1 + X2 , ……, Yn =X1 + …… + Xn

el jacobiano será de la forma

y por lo tanto su valor es uno, y la función de densidad conjunta para la variable aleatoria exponencial

f_ {X_ {1} \ cdot \ cdot \ cdot X_ {n}} (x_ {1}, \ cdot \ cdot \ cdot, x_ {n}) = \ prod_ {i = 1} ^ {n} \ lambda e ^ {- \ lambda x_ {i}} \ \ 0 <x_ {i} <\ infty, \ \ i = 1, \ cdot \ cdot \ cdot, n

y los valores de la variable Xi será

X_ {1} = Y_ {1}, X_ {2} = Y_ {2} -Y_ {1}, \ cdot \ cdot \ cdot, X_ {i} = Y_ {i} -Y_ {i-1}, \ cdot \ cdot \ cdot, X_ {n} = Y_ {n} -Y_ {n-1}

por lo que la función de densidad conjunta es

f_ {Y_ {1}, \ cdot \ cdot \ cdot \ cdot Y_ {n}} (y_ {1}, y_ {2}, \ cdot \ cdot \ cdot \ cdot y_ {n}) = f_ {X_ {1 }, \ cdot \ cdot \ cdot \ cdot, X_ {n}} (y_ {1}, y_ {2} -y_ {1}, \ cdot \ cdot \ cdot \ cdot \ cdot, y_ {i} -y_ { i-1}, \ cdot \ cdot \ cdot, y_ {n} -y_ {n-1})

= \ lambda ^ {n} exp \ left {- \ lambda \ left [y_ {1} + \ sum_ {i = 2} ^ {n} (y_ {i} -y_ {i-1}) \ right] \ derecho }

= \ lambda ^ {n} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {1}, 0 <y_ {i} -y_ {i-1}, i = 2, \ cdot \ cdot \ cdot, n

= \ lambda ^ {n} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {1} <y_ {2} <\ cdot \ cdot \ cdot <y_ {n}

Ahora para encontrar la función de densidad marginal de Yn integraremos uno a uno como

f_ {Y_ {2}, \ cdot \ cdot \ cdot \ cdot Y_ {n}} (y_ {2}, \ cdot \ cdot \ cdot \ cdot y_ {n}) = \ int_ {0} ^ {y_ {2 }} \ lambda ^ {n} e ^ {- \ lambda y_ {n}} dy_ {1}

= \ lambda ^ {n} y_ {2} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {2} <y_ {3} <\ cdot \ cdot \ cdot <y_ {n}

y

f_ {Y_ {3}, \ cdot \ cdot \ cdot \ cdot Y_ {n}} (y_ {3}, \ cdot \ cdot \ cdot \ cdot y_ {n}) = \ int_ {0} ^ {y_ {3 }} \ lambda ^ {n} y_ {2} e ^ {- \ lambda y_ {n}} dy_ {2}

= \ frac {\ lambda ^ {n}} {2} y_ {3} ^ {2} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {3} <y_ {4} <\ cdot \ cdot \ cdot <y_ {n}

igualmente

f_ {Y_ {4}, \ cdot \ cdot \ cdot \ cdot Y_ {n}} (y_ {4}, \ cdot \ cdot \ cdot \ cdot y_ {n}) = \ frac {\ lambda ^ {n}} {3!} Y_ {4} ^ {3} e ^ {- \ lambda y_ {n}} \ \ 0 <y_ {4} <\ cdot \ cdot \ cdot <y_ {n}

si continuamos con este proceso obtendremos

f_ {Y_ {n}} (y_ {n}) = \ lambda ^ {n} \ frac {y_ {n} ^ {n-1}} {(n-1)!} e ^ {- \ lambda y_ { n}} \ \ 0 <y_ {n}

que es la función de densidad marginal.

Conclusión:

La distribución condicional para la variable aleatoria discreta y continua con diferentes ejemplos considerando algunos de los tipos de estas variables aleatorias discutidas, donde la variable aleatoria independiente juega un papel importante. Además, la distribución conjunta para la función de variables aleatorias continuas conjuntas también se explica con ejemplos adecuados, si necesita más información, consulte los enlaces a continuación.

Para obtener más publicaciones sobre matemáticas, consulte nuestro Página de matemáticas

Wikipedia https://en.wikipedia.org/wiki/joint_probability_distribution/” target=”_blank” rel=”noreferrer noopener” class=”rank-math-link”>Wikipedia.org

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Yo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/