Variables aleatorias distribuidas conjuntamente | Sus propiedades importantes y 5 ejemplos

Mi contenido

Variables aleatorias distribuidas conjuntamente

     Las variables aleatorias distribuidas conjuntamente son la variable aleatoria más de una con probabilidad distribuida conjuntamente para estas variables aleatorias, es decir en experimentos donde el resultado diferente con su probabilidad común se conoce como variable aleatoria distribuida conjuntamente o distribución conjunta, tal tipo de situación ocurre con frecuencia al tratar los problemas de las oportunidades.

Función de distribución conjunta | Función de distribución de probabilidad acumulada conjunta | función de masa de probabilidad conjunta | función de densidad de probabilidad conjunta

    Para las variables aleatorias X e Y, la función de distribución o función de distribución acumulada conjunta es

F (a, b) = P \ left \ {X \ leq a, Y \ leq b \ right \} \ \, \ \ - \ infty <a, b <\ infty

donde la naturaleza de la probabilidad conjunta depende de la naturaleza de las variables aleatorias X e Y, ya sean discretas o continuas, y las funciones de distribución individuales para X e Y se pueden obtener utilizando esta función de distribución acumulativa conjunta como

F_ {X} (a) = P \ left \ {{X \ leq a} \ right \} \\ = P \ left \ {X \ leq a, Y <\ infty \ right \} \\ = P \ left (\ lim_ {b \ to \ infty} X \ leq a, Y <b \ right) \\ = \ lim_ {b \ to \ infty} P \ left \ {X \ leq a, Y \ leq b \ right \ } \\ = \ lim_ {b \ to \ infty} F (a, b) \\ \ equiv F (a, \ infty)

de manera similar para Y como

F_ {Y} (b) = P \ left \ {Y \ leq b \ right \} \\ = \ lim_ {a \ to \ infty} F (a, b) \\ \ equiv F (\ infty, b)

estas funciones de distribución individuales de X e Y se conocen como funciones de distribución marginal cuando se está considerando la distribución conjunta. Estas distribuciones son muy útiles para obtener probabilidades como

P \ left {X> a, Y> b \ right} = 1-P (\ left {X> a, Y> b \ right} ^ {c}) \\ = 1-P (\ left {X> a \ right} ^ {c} \ cup \ left {Y> b \ right} ^ {c}) \\ = 1- P (\ left {X \ leq a \ right} \ cup \ left {Y \ leq b \ derecha}) \\ = 1- \ izquierda [P \ izquierda {X \ leq a \ derecha} + P \ izquierda {Y \ leq b \ derecha} -P \ izquierda {X \ leq a, Y \ leq b \ derecha } \ derecha] \\ = 1- F_ {X} (a) -F_ {Y} (b) + F (a, b)

y

P \ left {a_ {1} \ leq X \ leq a_ {2}, b_ {1} \ leq Y \ leq b_ {2} \ right} \\ = F (a_ {2}, b_ {2}) + F (a_ {1}, b_ {1}) - F (a_ {1}, b_ {2}) - F (a_ {2}, b_ {1})

Además, la función de masa de probabilidad conjunta para las variables aleatorias X e Y se define como

p (x, y) = P \ left {X = x, Y = y \ right}

las funciones de masa o densidad de probabilidad individuales para X e Y se pueden obtener con la ayuda de dicha función de masa o densidad de probabilidad conjunta como en términos de variables aleatorias discretas como

p_ {X} (x) = P \ left {X = x \ right} \\ = \ sum_ {y: p (x, y)> 0} ^ {} p (x, y) \\ p_ {Y} (y) = \ sum_ {y: p (x, y)> 0} ^ {} p (x, y)

y en términos de variable aleatoria continua, la función de densidad de probabilidad conjunta será

P \ left {(X, Y) \ in C \ right} = \ int _ {(x, y) \ in C} ^ {} \ int f (x, y) dxdy

donde C es cualquier plano bidimensional, y la función de distribución conjunta para la variable aleatoria continua será

F (a, b) = P \ left {X \ in (- \ infty, a], Y \ in (- \ infty, b] \ right} \\ = \ int _ {- \ infty} ^ {b} \ int _ {- \ infty} ^ {a} f (x, y) dxdy

la función de densidad de probabilidad de esta función de distribución se puede obtener diferenciando

f (a, b) = \ frac {\ parcial ^ 2} {\ parcial a \ parcial b} F (a, b)

y la probabilidad marginal de la función de densidad de probabilidad conjunta

P \ left {X \ in A \ right} = P \ left {X \ in A, Y \ in (- \ infty, \ infty) \ right} \ = \ int_ {A} ^ {} \ int _ {- \ infty} ^ {\ infty} f (x, y) dydx \ = \ int_ {A} ^ {} f_ {X} (x) dx

as

f_ {X} (x) = \ int _ {- \ infty} ^ {\ infty} f (x, y) dy

y

f_ {Y} (y) = \ int _ {- \ infty} ^ {\ infty} f (x, y) dx

con respecto a las variables aleatorias X e Y respectivamente

Ejemplos de distribución conjunta

  1. Las probabilidades conjuntas para las variables aleatorias X e Y que representan el número de libros de matemáticas y estadística de un conjunto de libros que contiene 3 libros de matemáticas, 4 de estadística y 5 de física si se toman 3 libros al azar.

p (0,0) = \ binom {5} {3} / \ binom {12} {3} = \ frac {10} {220} \\ p (0,1) = \ binom {4} {1} \ binom {5} {2} / \ binom {12} {3} = \ frac {40} {220} \\ p (0,2) = \ binom {4} {2} \ binom {5} {1 } / \ binom {12} {3} = \ frac {30} {220} \\ p (0,3) = \ binom {4} {3} / \ binom {12} {3} = \ frac {4 } {220} \\ p (1,0) = \ binom {3} {1} \ binom {5} {2} / \ binom {12} {3} = \ frac {30} {220} \\ p (1,1) = \ binom {3} {1} \ binom {4} {1} \ binom {5} {1} / \ binom {12} {3} = \ frac {60} {220} \\ p (1,2) = \ binom {3} {1} \ binom {4} {2} / \ binom {12} {3} = \ frac {18} {220} \\ p (2,0) = \ binom {3} {2} \ binom {5} {1} / \ binom {12} {3} = \ frac {15} {220} \\ p (2,1) = \ binom {3} {2 } \ binom {4} {1} / \ binom {12} {3} = \ frac {12} {220} \\ p (3,0) = \ binom {3} {3} / \ binom {12} {3} = \ frac {1} {220} \

  • Encuentre la función de masa de probabilidad conjunta para la muestra de familias que tienen 15% sin hijos, 20% 1 hijo, 35% 2 hijos y 30% 3 hijos si la familia que elegimos al azar de esta muestra para que el niño sea niño o niña.

La probabilidad conjunta que encontraremos usando la definición como

Variables aleatorias distribuidas conjuntamente
Variables aleatorias distribuidas conjuntamente: ejemplo

y esto podemos ilustrarlo en forma tabular de la siguiente manera

Variables aleatorias distribuidas conjuntamente
Variables aleatorias distribuidas conjuntamente: ejemplo de distribución conjunta
  • Calcular las probabilidades

(a) P \ left {X> 1, Y> 1 \ right}, \ \ (b) P \ left {X <Y \ right} y \ \ (c) P \ left {X <a \ right}

si para las variables aleatorias X e Y la función de densidad de probabilidad conjunta viene dada por

f (x, y) = \ begin {cases} 2e ^ {- x} y ^ {- 2y} \ \ 0 <x <\ infty, \ \ 0 <y <\ infty \\ 0 & \ text {de lo contrario} \ end {casos}

con la ayuda de la definición de probabilidad conjunta para variable aleatoria continua

= \ int _ {- \ infty} ^ {b} \ int _ {- \ infty} ^ {a} f (x, y) dxdy

y la función de densidad conjunta dada, la primera probabilidad para el rango dado será

P \ left {X> 1, Y <1 \ right} = \ int_ {0} ^ {1} \ int_ {1} ^ {\ infty} 2e ^ {- x} e ^ {- 2y} dxdy

= \ int_ {0} ^ {1} 2e ^ {- 2y} \ left (-e ^ {- x} \ lvert_ {1} ^ {\ infty} \ right) dy

=e^{-1}\int_{0}^{1}2e^{-2y}dy

= e ^ {- 1} (1-e ^ {- 2})

de manera similar la probabilidad

P \ left {X <Y \ right} = \ int _ {(x, y):} ^ {} \ int_ {x <y} ^ {} 2e ^ {- 2x} e ^ {- 2y} dxdy

=\int_{0}^{\infty}\int_{0}^{y}2e^{-2x}e^{-2y}dxdy

= \ int_ {0} ^ {\ infty} 2e ^ {- 2y} (1-e ^ {- y}) dy

=\int_{0}^{\infty}2e^{-2y}dy - \int_{0}^{\infty}2e^{-3y}dy =1-\frac{2}{3}=\frac{1}{3}

y finalmente

P \ left \ {X <a \ right \} = \ int_ {0} ^ {a} \ int_ {0} ^ {\ infty} 2e ^ {- 2y} e ^ {- x} dydx

= \ int_ {0} ^ {a} e ^ {- x} dx

= 1-e ^ {- a}

  • Encuentre la función de densidad conjunta para el cociente X / Y de variables aleatorias X e Y si su función de densidad de probabilidad conjunta es

f (x, y) = \ begin {cases} e ^ {- (x + y)} \ \ 0 <x <\ infty, \ \ 0 <y <\ infty \\ \ 0 & \ text {de lo contrario} \ finalizar {casos}

Para encontrar la función de densidad de probabilidad para la función X / Y, primero encontramos la función de distribución conjunta y luego diferenciaremos el resultado obtenido,

así que por la definición de la función de distribución conjunta y dada la función de densidad de probabilidad tenemos

F_ {X} / _ {Y} (a) = P \ left {\ frac {X} {Y} \ leq a \ right}

= \ int _ {\ frac {X} {Y} \ leq a} ^ {} \ int e ^ {- (x + y)} dxdy

= \ int_ {0} ^ {\ infty} \ int_ {0} ^ {ay} e ^ {- (x + y)} dxdy

= \ left {\ int_ {0} ^ {\ infty} -e ^ {- y} dxdy + \ frac {e ^ {- (a + 1) y}} {a + 1} \ right} \ lvert_ {0 } ^ {\ infty}

= 1- \ frac {1} {a + 1}

por lo tanto, al diferenciar esta función de distribución con respecto a a, obtendremos la función de densidad como

f _ {\ frac {X} {Y}} (a) = \ frac {1} {(a + 1) ^ {2}}

donde a está dentro de cero hasta infinito.

Variables aleatorias independientes y distribución conjunta

     En los distribución conjunta la probabilidad de dos variables aleatorias X e Y se dice que es independiente si

P \ left {X \ in A, Y \ in B \ right} = P \ left {X \ in A \ right} P \ left {Y \ in B \ right}

donde A y B son los conjuntos reales. Como ya en términos de eventos, sabemos que las variables aleatorias independientes son las variables aleatorias cuyos eventos son independientes.

Por lo tanto, para cualquier valor de ayb

P \ left {X \ leq a, Y \ leq b \ right} = P \ left {X \ leq a \ right} P \ left {Y \ leq b \ right}

y la distribución conjunta o función de distribución acumulada para las variables aleatorias independientes X e Y será

F (a, b) = F_ {X} (a) F_ {Y} (b) \ \ para \ \ all \ \ a, b

si consideramos las variables aleatorias discretas X e Y entonces

p (x, y) = p_ {X} (x) p_ {Y} (y) \ \ para \ \ all \ \ x, y

desde

P \ left {X \ in A, Y \ in B \ right} = \ sum_ {y \ in B} ^ {} \ sum_ {x \ in A} ^ {} p (x, y)

= \ sum_ {y \ in B} ^ {} \ sum_ {x \ in A} ^ {} p_ {X} (x) p_ {Y} (y)

= \ sum_ {y \ in B} p_ {Y} (y) \ sum_ {x \ in A} p_ {X} (x)

= P \ left {Y \ in B \ right} P \ left {X \ in A \ right}

de manera similar para la variable aleatoria continua también

f (x, y) = f_ {X} (x) f_ {Y} (y) \ \ para \ \ all \ \ x, y

Ejemplo de distribución conjunta independiente

  1. Si para un día específico en un hospital los pacientes ingresados ​​tienen distribución de poisson con el parámetro λ y la probabilidad de paciente masculino como py la probabilidad de paciente femenino como (1-p), entonces muestre que el número de pacientes masculinos y femeninos ingresados ​​en el hospital Cuáles son las variables aleatorias de Poisson independientes con los parámetros λp y λ (1-p)?

considere el número de pacientes masculinos y femeninos por la variable aleatoria X e Y luego

P \ left {X = i, Y = j \ right} = P \ left {X = i, Y = j | X + Y = i + j \ right} P \ left {X + Y = i + j \ right } + P \ left {X = i, Y = j | X + Y \ neq i + j \ right} P \ left {X + Y \ neq i + j \ right}

P \ left {X = i, Y = j \ right} = P \ left {X = i, Y = j | X + Y = i + j \ right} P \ left {X + Y = i + j \ right }

como X + Y son el número total de pacientes ingresados ​​en el hospital que se distribuye por poisson de manera que

P \ left {X + Y = i + j \ right} = e ^ {- \ lambda} \ frac {\ lambda ^ {i + j}} {(i + j)!}

como la probabilidad de que el paciente sea masculino es p y la del paciente femenino es (1-p), exactamente del número fijo total son hombres o mujeres se muestra la probabilidad binomial como

P \ left {X = i, Y = j | X + Y = i + j \ right} = \ binom {i + j} {i} p ^ {i} (1-p) ^ {j}

usando estos dos valores obtendremos la probabilidad conjunta anterior como

P \ left {X = i, Y = j \ right} = \ binom {i + j} {i} p ^ {i} (1-p) ^ {j} e ^ {- \ lambda} \ frac {\ lambda ^ {i + j}} {(i + j)!}

= e ^ {- \ lambda} \ frac {\ lambda p ^ i} {i! j!} \ left [\ lambda (1-p) \ right] ^ {j}

= e ^ {- \ lambda p} \ frac {(\ lambda p) ^ i} {i!} e ^ {- \ lambda (1-p)} \ frac {\ left [\ lambda (1-p) \ derecha] ^ {j}} {j!}

por lo tanto, la probabilidad de pacientes masculinos y femeninos será

P \ left {X = i \ right} = e ^ {- \ lambda p} \ frac {(\ lambda p) ^ i} {i!} \ Sum_ {j} e ^ {- \ lambda (1-p) } \ frac {\ left [\ lambda (1-p) \ right] ^ {j}} {j!} = e ^ {- \ lambda p} \ frac {(\ lambda p) ^ i} {i!}

y

P \ left {Y = j \ right} = e ^ {- \ lambda (1-p)} \ frac {\ left [\ lambda (1-p) \ right] ^ {j}} {j!}

lo que muestra que ambas son variables aleatorias de Poisson con los parámetros λp y λ (1-p).

2. Calcule la probabilidad de que una persona tenga que esperar más de diez minutos en la reunión a un cliente como si cada cliente y esa persona llegaran entre las 12 y la 1 pm siguiendo una distribución uniforme.

Considere las variables aleatorias X e Y para denotar el tiempo para esa persona y el cliente entre 12 a 1 por lo que la probabilidad conjunta de X e Y será

2P \ left {X + 10 <Y \ right} = 2 \ int_ {X + 10 <Y} \ int f (x, y) dxdy

= 2 \ int_ {X + 10 <Y} \ int f_ {X} (x) f_ {Y} (y) dxdy

= 2 \ int_ {10} ^ {60} \ int_ {0} ^ {y-10} \ left (\ frac {1} {60} \ right) ^ {2} dxdy

=\frac{2}{(60)^{2}}\int_{10}^{60} (y-10)dy

= \ frac {25} {36}

calcular

P \ left {X \ geq YZ \ right}

donde X, Y y Z son variables aleatorias uniformes en el intervalo (0,1).

aquí la probabilidad será

P \ left {X \ geq YZ \ right} = \ int \ int_ {x \ geq yz} \ int f_ {X, Y, Z} (x, y, z) dxdydz

para la distribución uniforme la función de densidad

f_ {X, Y, Z} (x, y, z) = f_ {X} (x) f_ {Y} (y) f_ {Z} (z) = 1, \ \ 0 \ leq x \ leq 1, \ \ 0 \ leq y \ leq 1, \ \ 0 \ leq z \ leq 1

para el rango dado, así que

=\int_{0}^{1}\int_{0}^{1}\int_{yz}^{1} dxdydz

=\int_{0}^{1}\int_{0}^{1} (1-yz) dydz

= \ int_ {0} ^ {1} \ left (1- \ frac {z} {2} \ right) dydz

= \ frac {3} {4}

SUMA DE VARIABLES ALEATORIAS INDEPENDIENTES POR DISTRIBUCIÓN CONJUNTA

  La suma de las variables independientes X e Y con las funciones de densidad de probabilidad como variables aleatorias continuas, la función de distribución acumulada será

F_ {X + Y} (a) = P \ left \ {X + Y \ leq a \ left. \bien bien.

= \ int_ {x + y \ leq a} \ int f_ {X} (x) f_ {Y} (y) dxdy

= \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {ay} f_ {X} (x) f_ {Y} (y) dxdy

= \ int _ {- \ infty} ^ {\ infty} \ int _ {- \ infty} ^ {ay} f_ {X} (x) dx f_ {Y} (y) dy

= \ int _ {- \ infty} ^ {\ infty} F_ {X} (ay) f_ {Y} (y) dy

al diferenciar esta función de distribución acumulativa para la función de densidad de probabilidad de estas sumas independientes se

f_ {X + Y} (a) = \ frac {\ mathrm {d}} {\ mathrm {d} a} \ int _ {- \ infty} ^ {\ infty} F_ {X} (ay) f_ {Y} (y) dy

f_ {X + Y} (a) = \ int _ {- \ infty} ^ {\ infty} \ frac {\ mathrm {d}} {\ mathrm {d} a} F_ {X} (ay) f_ {Y} (y) dy

= \ int _ {- \ infty} ^ {\ infty} f_ {X} (ay) f_ {Y} (y) dy

Siguiendo estos dos resultados veremos algunas variables aleatorias continuas y su suma como variables independientes

suma de variables aleatorias uniformes independientes

   para las variables aleatorias X e Y distribuidas uniformemente en el intervalo (0,1), la función de densidad de probabilidad para ambas variables independientes es

f_ {X} (a) = f_ {Y} (a) = \ begin {cases} 1 & \ 0 <a <1 \\ \ \ 0 & \ text {de lo contrario} \ end {cases}

entonces para la suma X + Y tenemos

f_ {X + Y} (a) = \ int_ {0} ^ {1} f_ {X} (ay) dy

para cualquier valor a se encuentra entre cero y uno

f_ {X + Y} (a) = \ int_ {0} ^ {a} dy = a

si restringimos un entre uno y dos, será

f_ {X + Y} (a) = \ int_ {a-1} ^ {a} dy = 2-a

esto da la función de densidad de forma triangular

f_ {X + Y} (a) = \ begin {cases} \ a & 0 \ leq a \ leq 1 \\ \ 2-a & \ 1 <a <2 \\ \ 0 & \ text {de lo contrario} \ end {casos}

si generalizamos para las n variables aleatorias uniformes independientes 1 an entonces su función de distribución

F_ {n} (x) = P \ left (X_ {1} + ...... + X_ {n} \ leq x \ right)

por inducción matemática será

F_ {n} (x) = \ frac {x ^ {n}} {n!}, 0 \ leq x \ leq 1

suma de variables aleatorias gamma independientes

    Si tenemos dos variables aleatorias gamma independientes con su función de densidad habitual

f (y) = \ frac {\ lambda e ^ {- \ lambda y} (\ lambda y) ^ {t-1}} {\ Gamma (t)} \ \, 0 <y <\ infty

luego siguiendo la densidad para la suma de variables aleatorias gamma independientes

f_ {X + Y} (a) = \ frac {1} {\ Gamma (s) \ Gamma (t)} \ int_ {0} ^ {a} \ lambda e ^ {- \ lambda (ay)} \ left [\ lambda (ay) \ right] ^ {s-1} \ lambda e ^ {- \ lambda y} (\ lambda y) ^ {t-1} dy

= K e ^ {- \ lambda a} \ int_ {0} ^ {a} \ left [(ay) \ right] ^ {s-1} (y) ^ {t-1} dy

= K e ^ {- \ lambda a} a ^ {s + t-1} \ int_ {0} ^ {1} (1-x) ^ {s-1} x ^ {t-1} dx \ \ por \ \ dejando \ \ x = \ frac {y} {a}

= C e ^ {- \ lambda a} a ^ {s + t-1}

f_ {X + Y} (a) = \ frac {\ lambda e ^ {- \ lambda a} (\ lambda a) ^ {s + t-1}} {\ Gamma (s + t)}

esto muestra la función de densidad para la suma de variables aleatorias gamma que son independientes

suma de variables aleatorias exponenciales independientes

    De manera similar a la variable aleatoria gamma, la suma de las variables aleatorias exponenciales independientes, podemos obtener la función de densidad y la función de distribución simplemente asignando específicamente valores de las variables aleatorias gamma.

Suma de la variable aleatoria normal independiente | suma de la distribución normal independiente

                Si tenemos n número de variables aleatorias normales independientes Xi , i = 1,2,3,4… .n con respectivas medias μi y varianzas σ2i entonces su suma también es una variable aleatoria normal con la media como Σμi  y varianzas Σσ2i

    Primero mostramos la suma independiente distribuida normalmente para dos variables aleatorias normales X con los parámetros 0 y σ2 e Y con los parámetros 0 y 1, encontremos la función de densidad de probabilidad para la suma X + Y con

c = \ frac {1} {2 \ sigma ^ {2}} + \ frac {1} {2} = \ frac {1+ \ sigma ^ {2}} {2 \ sigma ^ {2}}

en la función de densidad de distribución conjunta

f_ {X + Y} (a) = \ int _ {- \ infty} ^ {\ infty} f_ {X} (ay) f_ {Y} (y) dy

con la ayuda de la definición de la función de densidad de la distribución normal

f_ {X} (ay) f_ {Y} (y) = \ frac {1} {\ sqrt {2 \ pi} \ sigma} exp \ left {- \ frac {(ay) ^ {2}} {2 \ sigma ^ {2}} \ right} \ frac {1} {\ sqrt {2 \ pi}} exp \ left {- \ frac {y ^ {2}} {2} \ right}

= \ frac {1} {2 \ pi \ sigma} exp \ left {- \ frac {a ^ {2}} {2 \ sigma ^ {2}} \ right} exp \ left {-c \ left (y ^ {2} -2y \ frac {a} {1+ \ sigma ^ {2}} \ right) \ right}

por lo tanto, la función de densidad será

f_ {X + Y} (a) = \ frac {1} {2 \ pi \ sigma} exp \ left {- \ frac {a ^ {2}} {2 \ sigma ^ {2}} \ right} exp \ izquierda {\ frac {a ^ {2}} {2 \ sigma ^ {2} (1+ \ sigma ^ {2})} \ right} X \ int _ {- \ infty} ^ {\ infty} exp \ left { -c \ left (y- \ frac {a} {1+ \ sigma ^ {2}} \ right) ^ {2} \ right} dy

= \ frac {1} {2 \ pi \ sigma} exp \ left {- \ frac {a ^ {2}} {2 (1+ \ sigma ^ {2})} \ right} \ int _ {- \ infty} ^ {\ infty} exp \ left {-cx ^ {2} \ right} dx

= C exp \ left {- \ frac {a ^ {2}} {2 (1+ \ sigma ^ {2})} \ right}

que no es más que la función de densidad de una distribución normal con media 0 y varianza (1 + σ2) siguiendo el mismo argumento podemos decir

X_ {1} + X_ {2} = \ sigma {2} \ left (\ frac {X {1} - \ mu {1}} {\ sigma {2}} + \ frac {X_ {2} - \ mu {2}} {\ sigma {2}} \ right) + \ mu {1} + \ mu {2}

con media y variaciones habituales. Si tomamos la expansión y observamos que la suma se distribuye normalmente con la media como la suma de las respectivas medias y la varianza como la suma de las respectivas varianzas,

así, de la misma manera, la enésima suma será la variable aleatoria normalmente distribuida con la media como Σμi  y varianzas Σσ2i

Sumas de variables aleatorias independientes de Poisson

Si tenemos dos variables aleatorias de Poisson independientes X e Y con parámetros λ1 y λ2 entonces su suma X + Y es también variable aleatoria de Poisson o distribuida de Poisson

dado que X e Y están distribuidos por Poisson y podemos escribir su suma como la unión de eventos disjuntos, por lo que

P \ left {X + Y = n \ right} = \ sum_ {k = 0} ^ {n} P \ left {X = k, Y = nk \ right}

= \ sum_ {k = 0} ^ {n} P \ left {X = k \ right}, P \ left {Y = nk \ right}

= \ sum_ {k = 0} ^ {n} e ^ {- \ lambda {1}} \ frac {\ lambda {1} ^ {k}} {k!} e ^ {- \ lambda {2}} \ frac {\ lambda {2} ^ {nk}} {(nk)!}

mediante el uso de la probabilidad de variables aleatorias independientes

= e ^ {- (\ lambda {1} + \ lambda {2})} \ sum_ {k = 0} ^ {n} \ frac {\ lambda {1} ^ {k} \ lambda {2} ^ {nk }} {k! (nk)!}

= \ frac {e ^ {- (\ lambda {1} + \ lambda {2})}} {n!} \ sum_ {k = 0} ^ {n} \ frac {n!} {k! (nk) !} \ lambda {1} ^ {k} \ lambda {2} ^ {nk}

= \ frac {e ^ {- (\ lambda {1} + \ lambda {2})}} {n!} (\ lambda {1} + \ lambda {2}) ^ {n}

entonces obtenemos la suma X + Y también se distribuye Poisson con la media λ1 + λ2

Sumas de variables aleatorias binomiales independientes

                Si tenemos dos variables aleatorias binomiales independientes X e Y con parámetros (n, p) y (m, p), entonces su suma X + Y también es una variable aleatoria binomial o Binomial distribuida con el parámetro (n + m, p)

usemos la probabilidad de la suma con la definición de binomio como

P \ left {X + Y = k \ right} = \ sum_ {i = 0} ^ {n} P \ left {X = i, Y = ki \ right}

= \ sum_ {i = 0} ^ {n} P \ left {X = i \ right} P \ left {Y = ki \ right}

= \ sum_ {i = 0} ^ {n} \ binom {n} {i} p ^ {i} q ^ {ni} \ binom {m} {ki} p ^ {ki} q ^ {m-k + I}

donde \ \ q = 1-p \ \ y \ \ donde \ \ \ binom {r} {j} = 0 \ \ cuando \ \ j <0

\ binom {m + n} {k} = \ sum_ {i = 0} ^ {n} \ binom {n} {i} \ binom {m} {ki}

lo que da

P \ left {X + Y = k \ right} = p ^ {k} q ^ {n + mk} \ sum_ {i = 0} ^ {n} \ binom {n} {i} \ binom {m} { ki}

por lo que la suma X + Y también se distribuye binomialmente con el parámetro (n + m, p).

Conclusión:

El concepto de variables aleatorias distribuidas conjuntamente que da la distribución comparativamente para más de una variable en la situación se discute además el concepto básico de variable aleatoria independiente con la ayuda de distribución conjunta y suma de variables independientes con algún ejemplo de distribución se da con sus parámetros, si necesita más lectura, consulte los libros mencionados. Para más publicaciones sobre matemáticas, por favor haga clic aquí.

https://en.wikipedia.org

Un primer curso de probabilidad de Sheldon Ross

Esquemas de probabilidad y estadística de Schaum

Una introducción a la probabilidad y la estadística por ROHATGI y SALEH

Acerca de DR. MOHAMMED MAZHAR UL HAQUE

Variables aleatorias distribuidas conjuntamente | Sus propiedades importantes y 5 ejemplosYo soy DR. Mohammed Mazhar Ul Haque, profesor asistente de Matemáticas. Tener 12 años de experiencia en la docencia. Tener un vasto conocimiento en Matemática Pura, precisamente en Álgebra. Tener la inmensa capacidad de diseñar y resolver problemas. Capaz de motivar a los candidatos para mejorar su desempeño.
Me encanta contribuir a Lambdageeks para hacer que las matemáticas sean simples, interesantes y autoexplicativas tanto para principiantes como para expertos.
Conectémonos a través de LinkedIn: https://www.linkedin.com/in/dr-mohammed-mazhar-ul-haque-58747899/

en English
X