1 Distribuciones de probabilidad conjunta
En el caso univariado se tenia a una va \(X\) definida en los reales \(\mathbb R\), a esta va se le asignaba una función de distribución \(F(x)\) y una función de densidad \(f(x)\). Ambas distribuciones tienen su correspondencia en lo discreto y lo continuo:
Caso discreto:
\[\sum_{Rx} P(X=x)=1\] \[F(t)=P(X\leq t)=\sum_{x\leq t} P(X=x)\]
Caso continuo:
\[\int_{Rx}f(x)dx=1\]
\[F(t)=P(X\leq t)=\int_{-\infty}^{t}f(x)dx\]
Recordar que las funciones de probabilidad estudiadas en estadística I son funciones útiles cuando es posible vincular su comportamiento a los datos. Estas funciones son llamadas distribuciones/funciones paramétricas. Algunos ejemplos:
- \(X \sim Bernoulli(P)\)
- \(X \sim Binomial(n,P)\)
- \(X \sim exp(\lambda)\)
- \(X \sim N(\mu,\sigma)\)
La idea de este capitulo es ver las propiedades en el caso bivariante (\(X_1,X_2\)) y generalizar para el caso multivariante (\(X_1, X_2, X_3, \ldots, X_n\)).
1.1 Variables aleatorias bivariantes
Son un par de variables aleatorias con una distribución conjunta, son tipicamente representadas con mayúscula \((X, Y)\) o \((X_1,X_2)\), las realizaciones de estas variables aleatorias se representan como \((x,y)\) o \((x_1,x_2)\).
Definición 1:
Un par de variables aleatorias bivariadas es un par numérico de resultados; una función definida en \(\mathbb R^2\)
Ejemplos:
- Considerar el par (edad, estatura cm):
- \((23,170)\)
- \((20,172)\)
- \((20,154)\)
- \((26,159)\)
- \((19,175)\)
- Considerar el par: (ingreso, años experiencia)
Imaginar lanzar 2 monedas simultáneamente, \(\Omega=\{CC,CS,SC,SS\}\), si definimos a \(Cara=1\) y \(Sello=0\), \(R_{(X,Y)}=\{(1,1),(1,0),(0,1),(0,0)\}\).
1.2 Función de distribución bivariada
Definición 2.
La función de distribución conjunta de \((X,Y)\) es
\[F(x,y)=P(X\leq x,Y\leq y)=P\left[\{X\leq x\} \cap \{Y\leq y\} \right]\] Las propiedades de \(F\) son similares al caso univariante,
- \(0\leq F(x,y)\leq 1\).
- \(F(-\infty,-\infty)=0\), \(F(\infty,\infty)=1\)
Funciones de densidad/probabilidad bivariadas
- Discreto: \(p(x_1,x_2)=P(X_1=x_1,X_2=x_2)=\pi(x_1,x_2)\)
\[0 \leq \pi(x_1,x_2) \leq 1\]
\[\sum_{Rx_1}\sum_{Rx_2} \pi(x_1,x_2)=1\]
- Continuo: \(f(x_1,x_2)\)
\[\int_{Rx_1}\int_{Rx_2} f(x_1,x_2)dx_2 dx_1=1\]
Ejercicio 1: Sea la siguiente función de densidad:
\[f(x_1,x_2)=\frac{1}{500}; \quad 0<x_1<0.25 \quad 0 < x_2<2000\] + Verificar si es una función de densidad + Encontrar la función de distribución (\(F\))
\[F(x_1,x_2)=\frac{x_1 x_2}{500}\]
- Calcular la probabilidad de:
\[P(x_1>0.1,x_2<1000)=0.3\] \[P(x_1=0.1,x_2<500)=0\]
Ejercicio.
Sea la función de distribución:
\[F(x,y)=(1-e^{-x})(1-e^{-y});\hspace{2cm} x,y\geq0 \] Se pide:
- Verificar si es una función de distribución
- \(P(X<5,Y<10)\)
- \(P(X>100,Y<50)\)
Solución:
- Verificar si es una función de distribución
\[F(X=0,Y=0)=F(0,0)=(1-e^{-0})(1-e^{-0})=0\]
\[\lim_{t_1,t_2 \rightarrow \infty} F(t_1,t_2)=(1-e^{-\infty})(1-e^{-\infty})=1\]
- \(P(X<5,Y<10)\)
\[F(x,y)=P(X<x,Y<y)=F(5,10)=(1-e^{-5})(1-e^{-10})= 0.993217\]
<-function(x,y){
Fxy<-(1-exp(-x))*(1-exp(-y))
ppreturn(pp)
}Fxy(5,10)
## [1] 0.993217
- \(P(X>100,Y<50)=¿?\)
La distribución conjunta satisface:
\[P(a<X\leq b,c< Y\leq d)=F(b,d)-F(b,c)-F(a,d)+F(a,c)\] Para \(a<b\) y \(c<d\)
Ejemplo:
- \(P(X>100,Y<50)=¿?\)
\[P(X>100,Y<50)=F(\infty,50)-F(\infty,0)-F(100,50)+F(100,0)\] \[=1-0-1+0=0\]
Definición 3
\[f(x,y)=\frac{\partial^2}{\partial x \partial y}F(x,y)\]
\[\int_{Rx}\int_{Ry}f(x,y)dydx=1\]
Ejercicio
Encontrar la función de densidad de:
\[F(x,y)=(1-e^{-x})(1-e^{-y});\hspace{2cm} x,y\geq0\] Solución
\[f(x,y)=\frac{\partial^2}{\partial x \partial y}\left[(1-e^{-x})(1-e^{-y})\right]=e^{-x}e^{-y}\]
Verificar si efectivamente es una función de densidad
\[\int_0^{\infty}\int_0^{\infty} e^{-x}e^{-y} dx dy=1\]
Ejercicio
Probar que la siguiente función es una función de densidad
\[f(x,y)=x+y \quad ;0 \leq x \leq 1 \quad 0\leq y \leq 1\]
\[\int_0^1 \int_0^1 (x+y) dydx=\int_0^1 \left(x*y/_0^1+\frac{y^2}{2}/_0^1 \right)dx =\int_0^1 x+\frac{1}{2} dx\] \[=\frac{x^2}{2}/_0^1+\frac{1}{2}=\frac{1}{2}+\frac{1}{2}=1\]
Para el ejercicio:
\[\int_0^{\infty} \int_0^{\infty}e^{-x}e^{-y} dx dy=\int_0^{\infty} e^{-y} \left[-e^{-x}/_0^{\infty} \right] dy =1\]
\[P(a<X\leq b,c< Y\leq d)=\int_a^b \int_c^d f(x,y)dxdy\]
Para el caso discreto podemos definirlo de la siguiente forma:
\[f(x,y)=\pi(x,y)=P(X=x,Y=y)\] \[\sum_{Rx}\sum_{Ry}\pi(x,y)=1\] > Ejercicio
Sea la función de probabilidad discreta:
\[\pi(x,y)=\frac{x+y}{30}, \quad x=0,1,2,3; y=0,1,2\]
Verificar que se trata de una función de probabilidad y luego encontrar:
\[P(X\leq 2, Y=1)\] \[P(X> 2, Y\leq 1)\] Solución
\[1=\sum_{x=0}^3 \sum_{y=0}^2 \pi(x,y)=\sum_{x=0}^3 \sum_{y=0}^2\frac{x+y}{30}=1\] \[P(X\leq 2, Y=1)=\pi_{0,1}+\pi_{1,1}+\pi_{2,1}=0.2\] \[P(X> 2, Y\leq 1)=\pi_{3,0}+\pi_{3,1}=\frac{3}{30}+\frac{4}{30}=\frac{7}{30}\]
Solución en R.
#crear la función
<-function(x,y){
pxyreturn((x+y)/30)
}<-0
auxfor(x in 0:3){
for(y in 0:2){
<-aux+pxy(x,y)
aux
}
}sum(pxy(0:2,1))
## [1] 0.2
pxy(3,0)+pxy(3,1)
## [1] 0.2333333
Ejemplo
Sea la función de densidad:
\[f(x,y)=\frac{x}{8}; \quad 0\leq x\leq 2;0\leq y\leq 4 \] Verificar si es una función de densidad y calcular:
\[P(X>1,Y>2)\] Obtener la función de distribución (\(F\))
Solución
\[\int_0^2 \int_0^4 \frac{x}{8}dy dx=\int_0^2 \frac{x}{8} y/_0^4=\int_0^2\frac{x}{2}dx=\frac{x^2}{4}/_0^2=1\]
\[P(X\geq1,Y\geq2)=P(X>1,Y>2)=\int_1^2 \int_2^4 \frac{x}{8}dy dx=\]
\[=\int_1^2 \frac{x}{8} y/_2^4 dx=\int_1^2 \frac{x}{4} dx= \frac{x^2}{8}/_1^2=\frac{4-1}{8}=\frac{3}{8}\]
Tarea:
\[F(x,y)=F(t,r)=\int_0^t \int_0^r \frac{x}{8} dy dx\]
1.3 Distribución marginal
La distribución conjunta del vector aleatorio \((X,Y)\) describe la distribución del vector aleatorio, sin embargo, es posible a partir de la distribución conjunta, generar las distribuciones para cada componente del vector aleatorio.
Definición 4, la distribución marginal de X es:
\[F_X(x)=P(X\leq x)=P(X\leq x, Y\leq \infty)=lim_{y\rightarrow \infty} F(x,y)\]
\[F_Y(y)=P(Y\leq y)=P(X\leq \infty, Y\leq y)=lim_{x\rightarrow \infty} F(x,y)\] De manera más usual se tiene:
Para el caso discreto:
\[P(X=x)=\pi(x)=\sum_{Ry} \pi(x,y)\]
\[P(Y=y)=\pi(y)=\sum_{Rx} \pi(x,y)\] Para el caso continuo:
\[f(x)=\int_{Ry} f(x,y)dy\]
\[f(y)=\int_{Rx} f(x,y)dx\]
Ejercicio
Encontrar las distribuciones marginales de la siguiente función de densidad conjunta:
\[f(x,y)=x^2+\frac{xy}{3}; \quad 0<x\leq 1 \quad 0\leq y \leq2\]
\[f(y)=\int_0^1 x^2+\frac{xy}{3} dx= \frac{x^3}{3}/_0^1+ \frac{yx^2}{6}/_0^1=\frac{1}{3}+\frac{y}{6}\]
\[f(x)=\int_0^2 x^2+\frac{xy}{3} dy=x^2 y/_0^2 + \frac{x y^2}{6}/_0^2=2x^2+\frac{2x}{3}\]
Ejemplo
Encontrar las distribuciones marginales de la función
\[f(x,y)=\frac{x}{8}; \quad 0\leq x\leq 2 \quad 0\leq y\leq 4\] Solución:
\[f(x)=\int_0^4 \frac{x}{8} dy= \frac{x}{2}; \quad 0\leq x \leq2\] \[f(y)=\int_0^2 \frac{x}{8} dx=\frac{x^2}{16}/_0^2=\frac{1}{4}; \quad 0\leq y \leq 4\]
1.4 Independencia
Definición 6, dos variables aleatorias son independientes si:
Se dice que dos variables aleatorias son independientes si sus funciones de densidad o probabilidad cumplen los siguiente:
\[f(x,y)=f(x)f(y)\] \[\pi(x,y)=\pi(x)\pi(y)\] La independencia de dos variables aleatorias implica que el comportamiento de una variable no afecta a la otra.
Por ejemplo en el ejercicio con la función:
\[f(x,y)=x^2+\frac{xy}{3}; \quad 0<x\leq 1 \quad 0\leq y \leq2\]
Las variables no son independientes.
Para el otro ejemplo:
\[f(x,y)=\frac{x}{8}; \quad 0\leq x\leq 2 \quad 0\leq y\leq 4\]
Efectivamente las variables son independientes.
Nota: Cuando definimos la independencia, estamos interesados en entender el nivel de relación que existe en las variables.
Ejercicio:
\[f(x,y)=e^{-x}e^{-y}\]
Con \(x,y\geq 0\), encontrar las marginales de \(f(x)\) y \(f(y)\).
Solución:
\[f(x)=\int_0^{\infty}e^{-x}e^{-y} dy=e^{-x}\]
\[f(y)=\int_0^{\infty}e^{-x}e^{-y} dx=e^{-y}\]
Nota: las marginales deben estar en función de su propia variable aleatoria y no contener otras variables, dado que son marginales.
Notar que en este ejercicio:
\[f(x,y)=e^{-x}e^{-y}=f(x)*f(y)\] Esto no siempre sucede, este caso se da cuando las variables son independientes.
Ejercicio, Sea la función conjunta
\[f(x,y)=\frac{1}{500}\]
Para \(0<X<0.25\) y \(0<y<2000\).
- Verificar que es una función de probabilidad
- Encontrar la marginal de \(x\)
- Encontrar la marginal de \(y\)
\[\int_0^{0.25}\int_0^{2000}\frac{1}{500}dydx=1\]
\[f(x)=\int_{Ry} f(x,y) dy=\int_0^{2000}\frac{1}{500}dy=4\] \[f(y)=\int_{Rx} f(x,y) dx=\int_0^{0.25}\frac{1}{500}dx=\frac{1}{2000}\]
Ejercicio
Dada la siguiente función de densidad conjunta:
\[f(x,y)=ke^{-2x-3y}; \quad x,y\geq 0\]
- Encontrar el valor de \(k\) para que la función se una función de densidad
- Encontrar las marginales
- Verificar si \(X\), \(Y\) son independientes
- Calcular las esperanzas y las varianzas a partir de las marginales
Solución
\[1=\int_0^\infty \int_0^\infty ke^{-2x-3y}dx dy=k\int_0^\infty e^{-2x} dx \int_0^\infty e^{-3y} dy=k*\frac{1}{2}*\frac{1}{3}\]
Siendo \(k=6\), de esta forma la función queda como:
\[f(x,y)=6e^{-2x-3y}; \quad x,y\geq 0\]
Para las marginales:
\[f(x)=\int_0^\infty 6e^{-2x-3y}dy=6 e^{-2x} \left(-\frac{e^{-3y}}{3} \right)/_0^\infty=2e^{-2x}\]
\[f(y)=\int_0^\infty 6e^{-2x-3y}dx=3 e^{-3y}\]
Evidentemente las variables son independientes, ya que:
\[f(x)f(y)=2e^{-2x}3e^{-3y}=6e^{-2x-3y}=f(x,y)\]
Ejemplo, para la distribución conjunta:
\[f(x,y)=\frac{1}{500}\]
Si \(X\) e \(Y\) son independientes, se debe cumplir:
\[f(x,y)=f(x)*f(y)=4*\frac{1}{2000}=\frac{1}{500}\]
Ejercicio, verificar si la siguiente función esta bien definida y si las variables son independientes.
\[f(x,y)=\frac{1}{4}(x+y)*xy*e^{-x-y}; \hspace{2cm} x,y>0\] Solución,
Si esta bien definida, esto significa:
\[\int_0^{\infty}\int_0^{\infty}\frac{1}{4}(x+y)*xy*e^{-x-y}=1\]
\[f(x)=\int_{Ry}f(x,y)dy=\frac{x^2+2x}{4} ( e^{-x})\] Ejercicio,
Sea la función conjunta:
\[f(x,y)=k (6-x-y) \quad 0<x<2, 2<y<4\]
- Encontrar el valor de \(k\) para que \(f\) sea una función de densidad
- Encontrar las marginales de \(x\) e \(y\)
- ¿Son independientes?
\[\int_{0}^2 \int_2^4 k (6-x-y) dydx=1\] Así \(k=\frac{1}{8}\), de esta forma:
\[f(x,y)=\frac{6-x-y}{8} \quad 0<x<2, 2<y<4\]
\[f(x)=\int_2^4 \frac{6-x-y}{8} dy=\frac{3-x}{4}\]
\[f(y)=\int_0^2 \frac{6-x-y}{8} dx=\frac{5-y}{4}\] \[f(x)*f(y)=\frac{3-x}{4}*\frac{5-y}{4}\neq \frac{6-x-y}{8}\] Por lo tanto \(x\) e \(y\) no son independientes.
1.5 Valores esperados
En el caso univariado, sea \(X\) una variable aleatoria con función de probabilidad \(\pi(x)\) para el caso discreto o \(f(x)\) para el caso continuo, el operador matemático esperanza se define como:
Para el caso discreto,
\[E[g(X)]=\sum_{Rx}g(x)P(X=x)\]
Para el caso continuo,
\[E[g(X)]=\int_{Rx}g(x)f(x)dx\]
Definición 6, el valor esperado para la función \(g(X,Y)\), se define como:
Para el caso discreto:
\[E[g(X,Y)]=\sum_{Rx}\sum_{Ry}g(x,y)\pi(x,y)\]
Para el caso continuo:
\[E[g(X,Y)]=\int_{Rx}\int_{Ry}g(x,y)f(x.y)dydx\] Nota, hay valores esperados más usuales que otros,
Por ejemplo, las varianzas para cada variable
\[E[(X-E[X])^2]=V(X)\] \[E[(Y-E[Y])^2]=V(Y)\]
Otras medidas son \(E[X]\), \(E[Y]\) que son referencias muy similares a un promedio aritmético. Otra valor esperado bastante usado en los casos bivariados es:
\[E[XY]=\int_{Rx}\int_{Ry} xy f(x,y) dy dx\] Encontrar la forma de \(E[X]\) usando la definición anterior.
\[E[X]=\int_{Rx}\int_{Ry} x f(x,y) dy dx=\int_{Rx}xf(x) dx\] \[E[X]=\sum_{Rx}\sum_{Ry} x \pi(x,y) =\sum_{Rx}x \pi(x) dx\]
Ejercicio
Sea la función de densidad:
\[f(x,y)=6 e^{-2x-3y}; \quad x,y \geq 0\] Encontrar:
- Las esperanzas: \(E[X]\), \(E[Y]\)
- \(E[XY]\)
- \(E[XY]-E[X]E[Y]\)
\[E[XY]=\int_{Rx}\int_{Ry} xy f(x,y) dy dx\]
Solución:
\[E[XY]=\int_0^\infty \int_0^\infty xy 6 e^{-2x-3y}dxdy=6 \int_0^\infty x e^{-2x}dx\int_0^\infty y e^{-3y}dy= \alpha \]
Usando la función gamma.
\[t=2x\quad x=\frac{t}{2} \quad \frac{dx}{dt}=\frac{1}{2}\quad \]
\[\int_0^\infty x e^{-2x}dx=\int_0^\infty\frac{t}{2}e^{-t}\frac{dt}{2}=\frac{1}{4}\int_0^\infty t^{2-1}e^{-t}dt=\frac{\Gamma(2)}{4}=\frac{1!}{4}=\frac{1}{4}\] \[t=3y\quad y=\frac{t}{3} \quad \frac{dy}{dt}=\frac{1}{3}\quad \]
\[\int_0^\infty y e^{-3x}dx=\int_0^\infty\frac{t}{3}e^{-t}\frac{dt}{3}=\frac{1}{9}\int_0^\infty t^{2-1}e^{-t}dt=\frac{\Gamma(2)}{9}=\frac{1!}{9}=\frac{1}{9}\] Retomando
\[\alpha=6\frac{1}{4}\frac{1}{9}=\frac{1}{6}=E[XY]\]
\[E[X]=\int_0^\infty x 2e^{-2x}dx=2\int_0^\infty x e^{-2x}dx=\frac{2}{4}=\frac{1}{2}\]
\[E[X^2]=\int_0^\infty x^2 2e^{-2x}dx=2\int_0^\infty x^2 e^{-2x}dx=Tarea\] \[E[Y]=3*\frac{1}{9}=\frac{1}{3}\] \[E[Y^2]=tarea\] Notar que
\[E[X]E[Y]=\frac{1}{2}\frac{1}{3}=\frac{1}{6}=E[XY]\] \[E[XY]-E[X]E[Y]=\frac{1}{6}-\frac{1}{2}\frac{1}{3}=0\] Nota:
Cuando dos variables aleatorias son independientes:
\[E[XY]=E[X]E[Y]\] > Ejercicio, Sea la función conjunta
\[f(x,y)=\frac{1}{500}, \quad 0<X<0.25 \quad 0<y<2000\] Encontrar:
- \(E[X]=1/8\), \(V[X]=\frac{0.25^2}{12}=\frac{1}{192}\), \(E[Y]=1000\), \(V[Y]=\frac{2000^2}{12}=\frac{1000000}{3}\)
- \(E[XY]\)
\[E[X]=\int_0^{0.25}\int_0^{2000} x \frac{1}{500}dy dx=\int_0^{0.25}x\int_0^{2000} \frac{1}{500}dy dx=4\int_0^{0.25}x dx=4*\frac{(x^2)_0^{0.25}}{2}=\frac{1}{8}\]
\[E[XY]=125\]
Nota: Si dos variables aleatorias son independientes:
\[E[XY]=E[X]E[Y]\] Demostración,
\[E[XY]=\int_{Rx}\int_{Ry} xyf(x,y)dydx=\int_{Rx}\int_{Ry} xyf(x)f(y)dydx=\int_{Rx}x f(x)\left(\int_{Ry} yf(y)dy\right)dx=E[X]*E[Y]\]
Para el caso discreto:
https://docs.google.com/spreadsheets/d/1yJlHbrmKeJ5z4X0YlLayAxOtCWqG6uqQqIgku-aCXEI/edit?usp=sharing
1.6 Distribuciones condicionales
Recordar de estadística I:
\[P(B/A)=\frac{P(A\cap B)}{P(A)}\]
Estas distribuciones nos ayudan a entender el comportamiento de una variable, cuando fijamos a otra.
Definición, una distribución condicional se define como:
Caso discreto,
\[\pi_{x/y}(X/Y=y)=\frac{\pi(x,y)}{\pi(y)}\] \[\pi_{y/x}(Y/X=x)=\frac{\pi(x,y)}{\pi(x)}\]
Caso continuo,
\[f_{X/Y}(x/y)=\frac{f(x,y)}{f(y)}\] \[f_{Y/X}(y/x)=\frac{f(x,y)}{f(x)}\] Estas funciones condicionales cumplen todas las propiedades de una función de probabilidad.
Demostrar que:
\[\int_{Rx} f_{X/Y}(x/y) dx=1\]
\[\int_{Rx} f_{X/Y}(x/y) dx=\int_{Rx} \frac{f(x,y)}{f(y)} dx=\frac{1}{f(y)}\int_{Rx} f(x,y)dx=\frac{f(y)}{f(y)}=1\] Que sucede si \(X\) e \(Y\) son variables independientes:
\[f_{X/Y}(x/y)=\frac{f(x,y)}{f(y)}=\frac{f(x)f(y)}{f(y)}=f(x)\] \[f_{Y/X}(y/x)=\frac{f(x,y)}{f(x)}=\frac{f(x)f(y)}{f(x)}=f(y)\]
Ejemplo, caso discreto
(Ver excel compartido)
Ejercicio,
Sea la densidad conjunta de \(X,Y\):
\[f(x,y)=x^2+\frac{xy}{3}, \quad 0<x\leq 1, \quad 0\leq y \leq2\] Se pide:
- Verificar que es una función de probabilidad
- Encontrar las marginales
- Encontrar las condicionales (\(X/Y\), \(Y/X\))
- Encontrar \(E[X]\), \(E[Y]\), \(E[XY]\), \(E[X/Y]\), \(E[Y/X]\)
- ¿Son independientes?
\[\int_{Rx} \int_{Ry}f(x,y)dydx=\int_0^1 \int_0^2 x^2+\frac{xy}{3} dy dx=1\]
\[f(x)=\int_{Ry}f(x,y)dy=2x^2 +\frac{2x}{3}\]
\[f(y)=\int_{Rx}f(x,y)dx=\frac{1}{3}+\frac{y}{6}\]
\[f_{X/Y}(x/y)=\frac{x^2+\frac{xy}{3}}{\frac{1}{3}+\frac{y}{6}}=\frac{x(3x+y)}{1+\frac{y}{2}}\]
\[f_{Y/X}(y/x)=\frac{x^2+\frac{xy}{3}}{2x^2 +\frac{2x}{3}}=\frac{3x^2+xy}{6x^2+2x}\]
\[E[X]=\int_0^1 x\left( 2x^2 +\frac{2x}{3} \right)dx=\frac{13}{18}\]
\[E[Y]=\int_0^2 y\left( \frac{1}{3}+\frac{y}{6} \right)dy=\frac{10}{9}\]
\[E[XY]=\int_{Rx} \int_{Ry} xy f(x,y)dydx=\int_0^1 \int_0^2 xy \left(x^2+\frac{xy}{3}\right) dy dx=\frac{43}{54}\]
1.7 Esperanza condicional
Se refiere a calcular el valor esperado sobre la función condicional.
\[E[Y/X]=\int_{Ry} y* f_{Y/X}(y/x)dy\] \[E[X/Y]=\int_{Rx} x* f_{X/Y}(x/y)dx\] Para el ejercicio anterior,
\[E[Y/X]=\int_0^2 y* \left(\frac{3x^2+xy}{6x^2+2x}\right) dy=\frac{9x+4}{9x+3}\] Calcular:
\[E[Y/X=0.5]=\frac{9*0.5+4}{9*0.5+3}=\frac{8.5}{7.5}=1.13\]
\[E[Y/X=1]=\frac{9*1+4}{9*1+3}=\frac{13}{12}=1.083\]
\[E[Y/X=0.5]=\frac{17}{15}\] \[E[X/Y]=\frac{9+4y}{12+6y}\]
Nota, si \(X\) e \(Y\) son independientes,
\[E[X/Y=y]=E[X] \quad;\quad E[Y/X=x]=E[Y] \quad ; \quad E[XY]=E[X]E[Y]\] Tarea, demostrar lo anterior.
1.8 Medidas de relación entre dos variables
Estas medidas nos ayudan a conocer si dos variables están relacionadas y nos permite saber el tipo de relación (directa, inversa) y también podemos saber la intensidad de la relación. Las medidas son:
La Covarianza \(cov(X,Y)\) es una medida absoluta de relación:
\[cov(X,Y)=E\left\{(X-E[X])(Y-E[Y]) \right\}\]
Una alternativa a esta formula (versión corta).
\[cov(X,Y)=E[XY]-E[X]*E[Y]\] Tarea, demostrar lo anterior.
Nota: La covarianza es una medida absoluta, nos ayuda a conocer el tipo de relación entre las variables, pero no es útil para conocer la intensidad de la relación
Otra medida importantes es la correlación ($corr(X,Y)=_{xy} $) entre \(X\) e \(Y\), esta es una medida relativa, que cumple la propiedad: \(-1 \leq corr(X,Y) \leq 1\), esta se define como:
\[\rho_{xy}=corr(X,Y)=\frac{cov(X,Y)}{\sqrt{V(X)V(Y)}}=\frac{cov(X,Y)}{\sigma_X \sigma_Y}\]
La correlación esta definida en:
\[-1 \leq \rho_{xy} \leq 1\]
- Si \(cov_{xy}\) o \(corr_{xy}\) son distintas de 0, podemos afirmar que existe relación (lineal)
- Si \(cov_{xy}>0\) o \(corr_{xy}>0\) la relación entre \(X\) e \(Y\) es directa
- Si \(cov_{xy}<0\) o \(corr_{xy}<0\) la relación entre \(X\) e \(Y\) es inversa
- La intensidad de la dirección de la relación nos la da \(corr_{xy}\), mientras más cercana a \(corr_{xy}\rightarrow 1\) la relación directa es más fuerte, \(corr_{xy}\rightarrow -1\) la relación inversa es más fuerte
- Si \(corr_{xy}\rightarrow 0\) podemos decir que las variables no están relacionadas (“cuasi-independencia”) la correlación mide principalmente relaciones lineales.
Nota: * Si las variables \(X,Y\) son independientes, entonces, siempre se cumple que la covarianza y la correlación es igual a 0. * Si la covarianza o la correlación es igual a 0, eso no implica independencia. Alerta de baja relación o una relación distinta a la lineal.
Ejercicio:
Sea la función de densidad: \[f(x,y)=x+y; \quad 0<x<1 \quad 0<y<1\] Encontrar el coeficiente de correlación
\[E[XY]=\int_0^1 \int_0^1 xy (x+y)dxdy= \int_0^1 \int_0^1 x^2y +xy^2dxdy=\] \[=\int_0^1 \frac{x^3 y}{3}/_0^1+\frac{x^2 y^2}{2}/_0^1 dy=\int_0^1 \frac{y}{3}+\frac{y^2}{2}dy=\frac{y^2}{6}/_0^1+\frac{y^3}{6}/_0^1=\frac{1}{3}\]
\[f(x)=\int_0^1 (x+y) dy=x*y/_0^1+\frac{y^2}{2}/_0^1=x+\frac{1}{2}\] \[f(y)=y+\frac{1}{2}\] \[E[X]=\int_0^1 x^2+\frac{x}{2}dx=\frac{1}{3}+\frac{1}{4}=\frac{7}{12}=E[Y]\]
\[cov(X,Y)=E[XY]-E[X]*E[Y]=\frac{1}{3}-\frac{7}{12}\frac{7}{12}=-\frac{1}{144}\]
\[E[X^2]=\int_0^1 x^3+\frac{x^2}{2}dx=\frac{1}{4}+\frac{1}{6}=\frac{5}{12}=E[Y^2]\]
\[V(X)=E[X^2]-E[X]^2=\frac{5}{12}-\left(\frac{7}{12}\right)^2=\frac{11}{144}=V(Y)\]
\[\sigma_X=\sigma_Y=\sqrt{V(X)}=\sqrt{\frac{11}{144}}\]
\[\rho_{xy}=\frac{cov(X,Y)}{\sigma_X \sigma_Y}=\frac{-\frac{1}{144}}{\sqrt{\frac{11}{144}}\sqrt{\frac{11}{144}}}=-\frac{144}{11*144}=-\frac{1}{11}=-0.0909\]
Calcular la Covarianza y la correlación de las variables aleatorias \(X,Y\).
\[cov(X,Y)=\frac{43}{54}-\frac{13}{18}*\frac{10}{9}=-\frac{1}{162}\] > Nota
Demostrar que si \(X\) y \(Y\) son independientes entonces:
\[E[XY]=E[X]*E[Y]\]
Demostración,
\[E[XY]=\int_{Rx}\int_{Ry} xy f(x,y) dy dx=\int_{Rx}\int_{Ry} xy f(x)f(y) dy dx\] \[=\int_{Rx} x f(x)\left( \int_{Ry} y f(y) dy \right) dx=E[Y] \int_{Rx} xf(x) dx=E[X]E[Y] \] Como resultado de lo anterior, si \(X\) e \(Y\) son independientes:
\[cov(X,Y)=E[XY]-E[X]*E[Y]=E[X]E[Y]-E[X]E[Y]=0\]
Si dos variables son independientes la covarianza y la correlación son iguales a cero, el inverso de esta afirmación no necesariamente es cierta.
1.8.1 Ejemplo
Sea la función de densidad:
\[f(x,y)=\frac{3}{2}(x^2+y^2); \quad 0<x<1;\quad 0<y<1\] Se pide:
- Verificar que es una función de densidad
- Encontrar las marginales
- Encontrar las distribuciones condicionales
- Calcular la covarianza y correlación
- Verificar si son independientes
Ejercicio
Para
\[f(x,y)=\frac{x(1+3y^2)}{4} \quad 0<x<2, \quad 0<y<1\]
Calcular
\[P(1/4<X<1/2 | Y=1/3)\]
Solución
Se debe encontrar \(f_{X|Y}(X|Y)=\frac{f(x,y)}{f(y)}\)
\[f(y)=\int_0^2 \frac{x(1+3y^2)}{4} dx=\frac{(1+3y^2)}{4} \int_0^2 x dx=\frac{(1+3y^2)}{4} \frac{x^2}{2}/_0^2=\] \[=\frac{(1+3y^2)}{4}(2)=\frac{(1+3y^2)}{2}\]
\[f_{X|Y}(X|Y)=\frac{\frac{x(1+3y^2)}{4}}{\frac{(1+3y^2)}{2}}=\frac{x}{2}\] Verificando que sea correcta
\[\int_0^2 \frac{x}{2}dx=\frac{x^2}{4}/_0^2=1\] \[P(1/4<X<1/2 | Y=1/3)=\int_{1/4}^{1/2} f_{X|Y}(X|Y) dx=\int_{1/4}^{1/2} \frac{x}{2} dx=\frac{x^2}{4}/_{0.25}^{0.5}=\]
\[=\frac{0.5^2}{4}-\frac{0.25^2}{4}=\frac{3}{64}\]
Ejercicio de práctica,
Sea la función de densidad:
\[f(x,y)=24xy, \quad x>0 \quad y>0 \quad x+y<1\]
- Verificar si es una función de probabilidad
- Encontrar la función de distribución \(F\)
- Calcular la probabilidad que
\[P(X>0.3 , Y<0.5 )\]
Recordar;
\[F(x,y)=P(X<x,Y<y)\]
Hay que tomar al menos 2 casos:
- \(0<x<1\), \(x+y<1\)
- \(0<x<1\), \(1-x\leq y\leq1\)
Para el primer caso:
\[\int_0^y \int_0^x 24xy dxdy=6x^2 y^2\] Para el segundo caso:
\[\int_0^y \int_0^{1-y} 24xy dxdy=\] Ejercicio de práctica,
Sea la función de densidad
\[f(x,y)=4 e^{-2(x+y)} \quad x>0 \quad y>0\] * Verificar si es una función de probabilidad * Suponer que estamos interesados en el comportamiento de la variable:
\[Z=\frac{X}{Y}\]
encontrar la distribución de \(Z\).
Definimos a \(z=\frac{x}{y}\) y \(w=x+y\). Ahora encontramos las funciones \(G\)
\[x=\frac{zw}{1+z}; \quad y=\frac{w}{1+z}\]
\[l(w,z)=f(X=G_1(Z,W),Y=G_2(Z,W))*|J(Z,W)|=4 e^{-2(\frac{zw}{1+z}+\frac{w}{1+z})}*\frac{w}{(1+z)^2}\] \[l(z,w)=\frac{4w e^{-2w}}{(1+z)^2}, \quad w>0, \quad z>0\] finalmente:
\[f(z)=\int_0^{\infty} \frac{4w e^{-2w}}{(1+z)^2} dw=\frac{1}{(1+z)^2}\]
1.9 Transformaciones
Supongamos que se busca encontrar a partir de la función de densidad \(f(X,Y)\) de dos variables X, Y una tercera variable \(Z=H_1(X,Y)\). La estrategia para resolver este tipo de problemas es:
- Definir una cuarta variable \(W=H_2(X,Y)\), es elegida por conveniencia
- Se encuentran \(X=G_1(Z,W)\), \(Y=G_2(Z,W)\)
- Una vez con estos valores la función conjunta de \(Z,W\) es:
\[l(Z,W)=f(X=G_1(Z,W),Y=G_2(Z,W))*|J(Z,W)|\]
Donde \(J(Z,W)\) se llama jacobiano de la transformación y es dado por:
\[J(Z,W)=\left| \begin{array} & \frac{\partial X }{\partial Z} & \frac{\partial X }{\partial W} \\ \frac{\partial Y }{\partial Z} & \frac{\partial Y }{\partial W} \end{array} \right| \]
Ejemplo,
Suponer que tenemos una función de densidad conjunto \(f(x,y)\), ahora estamos interesados en encontrar la función de densidad de la variable z, definida como:
\[Z=X+Y=H_1(X,Y)\] \[Z=XY=H_1(X,Y)\]
Ejemplo
Sea la función de densidad conjunta definida como:
\[f(x,y)=4 e^{-2(x+y)} \quad x>0 \quad y>0\]
Encontrar la función de densidad de la variable \(Z=X+Y\)
\[Z=X+Y=H_1(X,Y); \quad W=Y=H_2(X,Y)\] \[X=Z-W=G_1(Z,W) \quad Y=W=G_2(Z,W)\]
\[J(Z,W)=\left| \begin{array} & \frac{\partial X }{\partial Z} & \frac{\partial X }{\partial W} \\ \frac{\partial Y }{\partial Z} & \frac{\partial Y }{\partial W} \end{array} \right|=\left| \begin{array} & 1 & -1 \\ 0 & 1 \end{array} \right|=1 \]
\[l(z,w)=4 e^{-2(z-w+w)}|1|=4e^{-2z}; z>0,w>0\]
\[l(z)=\int_0^\infty 4e^{-2z}dw=4e^{-2z} w/_0^\infty=\]
Se debe volver a plantear una nueva forma de \(W\)
1.10 Distrubuciones conjuntas de más de 2 variables aleatorias
Estamos introduciendo ahora \(n\) variables aleatorias, que se puede denotar por vector
\[\left[X_1,X_2,\ldots,X_n \right]\]
Se puede definir su función de densidad conjunta:
\[f(X_1,X_2,\ldots,X_n)\] Evidentemente esta función cumple con:
\[\int_{Rx_1}\int_{Rx_2}\ldots \int_{Rx_n}f(X_1,X_2,\ldots,X_n)dx_n\ldots dx_2dx_1=1\]
\[f(X_1,X_2,\ldots,X_n)\geq 0\]
Las marginales de cada variables se obtienen integrando la función de densidad sobre todas las variables aleatorias excepto la variable de interés.
\[f(x_i)=\int \ldots\int_{Rx_{j\neq i}} f(X_1,X_2,\ldots,X_n)dx\ldots dx_{j \neq i}\] Notar también que si las \(n\) variables aleatorias son independientes entre ellas:
\[f(X_1,X_2,\ldots,X_n)=f(X_1)*f(X_2)*\ldots f(X_n)\]
Si estamos interesados en encontrar la covarianza entre dos variables aleatorias de estas \(n\) va.
\[cov(X_i,X_j)=E[X_i X_j]-E[X_i]E[X_j] \quad i \neq j\] \[f(x_i,x_j)=\int \ldots\int_{k\neq i,j} f(x_1,x_2,\ldots,x_n)dx_{k\neq i,j}\]