Download Funciones y Transformaciones de Variables Aleatorias Archivo
Document related concepts
no text concepts found
Transcript
12. FUNCIONES Y TRANSFORMACIONES DE VARIABLES ALEATORIAS LA VARIABLE ALEATORIA Uno de los problemas que enfrenta el estadístico es el de evaluar funciones de distribución o densidad de probabilidad de alguna variable aleatoria y=u(x 1,x2,…,xn), lo que requiere técnicas especiales mediante las cuales se puedan transformar éstas de forma que los resultados sean objetivos. Se aplicarán varios métodos, pero recomendamos al lector estar atento al método de la función de generación de momentos, el cual no siendo aplicado correctamente conduce a errores importantes, cuando no hay completa linealidad en el modelo o función escogida Variable Aleatoria. Repasando, es una variable numérica cuyo valor no puede predecirse con certeza antes de la ocurrencia del experimento. Y su comportamiento se describe mediante una ley de Probabilidad. Sea el experimento y S el espacio muestral asociado. Una función X que asigna a cada uno de los elementos s S un número real X(s), se llama Variable Aleatoria S X(s) s Sea un experimento y S su espacio muestral asociado. Sea X una variable aleatoria definida en S, y Rx su recorrido. Sean B un suceso respecto a Rx, esto es, B R x . Sea A definida como A {s S / X(s) B} . Entonces, A y B son sucesos equivalentes. A B Rx s X(s) X es una variable aleatoria del espacio S, Rx es el recorrido de X. Sea H una función real, la variable aleatoria Y=H(X) con recorrido Ry. Para cualquier suceso C R y se define P(C) P[{x R x : H(x) C}] . Por tanto, la probabilidad de un suceso asociado con el recorrido de Y es la probabilidad del suceso equivalente (en función de X) 1 Variable Aleatoria Discreta. Si el número de valores posibles de X es finito, esto es, se pueden anotar los valores de X como, x1,..., xn Sea X una variable aleatoria discreta, entonces Rx consta de un número de valores de x1,..., xn como resultado posible de xi asociamos un número p(xi) = P(X=xi) llamado probabilidad de xi, y se satisface, P( x i ) 0 i 1 i p( x i ) 1 donde, p es la probabilidad de la variable aleatoria X. La colección de pares ( xi , p( xi )), i 1,... es, algunas veces, la distribución de probabilidad de X Dadas las variables aleatorias X y Y y ocurre: - Caso 1: Si X es una variable aleatoria discreta, Y=H(x), entonces, Y es variable aleatoria discreta - Caso 2: Si X es variable aleatoria continua, Y es variable aleatoria discreta, la función de distribución de probabilidades de Y se determina el suceso equivalente que corresponde a los valores de Y. Si se conoce la función de distribución de probabilidad de X. En general, si {Y=yi} es equivalente a un suceso, sea x el recorrido de X, entonces, q( y i ) P( Y y i ) f ( x)dx k Variable Aleatoria Continua. La variable aleatoria continua es X, si existe una función f o una función de densidad de probabilidad de X que satisface f (x) 0 x f (x)dx 1 Ahora bien, para cualquier a y b, tal que, a b , tenemos b P(a X b) f (x)dx a Funciones de variables Aleatorias. Sean B y C sucesos equivalente. Si B es el conjunto de valores de X tales que H( x) C , entonces, B {x R x : H(x) C}, B R x Sea X una variable aleatoria continua con función de distribución de probabilidad f y H una función continua, entonces, Y=(H(x)) es variable aleatoria continua con función de distribución de probabilidad g, con los siguientes pasos: G ( y) P ( Y y) 2 derivar G(y) respecto a y y obtener g(y), hallar los valores de y en le recorrido de Y para g(y)>0 Sea X una variable aleatoria continua con función de distribución de probabilidad f, f(x)>0 para a<x<b. Sea y=H(x) monótona estrictamente y sea derivable para todo x, luego la variable aleatoria Y=H(X) tiene la función de distribución de probabilidad: dx g ( y) f ( x ) dy X es variable aleatoria del espacio S, Rx es el recorrido de X, H es una función real, la variable aleatoria Y=H(X) con recorrido en Ry. Para cualquier suceso C R y se define P(C) P(x R x : H( x ) C] Por tanto, la probabilidad de un suceso asociado con el recorrido de Y es la probabilidad del suceso equivalente (en función de X) Variables Aleatorias Bidimensionales. Sea un experimento con espacio muestral asociado S, X1=X1(s), ..., Xn=Xn(s) X=X(s) y Y=(Ys) son dos funciones que asignan un número real a cada uno de los resultados s S , entonces, (X,Y) es la variable aleatoria bidimensional - En el caso discreto, (X,Y) tiene valores posibles finitos o infinitamente numerables - En el caso continuo, (X,Y) puede tener todos los valores en un conjunto no numerable del plano Euclidiano Sea (X,Y) una variable aleatoria bidimensional con cada resultado posible (x i,yj) asociamos un número p(xi,yj) que representa P(X=xi,Y=yj) que satisface p ( x i , y j ) 0 ( x , y ) p( x , y ) 1 j1 i 1 i j La función p definida para todo (xi,yj) en el recorrido de (X,Y) es la función de probabilidad de (X,Y) y la terna (xi,yj,p(xi,yj)) es la distribución de probabilidad de (X,Y) Sea (X,Y) una variable aleatoria continua que toma todos los valores de la región R del plano Euclideo, la función de distribución de probabilidad conjunta f es la función que satisface, 3 f ( x, y) 0 ( x, y) R f (x, y)dxdy 1 R La función de distribución acumulada de F de la variable aleatoria (X,Y) está definida F( x, y) P(X x, Y y) Si F es la función de distribución acumulada de una variable bidimensional con función de distribución de probabilidad conjunta f, entonces 2 F( x, y) f ( x , y) xy Función de Distribución Acumulativa. Sea X una variable aleatoria discreta o continua, F es la función de densidad acumulada de X, F( x ) P(X x ) , si Si X es variable aleatoria discreta, F( x ) p( x j ), x j x j Si X es variable aleatoria continua, F(x) f (s)ds F es no decreciente, por tanto, x 1 x 2 , entonces , F( x 1 ) F( x 2 ) Lim F( x ) 0 Lim F( x ) 1 x x d F( x ) con valores x1,x2,... y son x1<x2<x3<... Se cumple, también, f ( x ) dx Sea F la función de distribución acumulada, entonces p( x i ) P(X x i ) F( x i ) F( x j1 ) Función de Masa de Probabilidad Discreta. FMP: p x ( x) P[ X x] , es una ley de probabilidad que cumples tres axiomas: - 0 p x (x) 1 , para todo x - p x i x (x) 1 - P[a X b] x i a p x ( x ) x b i 4 Función de Distribución Acumulada. FDA: Fx ( x) es la probabilidad del suceso de que la variable aleatoria tome valores menores o iguales a x Fx (x) P[X x] p x (x) en el caso discreto x i x2 P[ x 1 X x 2 ] f x ( x )dx x1 x Fx ( x ) P[ X ] f x (u )du dF (x) d x se sabe que, x f x (x)dx f x (x) dx dx Propiedades: - 0 Fx (x) 1 - Fx () 0 y Fx () 1 - Fx (x ) Fx (x) para cualquier >0 - Fx (x 2 ) Fx (x1 ) P[x1 X x 2 ] La FDA es una función monótona creciente. Variables Aleatorias de Distribución Conjunta. FMP Conjunta: Cuando dos o mas variables tienen comportamientos conjuntos Pxy ( x, y) P[( X x ) (Y y)] Fxy ( x, y) x x y y p xy ( x i , y i ) lo cual es igual a P[( X x ) (Y y)] i i FMP Marginal: Comportamiento de una variable sin considerar otra. Para la variable aleatoria Y: Px ( x ) P[X x ] y p xy ( x, y i ) i Fx ( x) P[ X x] x x p x ( xi ) Fxy ( x, ) lo cual es igual a i xi x y i p xy ( x i , y i ) Similarmente se hace para la variable aleatoria X FMP Condicional: Si se conoce el valor de una de las variables aleatorias Y=y0, las probabilidades relativas de los diferentes valores de la otra variable están dados por p xy ( x, y 0 ) , se tiene una fmp condicional de X dado Y P[( X x ) (Y y)] , lo cual equivale a P[Y y] p xy ( x, y) p xy ( x, y) Px / y ( x, y) . Se cumple además lo p y ( y)] x p xy (x i , y) Px / y ( x, y) P[X x / Y y] señalado i anteriormente 0 ox / y 1 y x i p x / y ( x i , y) 1 . 5 Idem para Y dado X FMP Conjunta a partir de las probabilidades Marginales y Condicionales Pxy ( x, y) p x / y ( x, y)p y ( y) p y / x ( y, x )p x ( x ) función de distribución de probabilidad: P[ x1 X x 2] x2 x1 función La f xy de distribución de probabilidad y2 y1 f xy ( x, y)dydx satisface: f xy ( x , y) 0 y ( x, y)dxdy 1 para todo el intervalo Y la acumulada, Fxy (x, y) P[(X x) (Y y)] P[ X x Y y] x y de donde, f xy ( x , y) f xy (x 0 , y 0 )dy 0 dx 0 FXY ( x , y) xy Variables Independientes. Si función de distribución condicional es igual a función de distribución marginal, entonces, X y Y son variables aleatorias independientes p x / y ( x , y) p X ( x ) , entonces, X y Y son independientes. P[X x / Y y] P[X x ] Por lo tanto, lo siguiente es válido: f x / y ( x , y) f X ( x ) f X / Y ( y, x ) f Y ( y) f XY ( x, y) f X ( x )f Y ( y) FXY ( x , y) FX ( x )FY ( y) FX / Y ( x, y) FX ( x ) Si la función de densidad condicional es igual a la función de densidad marginal, entonces, X y Y son variables aleatorias independientes. Mucho cuidado, la dependencia funcional implica dependencia estocástica, pero ésta no necesariamente implica la dependencia funcional. - Discreta: Sea (X,Y) una variable aleatoria bidimensional, Y y Y son independientes, si y solo sí, p(xi,yj)=p(xi)q(yj), para todo i,j - Continua: f(x,y)=g(x)h(y), para todo (x,y), f es la función de distribución de probabilidad conjunta y g y h son las funciones de probabilidad marginales de X y Y respectivamente (X,Y) es variable aleatoria discreta, X y Y son independientes si y solo sí, 6 p( x i / y j ) p( x i ), i, j q( y j / x i ) q( y j ), i, j Y si (X,Y) es continua, entonces, g( x / y) g( x ), ( x, y) h ( y / x ) h ( y), ( x, y) Funciones de Variables Aleatorias. Sean B y C sucesos equivalente. Si B es el conjunto de valores de X tales que H( x ) C , entonces, B {x R x : H(x) C}, B R x Función de Distribución Acumulada. Sea X una variable aleatoria discreta o continua, F es la función de distribución acumulada de X se define como F(x)=P(X=x), X es variable aleatoria discreta, F( x ) j p( xj), x j x X es variable aleatoria continua, F(x) f (s)ds Si F es no decreciente, esto es, x1 x 2 , entonces, F(x1 ) F(x 2 ) Lim F( x ) 0 Lim F( x ) 1 x x d F( x ) para la función de densidad acumulada de variables aleatorias dx continuas con función de densidad de probabilidad f f (x) Sea X una variable aleatoria discreta con valores x1,..., xn y son x1 x 2 .... . Será F la función de distribución acumulada de frecuencias, entonces, p( x j ) P(X x j ) F( x j ) F( x j1 ) Distribución de Probabilidad Marginal y Condicional Densidad conjunta se integra sobre valores de Y y se tiene función de distribución de probabilidad marginal de X: f X (x) f XY ( x, y)dy x FX ( x ) f ( x 0 )dx 0 FXY ( x, ) o sea, f X ( x ) X FXY ( x, ) x Y para la Condicional: 7 f Y ( y 0 ) f XY (x, y 0 )dx por lo cual, f X / Y ( x, y) f XY (x, y) f Y ( y) x FX / Y (x, y) P[X x / Y y] f X / Y (u, y)du - Discreto: Si X=xi debe ocurrir Y=yj tenemos p( x i ) P(X x i ) P(X x i , Y y1 o X x i , Y y 2 o...) j1 p( x i , y j ) , entonces, p es la distribución marginal de probabilidad de X. Idem para Y: q( y j ) P(Y y j ) i 1 p(x i , y j ) - Continuo: Sea f una función de densidad de probabilidad conjunta de la variable aleatoria continua (X,Y). Definimos g y h como las funciones de probabilidad marginal de X y Y así, g(x) f (x, y)dy h( y) f (x, y)dx De otra forma, P(c X d) P[c X d, Y ] d c d f (x, y)dydx g(x)dx c Sea (X,Y) una variable bidimensional continua con función de distribución de probabilidad conjunta f. Y sean g y h son las funciones de probabilidad marginal de X y Y respectivamente. Entonces, la función de distribución de probabilidad condicional de X para Y=y es, f ( x , y) g ( x / y) , h ( y) 0 h ( y) similarmente f ( x , y) h( y / x) , g( x ) 0 g( x ) Funciones de una Variable Aleatoria Bidimensional. Sea (X,Y) una variable aleatoria bidimensional continua con función de distribución de probabilidad conjunta f. Sea Z=H1(X,Y) y W=H2(X,Y), donde H1 y H2 satisfacen: z=H1(x,y) y w=H2(x,y), se pueden resolver únicamente para x y y, y en función de z y w, digamos x=G1(z,w) y y=G2(z,w) 8 x x y y y son continuas, luego la función de distribución de , , , z w z w probabilidad conjunta (Z.W) esta dada por: f [G 1 (z, w ), G 2 (z, w )] k ( z, w ) J ( z, w ) Existe en donde, J(z,w) es el Jacobiano, x x J(z, w ) z w y y z w Sea la variable aleatoria (X,Y) continua, entonces X y Y son independientes, entonces, la función de distribución de probabilidad f se puede escribir f(x,y)=g(x)h(y). Sea W=XY, luego la función de distribución de probabilidad de W, digamos p, está dada por w1 p( w ) g(u )h du u u La función de densidad de probabilidad de W=XY y U=X es w1 s( w , u ) g (u )h , con w=x, y , u=x, Y=w/u u u Con igual enunciado, para aplicar a Z=X/Y, en donde la función de distribución de probabilidad de Z es, q(z) g(vz )h(v) v dv , z=x/y, v=y TÉCNICA DE FUNCIÓN DE DISTRIBUCIONES El método consiste en obtener primero la función de distribución y luego la función de densidad por medio de la diferenciación. Sea X1,X2,…,Xn variables aleatorias continuas con una densidad de probabilidad conjunta dada, la densidad de probabilidad de Y=u(x1,...,xn) se determina obteniendo F(y)=P(Y≤y)=P[u(x1,…,xn)] Y después, dF( y) f ( y) dy 9 Ejemplo, Si la densidad de probabilidad de X está dada por 0 x 1 6x (1 x ) f (x) otro 0 Determine la densidad de probabilidad de Y=X3 Solución, Sea G(y)=P(Y≤y)=P(X3≤y)=P(X≤y1/3) G ( y) y1 / 3 0 6x (1 x )dx 3y 2 / 3 2 y Entonces, g(y)=2(y-1/3-1) para 0<y<1 Ejemplo, Si la densidad de X1 y X2 está dada por 6e 3x1 2 x 2 x 1 0, x 2 0 f ( x1, x 2) otro 0 Obtenga la función de densidad de la variable Y=X1+X2 Solución, integrando la función conjunta F( y) y 0 yx 2 0 6e 3x1 2 x 2 dx1dx 2 1 2e 3y 3e 2 y Y al diferenciar con respecto a y tenemos, f ( y) 6(e 2 y e 3y ), y 0 TÉCNICA TRANSFORMACIÓN DE VARIABLES Una Variable. Se trata de aplicar el primer método sin desarrollar la obtención primero la función de distribución. En el caso discreto no hay problema real, en tanto que X y Y=u(X) se relacionen biunivocamente. Por tanto, la sustitución debe ser adecuada. Ejemplo, sea X el número de caras obtenidas en 4 lanzamientos de una moneda. Determina la distribución de probabilidad de y=(1+x)-1 Solución, Si aplicamos la Binomial con n=4 y p=1/2 obtenemos que la distribución de probabilidad de X está dada por, x 0 1 2 3 4 f(x) 1/16 4/16 6/16 4/16 1/16 y luego aplicando y=(1+x)-1 para sustituir los valores de Y por los de X, se tiene y 0 1/2 1/3 1/4 1/5 10 G(y) 1/16 4/16 6/16 4/16 1/16 O También habiendo sustituido x=(1/y)-1 por x en 4 4 1 f ( x ) para x 0,1,2,3,4 x 2 obteniéndose, 4 4 1 1 g( y) f 1 1 1 y y 2 para y 1,1 / 2,1 / 3,1 / 4,1 / 5 Teorema. g( y) f w( y) w( y) siempre que u(x) 0 Ejemplo, Si la flecha doble de la figura se hace oscilar, la variable aleatoria tenga la densidad 1 / / 2 / 2 f () otro 0 Hallar la densidad de probabilidad de X, la abscisa sobre el eje x al cual apuntará la flecha. Solución, La relación entre x y es, x=a.tan d a 2 dx a x 2 y se deduce que 1 a 1 a g( x ) para x 2 2 2 a x a x2 Ejemplo, Si X tiene una distribución N(0,1), determine la densidad de probabilidad de Z=X2 11 Solución, g( y) h (z) 2 2 2 2 e y 2 /2 dy 1 1 / 2 , entonces, z dz 2 e z / 2 Dos Variables. Se trata del método anterior pero considerando dos variables. Sean la distribución conjunta Y=u(X1,X2), si las relaciones entre y y x1 con x2 y entre y y x2 con x1 se mantienen constantes, entonces, x x g( y, x 2 ) f ( x 1 , x 2 ) 1 g ( x 1 , y) f ( x 1 , x 2 ) 2 y y Ejemplo, Sean x1 y x2 variables aleatorias independientes que tienen distribuciones de Poisson con parámetros 1 y2, determine la distribución de probabilidad de la variable aleatoria Y=X1+X2 Solución, Por la independencia de X1 y X2, la función conjunta es, x x e 1 1 1 e 2 2 2 f (x1 , x 2 ) x 1! x 2! Para x1=0,1,… y x2=0,1,… y ya que y=x1+x2, entonces x1=y-x2, entonces, x x x yx e ( 1 2 ) 1 1 2 2 e ( 1 2 ) 2 2 1 2 f (x1 , x 2 ) g ( y, x 2 ) x 1!*x 2 ! x 1!*x 2 ! e ( 1 2 ) 1 1 2 2 e ( 1 2 ) 1 2 h ( y) y! x 2 0 x 2 !*( y x 2 )! y x x y Teorema. La función de distribución conjunta f(x1,x2) de las variables aleatorias X1 y X2, y si se tiene que y1=u(x1,x2) y y2=u(x1,x2), entonces se puede hacer la transformación g(y1,y2)=f(w1(y1,y2),w2(y1,y2))*│J│, donde w1 y w2 son soluciones de las ecuaciones simultaneas en derivadas parciales de y1 y y2. J es el Jacobiano de la transformación, x 1 x 1 y1 y 2 J x 2 x 2 y1 y 2 TÉCNICA FUNCIÓN GENERATRIZ DE MOMENTO 12 Teorema. Si X1,X2,…,Xn son variables aleatorias independientes y Y=X1+…+Xn, entonces, n M Y (t ) M Xi (t ) i 1 Donde Mxi(t) es el valor de la función de generación de momentos de xi en t Ejemplo, Obtenga la distribución de probabilidades de la suma de n variables aleatorias independientes X1,…,Xn que tengan distribución Poisson con parámetros 1,…,n, respectivamente Solución, Sabemos que M X i (t) e i ( e 1) Y por tanto, siendo y=x1+…,xn, se tiene t n M Y ( t ) e i ( e 1) e ( 1 i ) e 1) t t i 1 13