Download Distribución de Probabilidad Archivo
Document related concepts
no text concepts found
Transcript
06. FUNCION DE PROBABILIDAD Funciones de Probabilidad, f(x) y F(x). Consideremos una Variable Aleatoria. discreta X, que toma los valores x1, x2, ..., xn y supongamos que conocemos la probabilidad de que la variable X tome dichos valores, es decir, se conoce que P(X=x1)=P1, P(X=x2)=P2, P(X=x3)=P3,..., P(X=xn)=Pn y en general, P(X=xi)=Pi. La función de probabilidad f(x) de la Variable Aleatoria X es la función que asigna a cada valor xi de la variable su correspondiente probabilidad Pi. Cuando la variable X es discreta, esto es, cuando solo toma valores en un conjunto numerable de valores, (xi), finito o infinito, entonces la relación es F( x ) f(x ) i x j xi Entre las distribuciones discretas más importantes tenemos, Uniforme discreta, Bernoulli, Binomial, Binomial Negativa, Poisson, Geométrica, Hipergeométrica, y Triangular, que estudiarán más adelante Función de Distribución, F(x). En muchas ocasiones no nos interesa tanto conocer la probabilidad de que la Variable Aleatoria X tome exactamente un determinado valor xi, cuanto la probabilidad de que tome valores menores o iguales que un cierto valor xi. En tales casos es necesario acumular los distintos valores de la función de probabilidad hasta el valor deseado. Se trata de una nueva aplicación llamada función de distribución. Sea X una Variable Aleatoria discreta, cuyos valores se suponen ordenados de menor a mayor. es decir, asocia a cada valor de la Variable Aleatoria discreta la probabilidad acumulada hasta ese valor (la probabilidad de que la Variable Aleatoria tome valores menores o iguales a xi). Se deben cumplir las siguientes condiciones, - F(x) es una probabilidad tal que 0 F( x ) 1 F(x)=0 se cumple para todo x<xi F(x)=1 se cumple para todo x>xi F(x) es constante en el Intervalo (xi,xi+1) F(x) es continua y creciente por la derecha de todo punto F(a x b) F(b) F(a) Distribuciones de Probabilidad. También se puede definir como el comportamiento estocástico de una magnitud o variable aleatoria X queda determinado por su función de distribución F( x ) P( X x ) , que representa la probabilidad de que una observación de X tenga un valor menor o igual que el número real x. La probabilidad de que X se encuentre dentro del intervalo (x1, x2] es P( x1 X x 2 ) F( x 2 ) F( x1 ) . Es habitual caracterizar F mediante su función de densidad f. En el caso de variables absolutamente continuas, la relación entre F y f es x F(x) f (t )dt x Entre otras, las distribuciones continuas de probabilidad se pueden mencionar como más importantes, Normal o Gauss, Lognormal, Chi2 de Pearson, t-Student, F-Snedecor, Exponencial, Gamma, Beta, Weibull, Rayleigh, Gumbel, Logística, Pareto, Laplace, y Cauchy, que estudiarán más adelante Parámetros. La media o esperanza matemática es una medida de localización, que indica el valor alrededor del cual fluctúa la variable aleatoria X; si ésta es continua, la media se define como E(X) x i f ( x i ) en el caso discreto xi E(X) t f (t )dt en el caso continuo Similarmente se calcula la varianza y demás parámetros. El método de momento y esperanza matemática se estudiará mas adelante. La función de distribución F, es una función no decreciente, es decir, Si x1<x2, entonces, F(x1)≤F(x2). Es continua a la derecha, esto es, Lim F( x ) F(a ) . x a De otra parte, F() Lim F( x i ) 0 x i F() Lim F( x i ) 1 x i Variables aleatorias continuas. Si una variable toma los valores x1, ..., xk. Cuando la variable es continúa, no tiene sentido hacer una suma de las probabilidades de cada uno de los términos en el sentido anterior, ya que el conjunto de valores que puede tomar la variable es no numerable. Este concepto es el de función de densidad de una Variable Aleatoria continua, que se define como una función en el conjunto de los números reales y es integrable, que verifica las dos propiedades siguientes: b f (x)dx 1 f (x) 0 a y que además verifica que dado a<b, se tiene que b P(a X b) f(x)dx ârea bajo la curva a Por ser f una función integrable, la probabilidad de un punto es nula, a P(X a) P(a X a) f(x)dx 0 a La función de distribución de la Variable Aleatoria continua, F, se define de modo que dado x que pertenezca al conjunto de los reales, F(x) es la probabilidad de que X sea menor o igual que x, es x F(x) P(X x) f (t )dt Ahora bien, dado un intervalo de la forma (a,b], tenemos que PX a , b Def b a b a def f ( x )dx f ( x )dx f ( x )dx F(b) F(a ) Es decir, la cantidad F(b)-F(a) representa la masa de probabilidad extendida a lo largo de dicho intervalo. Si dividimos esta cantidad por la longitud del intervalo, tenemos la masa media de probabilidad por unidad de longitud en (a,b], es decir, su densidad media de probabilidad. Si hacemos tender a hacia b, entonces, F(b) F(a ) Lim F(B) f (b) a b ba Y es la densidad de probabilidad del punto b (que como hemos mencionado no se ha de confundir con la probabilidad de b). La función de distribución F, es no decreciente: si x1<x2, entonces, F(x1)≤F(x2). Además, es una función absolutamente continua F() Lim F( x ) 0 F() Lim F( x ) 1 x x Función de Masa de Probabilidad Discreta. FMP: p x (x) P[X x] , es una ley de probabilidad que cumples tres axiomas: - 0 p x (x) 1 , para todo x - p x (x) 1 x i - P[a X b] x i a p x ( x ) x b i Función de Distribución Acumulada. FDA: Fx ( x) es la probabilidad del suceso de que la variable aleatoria tome valores menores o iguales a x Fx (x) P[X x] p x (x) en el caso discreto. Y para el caso continuo, x i x2 P[ x 1 X x 2 ] f x ( x )dx x1 x Fx ( x ) P[ X ] f x (u )du se sabe que, dFx (x) d x f x (x)dx f x (x) dx dx Propiedades: - 0 Fx (x) 1 - Fx () 0 y Fx () 1 - Fx (x ) Fx (x) para cualquier >0 - Fx (x 2 ) Fx (x1 ) P[x1 X x 2 ] La FDA es una función monótona creciente. DISTRIBUCIONES CONJUNTA, MARGINAL Y CONDICIONAL FMP Conjunta: Cuando dos o mas variables tienen comportamientos conjuntos Pxy ( x, y) P[( X x ) (Y y)] Fxy ( x, y) x x y y p xy ( x i , y i ) lo cual es igual a P[( X x ) (Y y)] i i FMP Marginal: Comportamiento de una variable sin considerar otra. Para la variable aleatoria Y: Px ( x ) P[X x ] y p xy ( x, y i ) i Fx ( x ) P[X x ] x x p x ( x i ) Fxy ( x, ) lo cual es igual a xi x y i i p xy ( x i , y i ) Similarmente se hace para la variable aleatoria X FMP Condicional: Si se conoce el valor de una de las variables aleatorias Y=y0, las probabilidades relativas de los diferentes valores de la otra variable están dados por p xy ( x, y 0 ) , se tiene una fmp condicional de X dado Y P[( X x ) (Y y)] , lo cual equivale a P[Y y] p xy ( x, y) p xy ( x, y) Px / y ( x, y) . p y ( y)] x p xy (x i , y) Px / y ( x, y) P[X x / Y y] i Se cumple además lo señalado anteriormente 0 o x / y 1 y x p x / y ( x i , y) 1 . i Idem para Y dado X FMP Conjunta a partir de las probabilidades Marginales y Condicionales Pxy ( x, y) p x / y ( x, y)p y ( y) p y / x ( y, x )p x ( x ) función de distribución de probabilidad: P[ x1 X x 2] x2 x1 y2 y1 f xy ( x, y)dydx La Función de distribución de probabilidad satisface: f xy ( x , y) 0 y f xy ( x, y)dxdy 1 para todo el intervalo Y la cumulada, Fxy ( x, y) P[( X x ) (Y y)] P[ X x Y y ] x y f xy ( x 0 , y 0 )dy 0 dx 0 de donde, f xy ( x , y) FXY ( x , y) xy Función de distribución de probabilidad marginal y Condicional. Densidad conjunta se integra sobre valores de Y y se tiene función de distribución de probabilidad marginal de X: f X (x) f XY ( x, y)dy x FX ( x ) f ( x 0 )dx 0 FXY ( x, ) o sea, f X ( x ) X FXY ( x, ) x Y para la Condicional: f Y ( y 0 ) f XY (x, y 0 )dx por lo cual, f X / Y ( x, y) f XY (x, y) f Y ( y) x FX / Y (x, y) P[X x / Y y] f X / Y (u, y)du Variables Independientes. Si Función distribución condicional es igual a Función distribución marginal, entonces, X y Y son variables aleatorias independientes p x / y ( x, y) p X ( x ) , entonces, X y Y son independientes. P[X x / Y y] P[X x ] Por lo tanto, lo siguiente es válido: f x / y ( x , y) f X ( x ) f X / Y ( y, x ) f Y ( y) f XY ( x, y) f X ( x )f Y ( y) FXY ( x , y) FX ( x )FY ( y) FX / Y ( x, y) FX ( x ) Distribuciones Derivadas. Se trata de determinar la ley de probabilidad de una variable aleatoria funcional. Hallar FY(y) dado que Y=g(X) y dado que X tiene Función distribución acumulada fX(x), entonces, FY ( y) P[Y y] pero, P[Y y] P[X solamente tomando un valor de x : g(x) y] lo cual es, RY f X ( x )dx , para R Y la región en la cual g(x) y Función de Distribución Acumulada. Sea X una variable aleatoria discreta o continua, F es la función de distribución acumulada de X se define como F(x)=P(X=x), X es variable aleatoria discreta, F( x ) j p( xj), x j x X es variable aleatoria continua, F(x) f (s)ds Si F es no decreciente, esto es, x1 x 2 , entonces, F(x1 ) F(x 2 ) d F( x ) dx para la función de densidad acumulada de variables aleatorias continuas con función de densidad de probabilidad f f (x) Sea X una variable aleatoria discreta con valores x1 ,..., x n y son x1 x 2 .... . Será F la función de distribución acumulada de frecuencias, entonces, p( x j ) P(X x j ) F( x j ) F( x j1 ) Distribución de Probabilidad Marginal y Condicional - Discreto: Si X=xi debe ocurrir Y=yj tenemos p( x i ) P(X x i ) P(X x i , Y y1 o X x i , Y y 2 o...) j1 p( x i , y j ) , entonces, p es la distribución marginal de probabilidad de X. Idem para Y: p( y j ) P(Y y j ) i 1 p(x i , y j ) - Continuo: Sea f una función de densidad de probabilidad conjunta de la variable aleatoria continua (X,Y). Definimos g y h como las funciones de probabilidad marginal de X y Y así, g(x) f (x, y)dy h( y) f (x, y)dx De otra forma, P(c X d) P[c X d, Y ] d c d f (x, y)dydx g(x)dx c Sea (X,Y) una variable bidimensional continua con función de distribución de probabilidad conjunta f. Y sean g y h son las funciones de probabilidad marginal de X y Y respectivamente. Entonces, la función de distribución de probabilidad condicional de X para Y=y es, f ( x , y) g ( x / y) , h ( y) 0 h ( y) similarmente f ( x , y) h( y / x) , g( x ) 0 g( x ) Variable Aleatoria Independiente - Discreta: Sea (X,Y) una variable aleatoria bidimensional, Y y Y son independientes, si y solo sí, p(xi,yj)=p(xi)q(yj), para todo i,j - Continua: f(x,y)=g(x)h(y), para todo (x,y), f es la función de distribución de probabilidad conjunta y g y h son las funciones de probabilidad marginales de X y Y respectivamente (X,Y) es variable aleatoria discreta, X y Y son independientes si y solo sí, p( x i / y j ) p( x i ), i, j q( y j / x i ) q( y j ), i, j Y si (X,Y) es continua, entonces, g( x / y) g( x ), ( x, y) h ( y / x ) h ( y), ( x, y) Funciones de una Variable Aleatoria Bidimensional. Sea (X,Y) una variable aleatoria bidimensional continua con función de distribución de probabilidad conjunta f. Sea Z=H1(X,Y) y W=H2(X,Y), donde H1 y H2 satisfacen: z=H1(x,y) y w=H2(x,y), se pueden resolver únicamente para x y y, y en función de z y w, digamos x=G1(z,w) y y=G2(z,w) x x y y , , , y son continuas, z w z w luego la función de distribución de probabilidad conjunta (Z.W) esta dada por: f [G 1 (z, w ), G 2 (z, w )] k ( z, w ) J ( z, w ) Existe en donde, J(z,w) es el Jacobiano, x x J(z, w ) z w y y z w Sea la variable aleatoria (X,Y) continua, entonces X y Y son independientes, entonces, la función de distribución de probabilidad f se puede escribir f(x,y)=g(x)h(y). Sea W=XY, luego la función de distribución de probabilidad de W, digamos p, está dada por w1 p( w ) g(u )h du u u La función de densidad de probabilidad de W=XY y U=X es w1 s( w , u ) g (u )h , con w=x, y , u=x, Y0w/u u u Con igual enunciado, para aplicar a Z=X/Y, en donde la función de distribución de probabilidad de Z es, q(z) g(vz )h(v) v dv , z=x/y, v=y Cambios de variables. Sea X una Variable Aleatoria cualquiera. Si realizamos el cambio de variable Y=h(X), tenemos una nueva Variable Aleatoria de modo que las probabilidades sobre la misma se calculan del modo: F( y) P(Y y) P X h 1 ( y) Si X es una Variable Aleatoria continua e Y=h(X), donde h es una función derivable e inyectiva, entonces se tiene que para los elementos y de su imagen, dx f y (f ) f x (h 1 ( y)) dy En el caso en que la aplicación no sea inyectiva, podemos tener para un y dado ciertos x1, x2, ..., xn tales que f(xi)=y. En este caso: n dx f y ( y) f ( x i ) i dy i 1 Una aplicación interesante del cambio de Variable Aleatoria es la siguiente: Sea X una Variable Aleatoria continua cualquiera con función de distribución derivable, con derivada no nula, Fx. Veamos cual es la distribución de la nueva Variable Aleatoria Y=Fx-1(X) La distribución de Y aparecerá más adelante con el nombre de distribución uniforme en [0,1], y como justificación del método de Montecarlo. Otro cambio de variable importante es Y=X2. En este caso la relación entre los puntos no es inyectiva. Aplicando la proposición anterior se tiene entonces que 1 1 f y ( y) f x ( y ) f x ( y ) 2 y 2 y Esta última relación será de interés cuando más adelante definamos la distribución Chi Cuadrado.