Download Variables Aleatorias Unidimensionales
Document related concepts
no text concepts found
Transcript
Variables Aleatorias Unidimensionales Una variable aleatoria es un valor numérico asociado al resultado de un experimento aleatorio. Toda variable aleatoria tiene asociada dos tipos de funciones: la función de distribución y la función de densidad. La función de distribución de una variable aleatoria [que llamaremos F(x)] permite conocer cómo se reparte la probabilidad sobre los valores que toma la variable; es una función que a cada número real x le asocia la probabilidad de que la variable tome los valores menores o iguales que x. Formalmente: F(x) = Pr(w/-∞ ˂ X ≤ x) = Pr(X ≤ x) donde x pertenece a los reales. Entonces F(x) representa la probabilidad acumulada hasta el punto x. F(x) debe satisfacer ciertas condiciones: F(x) es una función monótona no decreciente (esto lo verificamos derivando a la función y viendo si es positiva en todo su dominio). F(-∞) = 0 (tomar límite con x tendiendo a -∞) F(∞) = 1 (tomar límite con x tendiendo a ∞) F(x) es continua por la derecha. De estas condiciones se desprenden las siguientes propiedades: 1. Pr(X ≤ b) = F(b) 2. Pr(a ˂ X ≤ b) = F(b) – F(a) Existen tres tipos de variables aleatorias: discretas, continuas, mixtas. Variables aleatorias discretas: una variable aleatoria X se dice que es discreta si el conjunto de valores que toma con probabilidad no nula (dominio) es finito o infinito numerable. La probabilidad con que la variable toma cada uno de los posibles valores: Pr(Xi = xi) con i= 1,2,3,….,n,… se le denomina función de densidad discreta o función de cuantía; y cumple las siguientes dos propiedades: 1) 0 ≤ Pr(X=x i) ≤ 1; 2) Σ Pr(X=xi) = 1. Es importante entender que las probabilidades son puntuales, o sea que la probabilidad pertenece a un punto dado de x. A partir de la función de densidad se puede obtener fácilmente la función de distribución, sin más que acumular las correspondientes probabilidades; recíprocamente se puede obtener la función de densidad a partir de la función de distribución sin más que restar la función de distribución de dos valores consecutivos. Variables aleatorias continuas: una variable aleatoria X se dice que es continua se puede tomar (con probabilidad no nula) los infinitos valores de un intervalo; en este caso, la probabilidad puntual es cero; en este tipo de variables sólo tiene sentido calcular probabilidades de intervalos de valores. La función de de distribución se puede expresar como la integral de una determinada función f(x), llamada función de densidad, de modo que: F(x) = Pr(X ≤ x) = ∫-∞x f(t) dt. Si f(x) es continua, tenemos la relación: (d/dx) F(x) = f(x). La función de densidad tiene que cumplir las siguientes condiciones: 1) es no negativa: f(x) ≥ 0 para todo x perteneciente a los reales, 2) la integral en toda la recta es igual a la unidad: ∫-∞∞ f(x) dx = 1. Podemos nombrar algunas propiedades: 1. Pr(a ˂ X ≤ b) = F(b) – F(a) = ∫ab f(x) dx 2. Pr(X ˃ a) = 1 – Pr(X ≤ a) = ∫a∞ f(x) dx 3. Pr( X ≤ b) = F(b) = ∫-∞b f(x) dx = 1 - ∫b∞ f(x) dx Variables aleatorias mixtas: una variable aleatoria X tiene una distribución mixta si tiene una parte continua y otra discreta. Es decir, existe una función f(.) y un conjunto de números reales xi con probabilidades Pr(X = xi) ˃ 0 , i ≥ 1 tales que para cada A contenido en los reales se verifica: Pr(X ϵ A) = ∫A f(x) dx + ΣA Pr(X = xi) Características de las variables aleatorias Esperanza matemática: sea X una variable aleatoria discreta que toma los valores X={x1,x2,……} con probabilidades Pr(X=xi), i=1,2,…. Llamaremos media, esperanza matemática o valor esperado de X, a la cantidad: E(X) = Σ xi Pr(X=xi), siempre que la serie anterior sea absolutamente convergente. Si X es una variable aleatoria continua con función de densidad f(x), la media, esperanza matemática o valor esperado se define como: E(X) = ∫ x f(x) dx, siempre que el valor de la integral sea finito. Cuando la serie o integral que definen la esperanza son divergentes, es decir, con valor infinito, se dice que la variable X no tiene esperanza, o que X no presenta una regularidad media. Una propiedad interesante es: sea X una variable aleatoria continua y positiva con función de distribución F(x) y media finita, entonces la esperanza matemática se puede obtener de forma alternativa por medio de la expresión: E(X) = ∫0∞ [1-F(x)] dx Además tenemos las siguientes propiedades: 1. La media es el centro de gravedad de la variable: E(X – E(X)) = 0 2. La media es un operador lineal (principio de superposición): E(a+bX) = a + b E(X) E[g(X) + h(X)] = E(g(X)) + E(h(X)) 3. Si a ≤ g(x) ≤ b, para todo x, entonces a ≤ E(g(X)) ≤ b 4. Si X es una variable aleatoria simétrica respecto de c (es decir, su función de densidad verifica f(x+c) = f(c-x), para cualquier valor de x) entonces E(X) = c, siempre que exista la correspondiente serie o integral. 5. Sean X e Y dos variables aleatorias independientes, entonces: E(XY) = E(X) E(Y) La expresión de E(X) en el caso que X sea una v.a. discreta, este valor es la media ponderada de los posibles valores que puede tomar la variable X, en donde los pesos o ponderaciones son las probabilidades, Pr(xi), de ocurrencia de los posibles valores de X. Luego el valor esperado de X se interpreta como una media ponderada de los posibles valores de X, y no como el valor que se espera que tome X, pues puede suceder que E(X) no sea uno de los posibles valores de X. De cualquier manera, el valor de la esperanza debe estar contenido en el Dominio de la variable. En el caso de v.a. continua, E(X) nos indica el centro de la función de densidad, es decir, nos indica el centro de gravedad de la distribución. Paradoja de San Petersburgo La idea de esperanza matemática estuvo ligada en sus comienzos con los juegos de azar. Puntualmente, la gente se preguntaba cuánto debería pagar una persona (o estaría dispuesta a pagar) para participar en un juego de azar; la esperanza matemática era usada entonces como el valor esperado de ganancia al jugar el juego repetidas veces, y por lo tanto ese sería el precio que cualquiera estaría dispuesto a pagar para jugar. Daniel Bernoulli (matemático suizo, 1700-1782) planteó el siguiente juego para demostrar que no siempre la esperanza podía ser usada de esa manera. El problema es el siguiente: se arroja una moneda equilibrada al aire hasta que aparezca cara; el apostador recibe 2^n pesos si la primera cara aparece en la tirada n. Si lo planteamos matemáticamente y tomamos esperanza: E(X) = Σ1∞ (1/2)^i 2^i = ∞. Entonces la ganancia esperada es infinita, y son embargo nadie estaría dispuesto a pagar esa suma para entrar en el juego. Varianza: es una medida de dispersión y permite estudiar la representatividad de la media. Es una medida que da cuenta de cómo están concentrados los valores de la variable alrededor de su media. Para tal fin parecería una posibilidad, considerar las diferencias entre los valores de la variable y el valor esperado, para luego calcular el valor medio de tales diferencias; pero si recordamos la propiedad 1 de la esperanza, vimos que este resultado da 0 porque se compensan los valores que sobrepasan la media con aquellos que están por debajo de dicho valor; para solucionar este problema, elevamos al cuadrado la diferencia: Var(X) = E [X – E(X)]^2 = E(X^2) – [E(X)]^2 (se comprueba la igualdad al desarrollar el cuadrado). Llamamos desvío típico a la raíz cuadrada de la varianza, y se expresa por: σ(x). Es importante tener en cuenta que la varianza no tiene la misma medida de unidad que la variable, sino que es esa medida al cuadrado; mientras que el desvío trabaja con la misma unidad que la variable. La varianza verifica las siguientes propiedades: 1. La varianza es siempre no negativa, Var(X) ≥ 0. Además: Var(X) = 0 sii X =c donde c es una constante. 2. Sea Y=a+bX, entonces Var(Y) = b^2 Var(X); σ(y) = |b| σ(x) 3. Si X es una variable aleatoria con media E(X) y varianza Var(X) y definimos la variable tipificada como: Z= [X – E(X)] / σ(x), se verifica que E(Z) = 0 y Var(Z)=1. 4. Sean X e Y dos variables independientes, entonces Var(X + Y) = Var(X) + VAR(Y). Además, Var(X – Y) = Var(X) – Var(Y). Coeficiente de variación: La varianza es una medida de dispersión que está influenciada por el tamaño de los valores de dicha variable y por la media. Para evitar esta influencia damos una medida relativa de dispersión que exprese la dispersión de la variable respecto del tamaño de la variable, midiendo el tamaño de la variable por su valor esperado. Esta medida de dispersión es el coeficiente de variación: CVx = σ(x) / E(X) Este coeficiente de variación expresa la dispersión de una v.a. respecto a su media y es muy útil para comparar dos distribuciones de probabilidad. Momentos: Los momentos nos proporcionan información sobre las propiedades de la distribución de la variable aleatoria. Nos permitirán hacer comparaciones de dos distribuciones y determinar cuál es más dispersa respecto a la media, o cuál es más apuntada, etc. Proporcionan valores numéricos sobre características de la distribución de una v.a. Si bien los momentos pueden definirse alrededor de cualquier punto de referencia, generalmente se definen alrededor del cero o la media. Dada una variable aleatoria X, se denomina momento absoluto de orden r con respecto al origen (o momento de orden r no centrado) a la cantidad: αr = E (X^r), r =1,2,……. Se denomina momento central del orden r con respecto a la media a: μr = E [X – E(X)]^r , r = 1,2,…… Según estas definiciones, la esperanza matemática es el momento absoluto de orden 1, y la varianza el momento centrado de orden 2. Medidas de forma: las medidas de forma de una variable aleatoria aportan información sobre el aspecto de la función de densidad. Se denominan coeficientes de asimetría y curtosis a las cantidades: γ1 = μ3 / σ3 γ2 = μ4 / σ4 respectivamente. Si una variable aleatoria es simétrica, entonces γ1 = 0; distribuciones con γ1 ˃ 0 se dice que presentan asimetría positiva, y distribuciones con γ1 ˂ 0 asimetría negativa. La distribución normal verifica que γ2 = 0; distribuciones de este tipo se las denomina mesocúrticas, mientras que si γ2 ˂ 0 son platicúrticas y si γ2 ˃ 0 son leptocúrticas (generalmente se las denomina medidas de asimetría y apuntamiento). Es importante destacar que ambos coeficientes son invariantes frente a cambios de escala y origen. Cuantiles: el cuantil de orden p es aquel valor de la distribución que deja a la izquierda una probabilidad acumulada de p. El p-cuantil xp verifica la relación: Pr(X ˂ xp) ≤ p ≤ Pr(X ≤ xp). De este modo, si F es una función de distribución continua, el p-cuantil xp se obtiene fácilmente como la solución en xp de la ecuación: F(xp) = p, es decir, xp = F^-1 (p), donde F^-1 es la función inversa de distribución. Los cuarteles son los p-cuantiles de órdenes 0.25, 0.5 (mediana), y 0.75. Moda: la moda de una variable aleatoria corresponde al valor de máxima probabilidad. La moda no tiene porqué existir y puede no ser única. En el caso discreto la moda corresponde al valor o valores con mayor probabilidad; en el caso continuo, la moda se obtiene calculando el máximo de la función de densidad (primera derivada igualada a 0, segunda derivada menor a 0). Teorema de Markov y Desigualdad de Tchebyshev Dada una variable aleatoria X con media E(X) y desvío σ (desconociendo la distribución de la variable), los intervalos centrados en E(X) de amplitud 2kσ con k˃0, concentran una gran parte de la probabilidad de la variable. Los siguientes teoremas permiten obtener cotas (pisos) para estas probabilidades. Teorema de Markov: Sea X una variable aleatoria positiva y r, e constantes positivas. Se verifica entonces que: Pr(X ≥ e) ≤ E(X^r) / e^r Desigualdad de Tchebyshev: Sea X una variable aleatoria con media E(X) y varianza σ^2 finita. Entonces, para cada e ˃ 0 se tiene que: Pr(|X – E(X)| ≥ e) ≤ (σ^2 / e^2). Además se verifica que para cada k ˃ 0: Pr[E(X) – kσ ˂ X ˂ E(X) – kσ] ≥ 1 – (1 / k^2) Entonces el intervalo [E(X) – 2kσ; E(X) + 2kσ] contiene al menos el 75% de probabilidad y el intervalo [E(X) – 3kσ; E(X) + 3kσ] contiene al menos el 88.9% de la probabilidad. Transformación de variables aleatorias Sea X una variable aleatoria con función de distribución Fx(x). Sea Y = g(X) una transformación (función) de X: a) Si g es una función creciente en el soporte de X, entonces: Fy(y) = Fx[g^-1(y)] b) Si g es una función decreciente en el soporte de X y X es una variable aleatoria continua: Fy(y) = 1 – Fx[g^-1(y)] Demostración: supongamos que g es creciente, entonces su función de distribución es Fy(y) = Pr(Y ≤ y) = Pr[g(x) ≤ y] = Pr[X ≤ g^-1(y)] = Fx[g^-1(y)] Pero es posible trabajar con la función de densidad de manera más simple. Sea X una variable aleatoria continua con función de densidad fx(x) e Y = g(X), donde g es una función monótona. Supongamos que f(x) es continua en el soporte de X y que g^1(y) tiene derivada continua; entonces la función de densidad de Y es: f(y) = fx[g^-1(y)] |(d/dy) g^-1(y)| Consideremos un ejemplo para entender mejor: Consideremos una variable aleatoria de tipo continuo X con función de densidad fx(x) = exp(-x), x≥0; hallemos la función de densidad de una nueva variable aleatoria Y = log(X). La transformación y = log(x) es monótona creciente, puesto que d log(x)/dx = 1/x y es mayor que 0 para x˃0; la transformación inversa g^-1(y) es x=exp(y). Si aplicamos la fórmula dada, tenemos: fy(y) = fx[exp(y)] |exp(y)| = exp[y – exp(-y)], para -∞ ˂ y ˂ ∞. Ejercicios 1) Sea X variable aleatoria continua de tipo exponencial con función de densidad: f(x) = (1/λ) exp(-x/ λ), x ≥ 0. Obtener E(X). 2) Hallar la moda de la variable aleatoria continua X con función de densidad: f(x) = x exp(-x), x ˃ 0. 3) Una compañía de seguros conoce que la distribución del coste de un determinado siniestro se distribuye según una variable aleatoria continua con función de densidad: f(x) = k / (1+x)^3 , 0 ˂ x ˂ ∞. Hallar: a) el valor de k; b) obtener la función de distribución y la probabilidad de que el coste de un siniestro sea mayor que 1; c) hallar los cuartiles del coste del siniestro; d) coste medio del siniestro. 4) El número de reclamaciones que recibe una compañía de seguros sobre un determinado siniestro es una variable aleatoria discreta con función de cuantía dada en la tabla. Hallar: a) media y desvío típico del número de reclamaciones; b) probabilidad de los sucesos |X – μ| ≥ 2σ y |X – μ| ≥ 3σ, tanto de manera exacta como aproximadamente (desigualdad de Tchebychev). X Pr(X=x) 0 0.12 1 0.35 2 0.21 3 0.16 4 0.09 5 0.05 6 0.02 5) Hallar la función de densidad de la variable aleatoria Y=5+X, si X tiene como función de densidad la dada en el ejemplo de transformación de variables. Rtas: 1)E(X) = λ 2) moda: x=1 3)a) k=-8/3; b) F(x) = 4/[3*(x+1)^2] Pr(X˃1) = 2/3; c) primer cuartil: x=1/3 mediana: x=0.633 tercer cuartil: x=1.31; d)E(X) = 0.1333 4) E(X)=0.28285714 σ=0.88478753 Pr(|X – μ| ≥ 2σ)=0.68 Pr(|X – μ| ≥ 3σ)=0.84 5) f(y) = exp(5-y)