Download estadística y probabilidad - rosarioprofematescarlosiii
Document related concepts
Transcript
ESTADÍSTICA Y PROBABILIDAD La Estadística es la parte de las Matemáticas que estudia métodos para interpretar datos obtenidos de investigaciones o experimentos aleatorios (aquellos en los que no se puede predecir el resultado), con el fin de extraer de ellos unas conclusiones. La Estadística puede ser: a) Estadística descriptiva: trata de obtener unas conclusiones a partir de ciertos datos mediante el empleo de gráficos o la obtención de unos ciertos valores que lo representen a todos. b) Estadística inferencial: trata de determinar los valores que adoptarán una serie de datos muy numerosos, que forman una población mediante el estudio de unos cuantos de ellos extraídos de la población de una manera significativa y que formen una muestra. La base en la que se fundamenta la estadística inferencial es el cálculo de probabilidades. ESTADÍSTICA DESCRIPTIVA CONCEPTOS GENERALES La estadística descriptiva es una ciencia que analiza series de datos (por ejemplo, edad de una población, altura de los estudiantes de una escuela, temperatura en los meses de verano, etc) y trata de extraer conclusiones sobre el comportamiento de estas variables. Las variables pueden ser de dos tipos: Variables cualitativas o atributos: no se pueden medir numéricamente (por ejemplo: nacionalidad, color de la piel, sexo). Variables cuantitativas: tienen valor numérico (edad, precio de un producto, ingresos anuales). Las variables también se pueden clasificar en: Variables unidimensionales: sólo recogen información sobre una característica (por ejemplo: edad de los alumnos de una clase). Variables bidimensionales: recogen información sobre dos características de la población (por ejemplo: edad y altura de los alumnos de una clase). Variables pluridimensionales: recogen información sobre tres o más características (por ejemplo: edad, altura y peso de los alumnos de una clase). Por su parte, las variables cuantitativas se pueden clasificar en discretas y continuas: Discretas: si los valores que puede tomar son aislados. Por ejemplo: número de hermanos. Continuas: pueden tomar cualquier valor real dentro de un intervalo. Por ejemplo, la velocidad de un vehículo puede ser 80,3 km/h, 94,57 km/h...etc. Cuando se estudia el comportamiento de una variable hay que distinguir los siguientes conceptos: 1 Individuo: cualquier elemento que porte información sobre el fenómeno que se estudia. Así, si estudiamos la altura de los niños de una clase, cada alumno es un individuo; si estudiamos el precio de la vivienda, cada vivienda es un individuo. Población: conjunto de todos los individuos (personas, objetos, animales, etc.) que porten información sobre el fenómeno que se estudia. Por ejemplo, si estudiamos el precio de la vivienda en una ciudad, la población será el total de las viviendas de dicha ciudad. Muestra: subconjunto que seleccionamos de la población. Así, si se estudia el precio de la vivienda de una ciudad, lo normal será no recoger información sobre todas las viviendas de la ciudad (sería una labor muy compleja), sino que se suele seleccionar un subgrupo (muestra) que se entienda que es suficientemente representativo. Tamaño de la población o de la muestra: es el número de elementos que componen una u otra, se designa por n. DISTRIBUCIÓN DE FRECUENCIA La distribución de frecuencia es la representación estructurada, en forma de tabla, de toda la información que se ha recogido sobre la variable que se estudia. Variable Valor(Xi) x Frecuencias absolutas Simple (fi) Acumulada(Fi) x X1 X2 ... Xn x f1 f2 ... fn Frecuencias relativas Simple(hi) Acumulada(Hi) x F1=f1 F2=f1 + f2 ... fi=n X f1 / n f2 / n ... fn = fn / n f1 / n (f1 / n)+ (f2 / n) ... (fi / n) Siendo X los distintos valores que puede tomar la variable. Siendo fi el número de veces que se repite cada valor. Siendo (fi/n)100 el porcentaje que la repetición de cada valor supone sobre el total En el caso de variables continuas, los datos se agrupan en intervalos, llamados intervalos de clase [a,b). Para representar cada intervalo en las tablas de frecuencias se utiliza la marca de clase (xi), que es el punto medio de cada intervalo de clase PARÁMETROS ESTADÍSTICOS Las representaciones gráficas no siempre consiguen ofrecer una información completa de los datos, por tanto es necesario analizar procedimientos numéricos que permitan resumir la información del fenómeno en estudio en unos números llamados parámetros estadísticos. Éstos se pueden clasificar en: o Medidas de posición : son de dos tipos: Medidas de posición central: informan sobre los valores medios de la serie de datos. Medidas de posición no centrales: informan de cómo se distribuye el resto de los valores de la serie. 2 o Medidas de dispersión: Estudia la distribución de los valores de la serie, analizando si estos se encuentran más o menos concentrados, o más o menos dispersos. MEDIDAS DE POSICIÓN CENTRAL Las principales medidas de posición central son las siguientes: 1) Media: es el valor medio ponderado de la serie de datos. Se pueden calcular diversos tipos de media, siendo las más utilizadas: a) Media aritmética: se calcula multiplicando cada valor por el número de veces que se repite. La suma de todos estos productos se divide por el total de datos de la muestra: ̅= 𝑿 ∑𝒌 𝒊=𝟏 𝒙𝒊 𝒇𝒊 𝒏 = 𝒙𝟏 𝒇𝟏 +𝒙𝟐 𝒇𝟐 +⋯.+𝒙𝒌 𝒇𝒌 𝒏 𝑘 𝑛 = ∑ 𝑓𝑖 𝑖=1 b) Media geométrica: se eleva cada valor al número de veces que se ha repetido. Se multiplican todo estos resultados y al producto final se le calcula la raíz "n" (siendo "n" el total de datos de la muestra). 𝒏 𝑮 = √𝒙𝟏 𝒇𝟏 𝒙𝟐 𝒇𝟐 … 𝒙𝒌 𝒇𝒌 Según el tipo de datos que se analice será más apropiado utilizar la media aritmética o la media geométrica. La media geométrica se suele utilizar en series de datos como tipos de interés anuales, inflación, etc., donde el valor de cada año tiene un efecto multiplicativo sobre el de los años anteriores. En todo caso, la media aritmética es la medida de posición central más utilizada. Lo más positivo de la media es que en su cálculo se utilizan todos los valores de la serie, por lo que no se pierde ninguna información. Sin embargo, presenta el problema de que su valor (tanto en el caso de la media aritmética como geométrica) se puede ver muy influido por valores extremos, que se aparten en exceso del resto de la serie. Estos valores anómalos podrían condicionar en gran medida el valor de la media, perdiendo ésta representatividad. 2) Mediana: es el valor de la serie de datos que se sitúa justamente en el centro de la muestra (un 50% de valores son inferiores y otro 50% son superiores).No presentan el problema de estar influido por los valores extremos, pero en cambio no utiliza en su cálculo toda la información de la serie de datos (no pondera cada valor por el número de veces que se ha repetido). Cálculo de la mediana: 3 𝒏 Variables discretas no agrupadas: se calcula ( ) y se construye la columna de 𝟐 las frecuencias acumuladas Fi y se observa cuál es la primera frecuencia 𝒏 acumulada que supera o iguala a , distinguiéndose dos casos: Si 𝐹𝑖−1 < Si 𝐹𝑖 = 𝑛 2 𝟐 𝑛 < 𝐹𝑖 → 𝑴𝒆 = 𝒙𝒊 2 → 𝑴𝒆 = 𝒙𝒊 +𝒙𝒊+𝟏 𝟐 Variables agrupadas por intervalos: en este caso hay que detectar cuál es el 𝒏 intervalo mediano (el que corresponda su 𝐹𝑖 ≥ 𝟐), [𝑳𝒊−𝟏 , 𝑳𝒊 ), distinguiéndose dos casos: 𝑛 Si 𝐹𝑖 = → 𝑴𝒆 = 𝑳𝒊 2 Si 𝐹𝑖−1 < 𝑛 < 𝐹𝑖 2 𝒏 → 𝑴𝒆 = 𝑳𝒊−𝟏 + 𝟐 − 𝑭𝒊−𝟏 𝒇𝒊 𝒄 (c= amplitud del intervalo) 3) Moda: es el valor que más se repite en la muestra, el valor de mayor frecuencia. Cálculo de la moda: Variables discretas no agrupadas: se observa la columna de las frecuencias absolutas, y el valor de la distribución al que corresponde la mayor frecuencia será la moda. A veces aparecen distribuciones de variables con más de una moda (bimodales, trimodales, multimodal), e incluso una distribución de frecuencias puede presentar una moda absoluta y una relativa. Variables agrupadas por intervalos: en este caso hay que detectar cuál es el intervalo o clase modal, (𝑳𝒊−𝟏 , 𝑳𝒊 ], como aquel que posea mayor frecuencia y se aplica la fórmula: 𝑴𝒐 = 𝑳𝒊−𝟏 + 𝒇𝒊 − 𝒇𝒊−𝟏 𝒄 (𝒇𝒊 − 𝒇𝒊−𝟏 ) + (𝒇𝒊 − 𝒇𝒊+𝟏 ) MEDIDAS DE POSICIÓN NO CENTRAL (Cuantiles) Las medidas de posición no centrales permiten conocer otros puntos característicos de la distribución que no son los valores centrales. Entre otros indicadores, se suelen utilizar una serie de valores que dividen la muestra en tramos iguales: 1) Cuartiles (Qi): son 3 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en cuatro tramos iguales, en los que cada uno de ellos concentra el 25% de los resultados. 2) Deciles (Di): son 9 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en diez tramos iguales, en los que cada uno de ellos concentra el 10% de los resultados. 3) Percentileso centiles (Pi): son 99 valores que distribuyen la serie de datos, ordenada de forma creciente o decreciente, en cien tramos iguales, en los que cada uno de ellos concentra el 1% de los resultados. Cálculo de los cuantiles: 4 Variables discretas no agrupadas: se calcula 𝒓𝒏 𝒒 , siendo: r= orden del cuantil correspondiente q= el número de intervalos con iguales frecuencias u observaciones (q=4, 10 ó 100) n= número total de observaciones La anterior expresión nos indica qué valor de la variable estudiada es el cuantil que nos piden, que se corresponderá con el primer valor cuya frecuencia acumulada sea mayor 𝒓𝒏 o igual a 𝒒 . (Semejante al cálculo de la mediana) Variables agrupadas en intervalos: (se resuelve de manera análoga al cálculo de la mediana) MEDIDAS DE DISPERSIÓN Existen diversas medidas de dispersión, entre las más utilizadas podemos destacar las siguientes: 1) Rango: mide la amplitud de los valores de la muestra y se calcula por diferencia entre el valor más elevado y el valor más bajo. 2) Rango intercuartílico: es la diferencia entre el cuartil tres y el uno. 𝑸 = 𝑸𝟑 − 𝑸𝟏 Viene a indicarnos el rango que ocupa el 50% de población más centrado en torno a la media. 3) Varianza: Mide la distancia existente entre los valores de la serie y la media. 𝒔𝟐𝒏 ∑𝒌𝒊=𝟏 𝒇𝒊 (𝒙𝒊 − 𝒙 ̅)𝟐 ∑𝒌𝒊=𝟏 𝒇𝒊 𝒙𝟐𝒊 ̅𝟐 = = −𝒙 𝒏 𝒏 La varianza siempre será mayor que cero. Mientras más se aproxima a cero, más concentrados están los valores de la serie alrededor de la media. Por el contrario, mientras mayor sea la varianza, más dispersos están. 4) Desviación típica: Se calcula como raíz cuadrada de la varianza. 𝒔𝒏 = √ ∑𝒌𝒊=𝟏 𝒇𝒊 (𝒙𝒊 − 𝒙 ∑𝒌 𝒇𝒊 𝒙𝟐𝒊 ̅)𝟐 ̅𝟐 = √ 𝒊=𝟏 −𝒙 𝒏 𝒏 La desviación típica nos informa sobre la dispersión que tienen los datos respecto a la media, Es el parámetro de dispersión por antonomasia, junto con la media se utiliza para caracterizar las series de datos estadísticos. 5) Cuasivarianza: 2 𝑠̂ = 2 𝑠𝑛−1 ∑𝑘𝑖=1(𝑥𝑖 − 𝑥̅ )2 𝑓𝑖 = 𝑛−1 Observamos que: 𝑛 ∙ 𝑠 2 = (𝑛 − 1) ∙ 𝑠̂ 2 , por tanto: 5 𝑠2 = 𝑛−1 𝑛 2 ∙ 𝑠̂ 2 Si 𝑛 → ∞ 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝑠 2 = 𝑠̂ 2 = 𝑠𝑛−1 6) Cuasi-desviación típica: Se calcula como la raíz cuadrada de la cuasivarianza. ̅)2 𝑓𝑖 ∑𝑘𝑖=1(𝑥𝑖 − 𝑥 𝒔̂ = 𝒔𝒏−𝟏 = √ 𝑛−1 La cuasi-desviación típica muestral, 𝒔𝒏−𝟏 , parámetro que nos facilita la calculadora gráfica, se utiliza para estimar la desviación típica poblacional (σ). Para estimar la media poblacional (μ) se utiliza la media muestral 𝑥̅ . 7) Coeficiente de varización de Pearson: se calcula como cociente entre la desviación típica y la media. 𝐶𝑉 = 𝑠 𝑥̅ (*100 en %) Se utiliza para comparar distribuciones de medidas diferentes, siempre que sus medidas sean positivas. Los que están más dispersos mayor tanto por ciento. El interés del coeficiente de variación es que al ser un porcentaje permite comparar el nivel de dispersión de dos muestras. Esto no ocurre con la desviación típica, ya que viene expresada en las mismas unidades que los datos de la serie. Por ejemplo, para comparar el nivel de dispersión de una serie de datos de la altura de los alumnos de una clase y otra serie con el peso de dichos alumnos, no se puede utilizar las desviaciones típicas (una viene vienes expresada en cm y la otra en kg). En cambio, sus coeficientes de variación son ambos porcentajes, por lo que sí se pueden comparar. Simetría y asimetría ̅ : media aritmética, se encuentra aproximadamente hacia el centro de la distribución. 𝑿 𝑺: desviación típica, nos informa sobre la dispersión que tienen los datos respecto de la media. Hay conjuntos de datos donde las tres medidas de centralización (media, mediana y moda) coinciden. En este caso se dice que la distribución de datos es simétrica. En general para estudiar la simetría o no de una distribución de datos podemos estudiar su gráfica, su tabla o los valores de estas mediadas de centralización. La representación gráfica simétrica por excelencia corresponde a una Distribución Normal y recibe el nombre de campana de Gauss. En esta campana, el valor máximo corresponde a la media aritmética, siendo los valores centrales más frecuentes que los alejados, y se tiene que: ̅ − 𝒔, 𝒙 ̅ + 𝒔) se encuentra aproximadamente el 68,2% de los En el intervalo (𝒙 datos. ̅ − 𝟐𝒔, ̅ En el intervalo (𝒙 𝒙 + 𝟐𝒔) se encuentra aproximadamente el 95,5% de los datos. ̅ − 𝟑𝒔, 𝒙 ̅ + 𝟑𝒔) se encuentra aproximadamente el 99,7% de En el intervalo (𝒙 los datos. En general las distribuciones de datos no se adaptan totalmente a una campana de Gauss, sino que representan asimetría. 6 DISTRIBUCIONES BIDIMENSIONALES Las distribuciones bidimensionales son aquellas en las que se estudian al mismo tiempo dos variables de cada elemento de la población: por ejemplo: peso y altura de un grupo de estudiantes; superficie y precio de las viviendas de una ciudad; potencia y velocidad de una gama de coches deportivos. Para representar los datos obtenidos se utiliza una tabla de correlación: X/Y x1 x2 y1 f1,1 f2,1 y2 f1,2 f2,2 ..... x x ym-1 f1,m-1 f2,m-1 ym f1,m f2,m Las "x" representan una de las variables y las "y" la otra variable. En cada intersección de una valor de "x" y un valor de "y" se recoge el número de veces que dicho par de valores se ha presentado conjuntamente. Distribuciones marginales Al analizar una distribución bidimensional, uno puede centrar su estudio en el comportamiento de una de las variables, con independencia de cómo se comporta la otra. Estaríamos así en el análisis de una distribución marginal. Diagrama de dispersión o nube de puntos Es el conjunto de puntos sobre el plano (xi,yi) de la variable estadística bidimensional. Parámetros estadísticos en una distribución bidimensional ̅= Media de la variable X: 𝑿 Media de la variable Y: ̅ 𝒀= ∑𝒌𝒊=𝟏 𝒙𝒊 𝒇𝒊 𝒏 ∑𝒌𝒊=𝟏 𝒚𝒊 𝒇𝒊 Varianza de la variable X: 𝒔𝟐𝒙 = Varianza de la variable Y: 𝒔𝟐𝒚 = 𝒏 ∑𝒌𝒊=𝟏 𝒇𝒊 (𝒙𝒊 −𝒙 ̅)𝟐 𝒏 ∑𝒌𝒊=𝟏 𝒇𝒊 (𝒚𝒊 −𝒚 ̅)𝟐 𝒏 Covarianza de la variable (X,Y): 𝒔𝒙𝒚 = Coeficiente de correlación lineal : 𝑟 = = = ∑𝒌𝒊=𝟏 𝒇𝒊 𝒙𝟐𝒊 𝒏 ∑𝒌𝒊=𝟏 𝒇𝒊 𝒚𝟐𝒊 𝒏 ∑𝒌𝒊=𝟏 𝒙𝒊 𝒚𝒊 𝒇𝒊 𝒏 ̅𝟐 −𝒙 ̅𝟐 −𝒚 ̅ ∙𝒀 ̅= −𝑿 ∑𝒌𝒊=𝟏(𝒙𝒊 −𝒙 ̅)(𝒚𝒊 −𝒚 ̅)𝒇𝒊 𝒏 𝒔𝒙𝒚 𝑠𝑥 𝑠𝑦 En una distribución bidimensional puede ocurrir que las dos variables guarden algún tipo de relación entre sí. 7 Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy posible que exista relación entre ambas variables: mientras más alto sea el alumno, mayor será su peso. El coeficiente de correlación lineal mide el grado de intensidad de esta posible relación entre las variables. Este coeficiente se aplica cuando la relación que puede existir entre las variables es lineal (es decir, si representáramos en un gráfico los pares de valores de las dos variables la nube de puntos se aproximaría a una recta). No obstante, puede que exista una relación que no sea lineal, sino exponencial, parabólica, etc. En estos casos, el coeficiente de correlación lineal mediría mal la intensidad de la relación las variables, por lo que convendría utilizar otro tipo de coeficiente más apropiado. Para ver, por tanto, si se puede utilizar el coeficiente de correlación lineal, lo mejor es representar los pares de valores en un gráfico y ver la forma que describen. Los valores que puede tomar el coeficiente de correlación "r" son: -1 < r < 1 Si "r" > 0, la correlación lineal es positiva (si sube el valor de una variable sube el de la otra). La correlación es tanto más fuerte cuanto más se aproxime a 1. Si "r" < 0, la correlación lineal es negativa (si sube el valor de una variable disminuye el de la otra). La correlación negativa es tanto más fuerte cuanto más se aproxime a -1. Si "r" = 0, no existe correlación lineal entre las variables. Aunque podría existir otro tipo de correlación (parabólica, exponencial, etc.) Regresión lineal Representamos en un gráfico los pares de valores de una distribución bidimensional: la variable "x" en el eje horizontal o eje de abscisas, y la variable "y" en el eje vertical, o eje de ordenadas. Vemos que la nube de puntos sigue una tendencia lineal: 8 El coeficiente de correlación lineal nos permite determinar si, efectivamente, existe relación entre las dos variables. Una vez que se concluye que sí existe relación, la regresión nos permite definir la recta que mejor se ajusta a esta nube de puntos. Recta de regresión de Y sobre X: 𝑦 − 𝑦̅ = 𝑠𝑥𝑦 𝑠𝑥2 (𝑥 − 𝑥̅ ) A partir de esta recta podemos conocer con cierta aproximación los valores de la variable y (dependiente) conocidos los de la variable x (independiente). Recta de regresión de X sobre Y: 𝑥 − 𝑥̅ = 𝑠𝑥𝑦 𝑠𝑦2 (𝑦 − 𝑦̅) A partir de esta recta podemos conocer con cierta aproximación los valores de la variable x (dependiente) conocidos los de la variable y (independiente). ELABORACIÓN DE GRÁFICOS ESTADÍSTICOS Los resultados de cualquier experimento se pueden representar gráficamente. Los principales tipos son: a) Diagrama de barras: se colocan en el eje de abscisas los valores de la variable xi y en el eje de ordenadas los valores de sus frecuencias fi y dibujamos barras de igual anchura cuya altura sea exactamente la frecuencia. Se usa para variables cualitativas o cuantitativas discretas. b) Histogramas: Se usan para las variables estadísticas cuantitativas continuas, En el eje vertical se representan las frecuencias. Cuando el ancho de las barras no es el mismo, lo que marca la frecuencia no es la altura de cada barra, sino el área de la misma. c) Polígono de frecuencias: Se obtienen si unimos los puntos medios de las bases superiores de las barras en un histograma. 9 d) Polígono de frecuencias acumuladas: Si se representan las frecuencias acumuladas (ojiva) de una tabla de datos agrupados se obtiene el histograma de frecuencias acumuladas o su correspondiente polígono. e) Diagrama de sectores: se obtiene dividiendo la circunferencia en tantas partes como valores tenga la variable, de manera que el área de cada sector circular obtenido sea proporcional a la respectiva frecuencia. f) Pictogramas: Es como el diagrama de barras, donde se sustituyen las barras por un dibujo de altura proporcional a las frecuencias y que hace más intuitiva la interpretación de los resultados. g) Pirámide de población: Se utiliza este procedimiento para comparar las características más relevantes de la población de un Estado, provincia, etc, y sus variaciones en un determinado tiempo. h) Cartogramas: Son representaciones gráficas de unidades geográficas, diferenciadas por colores, rayas o puntos. i) Diagrama de cajas y bigotes (boxplot o box and whiskers ): Es un gráfico que visualiza la mediana y los cuartiles, de manera que nos permita hacer un análisis rápido de la manera que se distribuyen los datos de la variable estadística. Sobre una recta se representan: el dato más pequeño, el primer cuartil, la mediana, el tercer cuartil y el mayor dato. Se le da una forma que recuerda a dos cajas con dos segmentos (bigotes) a izquierda y derecha. Cada uno de estos cuatro elementos incluirá un 25% del total de los datos, por lo que la longitud de los mismos mostrará la dispersión o acumulación de datos en cada zona. Si alguno de estos elementos tiene mayor longitud, indicará que los datos están más dispersos en esta gama de valores, mientras que una menor longitud indicará que están más concentrados 10 ESTADÍSTICA INFERENCIAL La estadística inferencial se encarga de extraer conclusiones acerca de la población a partir de los resultados obtenidos en la muestra. (Inferir= sacar una consecuencia o deducir una cosa de otra) A partir de la información obtenida de la muestra, se deben obtener las conclusiones acerca de la población de la forma más coherente posible, y además, con un cierto grado de confianza. De entrada hay que aclarar que el concepto de población no se refiere necesariamente a individuos, simplemente se refiere a un conjunto de datos que, en muchas ocasiones, es muy costoso o engorroso conocer en su totalidad. En la práctica lo que hay que hacer es recabar aleatoriamente sólo algunos de los datos, es decir, elegir una muestra, este proceso se denomina muestreo. La buena elección de la muestra es un elemento decisivo para que pueda representar con garantías a toda la población. Una vez elegida la muestra pasaríamos a obtener sus parámetros: media, varianza, mediana, cuartiles, etc. Lo que nos interesa es cómo extrapolar los parámetros muestrales a toda la población. Los estimadores insesgados que emplearemos son los siguientes: ̅) Para estimar la media poblacional (μ) se utiliza la media muestral (𝒙 ̅= 𝝁≈𝒙 ∑𝒌𝒊=𝟏 𝒙𝒊 𝒇𝒊 𝒏 Para estimar la desviación típica poblacional (σ) se utiliza la cuasi-desviación típica media muestral (𝒔𝒏−𝟏 ) ̅ ) 𝟐 𝒇𝒊 ∑𝒌 𝒊=𝟏(𝒙𝒊 −𝒙 𝝈 ≈ 𝒔𝒏−𝟏 = √ 𝒏−𝟏 , siendo 𝑛 = ∑𝑘𝑖=1 𝑓𝑖 Nota: cuando se hagan los cálculos a mano, hay que tener cuidado con la cuasi-desviación típica, ya que mientras que con la desviación típica hay dos fórmulas alternativas que son equivalentes, no sucede lo mismo con la cuasi-desviación típica. Ahora bien, si se desea un cálculo cómodo, se puede emplear la fórmula: 𝒔𝟐𝒏−𝟏 = 𝑛 𝑛−1 ∙ 𝑠𝑛2 La información del conjunto de datos que podríamos obtener sabiendo su media y su desviación típica, si el número de datos es suficientemente alto, es el siguiente: en el intervalo (𝝁 − 𝝈, 𝝁 + 𝝈) incluiría en su interior a un porcentaje sustancial del total de los datos (aproximadamente el 73%). 11 COMBINATORIA Principio de multiplicación: Si hay n1 opciones de elegir un objeto, n2 opciones de elgir un segundo objeto, n3 opciones de elegir un tercero, etc, y para elegir un enésimo hay nn opciones, el número total de maneras de elegir los distintos objetos es: 𝑛1 ∙ 𝑛2 ∙ 𝑛3 ∙ … ∙ 𝑛𝑛 Factorial de un número: 𝑛! = 𝑛 ∙ (𝑛 − 1) ∙ (𝑛 − 2) ∙ … ∙ 3 ∙ 2 ∙ 1 Variaciones ordinarias o variaciones sin repetición de m elementos tomados de n en n (𝑛 ≤ 𝑚), los distintos grupos que se pueden tomar con los m elementos, de manera que: En cada grupo entran n elementos distintos. Dos grupos son distintos si difieren en algún elemento o en el orden de colocación. 𝑉𝑚𝑛 = 𝑉𝑚,𝑛 = 𝑚 ⏟ ∙ (𝑚 − 1). (𝑚 − 2) ∙ … (𝑚 − 𝑛 + 1) = 𝑛 𝑓𝑎𝑐𝑡𝑜𝑟𝑒𝑠 𝑑𝑒𝑐𝑟𝑒𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑐𝑜𝑛𝑠𝑒𝑐𝑢𝑡𝑖𝑣𝑜𝑠 𝑚! (𝑚 − 𝑛)! Variaciones con repetición de m elementos tomados de n en n, los distintos grupos que se pueden formar con los m elementos de manera que: En cada grupo entran n elementos repetidos o no. Dos grupos son distintos si difieren en algún elemento o en el orden de colocación de los mismos. 𝑽𝑹𝒎,𝒏 = ⏟ 𝒎 ∙ 𝒎 ∙ 𝒎 ∙ … ∙ 𝒎 = 𝒎𝒏 𝒏 𝒇𝒂𝒄𝒕𝒐𝒓𝒆𝒔 Permutaciones ordinarias de n elementos son los distintos grupos que se pueden formar de manera que: En cada grupo estén los n elementos. Un grupo se difiere de otro únicamente en el orden de colocación de los elementos. El nº de permutaciones ordinarias de n elementos, Pn, coincide con Vn,n 𝑷𝒏 = 𝒏! = 𝒏 ∙ (𝒏 − 𝟏) ∙ (𝒏 − 𝟐) ∙ … ∙ 𝟑 ∙ 𝟐 ∙ 𝟏 Permutaciones circulares: 𝑷𝑪𝒏 = 𝑷𝒏−𝟏 = (𝒏 − 𝟏)! Permutaciones con repetición de n elementos donde el primer elemento se repite n1 veces; el segundo, n2 veces;…; el último nk veces (donde n1+n2+...+nk=n), son los distintos grupos que se pueden formar de manera que: En cada grupo de n elementos, el primer elemento está n1 veces, el segundo n2 veces, etc. Un grupo se difiere de otro únicamente por el orden de colocación de sus elementos. 12 𝒏 ,𝒏𝟐 …𝒏𝒌 𝑷𝒏𝟏 = 𝒏! 𝒏𝟏 ! 𝒏𝟐 ! … 𝒏𝒌 ! Combinaciones ordinarias o sin repetición de m elementos tomados de n en n (𝑛 ≤ 𝑚) son los distintos grupos que se pueden tomar con los m elementos, de manera que: En cada grupo entran n elementos distintos. Dos grupos son distintos si difieren en algún elemento, pero no en el orden de colocación. 𝑪𝒎,𝒏 𝑚! 𝑽𝒎,𝒏 (𝑚 − 𝑛)! 𝒎! = = = (𝒎 − 𝒏)! 𝒏! 𝑷𝒏 𝑛! Combinaciones con repetición de m elementos tomados de n en n son los distintos grupos que se pueden formar con los m elementos de manera que: En cada grupo entran n elementos repetidos o no. Dos grupos son distintos si difieren en algún elemento, pero no en el orden de colocación. 𝑪𝑹𝒎,𝒏 = 𝑷𝑹𝒏.𝒎−𝟏 𝒎+𝒏−𝟏 = (𝒎 + 𝒏 − 𝟏)! = 𝑪𝒏+𝒎−𝟏,𝒏 𝒏! (𝒎 − 𝟏)! Números combinatorios. Dados dos números naturales no nulos m y n, siendo 𝑚 ≥ 𝑛, se denomina número combinatorio (𝒎 ) y se lee “m sobre n” a: 𝒏 𝒎 𝒎! ( )= 𝒏 𝒏! (𝒎 − 𝒏)! Observamos que (𝒎 ) = 𝑪𝒎,𝒏 𝒏 Propiedades de los números combinatorios. 1. (𝒎 ) = (𝒎 )=𝟏 𝟎 𝒎 𝒎 2. (𝒎 ) = (𝒎−𝒏 ) 𝒏 𝒎 3. (𝒎 ) + (𝒏+𝟏 ) = (𝒎+𝟏 ) 𝒏 𝒏+𝟏 4. (𝒎 ) + (𝒎 ) + (𝒎 ) + ⋯ + (𝒎 ) = 𝟐𝒏 𝟎 𝟏 𝟐 𝒎 Triángulo de Pascal o de Tartaglia. Si se colocan los números combinatorios en la forma 1 1 ( ) ( ) 0 1 2 2 2 ( ) ( ) ( ) 0 1 2 3 3 3 3 ( ) ( ) ( ) ( ) 0 1 2 3 13 Al aplicar las propiedades de los números combinatorios se obtiene un triángulo numérico llamado de Pascal, que verifica: Todas las filas empiezan y terminan en 1. Las filas son simétricas. Un número de una fila se consigue sumando los dos números que están por encima de él. La suma de todos los números de una fila es igual a 2n. 1 1 1 2 1 1 3 3 1 1 4 6 4 1 … … … … … … Binomio de Newton. 𝒏 𝒏 𝒏 𝒏 (𝒂 + 𝒃)𝒏 = ( ) 𝒂𝒏 + ( ) 𝒂𝒏−𝟏 𝒃 + ( ) 𝒂𝒏−𝟐 𝒃𝟐 + ⋯ + ( ) 𝒃𝒏 𝟎 𝟏 𝟐 𝒏 14 SUCESOS ALEATORIOS. PROBABILIDAD 𝑫𝒆𝒕𝒆𝒓𝒎𝒊𝒏𝒊𝒔𝒕𝒂: aquel del que se puede predecir el resultado Experimentos { 𝑨𝒍𝒆𝒂𝒕𝒐𝒓𝒊𝒐: aquel que no se puede predecir el resultado Espacio Muestral: dada una experiencia aleatoria, se denomina Espacio Muestral al conjunto de los resultados posibles de dicha experiencia. También se le puede llamar Universo (E). Suceso: cada subconjunto del Espacio Muestral se denomina suceso. En consecuencia cada suceso será la agrupación de algunos, desde ninguna a todos, de los resultados posibles. Existen diferentes tipos de sucesos: Suceso imposible (∅), es el suceso cuando no se elige ningún resultado, el que no se verifica nunca. Suceso seguro (E), es el suceso que contiene a todos los resultados posibles, coincidiendo con el espacio muestral. Se verifica siempre. Suceso elemental: si contiene a uno solo de los resultados posibles del experimento. Suceso compuesto: es aquél que está formado por más de un resultado del experimento aleatorio. Suceso contrario o complementario: dos sucesos son contrarios o complementarios si la verificación de uno implica la no verificación del otro. El contrario del suceso A se representa con 𝐴̅ o bien A´. Sucesos incompatibles: son aquellos que no se pueden verificar a la vez, es decir si 𝑨 ∩ 𝑩 = ∅. También se denominan mutuamente excluyentes. Operaciones con sucesos Unión de sucesos: dados dos sucesos A y B, el suceso unión, 𝑨 ∪ 𝑩, es aquél que se verifica si lo hacen al menos uno de los dos sucesos A o B. Intersección de sucesos: dados dos sucesos A y B, el suceso intersección, 𝑨 ∩ 𝑩, aquél que se verifica si lo hacen A y B al mismo tiempo. Diferencia de sucesos: Si A y B son dos sucesos se define su diferencia como: 𝑨 − ̅ 𝑩=𝑨∩𝑩 Se verifica que: 𝐴̅ = 𝐸 − 𝐴 Es habitual visualizar estas operaciones mediante diagramas de Venn, por tratarse de conjuntos. Propiedades de las operaciones con sucesos PROPIEDADES Asociativa Conmutativa Idempotente Simplificativa Absorción Elemento neutro Complementación Distributiva LEYES DE MORGAN UNIÓN 𝑨 ∪ (𝑩 ∪ 𝑪) = (𝑨 ∪ 𝑩) ∪ 𝑪 𝑨∪𝑩 =𝑩∪𝑨 𝑨∪𝑨=𝑨 𝑨 ∪ (𝑨 ∩ 𝑩) = 𝑨 𝑨∪𝑬=𝑬 𝑨∪∅=𝑨 ̅=𝑬 𝑨∪𝑨 𝑨 ∪ (𝑩 ∩ 𝑪) = (𝑨 ∪ 𝑩) ∩ (𝑨 ∪ 𝑪) ̅̅̅̅̅̅̅̅ ̅∩𝑩 ̅ 𝑨∪𝑩=𝑨 INTERSECCIÓN 𝑨 ∩ (𝑩 ∩ 𝑪) = (𝑨 ∩ 𝑩) ∩ 𝑪 𝑨∩𝑩 =𝑩∩𝑨 𝑨∩𝑨=𝑨 𝑨 ∩ (𝑨 ∪ 𝑩) = 𝑨 𝑨∩∅=∅ 𝑨∩𝑬=𝑨 ̅=∅ 𝑨∩𝑨 𝑨 ∩ (𝑩 ∪ 𝑪) = (𝑨 ∩ 𝑩) ∪ (𝑨 ∩ 𝑪) ̅̅̅̅̅̅̅̅ ̅∪𝑩 ̅ 𝑨∩𝑩=𝑨 15 DEFINICIÓN DE PROBABILIDAD 𝑛 Cuando repetimos un experimento aleatorio muchas veces, la frecuencia relativa = 𝑛𝐴 , donde 𝑛 = 𝑛º 𝑑𝑒 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 𝑜𝑐𝑢𝑟𝑟𝑒 𝑒𝑙 𝑠𝑢𝑐𝑒𝑠𝑜 𝐴 , de un suceso A tiende a aproximarse a un { 𝐴 𝑛 = 𝑛º 𝑑𝑒 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 𝑠𝑒 ℎ𝑎𝑐𝑒 𝑒𝑙 𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 valor fijo, ese valor se define como probabilidad del suceso A, y se nota P(A). DEFINICIÓN AXIOMÁTICA DE PROBABILIDAD Otra forma de definir la probabilidad está basada en unos principios tan claros y evidentes que son admitidos sin necesidad de demostración, son los axiomas de probabilidad: Axioma 1: 𝟎 ≤ 𝑷(𝑨) ≤ 𝟏, siendo A cualquier suceso Axioma 2: 𝑷(∅) = 𝟎 𝑦 𝑷(𝑬) = 𝟏 Axioma 3: Si A y B son dos sucesos incompatibles, es decir, 𝐴 ∩ 𝐵 = ∅, se verifica que 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) Consecuencias: ̅ ) = 𝟏 − 𝑷(𝑨) 𝑷(𝑨 𝑷(𝑨 ∪ 𝑩) = 𝑷(𝑨) + 𝑷(𝑩) − 𝑷(𝑨 ∩ 𝑩) 𝑷(𝑨 ∪ 𝑩 ∪ 𝑪) = 𝑷(𝑨) + 𝑷(𝑩) + 𝑷(𝑪) − 𝑷(𝑨 ∩ 𝑩) − 𝑷(𝑨 ∩ 𝑪) − 𝑷(𝑩 ∩ 𝑪) + 𝑷(𝑨 ∩ 𝑩 ∩ 𝑪) Regla de Laplace Para poder aplicar esta regla, los diferentes sucesos elementales del experimento aleatorio tienen que ser equiprobables, es decir, que todos tengan la misma probabilidad. La probabilidad de un suceso A es igual al cociente entre el número de casos favorables al suceso A y el número de casos posibles. 𝑷(𝑨) = 𝑵º 𝒅𝒆 𝒄𝒂𝒔𝒐𝒔 𝒇𝒂𝒗𝒐𝒓𝒂𝒃𝒍𝒆𝒔 𝒂𝒍 𝒔𝒖𝒄𝒆𝒔𝒐 𝑨 𝑵º 𝒅𝒆 𝒄𝒂𝒔𝒐𝒔 𝒑𝒐𝒔𝒊𝒃𝒍𝒆𝒔 Probabilidad condicionada La probabilidad de que ocurra un suceso B una vez ha ocurrido el suceso A, se representa por P(B/A) y se calcula así: 𝑃(𝐵⁄𝐴) = P(A∩B) P(A) , siendo P(A)>0 De la expresión anterior se deduce que : 𝑃(𝐴 ∩ 𝐵) = 𝑃 (𝐵⁄𝐴) ∙ P(A) = P (A⁄B) ∙ P(B) Propiedades de la probabilidad condicionada 1) 𝑷 (∅⁄𝑨) = 0 2) 𝑷(𝑨⁄𝑨) = 𝟏 ̅⁄ ) = 𝟏 − 𝑷(𝑩⁄ 3) 𝑷 (𝑩 si P(A)>0 𝑨 𝑨) Sucesos independientes: dos sucesos son independientes A y B cuando el primer suceso A no influye en el resultado del segundo suceso B, es decir: 16 P(A⁄B) = P(A) y 𝑃(𝐵⁄𝐴) = P(B) 4) Si A y B son independientes: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∙ P(B) Pruebas compuestas Hay experiencias en las que fácilmente podemos distinguir dos o más etapas de experiencias aleatorias simples, se llaman experiencias aleatorias compuestas.. Dos pruebas compuestas son independientes cuando el resultado de una no influye en la otra (lanzamiento de una moneda y de un dado a la vez). Si no es así se dice que son dependientes (sacar dos cartas de una baraja sin reemplazamiento). Diagramas de árbol: Cuando se quiere calcular la probabilidad de sucesos de experimentos compuestos son muy útiles los diagramas de árbol cuyas ramas nos indican las distintas posibilidades. Ejemplo: Una universidad está formada por tres facultades: la 1ª con el 50% de estudiantes; la 2ª con el 25% de estudiantes y la 3ª con el 25% de estudiantes. Las mujeres están repartidas uniformemente, siendo un 60% del total en cada facultad. Probabilidad total Sean n sucesos A1, A2, A3,…,An incompatibles dos a dos con 𝐴1 ∪ 𝐴2 ∪ 𝐴3 ∪ … ∪ 𝐴𝑛 = 𝐸 y un suceso cualquiera B del espacio muestral. Se denomina probabilidad total del suceso B: 𝑃(𝐵) = 𝑃(𝐴1 ) ∙ 𝑃(𝐵⁄𝐴) + 𝑃(𝐴2 ) ∙ 𝑃 (𝐵⁄𝐴 ) + ⋯ + 𝑃(𝐴𝑛 ) ∙ 𝑃 (𝐵⁄𝐴 ) 1 2 𝑛 Teorema de Bayes Sean n sucesos A1, A2, A3,…,An incompatibles dos a dos con 𝐴1 ∪ 𝐴2 ∪ 𝐴3 ∪ … ∪ 𝐴𝑛 = 𝐸 y un 𝐴 suceso cualquiera B del espacio muestral. Las probabilidades a posteriori 𝑃 ( 𝑖⁄𝐵) se determinan mediante la expresión: 𝑩 𝑷(𝑨𝒊 )∙𝑷( ⁄𝑨 ) 𝑷(𝑨𝒊 ∩𝑩) 𝑨 𝒊 𝑷 ( 𝒊⁄𝑩) = 𝑷(𝑩) = siendo P(B)>0 𝑷(𝑩) DISTRIBUCIONES DE PROBABILIDAD 17 Variable aleatoria: se llama variable aleatoria a toda función definida en el espacio muestral de un experimento aleatorio que asocia a cada elemento del espacio un número real. Por abuso del lenguaje, es frecuente confundir la función con el conjunto de los valores del recorrido de la función. 𝑫𝒊𝒔𝒄𝒓𝒆𝒕𝒂: 𝑠𝑜𝑙𝑜 𝑝𝑢𝑒𝑑𝑒 𝑡𝑜𝑚𝑎𝑟 𝑐𝑖𝑒𝑟𝑡𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑎𝑖𝑠𝑙𝑎𝑑𝑜𝑠 Variables aleatorias { 𝑪𝒐𝒏𝒕𝒊𝒏𝒖𝒂: 𝑐𝑢𝑎𝑛𝑑𝑜 𝑝𝑢𝑒𝑑𝑒 𝑡𝑜𝑚𝑎𝑟 𝑙𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑒 𝑢𝑛 𝑖𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 Variable aleatoria discreta{ 𝑭𝒊𝒏𝒊𝒕𝒂: 𝑡𝑜𝑚𝑎 𝑢𝑛 𝑛º 𝑙𝑖𝑚𝑖𝑡𝑎𝑑𝑜 𝑑𝑒 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑰𝒏𝒇𝒊𝒏𝒊𝒕𝒂: 𝑠𝑖 𝑝𝑢𝑒𝑑𝑒 𝑡𝑜𝑚𝑎𝑟 𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑜𝑠 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑑𝑖𝑠𝑡𝑖𝑛𝑡𝑜𝑠 Función de probabilidad de una variable aleatoria discreta X: es la aplicación o función que asocia a cada valor de la variable xi su probabilidad pi. 𝑃(𝑋 = 𝑥𝑖 ) = 𝑝𝑖 Propiedades de la función de probabilidad 1) 𝟎 ≤ 𝒑𝒊 ≤ 𝟏 𝑝𝑎𝑟𝑎 𝑖 = 1,2, … , 𝑛 2) ∑𝒏𝒊=𝟏 𝒑𝒊 = 𝟏 3) 𝑷(𝒂 ≤ 𝑿 ≤ 𝒃) = 𝑷(𝑿 = 𝒂) + 𝑷(𝑿 = 𝒂 + 𝟏) + ⋯ + 𝑷(𝑿 = 𝒃 − 𝟏) + 𝑷(𝑿 = 𝒃) 4) 𝑷(𝑿 ≤ 𝒃) = 𝟏 − 𝑷(𝑿 > 𝑏) Media y varianza de una variable aleatoria discreta Si X es una variable aleatoria que toma los valores x1, x2, x3, …,xn con probabilidades p1, p2, …, pn respectivamente, se tiene: 𝒏 𝒏 𝑴𝒆𝒅𝒊𝒂 𝒐 𝒆𝒔𝒑𝒆𝒓𝒂𝒏𝒛𝒂 𝒎𝒂𝒕𝒆𝒎á𝒕𝒊𝒄𝒂: 𝝁 = 𝑬(𝑿) = ∑ 𝒙𝒊 ∙ 𝒑𝒊 = ∑ 𝒙𝒊 ∙ 𝑷(𝑿 = 𝒙𝒊 ) 𝒊=𝟏 𝒊=𝟏 𝒏 𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝝈𝟐 = 𝑽𝒂𝒓(𝑿) = ∑ 𝒙𝟐𝒊 ∙ 𝒑𝒊 − 𝝁𝟐 = 𝑬(𝑿 − 𝝁)𝟐 = 𝑬(𝑿𝟐 ) − [𝑬(𝑿)]𝟐 𝒊=𝟏 { Función de densidad de una variable aleatoria continua Una función 𝑓(𝑥) es admisible como función de densidad de una variable aleatoria continua si: 𝑓(𝑥) ≥ 0 en todo el dominio de definición El área limitada por la gráfica de 𝑓(𝑥) y por el eje X es igual a 1 La probabilidad 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) coincidirá con el área bajo la curva en el intervalo [𝑎, 𝑏],es decir: 𝑏 𝑃(𝑎 ≤ 𝑥 ≤ 𝑏) = ∫ 𝑓(𝑥)𝑑𝑥 𝑎 18 Media y varianza de una variable aleatoria continua +∞ 𝑴𝒆𝒅𝒊𝒂 𝒐 𝒆𝒔𝒑𝒆𝒓𝒂𝒏𝒛𝒂: 𝑬(𝑿) = 𝝁 = ∫ 𝒙𝒇(𝒙)𝒅𝒙 −∞ +∞ +∞ 𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝑽𝒂𝒓(𝑿) = ∫ (𝒙 − 𝝁)𝟐 𝒇(𝒙)𝒅𝒙 = ∫ 𝒙𝟐 𝒇(𝒙)𝒅𝒙 − 𝝁𝟐 −∞ −∞ { Las tres distribuciones más frecuentes y más sencillas son: DISTRIBUCIÓN BINOMIAL B(n,p) Se trata del ejemplo de distribución de variable aleatoria discreta finita. Debe tener unas características muy precisas, éstas son: 1. En cada prueba del experimento solo son posibles dos resultados, el suceso A, que se llama éxito, y su contrario 𝐴̅= A´, al que se llama fracaso. 2. El resultado obtenido en cada prueba es independiente de los resultados obtenidos en las pruebas anteriores. 3. La probabilidad del suceso A es constante, por tanto, no varía de una prueba a otra. Se representa por p, la probabilidad de A, y por q=1-p la probabilidad de 𝐴̅= A´. 𝑃(𝐴) = 𝑝 𝑃(𝐴̅) = 1 − 𝑝 = 𝑞 La variable X, que representa el número de éxitos obtenidos en n pruebas, se denomina variable aleatoria binomial. Esta variable es discreta, ya que si se realizan n pruebas se podrán obtener 0,1,2,…,n éxitos. Una distribución binomial se caracteriza por los parámetros número de pruebas, n, y la probabilidad del suceso éxito, p. Se representa por: B(n,p) Función de probabilidad de una distribución binomial: 𝒏 𝑷(𝒐𝒃𝒕𝒆𝒏𝒆𝒓 𝒓 é𝒙𝒊𝒕𝒐𝒔) = 𝑷(𝑿 = 𝒓) = ( ) ∙ 𝒑𝒓 ∙ 𝒒𝒏−𝒓 𝒓 Media, varianza y desviación típica de la distribución binomial: 𝑴𝒆𝒅𝒊𝒂: 𝝁 = 𝒏𝒑 𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝝈𝟐 = 𝒏𝒑𝒒 𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊ó𝒏 𝒕í𝒑𝒊𝒄𝒂 = 𝝈 = √𝒏𝒑𝒒 { DISTRIBUCIÓN DE POISSON 𝑷𝒐 (𝒎) Se trata del ejemplo de distribución de variable aleatoria discreta infinita. También se le llama la distribución de las pequeñas probabilidades, ya que tendremos en realidad infinitos valores positivos que suman 1, por lo que salvo unos pocos, la gran mayoría de las probabilidades deben ser muy pequeñas, prácticamente despreciables. Se aplica en aquellos casos en los que estudiamos el número de veces que se cumple una proposición, y aunque lo previsible es que esta cifra se sitúe en torno a un cierto valor m esperado de cumplimientos, podría suceder desde que no se cumpliese nunca hasta que se cumpliese un número infinito de veces. 19 Los valores cercanos a m tendrán una probabilidad estimable, pero cuanto más se alejen de ese valor (m), más pequeñas serán sus probabilidades. La distribución de Poisson parece una aproximación de una binomial cuando se observa el número de éxitos en la realización de un número muy elevado de experimentos independientes, en los que la probabilidad de éxito es muy pequeña, es decir, cuando n es grande y p muy pequeña. Si X= B(n,p) lim 𝑃(𝑋 = 𝑥) = 𝑛→∞ lim 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 = 𝑛→∞ 𝑝→0 𝑝→0 𝑒 −𝑚 ∙𝑚𝑥 , 𝑥! siendo m=np Función de probabilidad de una distribución de Poisson de parámetro m 𝑷(𝑿 = 𝒙) = 𝒆−𝒎 ∙𝒎𝒙 𝒙! con x=0,1,2,3,…… ( al parámetro m se le suele designar también por λ) Media, varianza y desviación típica de la distribución de Poisson: 𝑴𝒆𝒅𝒊𝒂: 𝝁 = 𝒎 { 𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝝈𝟐 = 𝒎 𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊ó𝒏 𝒕í𝒑𝒊𝒄𝒂 = 𝝈 = √𝒎 Propiedad: La suma de varias distribuciones de Poisson independientes, es otra distribución de Poisson cuyo parámetro es suma de los parámetros. Esto se suele emplear cuando se repite la experiencia aleatoria de Poisson n veces, pudiendo emplear la fórmula de Poisson con parámetros nm ( o bien nλ). Algunos ejemplos en los que aparece la distribución de Poisson: El número de coches que pasan por cierto punto en una carretera. El número de llamadas telefónicas en una centralita por minuto. DISTRIBUCIÓN NORMAL N(μ,σ) Se trata del ejemplo más conocido de variable aleatoria continua. Se ha comprobado que en infinidad de experiencias aleatorias sus distribuciones de probabilidad tienden a este perfil. Su función de densidad tiene forma acampanada: 𝒇(𝒙) = 𝟏 𝝈√𝟐𝝅 𝟏 𝒙−𝝁 𝟐 ) 𝝈 𝒆− 𝟐 ( conocida por función de Gauss Media, varianza y desviación típica de N (μ,σ) 𝑴𝒆𝒅𝒊𝒂: 𝝁 { 𝑽𝒂𝒓𝒊𝒂𝒏𝒛𝒂: 𝝈𝟐 𝑫𝒆𝒔𝒗𝒊𝒂𝒄𝒊ó𝒏 𝒕í𝒑𝒊𝒄𝒂 = 𝝈 Características de la función de densidad de la N(μ,σ) Dominio a campo de existencia: toda la recta real. 20 Simetría: la función es simétrica respecto de la recta vertical 𝒙 = 𝝁 Máximo: la función presenta un máximo en 𝒙 = 𝝁 Puntos de inflexión: en 𝒙 = 𝝁 − 𝝈 y 𝒙 = 𝝁 + 𝝈 Área encerrada bajo la curva y el eje de abscisas es igual a la unidad (1) Al ser simétrica respecto a la recta 𝒙 = 𝝁 , dicho eje deja un área de 0,5 a cada lado. La forma de la campana de Gauss depende de los parámetros μ y σ. La media μ determina el centro de la distribución, y la desviación típica σ expresa la concentración de los datos de la distribución alrededor de la media. Cuanto más estilizada sea la campana, más baja será la desviación típica, y cuanto más aplanada, más alta será la desviación típica. El área encerrada bajo la curva siempre es igual a 1 Distribución normal estándar: N(0,1) 𝒇(𝒙) = 𝟏 √𝟐𝝅 𝒙𝟐 𝒆− 𝟐 La distribución N(0,1), se representa por Z, se encuentra tabulada en tablas. Al resto de las normales N(μ,σ) se las nombra con la letra X. La tabla de la N(0,1) y algunas calculadoras nos dan el valor bajo la campana desde el extremo izquierdo hasta un concreto valor de z de la variable aleatoria. Esto es: 𝑭(𝒛) = 𝑷[−∞ < 𝑍 ≤ 𝑧] Por tanto: 𝑷[𝒁 > 𝑧] = 𝟏 − 𝑭(𝒛) 𝑷[𝒛𝟏 < 𝑍 ≤ 𝒛𝟐 ] = 𝑭(𝒛𝟐 ) − 𝑭(𝒛𝟏 ) 𝑷[𝒁 ≤ −𝒛] = 𝟏 − 𝑭(𝒛) 𝑷[𝒁 > −𝒛] = 𝑭(𝒛) 𝑷[−𝒛𝟏 < 𝑍 ≤ −𝒛𝟐 ] = 𝑭(𝒛𝟏 ) − 𝑭(𝒛𝟐 ) 𝑷[−𝒛𝟏 < 𝑍 ≤ 𝒛𝟐 ] = 𝑭(𝒛𝟐 ) − (𝟏 − 𝑭(𝒛𝟏 )) 21 También con la tabla o la calculadora se puede hacer una búsqueda inversa, esto es, conocida la probabilidad, hallar la abscisa correspondiente. Tipificación de variables Para tipificar cualquier distribución normal, es decir reducirla a una N(0,1) se hace el siguiente cambio de variable: 𝒁 = 𝑿−𝝁 𝝈 . De esta forma: 𝑷[𝑿 ≤ 𝒙] = 𝑷 [ 𝑿−𝝁 𝒙−𝝁 𝒙−𝝁 𝒙−𝝁 ≤ ) ] = 𝑷 [𝒁 ≤ ] = 𝑭( 𝝈 𝝈 𝝈 𝝈 22