Download 4.1 Introducción 4.2. Experimentos aleatorios
Document related concepts
no text concepts found
Transcript
4. CONCEPTOS BASICOS DE PROBABILIDAD 4.1 Introducción La probabilidad y la estadística son, sin duda, las ramas de las Matemáticas que están en mayor auge en este siglo, y tienen una tremenda aplicabilidad en todos los aspectos y ciencias, especialmente en las Ciencias Sociales, puesto que aquellas variables que influyen en dichas ciencias, económicas, demográficas, suelen tener carácter aleatorio, es decir, no son deterministas, y se fundamentan en predicciones a partir de datos conocidos. Todo aquello que implique predicción nos lleva al terreno de la probabilidad. 4.2. Experimentos aleatorios En todos los aspectos de la vida a veces nos encontramos con acontecimientos predeterminados, es decir, tales que podemos decir , previamente el resultado de dichos acontecimientos antes de que finalice o incluso de que comience. Tal es el caso de: 1. Tirar una piedra desde una cierta altura (sabemos que se caerá). 2. Calentar una olla con agua (sabemos que la temperatura del agua se incrementara). 3. Lanzar una pelota (sabemos que se va a mover, e incluso conociendo fuerzas que actúan sobre ella, podemos conocer precisamente donde caerá). Tales acontecimientos o experimentos de los que podemos predecir el resultado experimentos experimentos, antes de deterministas. Sin de mayor de que se realicen embargo, interés desde se Existe el denominan otro punto tipo de de vista matemático, imaginemos que lanzamos un dado al aire (normal, de 6 41 caras y no trucado), no es posible predecir el resultado con exactitud. Este es un experimento que no es determinista. A este tipo de experimentos, en los cuales no se puede predecir el resultado antes de realizar el experimento se les denomina experimentos aleatorios. Otros ejemplos de experimentos aleatorios pueden ser: Tirar una moneda al aire y observar qué lado cae hacia arriba, rellenar una quiniela de fútbol, jugar una partida de póker y, en general, cualquier juego en el que intervenga el azar. 4.3 Teoría de probabilidades 4.3.1 Definiciones básicas La teoría de probabilidades se ocupa de asignar un cierto número a cada posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un suceso es más probable que otro o relaciones parecidas. Con este fin, introduciremos algunas definiciones. Si realizamos un experimento aleatorio, llamaremos espacio muestral del experimento al conjunto de todos los posibles resultados de dicho experimento. Al espacio muestral lo representaremos por A. A cada elemento que forma parte del espacio muestral se le denomina suceso o evento elemental. Ejemplo 4.1. ¿Cuál es el espacio muestral asociado al experimento de lanzar un dado normal al aire y observar la cara que queda hacia arriba?. Evidentemente, en este caso hay 6 posibles resultados (6 sucesos elementales) y el espacio muestral estará formado por: A= {1, 2, 3,4, 5, 6}. Ejemplo 4.2. ¿Y en el caso del lanzamiento de una moneda?, el espacio muestral es A= {Cara, Cruz} 42 Llamaremos evento aleatorio a cualquier subconjunto del espacio muestral. El concepto de evento es fundamental en probabilidad. Dicho de forma simple, un evento de un experimento aleatorio es cualquier cosa que se nos ocurra afirmar sobre dicho experimento. Así, si tiramos una moneda dos veces, serian eventos todos los siguientes: 1. Sale al menos una cara. 2. Salen más caras que cruces. 3. La moneda cae de canto. 4. No sale ninguna cruz. Llamaremos evento imposible al que no tiene ningún elemento y lo representaremos por ∅. Llamaremos evento seguro al formado por todos los posibles resultados (es decir, al espacio muestral). Llamaremos espacio de eventos y lo representaremos por S, al conjunto de todos los eventos posibles (aleatorios). Ejemplo 4.3. En el caso del lanzamiento de la moneda en el que el espacio muestral es A= {Cara, Cruz}, analicemos quién es el espacio de eventos: - Eventos con 0 elementos: ∅ - Eventos con 1 elemento: {Cara},{Cruz} - eventos con 2 elementos:{Cara, Cruz} De modo que el espacio de eventos es: S= {∅, {Cara}, {Cruz}, {Cara, Cruz}}. 4.3.2 Operaciones con eventos Los eventos o sucesos son conjuntos, en consecuencia se pueden combinar eventos para formar nuevos eventos, para el efecto se realizan diferentes operaciones con conjuntos. Dados dos sucesos, A y B, se llaman: 43 ; (A unión B), es el evento que ocurre si y Unión sólo si A o B o ambos ocurren, es decir, el evento formado por todos los elementos de A y todos los elementos de B. ; (A intersección B), es el evento que Intersección ocurre si y sólo simultáneamente, si es A decir, y es B suceden el evento formado por todos los elementos que son, a la vez, de A y de B. Diferencia es el evento formado por todos los elementos de A que no son de B. (Complemento de A), es el evento que Complemento ocurre si y sólo si A no ocurre, es decir, el evento A'=E – A se llama evento contrario de A. Disjuntos A ∅ B Dos eventos A y B, se llaman incompatibles cuando no tienen ningún elemento común. Es decir, cuando A y B son disjuntos. 4.3.3 Asignación de probabilidades (Regla de Laplace). Hay muchas maneras de asignar probabilidades. La más sencilla e intuitiva la dio el matemático francés Pierre Simón Laplace (1749-1827), quién enunció la regla que lleva su nombre, Regla de Laplace. Si realizamos un experimento aleatorio en el que hay n eventos elementales, todos 44 igualmente probables, entonces si A es un evento, la probabilidad de que ocurra el suceso A es ( ) Ejemplo 4.4. Lanzamos un dado normal al aire. Consideramos el evento A=“sale par”, calcular la probabilidad de A, es decir p(A). Casos posibles son 6, E= E={1,2,3,4,5,6}, casos favorables suceso A={2,4,6}, por consiguiente se tiene que ( ) (Nótese que la probabilidad siempre es un número positivo y menor, o a lo sumo igual a 1). El inconveniente que plantea la definición de Laplace es que necesariamente los eventos elementales tienen que tener la misma probabilidad de ocurrir. Observemos un caso tan sencillo como el siguiente: Ejemplo 4.5. De una urna que contiene 8 bolas rojas, 5 amarillas y 7 verdes se extrae una bola al azar. Calcular la probabilidad de que la bola extraída sea: a) roja b) verde c) amarilla El espacio muestral en este caso seria: E= {R, V, A}, que consta sólo de tres elementos, pero seria un poco ingenuo asignar las probabilidades mediante la regla de Laplace, ( ) ( ) ( ) porque, intuitivamente se ve que hay más posibilidades, por ejemplo, de que salga una bola roja que de que salga una bola amarilla. Fue el matemático ruso Kolmogorov quién precisó mejor las probabilidades a casos de este tipo, 45 4.3.4 Definición axiomática de probabilidad Una probabilidad p es una función que asocia a cada evento A del espacio de eventos S, un número real p(A), es decir: y que cumple las propiedades: 1. 0 ≤ p(A) ≤ 1, (es decir, cualquier evento tiene probabilidad positiva y menor o igual que 1). 2. p(S) = 1 (la probabilidad del suceso seguro es 1). 3. Si A y B son incompatibles, es decir A ∩ B = ∅, entonces p(A B) = p(A) + p(B). (es decir la probabilidad de la unión es la suma de las probabilidades si los eventos tienen intersección vacía). Ejemplo 4.5. Sea un experimento aleatorio cualquiera y definamos en S (espacio de eventos) la siguiente probabilidad: ( ) Comprobemos que p es una probabilidad. Para ello, comprobemos las tres propiedades: a) Se ve que la probabilidad de cualquier suceso está entre cero y uno, puesto que cualquier conjunto que tenga elementos ya tendrá probabilidad positiva, y el número de elementos de cualquier conjunto no puede ser mayor que el número total de elementos existentes. b) p(S) = 1, es evidente. c) Tomemos dos eventos A y B que no tengan elementos en común. Entonces: ( ( ) ) 46 ( ) ( ) ( ) puesto que si A y B no tienen elementos comunes, el número de elementos de la unión es la suma de los elementos de cada conjunto por separado. Por tanto se cumplen las 3 propiedades y p así definida es una probabilidad. Esta será la definición de probabilidad que utilicemos a partir de ahora. Ejemplo 4.6. Del ejemplo 4.4, de la urna, lo lógico es definir la probabilidad, de la siguiente forma, como en total hay 20 bolas, donde 8 son rojas, 7 son verdes y 5 son amarillas, la probabilidades de que la bola se Roja, o sea Verde o sea Amarilla son las siguientes ( ) ( ) ( ) El lector puede comprobar que así definida p es una probabilidad. Sin embargo, comprobar las propiedades de la definición de Kolmogorov es una labor larga y engorrosa, puesto que hay que verificar que se cumple para todos aquellos eventos del espacio de eventos S, que es ciertamente amplio en muchas ocasiones. El siguiente resultado simplifica la tarea de decidir cuándo una función p sobre el espacio de eventos es una probabilidad, basándose sólo en los eventos elementales, es decir, aquellos que forman parte del espacio muestral. Lo enunciaremos sin demostración: Propiedad Si una función: son n eventos elementales de un evento aleatorio cualquiera, p de modo que cumplen las propiedades: 1. 0 ≤ p(wi) ≤ 1 ∀ i ∈ {1, 2, . . . ,n} 2. p(w1) + p(w2) + . . .+ p(wn) = 1 Entonces p es una probabilidad. 47 Ejemplo 4.7. Comprobar si las siguientes funciones definidas para los eventos elementales son una función de probabilidad, siendo E={a,b,c,d} el espacio muestral del experimento aleatorio: a) ( ) b) ( ) c) ( ) d) ( ) Es obvio que la primera propiedad se cumple, puesto que las 4 probabilidades son números positivos menores que 1. Para ver si se cumple la segunda, basta realizar la suma: que evidentemente no es 1, luego p no es probabilidad. Ejemplo 4.8 Ahora, si se definen las probabilidades como, a) ( ) b) ( ) c) ( ) d) ( ) Es obvio que la primera propiedad se cumple, puesto que las 4 probabilidades son números positivos o cero o menores que 1. Para ver si se cumple la segunda, basta realizar la suma: luego p si es una función probabilidad. 48 Otras definiciones derivadas de la probabilidad 1. ( ) ( ) ( ) En efecto, puesto que y además A y son incompatibles, resulta por la propiedad (3) de la definición que ( ) ( ( ) ) Y por la propiedad (2), p(S)=1, luego ( ) ( ) ( )=1 y por tanto ( ) ( ) 2. Si (∅) ∅, resulta que: (∅) ( ) ( ) 3. Si A y B son dos eventos cualesquiera, ( ) ( ) ( ) ( ) 4. Si A, B y C son tres eventos cualesquiera, ( ) ( ) ( ) ( ) ( ) ( ) ( ) 4.3.5 Reglas de probabilidad. La probabilidad de un evento se denota con la letra y se expresa en términos de una fracción y no en porcentajes, por lo que el valor de cae entre 0 y 1. Por otra parte, la probabilidad de que un evento "no ocurra" equivale a 1 menos el valor de y se denota con la letra : Los tres métodos para calcular las probabilidades son la regla de la adición, la regla de la multiplicación y la probabilidad condicional. 4.3.5.1 Regla de la adición. La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo. De aquí el; 49 ( ) ( ) ( ) ( ) ( ) Si A y B son mutuamente excluyentes. ( ) ( ) ( ) ( Si A y B son no excluyentes. Siendo: ) ( ) = probabilidad de ocurrencia del evento A. ( ) = probabilidad de ocurrencia del evento B. ) = probabilidad de ocurrencia simultanea de los eventos A y B. ( Ahora; si es un evento cualquiera de un experimento aleatorio y el complemento de es entonces: ( ) Es decir, la probabilidad de que el evento ( ) no ocurra, es igual a 1 menos la probabilidad de que ocurra. 4.3.5.2 Regla de la multiplicación. La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos estadísticamente independientes es igual al producto de sus probabilidades individuales. ( ) ( ) ( ) ( ) Si A y B son independientes. ( ) ( ) ( ) ( | ) Si A y B son dependientes. 4.3.5.3 Independencia y probabilidad condicional. Dos eventos son independientes si la probabilidad de que ocurran ambos simultáneamente es igual al producto de las probabilidades de que ocurra cada uno de ellos, es decir, si ( ) ( ) ( ) Definición Sean y dos eventos tales que independiente de probabilidad de si la probabilidad de . Es decir si: ( | ) ( ) , intuitivamente condicionada por es es igual a la ( ) 50 Y si y son dos eventos tales que independiente de probabilidad de si la probabilidad de ( ) condicionada por ( | ) . Es decir si: , intuitivamente es es igual a la ( ) Definición Sean y dos eventos tales que de A dado B es, , la probabilidad condicionada ( ) ( ( | ) Se deduce que ( ) ( ) ( | ); y dado que si el evento de A es ( | ) independiente del evento de B, se tiene que ( ) ( ) ) ( ) ( ) y se deduce que ( ). 4.4 Variables aleatorias discretas. Una variable aleatoria discreta es una variable cuantitativa que toma valores aislados, es decir no admite valores intermedios entre dos valores específicos. Por ejemplo, El número de hermanos que tienen 5 personas: {2, 1, 0, 1, 3}. 4.5 Variables aleatorias continuas. Una variable aleatoria continua es una variable cuantitativa que puede tomar valores comprendidos entre dos números. Por ejemplo, La altura de 5 personas: 1.73, 1.82, 1.77, 1.69, 1.75. 4.6 Función de probabilidad. Se llama función de probabilidad de una variable aleatoria discreta a la aplicación que asocia a cada valor de variable su probabilidad de la . ∑ Ejemplo 4.9. Calcular la distribución de probabilidad de las puntuaciones obtenidas al lanzar un dado (tabla 4.1). En la figura 4.1 se puede ver la grafica de la distribución de probabilidad de las probabilidades de la tabla 4.1. 51 Una distribución de probabilidad de una variable aleatoria de pares ordenados ( , (si es el conjunto ( )) donde ( ) es la función de probabilidad de es discreta) o función densidad de probabilidad de (si es continua). Una distribución de probabilidad puede estar dada por una tabla, una gráfica o una expresión matemática (fórmula) que da las probabilidades con que la variable aleatoria toma diferente valores. 1 2 3 4 5 6 7 ∑ Tabla 4.1 Probabilidades de las puntuacio nes obtenidas al lanzar un dado 1/5 1/7 0 0 0 1 2 3 4 5 6 Figura 4.1 Gráfica de la funció n de probabilidad. Ejemplo 4.10. Al lanzar un par de dados legales, sea la variable aleatoria que representa la suma de los puntos que aparecen en ambos dados. En la 52 tabla 4.2, se representan las probabilidades del experimento de lanzar dos dados. S Valores de X : xi (1,1) 2 (1,2) (2,1) 3 (1,3) (3,1) (2,2) 4 (1,4) (4,1) (2,3) (3,2) 5 (1,5) (5,1) (2,4) (4,2) (3,3) 6 (1,6) (6,1) (2,5) (5,2) (3,4) (4,3) 7 (2,6) (6,2) (3,5) (5,3) (4,4) 8 (3,6) (6,3) (4,5) (5,4) 9 (4,6) (6,4) (5,5) 10 (5,6) (6,5) 11 (6,6) 12 Total: Tabla 4.2 Probabilidades del experimento de lanzar dos dados 53 La gráfica de líneas para el ejemplo 4.10, esta en la figura 4.2. Figura 4.2 Gráfica de líneas de la Distribución de Probabilidad de la variable aleatoria del ejemplo 4.5 Otro tipo de gráfica empleado para representar una función de probabilidad es el histograma, que consiste en representar una función las probabilidades como áreas (figura 4.3). Figura 4.3 Histograma de la distribución del ejemplo 4.10 4.7 Función de densidad de probabilidades. Una función de densidad de probabilidad es una función es un intervalo ( cuyo dominio ) y que tiene las siguientes propiedades: 54 ( ) (a) por toda ( ) (b) ∫ Los gráficos de funciones de densidad de probabilidad pueden tomar cualquier forma algunos ejemplos son: Figura 4.4 Ejemplo de gráficos de densidad de probabilidad a b a b a b Figura 4.5 La probabilidad e x tome un valor entre a y b es igual al área comprendida entre a y b. Ejemplo 4.11. Si lanzamos una moneda legal y representamos por el número de ensayos realizados hasta que aparece por primera vez un águila, entonces, el espacio muestra correspondiente es infinito, ya que hay un número infinito de numerable de resultados, a saber, 1, 2, 2, 3, … De hecho, significa que aparece un águila en el primer ensayo, , indica que primero se obtiene sol y en el segundo tiro, un águila, etc. Puesto que las águilas y los soles son igualmente probables, y los ensayos son independientes, tenemos que: ( ) ( ) ( ) 55 De esta manera, obtenemos la función de probabilidad: ( ) La distribución de probabilidad de X se puede expresar mediante una tabla como se ve a continuación: X f(X) 1 1/2 2 1/4 3 1/8 4 1/16 5 1/32 Ejemplo 4.12. Se extraen dos tornillos al azar de un conjunto de 10 tornillos, cuatro de los cuales están defectuosos. Encontrar y dibujar la función de probabilidad aleatoria ( ) de la variable . Solución: Como hay 10 tornillos de los cuales 4 son defectuosos y se extraen 2 tornillos al azar (sin reemplazo); entonces, el cardinal del espacio muestra es ( ) ( ) y toma los valores del 0 al 2 ya que al extraer dos tornillos sólo puede ocurrir que no salga ningún defectuoso, un defectuoso o dos defectuosos, ( ) ( )( ) { } Las probabilidades respectivas son: ( ) ( )( ) ( ) ( )( ) 56 Distribución de Gráfica de líneas Histograma Probabilidad ( ) 0 1 2 Figura 4.6 Distribución de probabilidad de la variable aleatoria del ejemplo 4.12 Ejemplo 4.13. La función densidad de probabilidad normal estándar se define por: ( ) ( √ ) ( ) ( ) √ a continuación se presenta su gráfica y podemos ver que es una curva suave y continua, en lugar de una gráfica de líneas. Figura 4.7 Función densidad normal estándar 4.8 Función de distribución acumulada. Sea una variable aleatoria discreta cuyos valores suponemos ordenados de menor a mayor. Llamaremos función de distribución de la variable , y escribiremos ( ) ( ( ) a la función: ) La función de distribución asocia a cada valor de la variable aleatoria x la probabilidad acumulada. 57 Ejemplo acumulada 4.14. Encuentre los valores ( ) de la variable aleatoria Obsérvese que ( ) de f(X) F(X) 2 1/36 1/36 3 2/36 3/36 4 3/36 6/36 5 4/36 10/36 6 5/36 15/36 7 6/36 21/36 8 5/36 26/36 9 4/36 30/36 10 3/36 33/36 11 2/36 35/36 12 1/36 36/36 ) ( función distribución descrita en el ejemplo 4.10. X ( la ) ( ) ( ) ∑ ( ) . La gráfica de la función distribución acumulada de una variable discreta es siempre una gráfica escalonada. Figura 4.8 Función distribución para la variable aleatoria del ejemplo 4.10 58 Ejemplo 4.15. Halle los valores de la función distribución acumulada, ( ), de la variable aleatoria del ejemplo 4.12. (Se extraen dos tornillos al azar de un conjunto de 10 tornillos, cuatro de los cuales están defectuosos.) ( ) ( ) 0 1 2 Figura 4.9 Gráfica para función de distribución acumulada, del ejemplo 4.12 La distribución acumulada ( ) de una variable aleatoria continua con función de densidad ( ) es: ( ) ( ) ∫ ( ) ( ) Y su gráfica se muestra enseguida; Figura 4.10 Gráfica para la función de distribución acumulada para una continua 59 Las propiedades de la función distribución acumulada son: I. ( ) ∑ ( ) ( ) II. ( ( ) ) ( ) ( III. (̅ IV. ( ) ( ) ( ) ( ) ∫ ∑ ( ) ( ) ∫ ∑ ( ) ( ) ) ) ( ) ( ) ( ) 4.9 Esperanza y varianza. La esperanza o media matemática de la variable aleatoria se define como: Donde ( ) ∑ ( ) ( ) ∫ ( ) ( ) La variancia de la variable aleatoria ( Donde ( ) ∑( ( ) ∫( ) ) ) se define por: ( ) ( ) ( ) 60 4.10 Teorema de Chebyshev. El siguiente teorema, debido al matemático ruso Pafnuti L. Chebyshev (1821-1894). Nos da un resultado que tiene una interpretación muy interesante dentro del contexto de la estadística descriptiva, porque nos dice que la desviación estándar de un conjunto de datos es realmente algo más que una medida de dispersión; es una especie de “vara de medir” para la distribución de datos. El resultado se enuncia como sigue: TEOREMA DE CHEBYSHEV: Dado un número lo menos ( ( Si mediciones de las mediciones estará en ( ̅ ) Si y un conjunto de Si ) ( y Si ) ̅ por ), ( ) ( ) Ejemplo 4.16. Considere un conjunto de 200 números cuya media es y su desviación estándar es ̅ . Puesto que ( ) , del teorema de Chebyshev se tiene que al menos 150 (el 75%) de los números dados están entre ̅ ̅ . Así mismo, al menos 178 (el 89%) de los números dados están entre ̅ ̅ . Ejercicios unidad 4 61