Download Transmisión Digital 6
Document related concepts
no text concepts found
Transcript
Referencia: Capítulo 6: Probabilidades y Procesos Estocásticos del libro Contemporary Communication Systems 1st Edition by M. Farooque Mesiya (Author) 6.1 Conceptos de la Teoría de Probabilidades El concepto fundamental en la teoría de probabilidades es el concepto del experimento aleatorio. Esto es, hacemos un experimento pero no podemos predecir con certeza cuál va a ser el resultado. Por ejemplo, si tiramos una moneda al aire y luego la capturamos, sabemos que el resultado o será cara o será cruz, pero no podemos predecir con certeza cuál de los dos resultados vamos a obtener. Conceptos fundamentales de probabilidad: Outcome () o resultado – Es el resultado de un experimento aleatorio. Sample space () – Es el conjunto de todos los posibles resultados de un experimento aleatorio. Evento (A) – Cualquier colección de resultados. En otras palabras, un subconjunto del sample space El subconjunto vacío es el evento nulo o imposible, y el conjunto completo es el evento seguro o el evento del todo. 6.1.1 Frecuencia Relativa Aunque el resultado de un experimento aleatorio no es predecible, sí es posible esperar cierta regularidad estadísticas en los resultados. Por ejemplo, si tiramos una moneda al aire un número grande de 2 veces, esperaríamos que aproximadamente la mitad de las veces el resultado sea cara. La frecuencia relativa de ocurrencia de un evento A se define como f(A) = nA n donde nA es el número de veces en que el evento A ocurre en n intentos. Si el número de intentos es pequeño, f(A) puede fluctuar. Sin embargo, según n tiende a infinito, f(A) es constante. Usando el concepto de relativa frecuencia de ocurrencia podemos definir la probabilidad de que ocurra el evento A como P(A) = nlim nA n 6.1.2 Axiomas de la Teoría de Probabilidades La probabilidad de que un evento A ocurra es una función denotada como P(A) que a cada evento A del sample space le asigna un número real de forma que: 1. 0 < P(A) < 1 2. P() = 1 3. Si los eventos son mutuamente exclusivos, esto es, que no pueden ocurrir simultáneamente, entonces la probabilidad de que ocurra la unión de los eventos es igual a la suma de la probabilidades. Esto es, 3 P(A1 U A2 U ... An) = P(A1 ) U P(A2 ) U ... P(An) 4. P() = 0 __ __ 5. P( A ) = 1 – P(A), donde A es el complemento de A. 6. P(A) < P(B) si A es un subconjunto de B. 7. Si los evento A y B no son mutuamente exclusivos, entonces P(A U B) = P(A) + P(B) – P(A B) = P(AB) 8. Si los eventos A1, A2, . . . , An no son mutuamente exclusivos, entonces P(A1 U A2 U . . . U An) < P(A1) + P(A2) + . . . + P(An) Ejemplo: Supongamos que echamos a rodar un dado de 6 caras. El resultado será el número de puntos que aparezca en la cara del tope. Calcule las siguientes probabilidades: a) Cada posible resultado b) El número de puntos sea impar. c) El total de puntos es un número menor de 4. Solución: Primero definamos el sample space = {1,2,3,4,5,6}. a) Como hay 6 posibles resultados, y todos son equiprobables, entonces cada posible resultado tiene una probabilidad de 1/6. 4 b) Sea A el evento que consiste de que el número de puntos sea impar. A = {1, 3, 5}. Como los resultados son mutuamente exclusivos, P(A) = P(ocurre un 1) + P(ocurre un 3) + P(ocurre un 5) = 1/6 + 1/6 + 1/6 = 3/6 = ½. c) A = {1, 2, 3}. Como los resultados son mutuamente exclusivos, P(A) = P(ocurre un 1) + P(ocurre un 2) + P(ocurre un 3) = 1/6 + 1/6 + 1/6 = 3/6 = ½. 6.1.4 Probabilidad Condicionada A la probabilidad de que ocurra el evento A, esto es, P(A), se le conoce como la probabilidad a priori pues es lo único que sabemos del evento A antes de que se realice cualquier tipo de experimento. Hay veces que estamos más interesados en conocer la probabilidad de que el evento A ocurra dado que otro evento B ya ocurrió. En dicho caso estamos hablando de la probabilidad de que ocurra el evento A dado que ya ocurrió el evento B. Esto es, P(A | B), y se define de la siguiente manera. P(A | B) = P( A B ) P( AB) = , P( B ) P( B ) P(B) > 0 P(A | B) es la probabilidad a posteriori de que ocurra el evento A dado que ocurrió el evento B. La probabilidad condicionada restringe el universo de posibles resultados del evento A al subconjunto B que es parte del sample space . Ejemplo: Consideremos un dado con seis caras. Sea A = {al rodar el dado obtenemos un número de puntos par} y B = {al rodar el dado 5 obtenemos un número de puntos menor o igual a 3}. Calcule P(B), P(AB) y P(A|B). Solución: B = {1, 2, 3} => P(B) = 1/6 + 1/6 + 1/6 = 3/6 = ½. A = {2, 4, 6} AB = {2} => P(AB) = 1/6 P(A | B) = probabilidad de que ocurra un 2 dado que ocurrió un 1, un 2 o un 3 = 1/3. Podemos obtener el mismo resultado anterior usando la fórmula. P(A | B) = P( AB) P( B ) = 1/ 6 1/ 2 = 2/6 = 1/3 Ley de la Probabilidad Total La ley de la probabilidad total nos permite calcular la probabilidad de un evento que puede ocurrir de formas distintas. Si un evento A ocurre cuando cualquiera de los subeventos B1, B2, . . . , Bk ocurren, entonces la probabilidad de que ocurra el evento A está dada por k P(A) = P( A | B ) P( B ) i 1 i i donde B1 U B2 U . . . U Bk = . Ejemplo: Consideremos un sistema de comunicación digital binario. Asumamos que, en promedio, el ruido hace que uno de cada 10,000 bits son incorrectamente detectados en el receiver cuando un 1 6 binario es transmitido, y que dos de cada 10,000 bits son incorrectamente detectados en el receiver cuando un 0 binario es transmitido. Si los unos y los ceros son equiprobables, calcule la probabilidad de que ocurra un error en un bit. Solución: Sea e el evento que ocurre un error. P(e) = [P(e | se transmitió un 1) x P(se transmitió un 1)] + [P(e | se transmitió un 0) x P(se transmitió un 0)] P(e) = ½(1/10,000) + ½(2/10,000) P(e) = 1/20,000 + 1/10,000 P(e) = 3/20,000 = 0.00015 = 1.5 x 10-4 En promedio, cada 10,000 bits ocurren 1.5 errores. Ejemplo: Si en el ejemplo anterior se hace una prueba de transmisión y recepción y descubrimos que hay un bit con error. ¿Cuál es la probabilidad de que el bit con error es un 1 que fue transmitido? Solución: Sea B = {se transmitió un 1}. Nos piden que calculemos P(B | e). P(B | e) = P(B | e) = P ( B e) P ( e) = (1 / 10,000)(1 / 2) 1.5 x10 4 P( e | B ) P( B ) P ( e) = 0.333 = 1/3 7 Eventos Independientes A y B son eventos independientes si P(AB) = P(A) P(B) Nunca debemos confundir eventos independientes con eventos mutuamente exclusivos. Los eventos mutuamente exclusivos no tienen resultados en común. Esto es, AB = y P(AB) = 0. Si A y B son eventos independientes, entonces P(A | B) = P( AB) P( B ) = P( A) P( B) P( B ) = P(A) Como A y B son eventos independientes, el hecho de que B ocurriera en nada afecta la probabilidad de que ocurra A. Por eso es que P(A | B) = P(A). 6.2 Variables Aleatorias (Random Variables) Una variable aleatoria es una regla que a cada posible resultado de un experimento le asigna un número real. Esto es, una variable aleatoria es una función que a cada le asigna un número real. 8 Ejemplos de variables aleatorias: Número de llamadas por segundo que entran a una oficina central telefónica. Número de fotones de luz que recibe un foto detector durante el intervalo de duración de un bit. Las variables aleatorias pueden ser discretas, continuas o mixtas. Denotaremos las variables aleatorias en bold, como por ejemplo, x, y, y los valores que éstas asuman las denotaremos con las letras minúsculas x, y. 6.2.1 Variables Aleatorias Discretas Una variable aleatoria discreta x tan sólo puede asumir un número finito de valores x1, x2, . . . , xk con probabilidades P{x = xi}, i =1, 2, . . . , k. Algunos ejemplos de variables aleatorias discretas: El número de paquetes que recibe un router en un intervalo de tiempo finito. El número de chips defectuosos en una oblea semiconductora (i.e. semiconductor wafer). Al conjunto de todos los posibles valores Sx = {x1, x2, x3, . . . , xk} que una variable aleatoria x puede asumir se le conoce como el range. El probability mass function (PMF) px(xi) completamente caracteriza una variable aleatoria discreta, y se define de la siguiente manera. 9 px(xi) = P{x = xi} = P{x() = xi | } Como px(xi) es una probabilidad, 0 < px(xi) < 1 y p i x ( xi ) P( x( ) x i | ) =1 i El cumulative distribution function (CDF) de una variable aleatoria discreta está definida como Fx (x ) = P{x < x} Dado el CDF es posible obtener las probabilidades para la variable aleatoria discreta. px(xi) = Fx ( xi ) - Fx ( xi 1 ) La Figura 6.5 muestra el CDF y el PMF de una típica variable aleatoria discreta. Podemos observar que para una variable aleatoria discreta el CDF es en forma de escalera. 10 Figura 6.5: PMF y CDF de una típica variable aleatoria discreta 6.3 Variables Aleatorias Continuas Una variable aleatoria continua asume un conjunto continuo de números. El range de una variable aleatoria continua puede incluir la recta real o un intervalo de la recta. En ambos casos contiene un número infinito de posibles números. Las variables aleatorias continuas nos permiten modelar muchos fenómenos de la vida real. Por ejemplo, el tiempo que nos toma bajar un archivo de Internet, o el voltaje a través de una resistencia, o la fase de un carrier emitido por un transmisor. Una característica que distingue una variable aleatoria continua de una discreta es que la probabilidad de que un resultado individual ocurra es cero. Esto es, P{x = x} = 0 donde x es cualquier número en el range de x. Contrario al caso de las variables aleatorias discretas en donde el CDF es en forma de escalera con discontinuidades en cada punto, para una variable aleatoria continua el CDF es una función continua. Propiedades de cualquier variable aleatoria continua x: 1. 0 < Fx (x) < 1 Fx (x ) = 0 y lim Fx (x ) = 1 2. xlim x 3. P{a < x < b} = Fx (b) - Fx (a ) 4. Fx (x) es una función no-decreciente (i.e. creciente o constante). 11 El probability density function (PDF), f x (x) , de una variable aleatoria x es la derivada del CDF. Esto es, dFx ( x ) dx f x (x ) = De forma equivalente, el CDF de una variable aleatoria continua x es el integral de su PDF. Esto es, Fx (a ) = a f x ( x)dx A continuación listamos tres importantes propiedades de los PDF’s. f x (x) > 0 b a f x ( x)dx = 1 f x ( x)dx = P{a < x < b} Ejemplo: El PDF de una variable aleatoria continua está dado por C e-x para x > 0 f x (x ) = 0 Calcule: a) El valor de la constante C. b) El CDF Fx (x) c) P{0 < x < 5} Solución: para x < 0 12 a) 0 f x ( x)dx = 1 Ce x dx = 1 - C e-x |0 = 1 C=1 b) Fx (x ) = x f x (t )dt Fx (x ) = x 0 para x > 0 e t dt Fx (x ) = - e-t |0x - e-x + e0 = 1 – e-x para x > 0 Fx (x ) = 0 para x < 0 d) P{0 < x < 5} = Fx (5) - Fx (0) P{0 < x < 5} = ( 1 – e-5 ) – 0 = 0.993 6.3.1 Algunas Comunes Variables Aleatorias Continuas Variable Aleatoria Uniforme 13 x es una variable aleatoria uniforme si su probability density function está definida de la siguiente forma: 1 ba si a < x < b f x (x ) = 0 de lo contrario La Figura 6.6 muestra el PDF de una variable aleatoria uniforme. Figura 6.6: PDF de variable aleatoria uniforme Una variable aleatoria uniforme es una buena selección cuando todos los posibles resultados de un experimento aleatorio son equiprobables. Ejemplo: La diferencia en fase entre la onda emitida por un transmisor y la onda sintetizada por el receiver es una variable aleatoria uniformemente distribuida entre [-]. Calcule a) P{ < 0 } b) P{ < /4 } Solución: El PDF está definido de la siguiente forma. 1 2 f x (x ) = si - < x < 14 0 de lo contrario 1 0 a) P{ < 0 } = 2 d b) P{ < /4 } = /4 = =½ 2 5 1 1 1 5 d = ( - (-)) = = 8 2 2 4 2 4 Variable Aleatoria Normal o Gaussiana x es una variable aleatoria normal o Gaussiana si su probability density function está dada por f x (x ) = 1 2 x2 e ( x mx ) 2 / 2 x2 donde mx es el valor promedio (i.e. mean), y x2 es la varianza. x es la desviación estándar. Esto es, la varianza es el cuadrado de la desviación estándar. La desviación estándar es una medida de dispersión con respecto al valor promedio que pueda asumir la variable aleatoria. Por ejemplo, una desviación estándar pequeña implica que la mayor parte de los valores que asume la variable aleatoria se encuentran aglutinados en la vecindad del valor promedio. En cambio, si la desviación estándar es grande, entonces podemos esperar que los valores que asume la variable aleatoria se encuentren bastante desparramados. 2 Una variable aleatoria Gaussiana con promedio mx y varianza x se 2 denota como N(mx, x ). La variable aleatoria N(0,1) es conocida como la variable aleatoria estándar normal. 15 Veamos ahora el cumulative distribution function o CDF para la variable aleatoria Gaussiana. Fx (x ) = P{x < x} = 1 x e ( t mx ) 2 x2 2 / 2 x2 dt No existe solución en forma cerrada para el anterior integral. Sin embargo, se puede expresar en términos de la función Q la cual a continuación definimos. 1 2 Q(a) = P{x > a} = y /2 e dy 2 a La función Q representa el área bajo el pdf de una variable aleatoria estándar Gaussiana desde a hasta infinito, y sus valores están tabulados. A continuación discutiremos algunas importantes propiedades de la función Q. Q(0) = ½ Q(-∞) = P{x > -∞} = Q(-x) = 1 2 e x y2 / 2 dy = 1 - 1 2 1 2 x e y /2 e dy = 1 2 y2 / 2 Q(-x) = 1 – Q(x) dy = 1 - 1 2 y /2 e dy 2 x 16 Regresemos a la ecuación que define el CDF de la variable aleatoria estándar Gaussiana. Fx (x ) = P{x < x} = 1 x e ( t mx ) 2 x2 2 / 2 x2 dt Hagamos la siguiente sustitución de variables. t mx z= x 1 dz = Fx (x ) = P{x < x} = Fx (x ) = 1 - dt x x mx x x mx x 1 2 e z / 2 dz 1 z / 2 e dz 2 Fx (x ) = P{x < x} = 1 – Q( x m x ) = Q( m x x ) x x La variable aleatoria Gaussiana es la variable aleatoria más frecuentemente utilizada en el análisis y modelaje de los sistemas de comunicaciones. El ruido termal tiene un pdf Gaussiano. Ejemplo: La variable aleatoria Gaussiana x tiene el siguiente pdf. f x (x ) = 1 30 e ( x 12) 2 / 30 17 Exprese las siguientes probabilidades en términos de la función Q. a) P(x < 11) b) P(10 < x < 12) c) P(11 < x < 13) d) P(9 < x < 12) Solución: Dado que f x (x) = 1 30 e ( x 12) 2 / 30 , mx = 12 y 2 x = 30. 2 Por lo tanto, x2 = 15 y x = 15 . a) P(x < 11) = 1 – P(x > 11) = 1 – Q( 11 12 12 11 ) = Q( ) = Q( 15 15 1 ) 15 b) P(10 < x < 12) = Q( 10 12 2 ) – Q(0) = Q( )–½ 15 15 = (1 – Q( = ½ - Q( c) P(11 < x < 13) = Q( 2 )) – ½ 15 2 ) 15 11 12 13 12 ) – Q( ) 15 15 18 = Q( 1 1 ) – Q( ) 15 15 = 1 – Q( = 1 – 2Q( d) P(9 < x < 12) = Q( 1 1 ) – Q( ) 15 15 1 ) 15 9 12 ) – Q(0) 15 = Q( 3 )–½ 15 = (1 – Q( 3 )) – ½ 15 = ½ - Q( 3 ) 15 19 Las variables aleatorias Gaussianas poseen importantes propiedades que simplifican la matemática: 1. Una variable aleatoria Gaussiana x es completamente __ identificada por su promedio m = x = E{x} y su varianza __ = E{(x – x )2. 2 2. Si las variables aleatorias x1, x2, . . . , xn son uncorrelated, entonces son estadísticamente independientes. Solamente para el caso Gaussiano, uncorrelatedness implica independencia estadística. 3. Para un sistema LTI (linear time invariante) cuya entrada o input es una variable aleatoria Gaussiana x, la salida y es otra variable aleatoria, también Gaussiana. Más aún, las dos variables aleatorias x y y son conjuntamente Gaussianas. 20 Introducción a los Procesos Estocásticos Una variable aleatoria le asigna un número al resultado de un experimento aleatorio. En el caso de un proceso estocástico x(t), a cada posible resultado de un experimento aleatorio se le asigna una onda x(t,). x(t,) es una función de ejemplo (i.e. sample function), y el conjunto de todas las posibles funciones de ejemplo o implementaciones en el dominio del tiempo representan el proceso estocástico x(t). La Figura 6.17 muestra la relación entre el sample space de un experimento aleatorio y el conjunto de funciones de ejemplo (i.e. sample functions) de un proceso estocástico. Figura 6.17: Representación conceptual de un proceso estocástico Cada una de las posibles funciones ejemplo son funciones determinísticas. No hay nada aleatorio en dichas funciones. La aleatoriedad se encuentra en el evento o resultado del experimento que ocurra el cual a su vez define la función observada en el dominio del tiempo. La Figura 6.18a muestra cuatro posibles funciones que pueden representar ruido termal en un sistema electrónico. 21 Figura 6.18a: Cuatro posibles funciones ejemplo de un proceso estocástico Gaussiano La Figura 6.18c muestra un proceso estocástico binario en donde las funciones ejemplo corresponden a la secuencia de data aleatoria que representa un mensaje. Dichas secuencias de data binaria pueden representar texto, voz, imágenes, video, etc. Figura 6.18c: Cuatro posibles funciones ejemplo de un proceso estocástico binario 22 Ruido Blanco Gaussiano El término ruido blanco describe un proceso estocástico cuyo power spectral density es constante para toda frecuencia desde menos infinito hasta más infinito. La Figura 6.24 muestra el power spectral density y la autocorrelación del ruido blanco. Rn ( ) Gn ( f ) No ( ) 2 No / 2 f Figura 6.24: PSD y autocorrelación del ruido blanco El PSD constante es denotado como No/2. Esto es, Gx(f) = No 2 Si le aplicamos la transformada inversa de Fourier al power spectral density obtenemos la autocorrelación. Rx() = No () 2 Dada la relación inversa entre tiempo y frecuencia podemos observar cómo el power spectral density infinito se transforma en una autocorrelación que es cero siempre excepto en un instante cuando es cero. Una autocorrelación que es cero siempre excepto en un instante cuando es cero implica que no hay correlación entre muestras 23 adyacentes, no importa cuán cerca estén. Cada muestra tan sólo está correlacionada consigo misma (i.e. cuando es cero). Cuando el ruido blanco es también Gaussiano se le conoce como ruido blanco Gaussiano o white Gaussian noise o WGN. Para cualquier conjunto de instantes de tiempo t1, t2, t3, . . . , tn las muestras x(t1), x(t2), x(t3), . . . , x(tn) son variables aleatorias estadísticamente independientes. ¿De verdad existe el ruido blanco Gaussiano? Experimentalmente se ha podido confirmar que para frecuencias tan altas como 1,000 GHz el power spectral density del ruido blanco Gaussiano es constante. Sin embargo, la matemática nos demuestra que un verdadero ruido blanco Gaussiano no puede existir. Si existiera, entonces tendríamos que No 2 df , lo cual es imposible. Entonces, si no existe, ¿cómo y por qué lo usamos? Aunque el verdadero ruido blanco no existe, si dentro del ancho de banda de nuestro sistema el PDF permanece constante, entonces, como una muy válida aproximación que nos simplifica enormemente la matemática, podemos asumir que el ruido es blanco, y si el ruido es termal, también podemos asumir que es blanco y Gaussiano. Ejemplo: Ruido blanco con su two-sided spectral density No/2 para por un filtro ideal pasa baja con ancho de banda de W Hz. Haga un sketch o dibujo simple del power spectral density del ruido y calcule la potencia del ruido a la salida del filtro. Solución: 24 No/2 si | f | < W 2 Gy(f) = | H(f) | Gx(f) = 0 de lo contrario Esto es, Gy(f) = No 2 f ( 2W ) Figura 6.25: Ideal low pass filter output noise spectral density Sabemos que la autocorrelación es la transformada inversa de Fourier del power spectral density. Por lo tanto, Ry() = (2W) No sinc(2W) = NoW sinc(2W) 2 Py = Ry() = NoW ó Py = W W G y ( f )df = N No df = (2W) o = NoW 2 2 6.11.3 Ruido Blanco Gaussiano Filtrado Consideremos ahora el caso en donde ruido blanco Gaussiano pasa por un filtro no ideal con función de transferencia H(f). 25 El power spectral density del ruido a la salida del filtro está dado por la siguiente ecuación. Gy(f) = No | H(f) |2 2 La potencia promedio de ruido a la salida del filtro está definida por la siguiente ecuación. _______ 2 No y (t ) = G y ( f )df = 2 | H( f ) | 2 df = No | H ( f ) |2 df 0 En cambio, si el filtro fuera ideal con ancho de banda BN y ganancia | H(f) |max igual a la ganancia máxima del filtro no ideal con función de transferencia H(f), tal y como muestra la Figura 6.26, entonces la potencia promedio de ruido estaría dada por las ecuaciones que a continuación listamos. _______ 2 y (t ) = No (2 BN) | H ( f ) |2max = No BN | H ( f ) |2max 2 Nos gustaría calcular el ancho de banda equivalente BN que permite que a la salida del filtro tengamos la misma potencia de ruido que con el filtro no ideal H(f). Para ello establecemos la siguiente ecuación. 26 2 max No BN | H ( f ) | No = 2 | H( f ) | 2 df = No | H ( f ) |2 df 0 Ahora resolvemos por BN. | H( f ) | 2 BN = df 0 | H ( f )|2max A BN se le conoce como el noise-equivalent bandwidth del filtro ideal H(f). Ejemplo: Consideremos un filtro RC pasa baja con la siguiente función de transferencia H(f) = 1 1 j ( f / f 3dB ) 1 . Calcule el noise-equivalent bandwidth para 2RC y en donde f3dB = dicho filtro pasa baja. Solución: | H ( f ) | df = | 2 0 0 1 |2 df 1 j ( f / f 3dB ) Hagamos una sustitución de variables. Sea x = dx = 1 f 3dB df 1 f 3dB f 27 1 1 2 2 0 | H ( f ) | df = 0 | 1 j( f / f3dB ) | df = f3dB 0 | 1 jx | dx 2 1 dx 2 1 x 0 | H ( f ) | df = f3dB 2 0 Hagamos otra sustitución de variables. Sea x = tan. x2 + 1 = tan2 + 1 = sec2 dx = sec2d /2 1 0 | H ( f ) | df = f3dB 0 1 x 2 dx = f3dB 0 d 2 2 | H ( f ) | df = f3dB 0 En nuestro caso | H ( f ) |2max = max{| 2 1 |} = 1. El máximo 1 j ( f / f 3dB ) ocurre cuando f = 0 Hz. Finalmente obtenemos que | H( f ) | 2 BN = BN = f3dB 2 = df 0 | H ( f )|2max 1 = Hz 2( 2RC ) 4 RC 28 Fin del mini-tutorial sobre la teoría de probabilidades, distribución normal o Gaussiana, la función Q, y AWGN (additive white Gaussian noise). En lo próxima parte continuaremos con la presentación del material sobre comunicación digital.