Download Distribuciones de probabilidad clásicas y cuánticas File
Document related concepts
no text concepts found
Transcript
Guı́a: Distribuciones de Probabilidad Clásicas y Cuánticas para la Posición Teorı́a de la Dinámica de Reacciones Quı́micas José G. López, Gloria E. Moyano Instituto de Quı́mica Universidad de Antioquia Medellı́n, Colombia Resumen En esta guı́a se introduce el concepto de distribución de probabilidad y su aplicación en la mecánica clásica y cuántica. En particular, se investigan las distribuciones de probabilidad clásicas y cuánticas para el desplazamiento de un oscilador armónico de su posición de equilibrio, modelo que sirve como primera aproximación al estudio del movimiento vibracional de sistemas moleculares diatómicos. 1. 1.1. Distribuciones de probabilidad Distribuciones de probabilidad discretas Supongamos que tenemos una colección de n resultados discretos de una cantidad x. El promedio de los resultados se obtiene con la siguiente fórmula n 1X hxi = xi n i=1 Es posible que haya grupos de resultados que tengan el mismo valor xi , luego podemos multiplicar cada uno de estos valores por el número de resultados que tengan el valor xi . A esto lo llamamos frecuencia de resultados fi . La suma para calcular el promedio se extiende ahora sobre N resultados diferentes, PN i=1 fi xi hxi = n 1 (1) Esta ecuación puede escribirse como hxi = N X fi i=1 n xi = N X P (xi )xi (2) i=1 donde P (xi ) es la probabilidad de obtener el resultado xi en una medición. Para un experimento cualquiera en el que los resultados sean determinados de manera aleatoria, la colección de las probabilidades de todos los posibles resultados definen una distribución de probabilidad. Si la colección de las probabilidades constituye un conjunto discreto, la distribución se llama distribución de probabilidad discreta. Puesto que al realizar una medición de la variable discreta x, siempre habrá alguna probabilidad de que tenga algún valor xi , las probabilidades deben satisfacer la siguiente condición, denominada de normalización N X P (xi ) = 1 (3) i=1 La utilidad de tener una distribución de probabilidad es que ası́ como se puede obtener el valor promedio ó valor de expectación de la variable discreta x también se puede obtener el valor promedio de cualquier función de x hg(x)i = N X g(xi )P (xi ) (4) i=1 1.2. Distribuciones de probabilidad continuas La distribución de probabilidad que definimos para variables discretas puede escribirse como P (xi )∆xi , es decir, dividimos el espacio donde viven los valores xi en casillas centradas en xi y de ancho ∆xi = 1. Para el caso de una variable x que pueda tomar valores continuos tendremos por analogı́a P (xi )∆(xi ) → P (x)dx (5) donde dx es una casilla infinitesimalmente pequeña de medición de la variable x. La interpretación de P (x) será entonces P (x)dx es la probabilidad de que una medición de la variable x esté en el intervalo (x, x + dx). 2 La probabilidad de que una medición de x esté en el intervalo finito (a, b) está dada por Z b Prob(a ≤ x ≤ b) = P (x)dx (6) a Puesto que la variable debe tener un valor el intervalo −∞ ≤ x ≤ ∞, la condición de normalización de la distribución P (x) será Z ∞ P (x)dx = 1 (7) −∞ Al igual que en el caso de distribuciones de probabilidad discretas, la distribución de probabilidad nos permite obtener el valor promedio de cualquier función de x Z ∞ hg(x)i = g(x)P (x)dx (8) −∞ 1.2.1. Histograma de una distribución de probabilidad Una distribución de probabilidad continua puede aproximarse a partir de mediciones experimentales. El espacio donde x toma sus valores se puede dividir en casillas de amplitud finita razonable ∆x. El valor de ∆x se suele disminuir entre más datos se tenga. A cada valor de x medido experimentalmente se le asigna su casilla correspondiente y se cuenta el número de datos en cada casilla. A medida que aumenta el número de mediciones realizadas, la acumulación gradual de puntos en cada casilla se aproxima más y más a la distribución de probabilidad continua del sistema. Un gráfico de las casillas en x versus el número de datos presentes en cada casilla es el histograma correspondiente a la distribución de probabilidad. Estos son los pasos para obtener el histograma de un conjunto de datos: Encontrar el valor mı́nimo y máximo del conjunto de datos. Definir el número de casillas del histograma basado en la cantidad de datos. Determinar el tamaño de las casillas del histograma. Organizar los datos en las casillas y realizar el conteo de datos. Calcular el área total de histograma para propósitos de normalización. 3 2. Distribuciones de probabilidad clásicas La distribución de probabilidad para la posición de una partı́cula clásica de masa m y energı́a E, con posición y velocidad definidas y que se mueve en un potencial de una dimensión V (x) que confina a la partı́cula a una región especı́fica, puede determinarse a partir del movimiento periódico de la partı́cula entre los puntos clásicos de retorno en el potencial [1]. La cantidad de tiempo, dt, que la particula gasta en una pequeña región del espacio dx cerca al punto x está dada por la velocidad de la partı́cula, v(x) dt = dx v(x) (9) La probabilidad de encontrar a la partı́cula en esta pequeña región es el cociente de este tiempo sobre el tiempo total para que la partı́cula viaje desde un punto de retorno al otro, es decir, PCL (x)dx = Prob(x, x + dx) = dt 2 dx = τ /2 τ v(x) (10) ó PCL (x) = 2 1 τ v(x) (11) Puesto que la velocidad clásica está relacionada con la energı́a cinética por T (x) = mv(x)2 /2, podemos escribir 2 PCL (x) = τ r 2 m = 2T (x) τ r m 2(E − V (x)) (12) 2 Para p el caso de un oscilador armónico [1] tenemos que V (x) = kx /2 con τ = 2π m/k, luego PCL (x) = 1 1 p 2 π A − x2 donde A es la amplitud máxima de la oscilación. 4 (13) 3. Distribuciones de probabilidad cuánticas En mecánica cuántica el estado de un sistema en una dimensión está representado por una función de onda ψ(x, t). Esta función de onda se obtiene al resolver la ecuación de Schrödinger dependiente del tiempo para el sistema: i~ ∂ψ(x, t) ~2 ∂ 2 ψ(x, t) + V (x, t)ψ(x, t) =− ∂t 2m ∂x2 (14) La interpretación estándar de la solución de la ecuación de Schrödinger en una dimensión identifica a PQM (x, t) = |ψ(x, t)|2 = ψ ∗ (x, t)ψ(x, t) (15) como una densidad de probabilidad para mediciones de la posición, lo cual significa que P (x, t)dx es la probabilidad de medir la posición de una partı́cula descrita por ψ(x, t), a tiempo t, en la región (x, x + dx). Si el potencial es independiente del tiempo, la función de onda puede expresarse como ψ(x, t) = ψE (x)e−iEt/~ (16) donde ψE (x) satisface la ecuación de Schrödinger independiente del tiempo − ~2 d2 ψ (x) + V (x)ψE (x) = EψE (x) 2m dx2 E (17) La densidad de probabilidad en el espacio de posiciones se convierte entonces en: PQM (x) = |ψE (x)|2 (18) Para el caso de un oscilador armónico con potencial V (x) = kx2 /2, las funciones de onda que resultan de resolver la correspondiente ecuación de Schrödinger independiente del tiempo son 2 ψn (x) = Nn Hn (α1/2 x)e−αx /2 donde 5 n = 0, 1, 2, . . . (19) µ α= km ¶1/2 (20) ~2 la constante de normalización Nn es Nn = ³ α ´1/4 1 (2n n!)1/2 (21) π y Hn (α1/2 x) son polinomios denominados polinomios de Hermite. Estas funciones de onda sólo pueden obtenerse si la energı́a del oscilador está restringida a los siguientes valores cuantizados µ ¶ µ ¶ 1 1 En = ~ω n + = hν n + 2 2 n = 0, 1, 2, . . . (22) donde µ ω= k m ¶1/2 (23) y 1 ν= 2π µ k m ¶1/2 (24) El estado fundamental o de más baja energı́a de un oscilador armónico estará caracterizado entonces por ψ0 (x) = ³ α ´1/4 π 2 e−αx /2 (25) y 1 E0 = hν 2 (26) Por último, la densidad de probabilidad para la posición será PQM (x) = |ψ0 (x)|2 = 6 ³ α ´1/2 π 2 e−αx (27) 4. Lecturas Sugeridas 1. I. N. Levine Quantum Chemistry, 5 ed. (Prentice Hall, Upper Saddle River, NJ, 2000), Cap. 4 2. R. W. Robinett Quantum Mechanics, (Oxford University Press, New York, NY, 1997), Cap. 4 Referencias [1] R. W. Robinett, Am. J. Phys. 63, 823 (1995). 7