Download La hidrostática es la rama de la física que estudia los fluidos en
Document related concepts
Transcript
Física II 2007 Centro de Desarrollo Educativo [CDE] [Acuerdo No. MSB120051404 de Fecha 15 de Marzo 2005] [C.T. 14PBJ0076Z] 2 http://www.utea1.net http://www.mxgo.net Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis SECRETARÍA DE EDUCACIÓN JALISCO COORDINACIÓN DE EDUCACIÓN MEDIA SUPERIOR, SUPERIOR Y TECNOLÓGICA DIRECCIÓN GENERAL DE EDUCACIÓN MEDIA SUPERIOR DIRECCIÓN DEL BACHILLERATO EN LA MODALIDAD INTENSIVA SEMIESCOLARIZADA FÍSICA II DOCUMENTO BASE Guadalajara, Jalisco Febrero de 2008 3 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis SECRETARÍA DE EDUCACIÓN JALISCO FISICA II DIRECTORIO SECRETARIO DE EDUCACIÓN JALISCO LIC. MIGUEL ÁNGEL MARTÍNEZ ESPINOSA COORDINADOR DE EDUCACIÓN MEDIA SUPERIOR, SUPERIOR Y TECNOLÓGICA LIC. EDUARDO DÍAZ BECERRA DIRECCIÓN GENERAL DE EDUCACIÓN MEDIA SUPERIOR MTRO. JOSÉ MANUEL BARCELÓ MORENO DIRECCIÓN DEL BACHILLERATO EN LA MODALIDAD INTENSIVA SEMIESCOLARIZADA MTRA. DIMNA SILVIA GONZÁLEZ HERNÁNDEZ Academia: Porfirio Rafael Pérez Cisneros Jacobo Aguilar Martínez Luis Gil Coronado 4 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis UNIDAD I 1.1. Hidrostática Es la rama de la hidráulica que estudia las presiones y fuerzas producidas por un líquido en reposo y sus condiciones de equilibrio. Consideremos una porción de fluido en equilibrio de altura dy y de sección S(área), situada a una distancia y del fondo del recipiente que se toma como origen. Las fuerzas que mantienen en equilibrio a dicha porción de fluido son las siguientes: El peso, que es igual al producto de la densidad del fluido, por su volumen y por la intensidad de la gravedad, ( Sdy)g. pS (p+dp)S La condición de equilibrio establece que; ( Sdy)g+pS=(p+dp)S donde dp=− gdy Integrando esta ecuación entre los límites que se indican en la figura Si el punto B está en la superficie y el punto A está a una profundidad h. La ecuación anterior se escribe de forma más cómoda. Ahora, p0 es la presión en la superficie del fluido (la presión atmosférica) y p la presión a la profundidad h. p=p0+ gh 1.1.1. Concepto e importancia del estudio de la hidráulica y su división La hidráulica es una rama de la física y la ingeniería que se relaciona con el estudio de las propiedades mecánicas de los fluidos. Y se divide en hidrostática e hidrodinámica. Hidrostática es la parte de la Física que estudia a los fluidos en reposo. Se consideran fluidos tanto a los líquidos como a los gases, ya que un fluido es cualquier sustancia capaz de fluir. 5 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis La hidrodinámica es la parte de la física que estudia el movimiento de los fluidos. Este movimiento está definido por un campo vectorial de velocidades correspondientes a las partículas del fluido y de un campo escalar de presiones, correspondientes a los distintos puntos del mismo. Existen diversos tipos de fluidos: 1.1.2. Características de los líquidos Viscosidad Los líquidos presentan mucha mayor tendencia al flujo y tienen coeficientes de viscosidad mucho más altos. Los coeficientes de viscosidad de los líquidos disminuyen con la temperatura. En los líquidos la viscosidad aumenta si la presión se incremente. La mayoría de los métodos empleados para la medición de la viscosidad de los líquidos se basa en las ecuaciones de Poiseuille o de Stokes. La ecuación de Poiseuille para el coeficiente de viscosidad de líquidos es: donde V es el volumen del liquido de viscosidad que fluye en el tiempo t a través de un tubo capilar de radio r y la longitud L bajo una presión de P dinas por centímetro cuadrado. Se mide el tiempo de flujo de los líquidos, y puesto que las presiones son proporcionales a las densidades de los líquidos, se puede escribir como: Las cantidades t1 y t2 se miden más adecuadamente con un viscosímetro de Ostwald. Una cantidad definida de liquido se introduce en el viscosímetro sumergido en un termostato y luego se hace pasar por succión al bulbo B hasta que el nivel del liquido este sobre una marca a. Se deja escurrir el liquido el tiempo necesario para que su nivel descienda hasta una marca b y se mide con un cronometro. El viscosímetro se limpia, luego se añade el líquido de referencia y se repite la operación. Con este procedimiento se obtienen t1 y t2 y la viscosidad del líquido se calcula con la ecuación anterior. Tensión superficial En un líquido, cada molécula se desplaza siempre bajo influencia de sus moléculas vecinas. Una molécula cerca del centro del líquido, experimenta el efecto de que sus vecinas la atraen casi en la misma magnitud en todas direcciones. Sin embargo, una molécula en la superficie del líquido no esta completamente rodeado por otras y, como resultado, solo experimenta la atracción de aquellas moléculas que están por abajo y a los lados. Por lo tanto la tensión superficial actúa en un líquido perpendicular a cualquier línea de 1cm de longitud en la superficie del mismo. Para la tensión superficial tenemos lo siguiente: Donde: r = Radio del tubo capilar. h = Altura medida desde el nivel del líquido en el tubo de ensaye, hasta el nivel del líquido en el tubo capilar. g = Aceleración de la gravedad. = Angulo de contacto en el líquido con las paredes del tubo capilar. = Tensión superficial. 6 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Para los líquidos que mojan el vidrio, su ángulo de contacto se supone a 0°, y sacando el (cos 0°) es 1, por lo que la ecuación anterior se reduce a: Donde: = Es la diferencia de densidades que existe en el líquido y su vapor. Tensión superficial de los líquidos a 20 °C Líquido (10-3 N/m) Aceite de oliva 33.06 Agua 72.8 Alcohol etílico 22.8 Benceno 29.0 Glicerina 59.4 Petróleo 26.0 Fuente: Manual de Física, Koshkin N. I. , Shirkévich M. G.. Editorial Mir (1975). Fuerzas de cohesión Son las fuerzas existentes entre las moléculas de una determinada sustancia. En la siguiente figura podrás ver cómo pueden medirse estas fuerzas. Toda la materia está compuesta por átomos o moléculas iguales o diferentes. Las fuerzas que mantienen unidas entre sí las moléculas y los átomos son de tipo electrostático originadas por la carga eléctrica que poseen. Estas fuerzas de atracción disminuyen mucho con la distancia (Ley de Coulomb). Adherencia Se denomina a la fuerza de atracción entre las moléculas de distinta sustancia. En un fluido cada molécula interacciona con las que le rodean. El radio de acción de las fuerzas moleculares es relativamente pequeño, abarca a las moléculas vecinas más cercanas. Vamos a determinar de 7 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis forma cualitativa, la resultante de las fuerzas de interacción sobre una molécula que se encuentra en A, el interior del líquido B, en las proximidades de la superficie C, en la superficie Consideremos una molécula (en color rojo) en el seno de un líquido en equilibrio, alejada de la superficie libre tal como la A. Por simetría, la resultante de todas las fuerzas atractivas procedentes de las moléculas (en color azul) que la rodean, será nula. En cambio, si la molécula se encuentra en B, por existir en valor medio menos moléculas arriba que abajo, la molécula en cuestión estará sometida a una fuerza resultante dirigida hacia el interior del líquido. Si la molécula se encuentra en C, la resultante de las fuerzas de interacción es mayor que en el caso B. Las fuerzas de interacción, hacen que las moléculas situadas en las proximidades de la superficie libre de un fluido experimenten una fuerza dirigida hacia el interior del líquido. Como todo sistema mecánico tiende a adoptar espontáneamente el estado de más baja energía potencial, se comprende que los líquidos tengan tendencia a presentar al exterior la superficie más pequeña posible. Capilaridad Es la cualidad que posee una sustancia para absorber un líquido. Sucede cuando las fuerzas intermoleculares adhesivas entre el líquido y el sólido son mayores que las fuerzas intermoleculares cohesivas del líquido. Esto causa que el menisco tenga una forma cóncava cuando el líquido está en contacto con una superficie vertical. En el caso del tubo delgado, éste succiona un líquido incluso en contra de la fuerza de gravedad. Este es el mismo efecto que causa que los materiales porosos absorban líquidos. Efectos de Un aparato capilaridad es el tubo 8 capilaridad comúnmente empleado para demostrar la capilar; cuando la parte inferior de un tubo de Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis vidrio se coloca verticalmente, en contacto con un líquido como el agua, se forma un menisco cóncavo; la tensión superficial succiona la columna líquida hacia arriba hasta que el peso del líquido sea suficiente para que la fuerza de la gravedad se equilibre con las fuerzas intermoleculares. El peso de la columna líquida es proporcional al cuadrado del diámetro del tubo, por lo que un tubo angosto succionará el líquido más arriba que un tubo ancho. Así, un tubo de vidrio de 0,1 mm de diámetro levantará una columna de agua de 30 cm. Cuanto más pequeño es el diámetro del tubo capilar mayor será la presión capilar y la altura alcanzada. En capilares de 1 µm (micrómetro) de radio con una presión de succión 1,5*103 hPa (hectopascal = hPa = 1,5 atm), corresponde a una altura de columna de agua de 14 a 15 m. Dos placas de vidrio que están separadas por una película de agua de 1 µm (micrómetro) de espesor, se mantienen unidas por una presión de succión de 1,5 atm. Por ello se rompen los portaobjetos humedecidos al intentar separarlos. Entre algunos materiales, como el mercurio y el vidrio, las fuerzas intermoleculares del líquido exceden a las existentes entre el líquido y el sólido, por lo que se forma un menisco convexo y la capilaridad trabaja en sentido inverso. Las plantas, por capilaridad, succionar agua del terreno, aunque las plantas más grandes requieren de la transpiración para desplazar la cantidad necesaria de agua hasta las hojas, o allí donde se precise. La ley de Jurin define la altura que se alcanza cuando se equilibra el peso de la columna de líquido y la fuerza de ascensión por capilaridad. La altura h en metros de una columna líquida está dada por: h 2T cos gr donde: T = tensión superficial interfacial (N/m) θ = ángulo de contacto ρ = densidad del líquido (kg/m³) g = aceleración debido a la gravedad (m/s²) r = radio del tubo (m) Para un tubo de vidrio en el aire a nivel del mar y lleno de agua, T = 0,0728 N/m a 20 °C θ = 20° ρ = 1000 kg/m³ g = 9,80665 m/s² entonces la altura de la columna está dada por: h 1.4 x10 5 m 2 r 1.1.3. Peso específico y densidad Peso específico Es el peso por unidad de volumen de una sustancia, sus dimensiones en el sistema internacional son gf/cm3 Densidad Aunque toda la materia posee masa y volumen, la misma masa de sustancias diferentes tienen ocupan distintos volúmenes, así notamos que el hierro o el hormigón son pesados, mientras que 9 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis la misma cantidad de goma de borrar o plástico son ligeras. La propiedad que nos permite medir la ligereza o pesadez de una sustancia recibe el nombre de densidad. Cuanto mayor sea la densidad de un cuerpo, más pesado nos parecerá. La densidad se define como el cociente entre la masa de un cuerpo y el volumen que ocupa. Así, como en el S.I. la masa se mide en kilogramos (kg) y el volumen en metros cúbicos (m3) la densidad se medirá en kilogramos por metro cúbico (kg/m3). Esta unidad de medida, sin embargo, es muy poco usada, ya que es demasiado pequeña. Para el agua, por ejemplo, como un kilogramo ocupa un volumen de un litro, es decir, de 0,001 m3, la densidad será de: La mayoría de las sustancias tienen densidades similares a las del agua por lo que, de usar esta unidad, se estarían usando siempre números muy grandes. Para evitarlo, se suele emplear otra unidad de medida el gramo por centímetro cúbico (g/cm3.), de esta forma la densidad del agua será: Las medidas de la densidad quedan, en su mayor parte, ahora mucho más pequeñas y fáciles de usar. Además, para pasar de una unidad a otra basta con multiplicar o dividir por mil. Densidad de líquidos a 4°C La densidad de un cuerpo está relacionada con su flotabilidad, una sustancia flotará sobre otra si su densidad es menor. Por eso la madera flota sobre el agua y el plomo se hunde en ella, porque el plomo posee mayor densidad que el agua mientras que la densidad de la madera es menor, pero ambas sustancias se hundirán en la gasolina, de densidad más baja. La densidad es una característica de cada sustancia. Nos vamos a referir a líquidos y sólidos homogéneos. Su densidad, prácticamente, no cambia con la presión y la temperatura. Matemáticamente se pueden hacer proyecciones en los cálculos de la densidad de líquidos se puede calcular a partir de la siguiente ecuación en función de la temperatura, donde α, y , son constantes para cada líquido; ds = ds + 10-3 α t + 10-6 t2 + 10-9 t3 Ejemplo1. Densidad del Acetona a 22 °C; ds = 0.81248 + (10-3)(-1.1)(22 °C) + (10-6)(-0.858)(22 °C)2 + (10-9)(0)(22 °C)3 ds = 0.78786 g/ml Ejemplo 2. Densidad del Benceno a 22 °C ds = 0. 90005+ (10-3)(-1.0636)(22 °C) + (10-6)(-0.0376)(22 °C)2 +(10-9)(-2.213)(22 °C)3 ds = 0.87663 g/ml Ejemplo2. Densidad del alcohol Etílico a 22 °C 10 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis ds = 0.8014 + (10-3)(-0.809)(22 °C) + (10-6)(-0.27)(22 °C)2 + (10-9)(0)(22 °C)3 ds = 0.78347 g/ml 1.1.4. Presión El cociente entre la intensidad F de la fuerza aplicada perpendicularmente sobre una superficie dada y el área S de dicha superficie se denomina presión: La presión representa la intensidad de la fuerza que se ejerce sobre cada unidad de área de la superficie considerada. Cuanto mayor sea la fuerza que actúa sobre una superficie dada, mayor será la presión, y cuanto menor sea la superficie para una fuerza dada, mayor será entonces la presión resultante. El concepto de presión es muy general y por ello puede emplearse siempre que exista una fuerza actuando sobre una superficie. Sin embargo, su empleo resulta especialmente útil cuando el cuerpo o sistema sobre el que se ejercen las fuerzas es deformable. Los fluidos no tienen forma propia y constituyen el principal ejemplo de aquellos casos en los que es más adecuado utilizar el concepto de presión que el de fuerza. Cuando un fluido está contenido en un recipiente, ejerce una fuerza sobre sus paredes y, por tanto, puede hablarse también de presión. Si el fluido está en equilibrio las fuerzas sobre las paredes son perpendiculares a cada porción de superficie del recipiente, ya que de no serlo existirían componentes paralelas que provocarían el desplazamiento de la masa de fluido en contra de la hipótesis de equilibrio. La orientación de la superficie determina la dirección de la fuerza de presión, por lo que el cociente de ambas, que es precisamente la presión, resulta independiente de la dirección; se trata entonces de una magnitud escalar. En el SI la unidad de presión es el pascal, se representa por Pa y se define como la presión correspondiente a una fuerza de un newton de intensidad actuando perpendicularmente sobre una superficie plana de un metro cuadrado. 1 Pa equivale, por tanto, a 1 N/m2. La atmósfera (atm) se define como la presión que a 0 ºC ejercería el peso de una columna de mercurio de 76 cm de altura y 1 cm2 de sección sobre su base. Es posible calcular su equivalencia en N/m2 sabiendo que la densidad del mercurio es igual a 13,6 · 103 kg/m3 y recurriendo a las siguientes relaciones entre magnitudes: Peso (N) = masa (kg) · 9,8 m/s2 Masa = volumen · densidad, como el volumen del cilindro que forma la columna es igual a la superficie de la base por la altura, se tendrá: es decir: 1 atm = 1,013 · 105 Pa. Presión hidrostática Dado un fluido en equilibrio, donde todos sus puntos tienen idénticos valores de temperatura y otras propiedades, el valor de la presión que ejerce el peso del fluido sobre una superficie dada es: P gh siendo p la presión hidrostática, r la densidad del fluido, g la aceleración de la gravedad y h la altura de la superficie del fluido. Es decir, la presión hidrostática es independiente del líquido, y sólo es función de la altura que se considere. Por tanto, la diferencia de presión entre dos puntos A y B cualesquiera del fluido viene dada por la expresión: 11 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis PA PB g (hA hB ) gh La diferencia de presión hidrostática entre dos puntos de un fluido sólo depende de la diferencia de altura que existe entre ellos. Presión atmosférica En un gas, las moléculas están muy separadas, moviéndose a gran velocidad, chocando y rebotando caóticamente. Nuestro planeta está envuelto por una capa de gases a la que llamamos atmósfera, compuesta en su mayor parte por nitrógeno (78%) y oxígeno (21%). Las moléculas de aire activadas enérgicamente por el Sol no escapan al espacio porque el campo gravitatorio de la Tierra restringe su expansión. En los lugares más profundos de la atmósfera, es decir a nivel del mar, el aire es más denso, y a medida que subimos se va enrareciendo, hasta que se desvanece a unos 40 Km. de altura. La capa baja, la troposfera, presenta las condiciones necesarias para la vida y es donde se producen los fenómenos meteorológicos. Mide 11 Km. y contiene el 80 % del aire total de la atmósfera. La presión atmosférica ha sido determinada en más de un kilo por centímetro cuadrado de superficie pero, sin embargo, no lo notamos (motivo por el cual, por miles de años, los hombres consideraron al aire sin peso). La presión que la columna de aire de casi 40 km de altura (la atmósfera) ejerce sobre la superficie libre del mercurio es igual a la que ejerce la columna de 76 cm de mercurio (pa) , entonces: Patm= PHg hHg = 13,6 g/cm3 . 76cm = 1.033,6 g/cm2 = 101.293 N/m2 = 101.293 Pa Este valor, que corresponde a la presión atmosférica normal, se llama atmósfera (atm). También se acostumbra a dar la presión atmosférica en milímetros de mercurio (Torr) o en milibares (1mb = 0,75 Torr). 1 atm = 760 mm Hg = 760 Torr. La presión atmosférica varía según la altitud y también debido a los vientos y tormentas. Suele tomar valores entre 720 y 770 mm Hg. Una presión alta generalmente pronostica buen tiempo; y una baja presión atmosférica promete lo contrario. El aparato que permite medirla se llama barómetro. Presión Absoluta Es la presión de un fluido medido con referencia al vacío perfecto o cero absoluto. La presión absoluta es cero únicamente cuando no existe choque entre las moléculas lo que indica que la proporción de moléculas en estado gaseoso o la velocidad molecular es muy pequeña. Ester termino se creo debido a que la presión atmosférica varia con la altitud y muchas veces los diseños se hacen en otros países a diferentes altitudes sobre el nivel del mar por lo que un termino absoluto unifica criterios. La presión absoluta es: Presión Absoluta = Presión Manométrica + Presión Atmosférica Presión Manométrica Son normalmente las presiones superiores a la atmosférica, que se mide por medio de un elemento que se define la diferencia entre la presión que es desconocida y la presión atmosférica que existe, si el valor absoluto de la presión es constante y la presión atmosférica aumenta, la 12 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis presión manométrica disminuye; esta diferencia generalmente es pequeña mientras que en las mediciones de presiones superiores, dicha diferencia es insignificante, es evidente que el valor absoluto de la presión puede abstenerse adicionando el valor real de la presión atmosférica a la lectura del manómetro. 1.1.5. Principio de Pascal En física, el principio de Pascal o ley de Pascal, es una ley enunciada por el físico y matemático francés Blaise Pascal (1623-1662) que se resume en la frase: «el incremento de presión aplicado a una superficie de un fluido incompresible (líquido), contenido en un recipiente indeformable, se transmite con el mismo valor a cada una de las partes del mismo». El principio de Pascal puede comprobarse utilizando una esfera hueca, perforada en diferentes lugares y provista de un émbolo. Al llenar la esfera con agua y ejercer presión sobre ella mediante el embolo, se observa que el agua sale por todos los agujeros con la misma presión. El principio de Pascal puede ser interpretado como una consecuencia de la ecuación fundamental de la hidrostática y del carácter incompresible de los líquidos. En esta clase de fluidos la densidad es constante, de modo que de acuerdo con la ecuación P P0 gh si se aumenta la presión en la superficie libre, por ejemplo, la presión en el fondo ha de aumentar en la misma medida, ya que gh no varía al no hacerlo h. La prensa hidráulica constituye la aplicación fundamental del principio de Pascal y también un dispositivo que permite entender mejor su significado. Consiste, en esencia, en dos cilindros de diferente sección comunicados entre sí, y cuyo interior está completamente lleno de un líquido que puede ser agua o aceite. Dos émbolos de secciones diferentes se ajustan, respectivamente, en cada uno de los dos cilindros, de modo que estén en contacto con el líquido. Cuando sobre el émbolo de menor sección S1 se ejerce una fuerza F1 la presión p1 que se origina en el líquido en contacto con él se transmite íntegramente y de forma instantánea a todo el resto del líquido; por tanto, será igual a la presión p2 que ejerce el líquido sobre el émbolo de mayor sección S2, es decir: p1 = p2 y por tanto: Si la sección S2 es veinte veces mayor que la S1, la fuerza F1 aplicada sobre el émbolo pequeño se ve multiplicada por veinte en el émbolo grande. 1.1.6. Principio de Arquimedes El principio de Arquímedes es un principio físico que afirma que un cuerpo total o parcialmente sumergido en un fluido estático (e incompresible), será empujado con una fuerza igual al peso del volumen de fluido desplazado por dicho objeto. De este modo cuando un cuerpo está sumergido en el fluido se genera un empuje hidrostático resultante de las presiones sobre la superficie del cuerpo que actúa siempre hacia arriba a través del centro de gravedad del cuerpo y de valor igual al peso del fluido desplazado. Esta fuerza se mide en Newtons (en el SI) y su ecuación se describe como: Fy E mg ( f s )Vg Donde ρf y ρs son respectivamente la densidad del fluido y del sólido sumergido; V el volumen del cuerpo sumergido; y g la aceleración de la gravedad. . 1.2. Hidrodinámica 13 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis 1.2.1. Concepto de hidrodinámica La hidrodinámica es la parte de la física que estudia el movimiento de los fluidos. Este movimiento está definido por un campo vectorial de velocidades correspondientes a las partículas del fluido y de un campo escalar de presiones, correspondientes a los distintos puntos del mismo. Existen diversos tipos de fluidos: Flujo de fluidos a régimen permanente o intermitente: aquí se tiene en cuenta la velocidad de las partículas del fluido, ya sea esta cte. o no con respecto al tiempo Flujo de fluidos compresible o incompresible: se tiene en cuenta a la densidad, de forma que los gases son fácilmente compresibles, al contrario que los líquidos cuya densidad es prácticamente cte. en el tiempo. Flujo de fluidos viscoso o no viscoso: el viscoso es aquel que no fluye con facilidad teniendo una gran Viscosidad cero significa que el fluido fluye con total facilidad sin que haya disipación de energía. Los fluidos no viscosos incompresibles se denominan fluidos ideales. Flujo de fluidos rotaciones o irrotacional: es rotaciones cuando la partícula o parte del fluido presenta movimientos de rotación y traslación. Irrotacional es cuando el fluido no cumple las características anteriores. Los primeros experimentos cuidadosamente documentados del rozamiento en flujos de baja velocidad a través de tuberías fueron realizados independientemente por Poiseuille y por Gotthilf Heinrich Ludwig Hagen. El primer intento de incluir los efectos de la viscosidad en las ecuaciones matemáticas se debió a Navier e, independientemente, a Sir George Gabriel Stokes, quien perfeccionó las ecuaciones básicas para los fluidos viscosos incompresibles. Actualmente se las conoce como ecuaciones de Navier-Stokes, y son tan complejas que sólo se pueden aplicar a flujos sencillos. Uno de ellos es el de un fluido real que circula a través de una tubería recta. El teorema de Bernoulli no se puede aplicar aquí, porque parte de la energía mecánica total se disipa como consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo de la tubería. Las ecuaciones sugieren que, dados una tubería y un fluido determinados, esta caída de presión debería ser proporcional a la velocidad de flujo. Los experimentos demostraron que esto sólo era cierto para velocidades bajas; para velocidades mayores, la caída de presión era más bien proporcional al cuadrado de la velocidad. Este problema se resolvió cuando Reynolds demostró la existencia de dos tipos de flujo viscoso en tuberías. A velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo laminar), y los resultados experimentales coinciden con las predicciones analíticas. A velocidades más elevadas, surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo turbulento), en una forma que ni siquiera en la actualidad se puede predecir completamente. Reynolds también determinó que la transición del flujo laminar al turbulento era función de un único parámetro, que desde entonces se conoce como número de Reynolds. Si el número de Reynolds (que carece de dimensiones y es el producto de la velocidad, la densidad del fluido y el diámetro de la tubería dividido entre la viscosidad del fluido) es menor de 2.000, el flujo a través de la tubería es siempre laminar; cuando los valores son mayores a 3000 el flujo es turbulento. El concepto de número de Reynolds es esencial para gran parte de la moderna mecánica de fluidos. Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones calculadas, y su análisis depende de una combinación de datos experimentales y modelos matemáticos; gran parte de la investigación moderna en mecánica de fluidos está dedicada a una mejor formulación de la turbulencia. Puede observarse la transición del flujo laminar al turbulento y la complejidad del flujo turbulento cuando el humo de un cigarrillo asciende en aire muy tranquilo. Al principio, sube con un movimiento laminar a lo largo de líneas de corriente, pero al cabo de cierta distancia se hace inestable y se forma un sistema de remolinos entrelazados. Ecuación de Bernoulli para flujo real (con fricción) 14 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2 + H0 H0 = perdida de energía por rozamiento desde 1 hasta 2. 1.2.2. Gasto y ecuación de continuidad Gasto es la cantidad de fluido que pasa por determinado elemento en la unidad de tiempo. Normalmente se identifica con el flujo volumétrico o volumen que pasa por una área dada en la unidad de tiempo. Menos frecuentemente, se identifica con el flujo másico o masa que pasa por una área dada en la unidad de tiempo. La medición del caudal o gasto de agua que pasa por la sección transversal de un conducto (río, riachuelo, canal, tubería) de agua, se conoce como aforo o medición de caudales. Este caudal depende directamente del área de la sección transversal a la corriente y de la velocidad media del agua. La fórmula que representa este concepto es la siguiente: Q=AxV Donde: Q = Caudal o Gasto. A = Área de la sección transversal. V = Velocidad media del agua en el punto. La ecuación de continuidad es una ecuación de conservación de la masa. Su forma diferencial es: donde ρ es la densidad, t el tiempo y la velocidad del fluido. 1.2.3. Teorema de Bernoulli y sus aplicaciones Estos flujos cumplen el llamado teorema de Bernoulli, que afirma que la energía mecánica total de un flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una línea de corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre son paralelas a la dirección del flujo en cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las partículas individuales de fluido. El teorema de Bernoulli implica una relación entre los efectos de la presión, la velocidad y la gravedad, e indica que la velocidad aumenta cuando la presión disminuye. Este principio es importante para predecir la fuerza de sustentación de un ala en vuelo. 1) Ley de conservación de la masa en la dinámica de los fluidos: A1.v1 = A2.v2 = constante. Recordar que p = F/A y F = p.A Ecuación de Bernoulli: (principio de conservación de la energía) para flujo ideal (sin fricción). 15 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis P1 v1 v h1 P2 2 h2 2g 2g P = Presión por unidad de masa. g=Constate gravitacional h = Altura. v2 = Energía cinética. 2 2.1 Diferencia entre calor y temperatura. 2.1.1. Concepto de temperatura y su medición. La temperatura es una magnitud escalar que es una propiedad de todos los sistemas termodinámicos en equilibrio térmico (o sea que no presentan intercambio de calor entre sus partes).1 En la escala microscópica, la temperatura se define como el promedio de la energía de los movimientos de una partícula individual por grado de libertad. Se refiere a las nociones comunes de calor o frío, por lo general un objeto más "caliente" tendrá una temperatura mayor. En el caso de un sólido, los movimientos en cuestión resultan ser las vibraciones de las partículas en sus sitios dentro del sólido. En el caso de un gas ideal monoatómico se trata de los movimientos traslacionales de sus partículas (para los gases multiatómicos los movimientos rotacional y vibracional deben tomarse en cuenta también). Multitud de propiedades fisicoquímicas de los materiales o las sustancias varían en función de la temperatura a la que se encuentren, como por ejemplo su estado (gaseoso, líquido, sólido, plasma...), su volumen, la solubilidad, la presión de vapor o la conductividad eléctrica. Así mismo es uno de los factores que influyen en la velocidad a la que tienen lugar las reacciones químicas. La temperatura se mide con termómetros, los cuales pueden ser calibrados de acuerdo a una multitud de escalas que dan lugar a las unidades de medición de la temperatura. En el Sistema Internacional de Unidades, la unidad de temperatura es el kelvin. Sin embargo, fuera del ámbito científico el uso de otras escalas de temperatura es común el uso de la escala Celsius (o centígrada), y, en los países anglosajones, la escala Fahrenheit. También existe la escala Rankine (°R) que establece su punto de referencia en el mismo punto de la escala Kelvin, es la escala utilizada en el Sistema Inglés Absoluto. Una diferencia de temperatura de un kelvin equivale a una diferencia de un grado centígrado. Un termómetro debe alcanzar el equilibrio térmico antes de que su medición sea correcta. La temperatura es una propiedad física que ser refiere a las nociones comunes de frío o calor, sin embargo su significado formal en termodinámica es más complejo, a menudo el calor o el frío percibido por las personas tiene más que ver con la sensación térmica (ver más abajo), que con la temperatura real. Fundamentalmente, la temperatura es una propiedad que poseen los sistemas físicos a nivel macroscópico, la cual tiene una causa a nivel microscópico, que es la energía promedio por partícula. Al contrario de otras cantidades termodinámicas como el calor o la entropía, cuyas definiciones microscópicas son válidas muy lejos del equilibrio térmico, la temperatura sólo puede ser medida en el equilibrio, precisamente porque se define como un promedio. A medida que un sistema recibe calor, su temperatura se incrementa, e igualmente, a medida que pierde calor, su temperatura disminuye. Cuando no existe diferencia de temperatura entre dos sistemas, no habrá transferencia de calor entre ellos. Y cuando exista una diferencia de temperaturas, el calor tenderá a moverse del sistema con mayor temperatura al sistema con menor temperatura, hasta que se alcance el equilibrio térmico. Esta transferencia de calor puede darse a través de la conducción, convección o de la radiación o a través de combinaciones de ellas. 16 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis La temperatura está relacionada con la energía interna y con la entalpía de un sistema: a mayor temperatura mayores serán la energía interna y la entalpía del sistema. La temperatura es una propiedad intensiva, es decir que no depende del tamaño del sistema, sino que es una propiedad que le es inherente, ni en la cantidad de material de éste. Ley cero de la Termodinámica Antes de dar una definición formal de temperatura, es necesario entender el concepto de equilibrio térmico. Si dos partes de un sistema entran en contacto térmico es probable que ocurran cambios en las propiedades de ambas. Estos cambios se deben a la transferencia de calor entre las partes. Para que un sistema esté en equilibrio térmico debe llegar al punto en que ya no hay intercambio de calor entre sus partes, además ninguna de las propiedades que dependen de la temperatura debe variar. Una definición de temperatura se puede obtener de la Ley cero de la termodinámica, que establece que si dos sistemas A y B están en equilibrio térmico al mismo tiempo con un tercer sistema C entonces los sistemas A y B estarán en equilibrio térmico. Este es un hecho empírico más que un resultado teórico. Ya que tanto los sistemas A, B, y C están todos en equilibrio térmico, es razonable decir que comparten un valor común de alguna propiedad física. Llamamos a esta propiedad temperatura. 2.1.2. Concepto de calor y sus unidades de medida Calor En física, el calor es una forma de energía asociada al movimiento de los átomos, moléculas y otras partículas que forman la materia. El calor puede ser generado por reacciones químicas (como en la combustión), nucleares (como en la fusión nuclear de los átomos de hidrógeno que tienen lugar en el interior del Sol), disipación electromagnética (como en los hornos de microondas) o por disipación mecánica (fricción). Su concepto está ligado al Principio Cero de la Termodinámica, según el cual dos cuerpos en contacto intercambian energía hasta que su temperatura se equilibre. El calor puede ser transferido entre objetos por diferentes mecanismos, entre los que cabe reseñar la radiación, la conducción y la convección, aunque en la mayoría de los procesos reales todos los mecanismos anteriores se encuentran presentes en mayor o menor grado. El calor que puede intercambiar un cuerpo con su entorno depende del tipo de transformación que se efectúe sobre ese cuerpo y por tanto depende del camino. Los cuerpos no tienen calor, sino energía interna. El calor es la transferencia de parte de dicha energía interna (energía térmica) de un sistema a otro, con la condición de que estén a diferente temperatura. El científico en 1905 escoces Lord Ewan D.Mcgregor descubrio la constante del calor especifico en la ecuación de Q = m c (1cal/gºc) delta tº lo cual explica la utiliza con la escala Mcgregor descubierta en 1904 por su esposa Lady Emily Mcgregor ( 0ºC son 451ºm y 100 ºc son 4.51 ºm) Historia Hasta el siglo XIX se explicaba el efecto del calor en la variación de la temperatura de un cuerpo por medio de un fluido invisible llamado calórico. Este se producía cuando algo se quemaba y, además, que podía pasar de un cuerpo a otro. La teoría del calórico afirmaba que una sustancia con mayor temperatura que otra, necesariamente, poseía mayor cantidad de calórico. Benjamin Thompson y James Prescott Joule establecieron que el trabajo podía convertirse en calor o en un incremento de la energía térmica determinando que, simplemente, era otra forma de la energía. El calor es una energía de nivel bajo puesto que el trabajo se puede transformar íntegramente en calor, pero no al contrario, (Segundo principio de la termodinámica). 17 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Flujo calorífico El flujo calorífico se define como la cantidad de calor que se transfiere a través de una unidad de área por unidad de tiempo. La ley de conducción del calor, determina que el tiempo que tarda un flujo de calor a través de una superficie es también proporcional a la gradiente de temperatura. El calor siempre se transfiere entre 2 cuerpos de diferentes temperaturas y el flujo de calor siempre ocurre desde el cuerpo de mayor temperatura hacia el cuerpo de menor temperatura, ocurriendo la transferencia de calor hasta que ambos cuerpos se encuentren en equilibrio térmico, vale decir, a la misma temperatura. Unidades de medida Tradicionalmente, la cantidad de energía térmica intercambiada se mide en calorías, que es la cantidad de energía que hay que suministrar a un gramo de agua para elevar su temperatura de 14.5 a 15.5 grados celsius. El múltiplo más utilizado es la kilocaloría (kcal): De aquí se puede deducir el concepto calor específico de una sustancia, que se define como la energía necesaria para elevar la temperatura de un gramo de dicha sustancia un grado celsius, o bien el concepto capacidad calorífica, análogo al anterior pero para una masa de un mol de sustancia (en este caso es necesario conocer la estructura química de la misma). Joule, tras múltiples experimentaciones en las que el movimiento de unas palas, impulsadas.por un juego de pesas, se movían en el interior de un recipiente con agua, estableció el equivalente mecánico del calor, determinando el incremento de temperatura que se producía en el fluido como consecuencia de los rozamientos producidos por la agitación de las palas: El joule (J) es la unidad de energía en el Sistema Internacional de Unidades, (S.I.). El BTU, (o unidad térmica británica) es una medida para el calor muy usada en Estados Unidos y en muchos otros países de América. Se define como la cantidad de calor que se debe agregar a una libra de agua para aumentar su temperatura en un grado Fahrenheit, y equivale a 252 calorías. Calor específico de las sustancias. Calor Específico En la vida cotidiana se puede observar que, si se le entrega calor a dos cuerpos de la misma masa y la misma temperatura inicial, la temperatura final será distinta. Este factor que es característico de cada sistema, depende de la naturaleza del cuerpo, se llama calor específico, denotado por c y se define como la cantidad de calor que se le debe entregar a 1 gramo de sustancia para aumentar su temperatura en 1 grado Celsius. Matemáticamente, la definición de calor específico se expresa como: Las unidades de calor específico son: [c] = [c] = 18 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis De esta forma, y recordando la definición de caloría, se tiene que el calor específico del agua es aproximadamente: = 1,000 Calor Específico Molar El calor específico de una sustancia es un índice importante de su constitución molecular interna, y a menudo da información valiosa de los detalles de su ordenación molecular y de las fuerzas intermoleculares. En este sentido, con frecuencia es muy útil hablar de calor específico molar denotado por cm, y definido como la cantidad de energía necesaria para elevar la temperatura de un mol de una sustancia en 1 grado es decir, está definida por: donde n indica el la cantidad de moles en la sustancia presente. Capacidad Calórica La capacidad calórica de una sustancia es una magnitud que indica la mayor o menor dificultad que presenta dicha sustancia para experimentar cambios de temperatura bajo el suministro de calor. Se denota por C y se define como: C= Dado que: C = mc De igual forma se puede definir la capacidad calórica molar como: Cn = nc donde n indica el número de moles presente en la sustancia. Cambios de Fase En la naturaleza existen tres estados usuales de la materia: sólido, líquido y gaseoso. Al aplicarle calor a una sustancia, ésta puede cambiar de un estado a otro. A estos procesos se les conoce como Cambios de Fase. Los posibles cambios de fase son: de estado sólido a líquido, llamado fusión, de estado líquido a sólido, llamado solidificación, de estado líquido a gaseoso, llamado evaporación o vaporización, de estado gaseoso a líquido, llamado condensación, de estado sólido a gaseoso, llamado sublimación progresiva, y de estado gaseoso a sólido, llamado sublimación regresiva. Calor Latente Un cuerpo sólido puede estar en equilibrio térmico con un líquido o un gas a cualquier temperatura, o que un líquido y un gas pueden estar en equilibrio térmico entre sí, en una amplia gama de temperaturas, ya que se trata de sustancias diferentes. Pero lo que es menos evidente 19 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis es que dos fases o estados de agregación, distintas de una misma sustancia, puedan estar en equilibrio térmico entre sí en circunstancias apropiadas. Un sistema que consiste en formas sólida y líquida de determinada sustancia, a una presión constante dada, puede estar en equilibrio térmico, pero únicamente a una temperatura llamada punto de fusión simbolizado a veces como tf. A esta temperatura, se necesita cierta cantidad de calor para poder fundir cierta cantidad del material sólido, pero sin que haya un cambio significativo en su temperatura. A esta cantidad de energía se le llama calor de fusión, calor latente de fusión o entalpía de fusión, y varía según las diferentes sustancias. Se denota por L f. El calor de fusión representa la energía necesaria para deshacer la fase sólida que está estrechamente unida y convertirla en líquido. Para convertir líquido en sólido se necesita la misma cantidad de energía, por ellos el calor de fusión representa la energía necesaria para cambiar del estado sólido a líquido, y también para pasar del estado líquido a sólido. El calor de fusión se mide en: [Lf] = De manera similar, un líquido y un vapor de una misma sustancia pueden estar en equilibrio térmico a una temperatura llamada punto de ebullición simbolizado por te. El calor necesario para evaporar una sustancia en estado líquido ( o condensar una sustancia en estado de vapor ) se llama calor de ebullición o calor latente de ebullición o entalpía de ebullición, y se mide en las mismas unidades que el calor latente de fusión. Se denota por Le. En la siguiente tabla se muestran algunos valores de los puntos de fusión y ebullición y entalpías de algunas sustancias: sustancias tf [°C] Lf [cal/g] te [°C] Le [cal/g] H20 0,00 79,71 100,00 539,60 O2 -219,00 3,30 -182,90 50,90 Hg -39,00 2,82 357,00 65,00 Cu 1083,00 42,00 2566,90 2.1.3. Mecanismos de transferencia de calor Propagación del calor El calor puede ser transmitido de distintas formas: por conducción, por convección o por radiación. 20 La conducción es el proceso que se produce por contacto térmico entre dos cuerpos, debido al contacto directo entre las partículas individuales de los cuerpos que están a diferentes temperaturas, lo que produce que las partículas lleguen al equilibrio térmico. La convección sólo se produce en fluidos, ya que implica movimiento de volúmenes de fluido de regiones que están a una temperatura, a regiones que Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis están a otra temperatura. El transporte de calor está inseparablemente ligado al movimiento del propio medio. La radiación térmica es el proceso por el cual se transmite a través de ondas electromagnéticas. Implica doble transformación de la energía para llegar al cuerpo al que se va a propagar: primero de energía térmica a radiante y luego viceversa. Observaciones: La conducción pura se presenta sólo en materiales sólidos. La convección siempre está acompañada de la conducción, debido al contacto directo entre partículas de distinta temperatura en un líquido o gas en movimiento. En el caso de la conducción, la temperatura de calentamiento depende del tipo de material, de la sección del cuerpo y del largo del cuerpo. Esto explica porqué algunos cuerpos se calientan más rápido que otros a pesar de tener exactamente la misma forma, y que se les entregue la misma cantidad de calor. La conductividad térmica de un cuerpo está dado por: donde Q es el calor entregado, Δt es el intervalo de tiempo durante el cual se entrego calor, A es la sección del cuerpo, L es el largo, y ΔT es el incremento en la temperatura. Medida experimental del calor Para determinar, de manera directa, el calor que se pone de manifiesto en un proceso de laboratorio, se suele emplear un calorímetro. En esencia, se trata de un recipiente que contiene el líquido en el que se va a estudiar la variación de energía por transferencia de calor y cuyas paredes y tapa (supuestamente adiabáticas) deben aislarlo, al máximo, del exterior. Un termo de paredes dobles de vidrio, cuyas superficies han sido previamente metalizadas por deposición y que presenta un espacio vacío entre ellas es, en principio, un calorímetro aceptable para una medida aproximada de la transferencia de calor que se manifiesta en una transformación tan sencilla como esta. El termo se llama vaso Dewar y lleva el nombre del físico y químico escocés James Dewar pionero en el estudio de las bajas temperaturas. En la tapa aislante suele haber un par de orificios para introducir un termómetro, con el que se evaluaría el incremento (o decremento) de la temperatura interior del líquido, y un agitador para tratar de alcanzar el equilibrio térmico en su interior, lo más rápido posible, usando un sencillo mecanismo de conveccón forzada. No sólo el líquido contenido en el calorímetro absorbe calor, también lo absorbe las paredes del calorímetro. Lo mismo sucede cuando pierde calor. Esta intervención del calorímetro en el proceso se representa por su equivalente en agua. La presencia de esas paredes, no ideales, equivale a añadir al líquido que contiene, los gramos de agua que asignamos a la influencia del calorímetro y que llamamos "equivalente en agua". El "equivalente en agua" viene a ser "la cantidad de agua que absorbe o desprende el mismo calor que el calorímetro". Ley de Fourier 21 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Los mecanismos de transferencia de energía térmica son de tres tipos: Conducción Convección Radiación La transferencia de energía o calor entre dos cuerpos diferentes por conducción o convección requieren el contacto directo de las moléculas de diferentes cuerpos, y se diferencian en que en la primera no existe movimiento macroscópico de materia mientras que en la segunda sí hay movimiento macroscópico. Para la materia ordinaria la conducción y la convección son los mecanismos principales en la "materia fría", ya que la transferencia de energía térmica por radiación sólo representa una parte minúscula de la energía transferida. La transferencia de energía por radiación aumenta con la potencia cuarta de la temperatura (T4), siendo sólo una parte importante a partir de temperaturas superiores a varios miles de Kelvin. Ley de Fourier. Es la forma de transmitir el calor en cuerpos sólidos; se calienta un cuerpo, las moléculas que reciben directamente el calor aumentan su vibración y chocan con las que las rodean; estas a su vez hacen lo mismo con sus vecinas hasta que todas las moléculas del cuerpo se agitan, por esta razón, si el extremo de una varilla metálica se calienta con una flama, transcurre cierto tiempo hasta que el calor llega al otro extremo. El calor no se transmite con la misma facilidad por todos los cuerpos. Existen los denominados "buenos conductores del calor", que son aquellos materiales que permiten el paso del calor a través de ellos. Los "malos conductores o aislantes" son los que oponen mucha resistencia al paso del calor. La conducción térmica está determinada por la ley de Fourier. Establece que la tasa de transferencia de calor por conducción en una dirección dada, es proporcional al área normal a la dirección del flujo de calor y al gradiente de temperatura en esa dirección. donde Qx es la tasa de flujo de calor que atraviesa el área A en la dirección x, la constante de proporcionalidad λ se llama conductividad térmica, T es la temperatura y t el tiempo. Convección La convección es una de las tres formas de transferencia de calor y se caracteriza porque se produce por intermedio de un fluido (aire, agua) que transporta el calor entre zonas con diferentes temperaturas. La convección se produce únicamente por medio de materiales fluidos. Éstos, al calentarse, aumentan de volumen y, por lo tanto, disminuyen su densidad y ascienden desplazando el fluido que se encuentra en la parte superior y que está a menor temperatura. Lo que se llama convección en sí, es el transporte de calor por medio de las corrientes ascendente y descendente del fluido. 22 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis La transferencia de calor implica el transporte de calor en un volumen y la mezcla de elementos macroscópicos de porciones calientes y frías de un gas o un líquido. Se incluye también el intercambio de energía entre una superficie sólida y un fluido o por medio de una bomba, un ventilador u otro dispositivo mecánico (convección mecánica o asistida). En la transferencia de calor libre o natural en la cual un fluido es más caliente o más frío y en contacto con una superficie sólida, causa una circulación debido a las diferencias de densidades que resultan del gradiente de temperaturas en el fluido. La transferencia de calor por convección se expresa con la Ley del Enfriamiento de Newton: Donde h es el coeficiente de convección (ó coeficiente de película), As es el área del cuerpo en contacto con el fluido, Ts es la temperatura en la superficie del cuerpo y fluido lejos del cuerpo. es la temperatura del El ciclo hidrológico También se denomina ciclo hidrológico al recorrido del agua en la Atmósfera por la capacidad que tiene el agua de absorber calor y cederlo gracias a la capacidad que tiene de transformarse de un estado físico a otro. A grandes rasgos, el ciclo hidrológico funciona de la siguiente manera: los rayos solares calientan las aguas marinas y terrestres las cuales, al absorber ese calor, pasan del estado líquido al gaseoso en forma de vapor de agua. El vapor asciende hasta cierta altura y al hacerlo, pierde calor, se condensa y forma las nubes, que están constituidas por gotas de agua muy pequeñas que se mantienen en suspensión a determinada altura. Cuando esta condensación se acelera, por el propio ascenso de la masa de nubes (convección), se forman nubes de mayor desarrollo vertical, con lo que las gotas aumentan de tamaño y forman las precipitaciones, que pueden ser tanto sólidas (nieve, granizo) como acuosas (lluvia), dependiendo de la temperatura. Estas precipitaciones pueden caer tanto en el mar como en las tierras emergidas. Por último, parte del agua que se precipita en los continentes e islas pasa de nuevo a la atmósfera por evaporación o produce corrientes fluviales que llevan de nuevo gran parte de las aguas terrestres a los mares y océanos, con lo que se cierra el ciclo, el cual vuelve a repetirse. Características de la convección La convección en la atmósfera terrestre involucra la transferencia de enormes cantidades del calor absorbido por el agua. Forma nubes de gran desarrollo vertical (por ejemplo, cúmulos congestus y, sobre todo, cumulonimbos, que son los tipos de nubes que alcanzan mayor desarrollo vertical). Estas nubes son las típicas portadoras de tormentas eléctricas y de grandes chaparrones. Al alcanzar una altura muy grande (por ejemplo, unos 12 o 14 km y enfriarse violentamente, pueden producir tormentas de granizo, ya que las gotas de lluvia se van congelando al ascender violentamente y luego se precipitan al suelo ya en estado sólido. Pueden tener forma de un hongo asimétrico de gran tamaño; y a veces suele formarse en este tipo de nubes, una estela que semeja una especie de yunque (anvil's head, como se conoce en inglés). Radiación térmica Radiación térmica es la radiación emitida por un cuerpo como consecuencia de su temperatura y depende además de una propiedad superficial denominada emitancia. Todo cuerpo emite radiación hacia su entorno y absorbe radiación de éste. La radiación infrarroja de un radiador hogareño común o de un calefactor eléctrico es un ejemplo de radiación térmica, al igual que la luz emitida por una lámpara incandescente. La radiación térmica se produce cuando el calor del movimiento de partículas cargadas dentro de los átomos se convierte en radiación electromagnética. La materia en un estado condensado (sólido o líquido) emite un espectro de radiación continuo. La frecuencia de onda emitida por radiación térmica es una densidad de probabilidad que depende solo de la temperatura. 23 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Todos los cuerpos negros a una temperatura determinada emiten radiación térmica con el mismo espectro, independientemente de los detalles de su composición. Para el caso de un cuerpo negro, la función de densidad de probabilidad de la frecuencia de onda emitida está dada por la ley de radiación térmica de Planck, la ley de Wien da la frecuencia de radiación emitida más probable y la ley de Stefan-Boltzmann da el total de energía emitida por unidad de tiempo y superficie emisora. Esta energía depende de la cuarta potencia de la temperatura absoluta. A temperatura ambiente, vemos los cuerpos por la luz que reflejan, dado que por sí mismos no emiten luz. Si no se hace incidir luz sobre ellos, si no se los ilumina, no podemos verlos. A temperaturas más altas, vemos los cuerpos porque por la luz que emiten, pues en este caso son luminosos por sí mismos. Así, es posible determinar la temperatura de un cuerpo de acuerdo a su color, pues un cuerpo que es capaz de emitir luz se encuentra a altas temperaturas. La relación entre la temperatura de un cuerpo y el espectro de frecuencias de su radiación emitida se utiliza en los pirómetros ópticos. Ejemplos de radiación térmica La aplicación de la Ley de Planck al Sol con una temperatura superficial de unos 6000 K nos lleva a que el 99% de la radiación emitida está entre las longitudes de onda 0,15 μm (micrómetros o micras) y 4 micras y su máximo, dado por la ley de Wien, ocurre a 0,475 micras. Como 1 Å = 10-10 m = 10-4 micras resulta que el Sol emite en un rango de 1500 Å hasta 40000 Å y el máximo ocurre a 4750 Å. La luz visible se extiende desde 4000 Å a 7400 Å. La radiación ultravioleta u ondas cortas irían desde los 1500 Å a los 4000 Å y la radiación infrarroja o radiación térmica u ondas largas desde las 0,74 micras a 4 micras. La aplicación de la Ley de Planck a la Tierra con una temperatura superficial de unos 288 K (15ºC) nos lleva a que el 99% de la radiación emitida está entre las longitudes de onda 3 μm (micrómetros o micras) y 80 micras y su máximo ocurre a 10 micras. La estratosfera de la Tierra con una temperatura entre 210 y 220 K radia entre 4 y 120 micras con un máximo a las 14,5 micras. Por tanto la Tierra sólo emite radiación infrarroja o térmica. 2.1.4 Dilatación de los cuerpos, lineal, superficial y volumétrica. Coeficiente de dilatación Se denomina coeficiente de dilatación al cociente que mide el cambio relativo de longitud o volumen que se produce cuando un cuerpo sólido o un fluido dentro de un recipiente experimenta un cambio de temperatura experimentando una dilatación térmica. De forma general, durante una transferencia de calor, la energía que está almacenada en los enlaces intermoleculares entre 2 átomos cambia. Cuando la energía almacenada aumenta, también lo hace la longitud de estos enlaces. Así, los sólidos normalmente* se expanden al calentarse y se contraen al enfriarse; este comportamiento de respuesta ante la temperatura se expresa mediante el coeficiente de dilatación térmica (unidades: ºC-1): esto no ocurre para todos los sólidos: el ejemplo más típico que no lo cumple es el hielo. Sólidos Para sólidos, el tipo de coeficiente de dilatación más comúnmente usado es el coeficiente de dilatación lineal αL. Para una dimensión lineal cualquiera, se puede medir experimentalmente comparando el valor de dicha magnitud antes y después de cierto cambio de temperatura, como: 24 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Puede ser usada para abreviar este coeficiente, tanto la letra griega alfa como la letra lambda . Gases y líquidos En gases y líquidos es más común usar el coeficiente de dilatación volumétrico αV, que viene dado por la expresión: Para sólidos, también puede medirse la dilatación térmica, aunque resulta menos importante en la mayoría de aplicaciones técnicas. Para la mayoría de sólidos en las situaciones prácticas de interés, el coeficiente de dilatación volumétrico resulta ser más o menos el triple del coeficiente de dilatación lineal: Aplicaciones El conocimiento del coeficiente de dilatación (lineal) adquiere una gran importancia técnica en muchas áreas del diseño industrial. Un buen ejemplo son los rieles del ferrocarril; estos van soldados unos con otros, por lo que pueden llegar a tener una longitud de varios centenares de metros. Si la temperatura aumenta mucho la vía férrea se desplazaría por efecto de la dilatación, deformando completamente el trazado. Para evitar esto, se estira el carril artificialmente, tantos centímetros como si fuese una dilatación natural y se corta el sobrante, para volver a soldarlo. A este proceso se le conoce como neutralización de tensiones. Para ello, cogeremos la temperatura media en la zona y le restaremos la que tengamos en ese momento en el carril; el resultado lo multiplicaremos por el coeficiente de dilatación del acero y por la longitud de la vía a neutralizar. Valores del coeficiente de dilatación lineal Algunos coeficientes de dilatación Material α ( ° C-1 ) Hormigón ~ 1.0 x 10-5 Hierro, acero 1.2 x 10-5 Plata 2.0 x 10-5 Oro 1.5 x 10-5 Invar 0.04 x 10-5 Plomo 3.0 x 10-5 Zinc 2.6 x 10-5 Aluminio 2.4 x 10-5 Latón 1.8 x 10-5 25 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Cobre 1.7 x 10-5 Vidrio ~ 0.7 x 10-5 Cuarzo 0.04 x 10-5 Hielo 5.1 x 10-5 Escalas de temperatura Lo que se necesita para construir un termómetro son puntos fijos, es decir, procesos en los cuales la temperatura permanece constante. Ejemplos de procesos de este tipo son el proceso de ebullición y el proceso de fusión. Los puntos generalmente utilizados son el proceso de ebullición y de solidificación de alguna sustancia, durante los cuales la temperatura permanece constante. Existen varias escalas para medir temperaturas, las más importantes son la escala Celsius, la escala Kelvin y la escala Fahrenheit. Escala Celsius Para esta escala, se toman como puntos fijos, los puntos de ebullición y de solidificación del agua, a los cuales se les asignan los valores de 100 y 0 respectivamente. En esta escala, estos valores se escriben como 100° y 0°. Esta unidad de medida se lee grado Celsius y se denota por [°C]. El grado Celsius, representado como °C, es la unidad creada por Anders Celsius para su escala de temperatura. Se tomó como base para el Kelvin y es la unidad de temperatura más utilizada internacionalmente. A partir de su creación en 1750 fue denominado grado centígrado (se escribía °c, en minúscula). Pero en 1948 se decidió el cambio en la denominación oficial para evitar confusiones con la unidad de ángulo también denominada grado centígrado (grado geométrico), aunque la denominación previa se sigue empleando extensamente en el uso coloquial. Hasta 1954 se definió asignando el valor 0 a la temperatura de congelación del agua, el valor 100 a la de temperatura de ebullición —ambas medidas a una atmósfera de presión— y dividiendo la escala resultante en 100 partes iguales, cada una de ellas definida como 1 grado. Estos valores de referencia son muy aproximados pero no correctos por lo que, a partir de 1954, se define asignando el valor 0,01 °C a la temperatura del punto triple del agua y definiendo 1 °C como la fracción 1/273,16 de la diferencia con el cero absoluto. Conversión de unidades [editar] La magnitud de un grado Celsius (1 °C) es equivalente a la magnitud de un Kelvin (1 K), puesto que esta unidad se define como igual a la primera. Sin embargo, las escalas son diferentes porque la escala Kelvin toma como valor 0 el cero absoluto. Dado que al cero absoluto corresponde un valor de -273,15 °C, la temperatura expresada en °C y K difiere en 273,15 unidades: • La conversión de grados Celsius a grados Fahrenheit se obtiene multiplicando la temperatura en Celsius por 1,8 (9/5) y sumando 32: • Para convertir Fahrenheit a Celsius: • Escala Kelvin o absoluta En este caso, la escala fue establecida en base a la escala Celsius, donde el valor de 0° corresponde al cero absoluto, temperatura en la cual las moléculas y átomos de un sistema tienen la mínima energía térmica posible. Ningún sistema macroscópico puede tener una temperatura inferior. En escala Celsius esta temperatura corresponde a -273°C. Esta unidad de medida se lee Kelvin y se denota por [K]. Esta unidad se llama también Escala Absoluta y es también la unidad adoptada por el Sistema Internacional de Unidades. Dado que 0[K] corresponden a -273[°C], se puede hallar una fórmula de conversión, entre la escala Celsius y la escala Kelvin, de la siguiente forma: T = tc + 273° donde la letra T representa la temperatura en Kelvin y la letra t c representa la temperatura en grados Celsius. 26 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Escala Fahrenheit En esta escala también se utilizaron puntos fijos para construirla, pero en este caso fueron los puntos de solidificación y de ebullición del cloruro amónico en agua. Estos puntos se marcaron con los valores de 0 y 100 respectivamente. La unidad de esta escala se llama grado Fahrenheit y se denota por [°F]. Dado que en escala Celsius, los valores de 0[°C] y 100[°C] corresponden respectivamente a 32[°F] y 212[°F] respectivamente, la fórmula de conversión de grados Celsius a Fahrenheit es: tf = tc + 32° aquí el símbolo tf representa la temperatura en grados Fahrenheit y el símbolo t c representa la temperatura en grados Celsius. Sistema y ambiente En el estudio de la Termodinámica la atención está dirigida al interior de un sistema, aunque se adopte un punto de vista macroscópico, sólo se consideran aquellas magnitudes de este tipo que tienen relación con el estado interno del sistema. Para poder entender las magnitudes involucradas en este tema, se hace necesario definir los conceptos de sistema y estado de un sistema. Sistema Se puede definir un sistema como un conjunto de materia, que está limitado por una superficie, que le pone el observador, real o imaginaria. Si en el sistema no entra ni sale materia, se dice que se trata de un sistema cerrado, o sistema aislado si no hay intercambio de materia y energía, dependiendo del caso. En la naturaleza, encontrar un sistema extrictamente aislado es, por lo que sabemos, imposible, pero podemos hacer aproximaciones. Un sistema del que sale y/o entra materia, recibe el nombre de abierto. Ponemos unos ejemplos: Un sistema abierto: es por ejemplo, un coche. Le echamos combustible y él desprende diferentes gases y calor. Un sistema cerrado: un reloj de cuerda,no introducimos ni sacamos materia de él. Solo precisa un aporte de energía que emplea para medir el tiempo. Un sistema aislado:¿Cómo encontrarlo si no podemos interactuar con él?. Sin embargo un termo lleno de comida caliente es una aproximación, ya que el envase no permite el intercambio de materia e intenta impedir que la energía (calor)salga de él. Medio externo Se llama medio externo o ambiente a todo aquello que no está en el sistema pero que puede influir en él. Por ejemplo, consideremos una taza con agua, que está siendo calentada por un mechero. Consideremos un sistema formado por la taza y el agua, entonces el medio está formado por el mechero, el aire, etc. 2.1.7. Calor cedido y absorbido por los cuerpos. Equilibrio térmico Toda sustancia por encima de los 0º Kelvin (-273.15º Centígrados)emite calor. Si 2 sustancias en contacto se encuentran a diferente temperatura, una de ellas emitirá más calor y calentará a la más fría. El equilibrio térmico se alcanza cuando ambas emiten, y reciben la misma cantidad de calor, lo que iguala su temperatura. 27 Nota: estrictamente sería la misma cantidad de calor por gramo, ya que una mayor cantidad de sustancia emite más calor a la misma temperatura. Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Variables termodinámicas Las variables que tienen relación con el estado interno de un sistema, se llaman variables termodinámicas o coordenadas termodinámicas, y entre ellas las más importantes en el estudio de la termodinámica son: la masa el volumen la densidad la presión la temperatura Estado de un sistema Un sistema que puede describirse en función de coordenadas termodinámicas se llama sistema termodinámico y la situación en la que se encuentra definido por dichas coordenadas se llama estado del sistema. Equilibrio térmico Un estado en el cual dos coordenadas termodinámicas independientes X e Y permanecen constantes mientras no se modifican las condiciones externas se dice que se encuentra en equilibrio térmico. Si dos sistemas se encuentran en equilibrio térmico se dice que tienen la misma temperatura. Entonces se puede definir la temperatura como una propiedad que permite determinar si un sistema se encuentra o no en equilibrio térmico con otro sistema. El equilibrio térmico se presenta cuando dos cuerpos con temperaturas diferentes se ponen en contacto, y el que tiene mayor temperatura cede calor al que tiene mas baja, hasta que ambos alcanzan la misma temperatura. Algunas definiciones útiles en termodinámica son las siguientes. Foco térmico Un foco térmico es un sistema que puede entregar y/o recibir calor, pero sin cambiar su temperatura. Contacto térmico Se dice que dos sistema están en contacto térmico cuando puede haber transferencia de calor de un sistema a otro. Procesos termodinámicos Se dice que un sistema pasa por un proceso termodinámico, o transformación termodinámica, cuando al menos una de las coordenadas termodinámicas no cambia. Los procesos más importantes son: Procesos isotérmicos: son procesos en los que la temperatura no cambia. Procesos Isobáricos: son procesos en los cuales la presión no varía. Procesos Isócoros: son procesos en los que el volumen permanece constante. Procesos adiabáticos: son procesos en los que no hay transferencia de calor alguna. Por ejemplo, dentro de un termo donde se echan agua caliente y cubos de hielo, ocurre un proceso adiabático, ya que el agua caliente se empezará a enfriar debido al hielo, y al mismo tiempo el hielo se empezará a derretir hasta que ambos estén en equilibrio térmico, sin embargo no hubo transferencia de calor del exterior del termo al interior por lo que se trata de un proceso adiabático. Rendimiento termodinámico o eficiencia 28 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Un concepto importante en la ingeniería térmica es el de rendimiento. El rendimiento de una máquina térmica se define como: donde, dependiendo del tipo de máquina térmica, estas energías serán el calor o el trabajo que se transfieran en determinados subsistemas de la máquina. Carnot demostró que el rendimiento de un tipo de máquina (a las que en la actualidad se denotan con su nombre) que tuviese la máxima eficiencia posible y que operase entre dos termostatos (focos con temperatura constante), dependería sólo de las temperaturas de dichos focos. Por ejemplo, el rendimiento para un motor térmico de Carnot viene dado por: donde Tc y Th son las temperaturas del termostato frío y del termostato caliente, respectivamente, medidas en Kelvin. Este rendimiento máximo es el correspondiente al de una máquina térmica reversible, la cual es sólo una idealización, por lo que cualquier máquina térmica construida tendrá un rendimiento menor que el de una máquina reversible operando entre los mismos focos. Lo cual constituye el teorema de Carnot. Dilatación térmica La dilatación térmica corresponde al efecto de que las sustancias se "agrandan" al aumentar la temperatura. En objetos sólidos, la dilatación térmica produce un cambio en las dimensiones lineales de un cuerpo, mientras que en el caso de líquidos y gases, que no tienen forma permanente, la dilatación térmica se manifiesta en un cambio en su volumen. Dilatación lineal Consideremos primero la dilatación térmica de un objeto sólido, cuyas dimensiones lineales se pueden representar por l0 , y que se dilata en una cantidad ΔL. Experimentalmente se ha encontrado que para casi todas las sustancias y dentro de los límites de variación normales de la temperatura, la dilatación lineal ΔL es directamente proporcional al tamaño inicial l0 y al cambio en la temperatura Δt, es decir: = donde [°C]-1. = . se llama coeficiente de dilatación lineal, cuya unidad es el recíproco del grado, es decir Dilatación superficial Es el mismo concepto que el de dilatación lineal salvo que se aplica a cuerpos a los que es aceptable y preferible considerarl como regiones planas; por ejemplo, una plancha metálica. Al serle transmitida cierta cantidad de calor la supeperficie del objeto sufrirá un incremento de área: ΔA. = = . donde γ se llama coeficiente de dilatación superficial. Dilatación volumétrica La dilatación térmica de un líquido o un gas se observa como un cambio de volumen ΔV en una cantidad de sustancia de volumen V0, relacionado con un cambio de temperatura Δt. En este 29 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis caso, la variación de volumen ΔV es directamente proporcional al volumen inicial V0 y al cambio de temperatura Δt, para la mayor parte de las sustancias y dentro de los límites de variación normalmente accesibles de la temperatura, es decir: = = . donde β se llama coeficiente de dilatación volumétrica, medida en la misma unidad que el coeficiente de dilatación lineal. Se puede demostrar fácilmente usando el álgebra que: Análogamente se puede obtener el coeficiente de dilatación superficial γ dado por: 3.- Electricidad: electrostática y electrodinámica. 3.1.1. Antecedentes históricos de la electricidad y conceptos de electrostática y electrodinámica. Electricidad es un fenómeno: físico, químico, natural, que llena toda la estructura molecular de un cuerpo y se manifiesta a través de un flujo de electrones. Cuando una carga se encuentra en reposo produce fuerzas sobre otras situadas en su entorno. Si la carga se desplaza produce también fuerzas magnéticas. Hay dos tipos de carga eléctrica, llamadas positiva y negativa. La electricidad está presente en algunas partículas subatómicas. La partícula fundamental más ligera que lleva carga eléctrica es el electrón, que transporta una unidad de carga. Los átomos, en circunstancias normales, contienen electrones, y a menudo los que están más alejados del núcleo se desprenden con mucha facilidad. En algunas sustancias, como los metales, proliferan los electrones libres. De esta manera, un cuerpo queda cargado eléctricamente gracias a la reordenación de los electrones. Un átomo normal tiene cantidades iguales de carga eléctrica positiva y negativa; por lo tanto, es eléctricamente neutro. La cantidad de carga eléctrica transportada por todos los electrones del átomo, que por convención es negativa, está equilibrada por la carga positiva, localizada en el núcleo. Si un cuerpo contiene un exceso de electrones quedará cargado negativamente. Por lo contrario, con la ausencia de electrones, un cuerpo queda cargado positivamente, debido a que hay más cargas eléctricas positivas en el núcleo. Historia Hacia el año 600 adC, el filósofo griego Tales de Mileto observó que, frotando una varilla de ámbar con una piel o con lana, se podía crear pequeñas cargas, que atraían pequeños objetos. También habían observado que si la frotaban mucho tiempo podían causar la aparición de una chispa. Cerca de Mileto, (en la actualidad Turquía), se encuentra un sitio arqueológico llamado Magnesia, donde en la antigüedad se encontraron trozos de magnetita. Los antiguos griegos observaron que los trozos de este material se atraían entre sí, y también con pequeños objetos de hierro. La palabra magneto (en español, imán) proviene del lugar donde se descubrió. Un objeto encontrado en Iraq en 1938, fechado alrededor de 250 adC, llamado la Batería de Bagdad, se asemeja a una celda electroquímica. No se han encontrado documentos que evidencien su utilización, aunque hay otras descripciones anacrónicas de dispositivos eléctricos en muros egipcios y escritos antiguos. En 1600, el científico inglés William Gilbert publicó su libro De Magnete, en donde utiliza la palabra latina electricus, derivada del griego elektron, que significa ámbar, para describir los fenómenos 30 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis descubiertos por los griegos. También estableció las diferencias entre el magnetismo y la electricidad. Estas investigaciones fueron continuadas en 1660 por Otto von Guericke, quien inventó un generador electrostático. Robert Boyle afirmó en 1675 que la atracción y repulsión pueden producirse en el vacío. Stephen Gray, en 1729, clasificó los materiales como conductores y aislantes. C.F. Du Fay fue el primero en identificar los dos tipos de carga eléctrica, que más tarde se llamarían positiva y negativa. Pieter van Musschenbroek inventó en 1745 la botella de Leyden, un tipo de capacitor para almacenar cargas eléctricas en gran cantidad. William Watson experimentó con la botella Leyden, descubriendo en 1747 que una descarga de electricidad estática es equivalente a una corriente eléctrica. Benjamin Franklin, en 1752, experimentó con la electricidad haciendo volar una cometa durante una tormenta. Demostró que el relámpago es debido a la electricidad. Como consecuencia de estas experimentaciones inventó el pararrayos y formuló una teoría sobre un fluido que explicara la presencia de cargas positivas y negativas. Charles-Augustin de Coulomb, en 1777, inventó una balanza de torsión para medir la fuerza de repulsión y atracción eléctrica. Por este procedimiento formuló el principio de interacción de cargas eléctricas (ley de Coulomb). Hans Christian Oersted, en 1819, observó que una aguja imantada se orientaba colocándose perpendicularmente a un conductor por el que se hacía pasar una corriente eléctrica. Siguiendo estas investigaciones, Michael Faraday, en 1831, descubrió que se generaba una corriente eléctrica en un conductor que se exponía a un campo magnético variable. Luigi Galvani, en 1790, descubrió, accidentalmente, que se producen contracciones en los músculos de una rana u otro animal cuando entran en contacto con metales cargados eléctricamente. Alessandro Volta descubrió que las reacciones químicas podían generar cargas positivas (cationes) y negativas (aniones). Cuando un conductor une estas cargas, la diferencia de potencial eléctrico (también conocido como voltaje) impulsa una corriente eléctrica a través del conductor. La diferencia de potencial entre dos puntos se mide en unidades de voltio, en reconocimiento al trabajo de Volta. Humphry Davy, en 1807, trabajó con la electrólisis y aisló de esta forma los metales alcalinos. En 1821, el físico alemán Thomas Seebeck descubrió que se producía una corriente eléctrica por la aplicación de calor a la unión de dos metales diferentes. Jean Peltier, en 1834, observó el fenómeno opuesto: la absorción de calor mediante el paso de corriente en una unión de materiales. Georg Simon Ohm, en 1827, dio una relación (Ley de Ohm) que liga la tensión entre dos puntos de un circuito y la intensidad de corriente que pasa por él, definiendo la resistencia eléctrica. El físico alemán Gustav Kirchoff expuso dos reglas, llamadas Leyes de Kirchoff, con respecto a la distribución de corriente eléctrica en un circuito eléctrico con derivaciones. James Prescott Joule, en 1841, desarrolló una ley que establece la cantidad de calor que se produce en un conductor por el paso de una corriente eléctrica. Wheatstone, en 1844, ideó su puente para medir resistencias eléctricas. En 1878, Thomas Alva Edison construyó la primera lámpara incandescente con filamentos de bambú carbonizado. En 1901, Peter Hewitt inventa la lámpara de vapor de mercurio. En 1873, el físico británico James Clerk Maxwell publicó su obra Tratado sobre electricidad y magnetismo, en donde, por primera vez, reúne en cuatro ecuaciones la descripción de la naturaleza de los campos electromagnéticos. Heinrich Hertz extendió esta teoría y demostró que la electricidad puede transmitirse en forma de ondas electromagnéticas, como la luz. Estas investigaciones posibilitaron la invención del telégrafo sin cables y la radio. Nikola Tesla experimentó con alto voltaje y corriente alterna polifásica; de esa manera inventó el alternador y el primer motor de inducción, en 1882. Por medio de los trabajos de Johann Wilhelm Hittorf, Williams Crookes inventó en 1872 el tubo de rayos catódicos. Utilizando un tubo de Crookes, el físico alemán Wilhelm Röntgen descubrió los rayos X. Joseph John Thomson, investigando el flujo de rayos catódicos, descubrió el electrón. En 31 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis 1906, el físico estadounidense Robert Andrews Millikan, mediante su experimento de «la gota de aceite», determinó la carga del electrón. Actualmente, la comprensión y control del fenómeno eléctrico ha posibilitado la implantación de la electricidad en todos los tipos de aplicaciones industriales del ser humano, e incluso en medicina (véase fisioterapia, electroterapia). 3.1.2. Carga eléctrica, unidad de medida en el Sistema Internacional, interacción entre cargas y formas de electrizar a los cuerpos. Carga eléctrica La carga eléctrica es una propiedad intrínseca de algunas partículas sub-atómicas que se manifiesta mediante atracciones y repulsiones que determinan las interacciones electromagnéticas entre ellas. La materia cargada eléctricamente es influida por los campos electromagnéticos siendo, a su vez, generadora de ellos. La interacción entre carga y campo eléctrico es la fuente de una de las cuatro fuerzas fundamentales, la fuerza electromagnética. La carga eléctrica es de naturaleza discreta, fenómeno demostrado experimentalmente por Robert Millikan. Por definición, los electrones tienen carga -1, también notada -e. Los protones tienen la carga opuesta, +1 o +e. Los quarks tienen carga fraccionaria ±1/3 o ±2/3, aunque no se han observado aislados en la naturaleza. En el Sistema Internacional de Unidades la unidad de carga eléctrica se denomina culombio (símbolo C). Se define como la cantidad de carga que pasa por una sección en 1 segundo cuando la corriente eléctrica es de 1 amperio, y se corresponde con la carga de 6,25 × 1018 electrones aproximadamente. Medición de la carga eléctrica El valor de la carga eléctrica de un cuerpo, representada como q o Q, se mide según el número de electrones que posea en exceso o en defecto. En el Sistema Internacional de Unidades la unidad de carga eléctrica se denomina culombio (símbolo C) y se define como la cantidad de carga que a la distancia de 1 metro ejerce sobre otra cantidad de carga igual, la fuerza de 9x109 N. Un culombio corresponde a 6,24 × 1018 electrones. En consecuencia, la carga del electrón es = Como el culombio puede no ser manejable en algunas aplicaciones, por ser demasiado grande, se utilizan también sus submúltiplos: 1 miliculombio = 1 microculombio = Cargas positivas y negativas Si se toma una varilla de vidrio y se frota con seda colgándola de un hilo largo (también de seda), se observa que al aproximar una segunda varilla (frotada con seda) se produce una repulsión mutua. Sin embargo, si se aproxima una varilla de ebonita, previamente frotada con una piel, se observa que atrae la varilla de vidrio colgada. También se verifica que dos varillas de ebonita frotadas con piel se repelen entre sí. Estos hechos se explican diciendo que al frotar una varilla se le comunica carga eléctrica y que las cargas en las dos varillas ejercen fuerzas entre sí. Los efectos eléctricos no se limitan a vidrio frotado con seda o a ebonita frotada con piel. Cualquier sustancia frotada con cualquier otra, en condiciones apropiadas, recibe carga en cierto 32 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis grado. Sea cual sea la sustancia a la que se le comunicó carga eléctrica se verá que, si repele al vidrio, atraerá a la ebonita y viceversa. No existen cuerpos electrificados que muestren comportamientos de otro tipo. Es decir, no se observan cuerpos electrificados que atraigan o repelan a las barras de vidrio y de ebonita simultáneamente: si el cuerpo sujeto a observación atrae al vidrio, repelerá a la barra de ebonita y si atrae a la barra de ebonita, repelerá a la de vidrio. La conclusión de tales experiencias es que sólo hay dos tipos de carga y que cargas similares se repelen y cargas diferentes se atraen. Benjamín Franklin denominó positivas a las que aparecen en el vidrio y negativas a las que aparecen en la ebonita. Interacciones entre cargas de igual y distinto signo. Origen de las cargas Buscando una explicación que justificara este hecho, formuló la teoría de que estos fenómenos se producen debido a la existencia de un "fluido eléctrico" que se transfiere de un cuerpo a otro. Un cuerpo no electrizado tendría una "cantidad normal" de fluido. El frotamiento sería la causa de la transferencia y el cuerpo que recibiera más fluido quedaría electrizado positivamente mientras que el que lo perdiera quedaría electrizado negativamente. Así, conforme a estas ideas, no habría creación ni destrucción de carga eléctrica, sino únicamente una transferencia de electricidad de un cuerpo hacia otro. En la actualidad se sabe que la teoría estaba parcialmente acertada. El proceso de electrización consiste en transferencia de carga eléctrica, pero no debido al fluido imaginado por Franklin, sino por el paso de electrones de un cuerpo hacia otro. La teoría atómica moderna afirma que toda materia está constituida, básicamente, por partículas: protones, electrones y neutrones. Los primeros poseen carga positiva (el tipo de carga con que se electrifica el vidrio), los segundos, carga negativa (el tipo de carga con que se electrifica la ebonita) y los neutrones carecen de carga eléctrica. Un cuerpo no electrizado posee el mismo número de electrones que de protones. Cuando se frotan dos cuerpos hay una transferencia de electrones de uno hacia otro y el cuerpo que presenta exceso de electrones queda cargado negativamente, mientras que el que los perdió presenta un exceso de protones provocando la existencia de carga eléctrica positiva. O sea, se desplazan los electrones debido a la posición que ocupan en el átomo y por ende en la molécula que forma el material. Así, los protones quedan fijos en los núcleos atómicos, mientras que los electrones, más libres que los componentes nucleares, se desplazan de un lugar a otro. 33 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Obsérvese que los electrones y protones no poseen en su seno nada positivo ni negativo, esto sólo es una denominación que se aplica a una propiedad intrínseca de la materia que se manifiesta mediante repulsiones y atracciones. Otro aspecto importante del modelo de la electricidad de Franklin es que la carga electrica siempre se conserva. Es decir, cuando un cuerpo es frotado contra otro, no se crea carga en el proceso, sino que existe una transferencia de cargas entre un cuerpo y el otro. Formas para cambiar la carga eléctrica de los cuerpos Se denomina electrización al efecto de ganar o perder cargas eléctricas, normalmente electrones, producido por un cuerpo eléctricamente neutro. Electrización por contacto Se puede cargar un cuerpo neutro con sólo tocarlo con otro previamente cargado. En este caso, ambos quedan con el mismo tipo de carga, es decir, si se toca un cuerpo neutro con otro con carga positiva, el primero debe quedar con carga positiva. Esto se debe a que habrá transferencia de electrones libres desde el cuerpo que los posea en mayor cantidad hacia el que los contenga en menor proporción y manteniéndose este flujo hasta que la magnitud de la carga sea la misma en ambos cuerpos. Electrización por frotamiento Al frotar dos cuerpos eléctricamente neutros (número de electrones = número de protones), ambos se cargan, uno con carga positiva y el otro con carga negativa. Si se frota una barra de vidrio con un paño de seda, hay un traspaso de electrones del vidrio a la seda. Si se frota un lápiz de pasta con un paño de lana, hay un traspaso de electrones del paño. Carga por inducción La inducción es un proceso de carga de un objeto sin contacto directo. Un cuerpo cargado eléctricamente puede atraer a otro cuerpo que está neutro. Cuando se acerca un cuerpo electrizado a un cuerpo neutro, se establece una interacción eléctrica entre las cargas del primero y las del cuerpo neutro. Como resultado de esta interacción, la distribución inicial se altera: el cuerpo electrizado provoca el desplazamiento de los electrones libres del cuerpo neutro. En este proceso de redistribución de cargas, la carga neta inicial no ha variado en el cuerpo neutro, pero en algunas zonas se carga positivamente y en otras negativamente. Se dice que aparecen cargas eléctricas inducidas. Entonces el cuerpo electrizado, denominado inductor, induce una carga con signo contrario en el cuerpo neutro y por lo tanto lo atrae. El diagrama de abajo muestra el procedimiento para electrificar un cuerpo por inducción. Es importante tener en cuenta que la carga obtenida por este método es de signo opuesto a la carga del inductor. 34 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Carga por el Efecto Fotoeléctrico Es un efecto de formación y liberación de partículas eléctricamente cargadas que se produce en la materia cuando es irradiada con luz u otra radiación electromagnética. En el efecto fotoeléctrico externo se liberan electrones en la superficie de un conductor metálico al absorber energía de la luz que incide sobre dicha superficie. Este efecto se emplea en la célula fotoeléctrica, donde los electrones liberados por un polo de la célula, el fotocátodo, se mueven hacia el otro polo, el ánodo, bajo la influencia de un campo eléctrico. Carga por Electrólisis La mayoría de los compuestos inorgánicos y algunos de los orgánicos se ionizan al fundirse o cuando se disuelven en agua u otros líquidos; es decir, sus moléculas se disocian en especies químicas cargadas positiva y negativamente. Si se coloca un par de electrodos en una disolución de un electrólito (compuesto ionizable) y se conecta una fuente de corriente continua entre ellos, los iones positivos de la disolución se mueven hacia el electrodo negativo y los iones negativos hacia el positivo. Al llegar a los electrodos, los iones pueden ganar o perder electrones y transformarse en átomos neutros o moléculas; la naturaleza de las reacciones del electrodo depende de la diferencia de potencial o voltaje aplicado. Propiedades de la carga Principio de conservación de la carga En concordancia con los resultados experimentales, el principio de conservación de la carga establece que no hay destrucción ni creación neta de carga eléctrica, y afirma que en todo proceso electromagnético la carga total de un sistema aislado se conserva, tal como pensó Franklin. Hemos visto que cuando se frota una barra de vidrio con seda, aparece en la barra una carga positiva. Las medidas muestran que aparece en la seda una carga negativa de igual magnitud. Esto hace pensar que el frotamiento no crea la carga sino que simplemente la transporta de un objeto al otro, alterando la neutralidad eléctrica de ambos. Así, en un proceso de electrización, el número total de protones y electrones no se altera y sólo hay una separación de las cargas 35 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis eléctricas. Por tanto, no hay destrucción ni creación de carga eléctrica, es decir, la carga total se conserva, tal como pensó Franklin. Pueden aparecer cargas eléctricas donde antes no había, pero siempre lo harán de modo que la carga total del sistema permanezca constante. Además esta conservación es local, ocurre en cualquier región del espacio por pequeña que sea 3.1.3 Materiales conductores y aislantes, electroscopio y jaula de Faraday. Aislantes y conductores Una varilla metálica sostenida con la mano y frotada con una piel no resulta cargada. Sin embargo, es posible cargarla si se la provee de un mango de vidrio o de ebonita y el metal no se toca con las manos al frotarlo. La explicación es que las cargas se pueden mover libremente en los metales y el cuerpo humano, mientras que en el vidrio y la ebonita no pueden hacerlo. Esto se debe a que en ciertos materiales, típicamente en los metales, los electrones más alejados de los núcleos respectivos adquieren libertad de movimiento en el interior del sólido. Estas partículas se denominan electrones libres y son el vehículo mediante el cual se transporta la carga eléctrica. Estas sustancias se denominan conductores. En contrapartida a los conductores eléctricos, existen materiales en los cuales los electrones están firmemente unidos a sus respectivos átomos. En consecuencia, estas sustancias no poseen electrones libres y no será posible el desplazamiento de carga a través de ellos. Estas sustancias son denominadas aislantes o dieléctricos. El vidrio, la ebonita o el plástico son ejemplos típicos. En consecuencia, esta diferencia de comportamiento de las sustancias respecto del desplazamiento de las cargas en su seno depende de la naturaleza de los átomos que las componen. Entre los buenos conductores y los dieléctricos existen múltiples situaciones intermedias. Entre ellas destacan los materiales semiconductores por su importancia en la fabricación de dispositivos electrónicos que son la base de la actual revolución tecnológica. En condiciones ordinarias se comportan como dieléctricos, pero sus propiedades conductoras pueden ser alteradas con cierta facilidad mejorando su conductividad en forma prodigiosa ya sea mediante pequeños cambios en su composición, sometiéndolos a temperaturas elevadas o a intensa iluminación. A temperaturas cercanas al cero absoluto, ciertos metales adquieren una conductividad infinita, es decir, la resistencia al flujo de cargas se hace cero. Se trata de los superconductores. Una vez que se establece una corriente eléctrica en un superconductor, los electrones fluyen por tiempo indefinido. Es de relevancia tener en cuenta, y puede verificarse experimentalmente, que solamente la carga negativa se puede mover. La carga positiva es inmóvil y únicamente los electrones libres son los responsables del transporte de carga. Electroscopio 36 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis El electroscopio es un instrumento que permite determinar la presion de cargas electricas y su signo. Un electroscopio sencillo consiste en una varilla metálica vertical que tiene una bolita en la parte superior y en el extremo opuesto dos láminas de oro muy delgadas. La varilla está sostenida en la parte superior de una caja de vidrio transparente con un armazón de metal en contacto con tierra. Al acercar un objeto electrizado a la esfera, la varilla se electrifica y las laminillas cargadas con igual signo que el objeto se repelen, siendo su divergencia una medida de la cantidad de carga que han recibido. La fuerza de repulsión electrostática se equilibra con el peso de las hojas. Si se aleja el objeto de la esfera, las láminas, al perder la polarización, vuelven a su posición normal. Cuando un electroscopio se carga con un signo conocido, puede determinarse el tipo de carga eléctrica de un objeto aproximándolo a la esfera. Si las laminillas se separan significa que el objeto está cargado con el mismo tipo de carga que el electroscopio. De lo contrario, si se juntan, el objeto y el electroscopio tienen signos opuestos. Un electroscopio cargado pierde gradualmente su carga debido a la conductividad eléctrica del aire producida por su contenido en iones. Por ello la velocidad con la que se carga un electroscopio en presencia de un campo eléctrico o se descarga puede ser utilizada para medir la densidad de iones en el aire ambiente. Por este motivo, el electroscopio se puede utilizar para medir la radiación de fondo en presencia de materiales radiactivos. El primer electroscopio fue creado por el médico inglés William Gilbert para realizar sus experimentos con cargas electrostáticas. Actualmente este instrumento no es más que una curiosidad de museo, dando paso a mejores instrumentos electrónicos. Un electroscopio es un dispositivo que permite detectar la presencia de un objeto cargado aprovechando el fenómeno de separación de cargas por inducción. Explicaremos su funcionamiento empezando por ver que sucede con las cargas en los materiales conductores. Si acercamos un cuerpo cargado con carga positiva, por ejemplo una lapicera que ha sido frotada con un paño, las cargas negativas del conductor experimentan una fuerza atractiva hacia la lapicera . Por esta razón se acumulan en la parte mas cercana a ésta. Por el contrario las cargas positivas del conductor experimentan una fuerza de repulsión y por esto se acumulan en la parte más lejana a la lapicera. Lo que a ocurrido es que las cargas se han desplazado pero la suma de cargas positivas es igual a la suma de cargas negativos. Por lo tanto la carga neta del conductor sigue siendo nula. Consideremos ahora que pasa en el electroscopio. Recordemos que un electroscopio esta formado esencialmente por un par de hojas metálicas unidas en un extremo. Por ejemplo una tira larga de papel de aluminio doblada al medio. Si acercamos la lapicera cargada al electroscopio, como se indica en la figura, la carga negativa será atraida hacia el extremo mas cercano a la lapicera mientras que la carga positiva se acumulará en el otro extremo, es decir que se distribuirá entre las dos hojas del electroscopio. La situación se muestra en la figura: los dos extremos libres del electroscopio quedaron cargados positivamente y como las cargas de un mismo signo se rechazan las hojas del electroscopio se separan. Si ahora alejamos la lapicera, las cargas positivas y negativas del electroscopio vuelven a redistribuirse, la fuerza de repulsión entre las hojas desaparece y se juntan nuevamente. ¿Qué pasa si tocamos tocamos con un dedo el extremo del electroscopio mientras esta cerca de la lapicera cargada? La carga negativa acumulada en ese extremo "pasará" a la mano y por lo tanto el electroscopio queda cargado positivamente. Debido a esto las hojas no se juntan cuando alejamos la lapicera. Jaula de Faraday El efecto jaula de Faraday provoca que el campo electromagnético en el interior de un conductor en equilibrio sea nulo, anulando el efecto de los campos externos. Esto se debe a que, cuando el conductor sujeto a un campo electromagnético externo, se polariza de manera que queda cargado positivamente en la dirección en que va el campo electromagnético, y cargado negativamente en el sentido contrario. Puesto que el conductor se ha polarizado, este genera un campo eléctrico 37 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis igual en magnitud pero opuesto en sentido al campo electromagnético, luego la suma de ambos campos dentro del conductor será igual a 0. Se pone de manifiesto en numerosas situaciones cotidianas, por ejemplo, el mal funcionamiento de los teléfonos móviles en el interior de ascensores o edificios con estructura de rejilla de acero. Una manera de comprobarlo es con una radio sintonizada en una emisora de Onda Media. Al rodearla con un periódico, el sonido se escucha correctamente. Sin embargo, si se sustituye el periódico con un papel de aluminio la radio deja de emitir sonidos: el aluminio es un conductor eléctrico y provoca el efecto jaula de Faraday. Este fenómeno, descubierto por Michael Faraday, tiene una aplicación importante en protección de equipos electrónicos delicados, tales como repetidores de radio y televisión situados en cumbres de montañas y expuestos a las perturbaciones electromagnéticas causadas por las tormentas. 3.1.4. Ley de Coulomb, campo eléctrico y su intensidad. La Ley de Coulomb lleva su nombre en honor a Charles-Augustin de Coulomb, uno de sus descubridores y el primero en publicarlo. No obstante, Henry Cavendish obtuvo la expresión correcta de la ley, con mayor precisión que Coulomb, si bien esto no se supo hasta después de su muerte. La balanza de torsión consiste en una barra que cuelga de una fibra. Esta fibra es capaz de torcerse, y si la barra gira la fibra tiende a regresarla a su posición original. Si se conoce la fuerza de torsión que la fibra ejerce sobre la barra, se logra un método sensible para medir fuerzas. En la barra de la balanza, Coulomb, colocó una pequeña esfera cargada y, a continuación, a diferentes distancias, posicionó otra esfera con carga de igual magnitud. Luego midió la fuerza entre ellas observando el ángulo que giraba la barra. Dichas mediciones permitieron determinar que: 1) La fuerza de interacción entre dos cargas y duplica su magnitud si alguna de las cargas dobla su valor, la triplica si alguna de las cargas aumenta su valor en un factor de tres, y así sucesivamente. Concluyó entonces que el valor de la fuerza era proporcional al producto de las cargas: y en consecuencia: 2) Si la distancia entre las cargas es , al duplicarla, la fuerza de interacción disminuye en un factor de 4 (2²); al triplicarla, disminuye en un factor de 9 (3²) y al cuadriplicar , la fuerza entre cargas disminuye en un factor de 16 (4²). En consecuencia, la fuerza de interacción entre dos cargas puntuales, es inversamente proporcional al cuadrado de la distancia: Variación de la Fuerza de Coulomb en función de la distancia 38 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Asociando las relaciones obtenidas en 1) y 2): Finalmente, se introduce una constante de proporcionalidad para transformar la relación anterior en una igualdad: El enunciado que describe la ley de Coulomb es la siguiente: "La magnitud de cada una de las fuerzas eléctricas con que interactúan dos cargas puntuales es directamente proporcional al producto de las cargas e inversamente proporcional al cuadrado de la distancia que las separa." Esta ley es válida sólo en condiciones estacionarias, es decir, cuando no hay movimiento de las cargas o, como aproximación, el movimiento se realiza a velocidades bajas y trayectorias rectilíneas uniformes. Se le llama a esta Fuerza Electrostática. La parte Electro proviene de que se trata de fuerzas eléctricas y estática debido a la ausencia de movimiento de las cargas. En términos matemáticos, la magnitud de la fuerza que cada una de las dos cargas puntuales y ejerce sobre la otra separadas por una distancia se expresa como: Dadas dos cargas puntuales y separadas una distancia entre sí con una fuerza cuya magnitud esta dada por: en el vacío, se atraen o repelen La Ley de Coulomb se expresa mejor con magnitudes vectoriales: donde es un vector unitario que va en la dirección de la recta que une las cargas, siendo su sentido desde la carga que produce la fuerza hacia la carga que la experimenta. El exponente (de la distancia: d) de la Ley de Coulomb es, hasta donde se sabe hoy en día, exactamente 2. Experimentalmente se sabe que, si el exponente fuera de la forma entonces , . Representación gráfica de la Ley de Coulomb para dos cargas del mismo signo. Obsérvese que esto satisface la tercera de la ley de Newton debido a que implica que fuerzas de igual magnitud actúan sobre y . La ley de Coulomb es una ecuación vectorial e incluye el hecho de que la fuerza actúa a lo largo de la línea de unión entre las cargas. Constante de Coulomb 39 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis La constante es la Constante de Coulomb y su valor para unidades SI es A su vez la constante donde Nm²/C². es la permisividad relativa, , y F/m es la permisividad del medio en el vacío. Cuando el medio que rodea a las cargas no es el vacío hay que tener en cuenta la constante dieléctrica y la permisividad del material. Algunos valores son: Material (F/m) (Nm²/C²) Vacío 1 8,85·10-12 8,99·109 Parafina 2,1-2,2 1,90·10-11 4,16·109 Mica 6-7 5,76·10-11 1,38·109 Papel parafinado 2,2 1,95·10-11 4,09·109 Poliestireno 1,05 9,30·10-12 8,56·109 Baquelita 3,8-5 3,90·10-11 2,04·109 Cirbolito 3-5 3,54·10-11 2,25·109 Vidrio orgánico 3,2-3,6 3,01·10-11 2,64·109 Vidrio 5,5-10 6,86·10-11 1,16·109 Aire 1,0006 8,86·10-12 8,98·109 Mármol 7,5-10 7,75·10-11 1,03·109 Ebonita 2,5-3 2,43·10-11 3,27·109 Porcelana 5,5-6,5 5,31·10-11 1,50·109 Micalex 7-9 7,08·10-11 1,12·109 Micarta A y B 7-8 6,64·10-11 1,20·109 Batista barnizada 3,5-5 3,76·10-11 2,11·109 Goma en hojas 2,6-3,5 2,70·10-11 2,95·109 Poliestireno 2,7 2,39·10-11 3,33·109 La ecuación de la ley de Coulomb queda finalmente expresada de la siguiente manera: 40 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Principio de superposición y la Ley de Coulomb Como ley básica adicional, no deducible de la ley de Coulomb, se encuentra el Principio de Superposición: "La fuerza total ejercida sobre una carga eléctrica q por un conjunto de cargas será igual a la suma vectorial de cada una de las fuerzas ejercidas por cada carga carga ." sobre la Representación gráfica del principio de superposición Conjuntamente, la Ley de Coulomb y el Principio de Superposición constituyen los pilares de la electrostática Campo eléctrico El campo eléctrico es una propiedad del espacio, debido a la cual una carga eléctrica puntual de valor "q" sufrirá los efectos de una fuerza "F" que vendrá dada por la siguiente ecuación: Donde "E" es el mencionado campo eléctrico, que es, por tanto una magnitud vectorial. Esta definición indica que el campo no es directamente medible, sino a través de la medición de la fuerza actuante sobre alguna carga. La idea de campo eléctrico fue propuesta por Michael Faraday al demostrar el principio de inducción electromagnética en el año 1831. Las cargas eléctricas no precisan de ningún medio material para influir entre ellas y por ello las fuerzas eléctricas son consideradas fuerzas de acción a distancia. En virtud de ello se recurre al concepto de campo electrostático para facilitar la descripción, en términos físicos, de la influencia que una o más cargas ejercen sobre el espacio que les rodea. El concepto de campo El concepto de campo surge ante la necesidad de explicar la forma de interacción entre cuerpos en ausencia de contacto físico y sin medios de sustentación para las posibles interacciones. La acción a distancia se explica, entonces, mediante efectos provocados por la entidad causante de la interacción, sobre el espacio mismo que la rodea, permitiendo asignar a dicho espacio propiedades medibles. Así, será posible hacer corresponder a cada punto del espacio valores que 41 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis dependerán de la magnitud de la propiedad del cuerpo que provoca la interacción y de la ubicación del punto que se considera. El campo eléctrico representa, en cada punto del espacio afectado por la carga, una propiedad local asociada al mismo. Una vez conocido el campo en un punto no es necesario saber qué lo origina para calcular la fuerza sobre una carga u otra propiedad relacionada con él. Así, si se coloca una carga de prueba en un punto cualquiera del espacio en donde está definido un campo eléctrico, se observará la aparición de atracciones o de repulsiones sobre ella. Una forma de describir las propiedades de este campo sería indicar la fuerza que se ejercería sobre una carga determinada si se trasladara de un punto a otro del espacio. Al utilizar la misma carga de prueba es posible comparar la intensidad de las atracciones o repulsiones en los distintos puntos del campo. La carga de referencia más simple, a efectos de operaciones, es la carga unidad positiva. La fuerza eléctrica que en un punto cualquiera del campo se ejerce sobre la carga unidad positiva, tomada como elemento de comparación, recibe el nombre de intensidad del campo eléctrico y se representa por la letra E. Por tratarse de una fuerza, la intensidad del campo eléctrico es una magnitud vectorial que viene definida por su módulo E y por su dirección y sentido. Interacciones entre dos cargas Q y q Interacciones entre Q y q. Considérese una carga Q fija en una determinada posición (ver figura). Si se coloca otra carga q en un punto P1, a cierta distancia de Q, aparecerá una fuerza eléctrica actuando sobre q. Si la carga q se ubica en otros puntos cualesquiera, tales como P2, P3 etc., evidentemente, en cada uno de ellos, también estaría actuando sobre q una fuerza eléctrica, producida por Q. Para describir este hecho, se dice que en cualquier punto del espacio en torno a Q existe un campo eléctrico originado por esta carga. Obsérvese en la figura que el campo eléctrico es originado en los puntos P1, P2, P3 etc., por Q, la cual, naturalmente, podrá ser tanto positiva (la de la figura) como negativa. La carga q que es trasladada de un punto a otro, para verificar si en ellos existe, o no, un campo eléctrico, se denomina carga de prueba. El campo eléctrico puede representarse, en cada punto del espacio, por un vector, usualmente simbolizado por y que se denomina vector campo eléctrico. El módulo del vector en un punto dado se denomina intensidad del campo eléctrico en ese punto. Para definir este módulo, considérese la carga Q de la figura, generando un campo eléctrico en el espacio que la rodea. Colocando una carga de prueba q en un punto P1, se verá que sobre ella actúa una fuerza eléctrica. La intensidad del campo eléctrico en P1 estará dada, por definición, por la expresión: 42 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis La expresión anterior permite determinar la intensidad del campo eléctrico en cualquier otro punto, tales como P2, P3, etc. El valor de E será diferente para cada uno de ellos. De obtemos , lo cual significa que si se conoce la intensidad del campo eléctrico en un punto, es posible calcular, usando la expresión anterior, el módulo de la fuerza que actúa sobre una carga cualquiera ubicada en aquél punto. Campo eléctrico creado por una carga puntual El campo que crea una carga puntual Q se deduce a partir de la ley de Coulomb. Consideremos una carga de prueba Q0, colocada a una distancia r de una carga punto Q. La fuerza entre ambas cargas, medida por un observador en reposo respecto a la carga Q estará dada por: La intensidad del campo eléctrico en el sitio en que se coloca la carga de prueba está dada por: y por lo tanto resulta: = donde es un vector unitario en la dirección radial, llamada permisividad del vacío y = es la es la constante de Coulomb cuyo valor es . Donde se tienen las equivalencias unidad de intensidad de campo eléctrico es Metro). y respectivamente. La (Newton por Culombio) o (Voltio por Principio de superposición La influencia del campo producido por una carga aislada se puede generalizar al caso de un sistema formado por más de una carga y luego extenderse al estudio de un cuerpo cargado. Experimentalmente se verifica que las influencias de las cargas aisladas que constituyen un sistema son aditivas, o en otras palabras, se suman o superponen vectorialmente. Así, la intensidad de campo E en un punto cualquiera del espacio que rodea a varias cargas será la suma vectorial de las intensidades de los campos debidos a cada una de las cargas individualmente consideradas. Matemáticamente se puede considerar la siguinte ecuación: Donde K es la constante arbitraria; n es la cantidad de cargas tenidas en cuenta; es la magnitud del vector distancia entre el punto donde se quiere hallar el campo eléctrico total y la carga i; y es el vector unitario formado de la misma manera. Más adelante se trabajará mejor esta ecuación. Representación gráfica del campo eléctrico 43 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Una forma muy útil de esquematizar gráficamente un campo es trazar líneas que vayan en la misma dirección que dicho campo en varios puntos. Esto se realiza a través de las líneas de fuerza, líneas imaginarias que describen, si los hubiere, los cambios en dirección de las fuerzas al pasar de un punto a otro. En el caso del campo eléctrico, puesto que tiene magnitud y sentido se trata de una cantidad vectorial, y será un vector tangente a la línea de fuerza en cualquier punto considerado. Según la primera ley de Newton, la fuerza que actúa sobre una partícula produce un cambio en su velocidad; por lo tanto, el movimiento de una partícula cargada en una región dependerá de las fuerzas que actúen sobre ella en cada punto de dicha región. Ahora considérese una carga q, situada en un punto sobre la que actúa una fuerza que es tangente a la línea de campo eléctrico en dicho punto. En vista de que las líneas del campo eléctrico varían en su densidad (están más o menos juntas) y dirección, podemos concluir que la fuerza que experimenta una carga tiende a apartarla de la línea de campo eléctrico sobre la que se encuentra en cada instante. En otras palabras, una carga bajo los efectos de un campo eléctrico no seguirá el camino de la línea de fuerza sobre la que se encontraba originalmente. La relación entre las líneas de fuerza (imaginarias) y el vector intensidad de campo, es la siguiente: 1. La tangente a una línea de fuerza en un punto cualquiera da la dirección de E en ese punto. 2. El número de líneas de fuerza por unidad de área de sección transversal es proporcional a la magnitud de E. Cuanto más cercanas estén las líneas, mayor será la magnitud de E. No es obvio que sea posible dibujar un conjunto continuo de líneas que cumplan estos requisitos. De hecho, se encuentra que si la ley de Coulomb no fuera cierta, no sería posible hacerlo. Si un elemento de superficie de área es atravesado por líneas y si la intensidad del campo eléctrico en el centro del elemento de superficie es E, se tiene que: EL subíndice n indica que es normal a E. Para convertir esta proporcionalidad en ecuación se elige ε0 como constante de proporcionalidad. Así, se espacian arbitrariamente las líneas de fuerza de modo que, en cualquier punto, el número de líneas por unidad de superficie y la intensidad del campo eléctrico esté ligado por la relación: Considérense, ahora, las líneas de fuerza que salen de una carga puntual positiva q y una esfera de radio r arbitrario rodeando la carga y de modo que ésta se encuentre en el centro. La intensidad del campo eléctrico en todos los puntos de la superficie de esta esfera es: En consecuencia, el número de líneas por unidad de superficie es el mismo en todos los puntos de la superficie y está dado por: 44 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Las líneas de fuerza atraviesan la superficie perpendicularmente puesto que E tiene una dirección radial. El área de la esfera es superficie es: ,lo que implica que el número de líneas que atraviesan la Esto demuestra que si el valor del exponente de r, en la ley de Coulomb, no fuera 2, el número de líneas de fuerza no solo no estaría dado por el valor de q, también sería inversamente proporcional a alguna potencia de r y por ello seria imposible dibujar un conjunto continuo de líneas que cumplan los requisitos indicados más arriba. Para la construcción de líneas de fuerza se debe tener en cuenta lo siguiente: A.- Por convención, las líneas deben partir de cargas positivas y terminar en cargas negativas y en ausencia de unas u otras deben partir o terminar en el infinito. Representación de campos eléctricos creados por cargas puntuales negativa y positiva. Una carga puntual positiva dará lugar a un mapa de líneas de fuerza radiales, pues las fuerzas eléctricas actúan siempre en la dirección de la línea que une a las cargas interactuantes, y dirigidas hacia fuera porque una carga de prueba positiva se desplazaría en ese sentido. En el caso del campo debido a una carga puntual negativa el mapa de líneas de fuerza sería análogo, pero dirigidas hacia ella ya que ése sería el sentido en que se desplazaría la carga positiva de prueba. Como consecuencia de lo anterior, en el caso de los campos debidos a varias cargas, las líneas de fuerza nacen siempre de las cargas positivas y por ello son denominadas manantiales y mueren en las negativas por lo que se les llama sumideros. B.- Las líneas de fuerza jamás pueden cruzarse. Las líneas de fuerza o de campo salen de una carga positiva o entran a una negativa. De lo anterior se desprende que de cada punto de la superficie de una esfera, suponiendo forma esférica para una carga, puede salir o entrar solo una línea de fuerza, en consecuencia entre dos cargas que interactúan solo puede relacionarse un punto de su superficie con solo un punto de la otra superficie, y ello es a través de una línea, y esa línea es la línea de fuerza. Si se admitiera que dos líneas de fuerza se interceptan, entonces se podría extender la superficie de la otra carga hacia el lugar donde se interceptan las líneas que se mencionan y se podría concluir que dos líneas entran o salen de una superficie de una carga eléctrica. Con esto se está contradiciendo lo postulado inicialmente. En consecuencia, es imposible que dos líneas de fuerza se intercepten. 45 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Por otra parte, si las líneas de fuerza se cortaran, significaría que en dicho punto E poseería dos direcciones distintas, lo que contradice la definición de que a cada punto sólo le corresponde un valor único de intensidad de campo. C.- El número de líneas fuerza que parten de una carga positiva o llegan a una carga negativa es proporcional a la cantidad de carga respectiva. D.- La líneas de fuerza deben ser perpendiculares a las superficies de los objetos en los lugares donde conectan con ellas. Esto se debe a que en las superficies de cualquier objeto, sin importar la forma, nunca se encuentran componentes de la fuerza eléctrica que sean paralelas a la superficie del mismo. Si fuera de otra manera, cualquier exceso de carga residente en la superficie comenzaría a acelerar. Esto conduciría a la aparición de un flujo de carga en el objeto, lo cual nunca se observa en la electricidad estática. Representación del campo eléctrico creado por dos cargas positivas de igual magnitud y por un dipolo eléctrico. Representación del campo eléctrico creado por dos cargas de diferente magnitud y signos opuestos. Las representaciones anteriores reflejan el principio de superposición. Ya sea que las cargas ostenten el mismo signo o signo opuesto, las líneas de fuerza se verán distorsionadas respecto de la forma radial que tendrían si las cargas estuvieran aisladas, de forma tal, que la distorsión es máxima en la zona central, o sea, en la región más cercana a ambas. Si las cargas tienen la misma magnitud, la representación resulta simétrica respecto de la línea media que las separa. En 46 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis el caso opuesto, predominará la influencia de una de ellas dando lugar a una distribución asimétrica de líneas de fuerza. 3.1.5. Diferencia de potencial o voltaje, corriente eléctrica, resistencia y ley de Ohm. Tensión La tensión o diferencia de potencial (incorrectamente llamada «voltaje») es una magnitud física que impulsa a los electrones a lo largo de un conductor en un circuito cerrado. Nomenclatura A pesar de que la unidad de la diferencia de potencial es el voltio, no es correcto denominarla «voltaje», así como el peso (cuya unidad es el gramo) no se denomina «gramaje», ni la distancia (cuya unidad es el metro) no se denomina «metraje». Diferencia de potencial La tensión entre dos puntos de un campo eléctrico es igual al trabajo que realiza dicha unidad de carga positiva para transportarla desde el punto A al punto B. En el Sistema Internacional de Unidades, la diferencia de potencial se mide en voltios (V), al igual que el potencial. La tensión es independiente del camino recorrido por la carga, y depende exclusivamente del potencial eléctrico de los puntos A y B en el campo. Fórmula de tensión La tensión se expresa por la fórmula: donde: VA - VB es la diferencia de tensión, E es la intensidad de campo en newton/culombio, r es la distancia en metros entre los puntos A y B. Si dos puntos que tienen una diferencia de potencial se unen mediante un conductor, se producirá un flujo de corriente eléctrica. Parte de la carga que crea el punto de mayor potencial se trasladará a través del conductor al punto de menor potencial y, en ausencia de una fuente externa (generador), esta corriente cesará cuando ambos puntos igualen su potencial eléctrico (Ley de Henry). Este traslado de cargas es lo que se conoce como corriente eléctrica. Polaridad Figura 1: polaridad de una diferencia de potencial Cuando por dos puntos de un circuito puede circular una corriente eléctrica, la polaridad de la caída de tensión viene determinada por la dirección convencional de la misma; esto es, del punto de mayor potencial al de menor. Por lo tanto, si por la resistencia R de la figura 1 circula una corriente de intensidad I, desde el punto A hacia el B, se producirá una caída de tensión en la misma con la polaridad indicada, y se dice que el punto A es más positivo que el B. Otra de las formas de expresar la tensión entre dos puntos es en función de la intensidad de corriente y la resistencia existentes entre ellos; así se obtiene uno de los enunciados de la ley de Ohm, que dice: 47 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Intensidad de corriente eléctrica Se denomina intensidad de corriente eléctrica a la carga eléctrica que pasa a través de una sección del conductor en la unidad de tiempo. En el Sistema Internacional de Unidades se expresa en C·s-1 (culombios partido por segundo), unidad que se denomina amperio. Si la intensidad es constante en el tiempo se dice que la corriente es continua; en caso contrario, se llama variable. Si no se produce almacenamiento ni disminución de carga en ningún punto del conductor, la corriente es estacionaria. Se mide con un galvanómetro que, calibrado en amperios, se llama amperímetro y en el circuito se coloca en serie con el conductor cuya intensidad se desea medir. El valor i de la intensidad instantánea será: Si la intensidad permanece constante, en cuyo caso se denota I, utilizando incrementos finitos de tiempo se puede definir como: Si la intensidad es variable la fórmula anterior da el valor medio de la intensidad en el intervalo de tiempo considerado. Según la ley de Ohm, la intensidad de la corriente es igual al voltaje dividido por la resistencia que oponen los cuerpos: Haciendo referencia a la potencia, la intensidad equivale a la raíz cuadrada de la potencia dividida por la resistencia. En un circuito que contenga varios generadores y receptores, la intensidad es igual a: donde Σε es el sumatorio de las fuerzas electromotrices del circuito, Σε' es la suma de todas la fuerzas contraelectromotrices, ΣR es la resistencia equivalente del circuito, Σr es la suma de las resistencias internas de los generadores y Σr' es el sumatorio de las resistencias internas de los receptores. Resistencia eléctrica Se denomina resistencia eléctrica, R, de una sustancia, a la oposición que encuentra la corriente eléctrica durante su recorrido. Su valor viene dado en ohmios, se designa con la letra griega omega mayúscula (Ω), y se mide con el Óhmetro. También se define como la propiedad de un objeto o sustancia de transformar energía eléctrica en otro tipo de energía de forma irreversible, generalmente calor. Esta definición es válida para la corriente continua y para la corriente alterna cuando se trate de elementos resistivos puros, esto es, sin componente inductiva ni capacitiva. De existir estos componentes reactivos, la oposición presentada a la circulación de corriente recibe el nombre de impedancia. Según sea la magnitud de esta oposición, las sustancias se clasifican en conductoras, aislantes y semiconductoras. Existen además ciertos materiales en los que, en determinadas condiciones de 48 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis temperatura, aparece un fenómeno denominado superconductividad, en el que el valor de la resistencia es prácticamente nulo. Comportamientos ideal y real Figura 2. Circuito con resistencia. Una resistencia ideal es un elemento pasivo que disipa energía en forma de calor según la Ley de Joule. También establece una relación de proporcionalidad entre la intensidad de corriente que la atraviesa y la tensión medible entre sus extremos, relación conocida como Ley de Ohm: donde i(t) es la Corriente eléctrica que atraviesa la resistencia de valor R y u(t) es la diferencia de potencial que se origina. En general, una resistencia real podrá tener diferente comportamiento en función del tipo de corriente que circule por ella. Comportamiento en corriente continua Una resistencia real en corriente continua (CC) se comporta prácticamente de la misma forma que si fuera ideal, esto es, transformando la energía eléctrica en calor. Su ecuación pasa a ser: que es la conocida ley de Ohm para CC. donde = Voltaje. = Corriente. Ley de Ohm Circuito mostrando la Ley de Ohm: Una fuente eléctrica con una diferencia de potencial V, produce una corriente eléctrica I cuando pasa a través de la resistencia R La ley de Ohm, es una propiedad específica de ciertos materiales. La relación 49 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis es un enunciado de la ley de Ohm. Un conductor cumple con la ley de Ohm sólo si su curva V-I es lineal; esto es si R es independiente de V y de I. La relación sigue siendo la definición general de la resistencia de un conductor, independientemente de si éste cumple o no con la ley de Ohm. La intensidad de la corriente eléctrica que circula por un dispositivo es directamente proporcional a la diferencia de potencial aplicada e inversamente proporcional a la resistencia del mismo, según expresa la fórmula siguiente: En donde, empleando unidades del Sistema internacional: I = Intensidad en amperios (A) V = Diferencia de potencial en voltios (V) R = Resistencia en ohmios (Ω). 3.1.6. Concepto de pila. Circuitos eléctricos con pilas y resistencias conectadas en serie y paralelo. Pila eléctrica Se llama ordinariamente pila eléctrica a un dispositivo que genera energía eléctrica por un proceso químico transitorio, tras de lo cual cesa su actividad y han de renovarse sus elementos constituyentes, puesto que sus características resultan alteradas durante el mismo. Se trata de un generador primario. Esta energía resulta accesible mediante dos terminales que tiene la pila, llamados polos, electrodos o bornes. Uno de ellos es el polo positivo o ánodo y el otro es el polo negativo o cátodo. En castellano ha venido siendo costumbre llamarla así, mientras que al dispositivo recargable o acumulador, se ha venido llamando batería. Tanto pila como batería son términos provenientes de los primeros tiempos de la electricidad, en los que se juntaban varios elementos o celdas —en el primer caso uno encima de otro, "apilados", y en el segundo adosados lateralmente, "en batería"— como se sigue haciendo actualmente, para así aumentar la magnitud de los fenómenos eléctricos y poder estudiarlos sistemáticamente. De esta explicación se desprende que cualquiera de los dos nombres serviría para cualquier tipo, pero la costumbre ha fijado la distinción. La estructura fundamental de una pila consiste en piezas de dos metales diferentes introducidas en un líquido conductor de la electricidad o electrolito. Principios de funcionamiento Aunque la apariencia de cada una de estas celdas sea simple, la explicación de su funcionamiento dista de serlo y motivó una gran actividad científica en los siglos XIX y XX, así como diversas teorías, y la demanda creciente que tiene este producto en el mercado sigue haciendo de él objeto de investigación intensa. El agua que tenga sales disueltas, es decir, agua ordinaria o agua con sal añadida, es un ejemplo de electrolito, pues el agua pura es prácticamente un aislante eléctrico. El electrolito es conductor porque contiene iones libres, partículas dotadas de carga eléctrica que pueden desplazarse por su interior. Si se sumergen en él dos electrodos y se hace pasar una corriente eléctrica por el circuito así formado, se producen reacciones químicas entre las sustancias del conjunto. Este proceso es el conocido fenómeno de la electrolisis. Las pilas son el proceso inverso de la electrólisis, es decir, en ellas los elementos están dispuestos de tal modo que la reacción química que se produce entre sus constituyentes cuando se cierra el circuito genere una diferencia de potencial en los electrodos, de modo que se pueda suministrar corriente eléctrica a una carga externa. El funcionamiento de una pila se basa en el potencial de contacto entre un metal y un electrolito, esto es, el potencial que se produce al poner en contacto un metal con un líquido. 50 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Así, al introducir una placa de zinc (Zn) en agua, el zinc se disuelve algo en forma de iones Zn ++ que pasan al líquido; esta emisión de iones hace que la placa adquiera una carga negativa respecto al líquido, pues tiene ahora un exceso de electrones, creándose entre ambos una diferencia de potencial. Los iones que están en el líquido ejercen una presión que se opone a la continuación de la disolución, la cual se detendrá cuando se alcance un valor determinado, llamado tensión de disolución. Cuando se cierra el circuito externo, los electrones del zinc retornan a través de él al polo opuesto, mientras que en el interior del electrolito se reanuda la corriente de iones que circula en sentido contrario. La imagen precedente muestra el esquema electroquímico de una celda Daniell, que se describe luego con más detalle —incidentalmente, obsérvese que las denominaciones de ánodo y cátodo se utilizan sobre la base del flujo de electrones por el circuito externo y no en el sentido habitual, según el cual la corriente va del polo positivo al negativo—. Características, propiedades y forma de utilización de las pilas Voltaje El voltaje, tensión o diferencia de potencial que produce un elemento electroquímico viene determinado completamente por la naturaleza de las sustancias de los electrodos y del electrolito, así como por su concentración. Walther Nernst obtuvo el premio Nobel de química de 1920 por haber formulado cuantitativamente y demostrado las leyes que rigen este fenómeno. La conexión de elementos en serie permite multiplicar esta tensión básica cuanto se quiera. Las propiedades puramente eléctricas de una pila se representan mediante el modelo adjunto. En su forma más sencilla está formado por una fuente de tensión perfecta —es decir, con resistencia interna nula— en serie con un resistor que representa la resistencia interna. El condensador de la versión más compleja es enormemente grande y su carga simula la descarga de la pila. Además de ello entre los terminales también aparece una capacitancia, que no suele tener importancia en las aplicaciones de corriente continua. 51 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Símbolo de una pila (izquierda); modelo eléctrico simplificado (centro); modelo más elaborado (derecha). Una vez fijada la tensión, la ley de Ohm determina la corriente que circulará por la carga y consecuentemente el trabajo que podrá realizarse, siempre naturalmente que esté dentro de las posibilidades de la pila, que no son infinitas, viniendo limitadas fundamentalmente por el tamaño de los electrodos —lo que determina el tamaño externo de la pila completa— y por su separación. Estos condicionamientos físicos se representan en el modelo de generador como una resistencia interna por la que pasaría la corriente de un generador ideal, es decir, de uno que pudiese suministrar una corriente infinita al voltaje predeterminado. Conforme la célula se va gastando, su resistencia interna va aumentando, lo que hace que la tensión disponible sobre la carga vaya disminuyendo, hasta que resulte insuficiente para los fines deseados, momento en el que es necesario reemplazarla. Para dar una idea, una pila nueva de las ordinarias de 1,5 V tiene una resistencia interna de unos 0,35 Ω, mientras que una vez agotada puede tener varios. Esta es la razón de que la mera medición de la tensión con un voltímetro no sirva para indicar el estado de una pila; en circuito abierto incluso una pila gastada puede indicar 1,4 V, dada la carga insignificante que representa la resistencia de entrada del voltímetro, pero, si la medición se hace con la carga que habitualmente soporte, la lectura bajará a 1,0 V o menos, momento en que esa pila ha dejado de tener utilidad. Las actuales pilas alcalinas tienen una curva de descarga más suave que las previas de carbón; su resistencia interna aumenta proporcionalmente más despacio. Cuando se necesita una corriente mayor que la que puede suministrar un elemento único, siendo su tensión en cambio la adecuada, se pueden añadir otros elementos en la conexión llamada en paralelo, es decir, uniendo los polos positivos de todos ellos, por un lado, y los negativos, por otro. Este tipo de conexión tiene el inconveniente de que si un elemento falla antes que sus compañeros, o se cortocircuita, arrastra irremisiblemente en su caída a todos los demás. Capacidad total La capacidad total de una pila se mide en amperios x hora (A·h); es el número máximo de amperios que el elemento puede suministrar en una hora. Es un valor que no suele conocerse, ya que no es muy esclarecedor dado que depende de la intensidad solicitada y la temperatura. Cuando se extrae una gran corriente de manera continuada, la pila entrega menos potencia total que si la carga es más suave. También en esto las pilas alcalinas son mejores. Una de tipo D tiene una capacidad de entre 9 Ah —con una carga de 1 A— y 12 Ah —con una carga de 1 mA—, mientras que los correspondientes valores para una de carbón-zinc son 1 y 7,5, respectivamente. Circuito Se denomina circuito eléctrico a una serie de elementos o componentes eléctricos, tales como resistencias, inductancias, condensadores y fuentes, o electrónicos, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales electrónicas. 52 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Por el tipo de señal Por el tipo régimen De corriente continua De corriente alterna Mixtos Periódico Transitorio Permanente de Por el tipo de componentes Por su configuración Eléctricos: inductivos capacitivos y Electrónicos: analógicos y mixtos Serie Paralelo Mixtos Resistivos, mixtos digitales, Partes de un circuito A la hora de analizar un circuito es conveniente conocer la terminología de cada elemento que lo forma. A continuación se indican los comúnmente más aceptados tomando como ejemplo el circuito mostrado en la figura Conector: hilo conductor de resistencia despreciable (idealmente cero) que une eléctricamente dos o más elementos. Generador o fuente: elemento que produce electricidad. En el circuito de la figura 1 hay tres fuentes, una de intensidad, I, y dos de tensión, E1 y E2. Red: conjunto de elementos unidos mediante conectores. Nudo o nodo: punto de un circuito donde concurren varios conductores distintos. En la figura 1 se observan cuatro nudos: A, B, D y E. Obsérve que C no se ha tenido en cuenta ya que es el mismo nudo A al no existir entre ellos diferencia de potencial (VA - VC = 0). Rama: conjunto de todos los elementos de un circuito comprendidos entre dos nudos consecutivos. En la figura 1 se hallan siete ramas: AB por la fuente, AB por R1, AD, AE, BD, BE y DE. Obviamente, por una rama sólo puede circular una corriente. Circuitos de corriente continua 53 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Figura 2: circuitos divisores de tensión, a), y de intensidad, b). En este punto se describirán los principales circuitos en corriente continua así como su análisis, esto es, el cálculo de las intensidades, tensiones o potencias. Divisor de tensión Dos o más resistencias conectadas en serie forman un divisor de tensión. De acuerdo con la segunda ley de Kirchhoff o ley de las mallas, la tensión total es suma de las tensiones parciales en cada resistencia, por lo que seleccionando valores adecuados de las mismas, se puede dividir una tensión en los valores más pequeños que se deseen. La tensión Vi en bornes de la resistencia Ri, en un divisor de tensión de n resistencias cuya tensión total es V, viene dada por: En el caso particular de un divisor de dos resistencias (figura 2 a), es posible determinar las tensiones en bornes de cada resistencia, VAB y VBC, en función de la tensión total, VAC, sin tener que calcular previamente la intensidad. Para ello se utilizan las siguientes ecuaciones de fácil deducción: Este caso es el que se presenta, por ejemplo, a la hora de ampliar la escala de un voltímetro, donde R1 sería la resistencia de la bobina voltimétrica y R2 la resistencia de ampliación de escala. Divisor de intensidad Dos o más resistencias conectadas en paralelo forman un divisor de intensidad. De acuerdo con la primera ley de Kirchhoff o ley de los nudos, la corriente que entra en un nudo es igual a la suma de las corrientes que salen. Seleccionando valores adecuados de resistencias se puede dividir una corriente en los valores más pequeños que se deseen. En el caso particular de un divisor de dos resistencias (figura 2 b), es posible determinar las corrientes parciales que circulan por cada resistencia, I1 e I2, en función de la corriente total, I, sin tener que calcular previamente la caída de tensión en la asociación. Para ello se utilizan las siguientes ecuaciones de fácil deducción: 54 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Este caso es el que se presenta, por ejemplo, a la hora de ampliar la escala de un amperímetro, donde R1 sería la resistencia de la bobina amperimétrica y R2 la resistencia shunt. Red con fuente única Figura 3: ejemplo de circuito resistivo de fuente única. Se trata de una red de resistencias alimentadas con una sola fuente (figura 3). Para su análisis se seguirán, en general, los siguientes pasos: 1. Se calcula la resistencia equivalente de la asociación. 2. Se calcula la intensidad, I, que suministra la fuente, 3. Se calculan las intensidades y tensiones parciales. A modo de ejemplo de lo expuesto, se analizará el circuito de la figura 3 su poniendo los siguientes valores: Resolución 1. Sea RABC la resistencia equivalente de la rama superior del circuito Y denominando Re a la resistencia equivalente: 2. A partir de la ley de Ohm se determina la intensidad, I, que proporciona la fuente: 3. A partir de la ley de Ohm: 55 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis R3 y R4 forman un divisor de intensidad para I1, por lo tanto Red general Figura 4: ejemplo de red general: circuito de dos mallas. En el caso más general, el circuito podrá tener más de una fuente. El análisis clásico de este tipo de redes se realiza obteniendo, a partir de las leyes de Kirchhoff, un sistema de ecuaciones donde las incógitas serán las corrientes que circulan por cada rama. En general, el proceso a seguir será el siguiente: 1. Se dibujan y nombran de modo arbitrario las corrientes que circulan por cada rama. 2. Se obtiene un sistema de tantas ecuaciones como intensidades haya. Las ecuaciones se obtendrán a partir de las leyes de Kirchhoff de acuerdo con el siguiente criterio: 1. Se aplica la primera ley tantos nudos como haya menos uno. 2. Se aplica la segunda ley a todas las mallas. Como ejemplo, se analizará el circuito de la figura 4 considerando los siguientes valores: Resolución 1. Se consideran las intensidades dibujadas en el circuito. 2. En el nudo A se cumple: 56 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Y sumando las tensiones en ambas mallas (vea como determinar la polaridad de la caída de tensión de una resistencia en d. d. p.): Ordenando las ecuaciones se obtiene el siguiente sistema Cuyas soluciones son: donde el valor negativo de I3 indica que la corriente circula en dirección contraria a como se ha dibujado en el circuito. En análisis de circuitos se puede observar el método de las mallas que simplifica el análisis de circuitos de este tipo. Balance de potencias Figura 5: Balance de potencias. Por balance de potencias de un circuito eléctrico se entiende la comprobación de que la suma algebraica de las potencias que generan o "absorben" las fuentes es igual a la suma de potencias que disipan los elementos pasivos. Para ello es necesario analizar previamente el circuito, esto es, determinar las corrientes que circulan por cada una de sus ramas así como las caídas de tensión en bornes de las fuentes de intensidad si las hubiere. Como ejemplo, se realizará el balance de potencias del circuito de la figura 5 considerando los siguientes valores: Resolución Aplicando la primera ley de Kirchhoff al nudo A y la segunda a la malla de la izquierda, se obtiene: Operando se obtiene: y la tensión en bornes de la fuente de intensidad 57 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Terminado el análisis, se realiza el balance de potencias: Elementos activos Elementos pasivos 3.1.7. Potencia eléctrica y el efecto Joule. Efecto Joule Si en un conductor circula corriente eléctrica, parte de la energía cinética de los electrones se transforma en calor debido al choque que sufren con las moléculas del conductor por el que circulan, elevando la temperatura del mismo. Este efecto es conocido como efecto Joule en honor a su descubridor el físico británico James Prescott Joule, que lo estudió en la década de 1860. Causas del fenómeno Los sólidos tienen generalmente una estructura cristalina, ocupando los átomos o moléculas los vértices de las celdas unitarias, y a veces también el centro de la celda o de sus caras. Cuando el cristal es sometido a una diferencia de potencial, los electrones son impulsados por el campo eléctrico a través del sólido debiendo en su recorrido atravesar la intrincada red de átomos que lo forma. En su camino, los electrones chocan con estos átomos perdiendo parte de su energía cinética, que es cedida en forma de calor. Este efecto fue definido de la siguiente manera: "La cantidad de energía calorífica producida por una corriente eléctrica, depende directamente del cuadrado de la intensidad de la corriente, del tiempo que ésta circula por el conductor y de la resistencia que opone el mismo al paso de la corriente". Matemáticamente se expresa como donde: Q = energía calorífica producida por la corriente I = intensidad de la corriente que circula y se mide en amperios R = resistencia eléctrica del conductor y se mide en ohms t = tiempo el cual se mide en segundos Así, la potencia disipada por efecto Joule será: 58 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis donde V es la diferencia de potencial entre los extremos del conductor. Ejemplo de cálculo Para determinar el valor de la resistencia eléctrica que debe tener un calentador eléctrico que, conectado a un enchufe de 220 V, es capaz de elevar la temperatura de un litro de agua de 15 °C a 80 °C en cinco minutos, se debe considerar que para elevar la temperatura del agua en 1 °C se necesitan 4,2 J por cada gramo. La energía calorífica necesaria para elevar la temperatura del agua de 15 °C a 80 °C será: Q = 1000g.(80 °C - 15 °c).4,2 J/g °C = 273000.J Un litro de agua corresponde a un kilogramo y 4,2 representa el calor en joules por gramo y grado Celsius (calor específico). Dado que se dispone del valor de la tensión, pero no de la intensidad, será necesario transformar la ley de Joule de modo que en la fórmula correspondiente aparezca aquélla y no ésta. Recurriendo a la ley de Ohm (V = i.R) se tiene: Q = (V/R) ².R.t = V ².t/R Despejando R y sustituyendo los valores conocidos resulta: R = V ².t/Q = (220 V) ².300 s/273000 J = 53,2.Ω Por lo tanto, el valor de la resistencia eléctrica debe ser 53,2 Ω para que el calentador eléctrico conectado a un enchufe de 220 V, sea capaz de elevar la temperatura de un litro de agua de 15 °C a 80 °C en cinco minutos. Aplicaciones En este efecto se basa el funcionamiento de diferentes electrodomésticos como los hornos, las tostadoras y las calefacciones eléctricas, y algunos aparatos empleados industrialmente como soldadoras, etc., en los que el efecto útil buscado es, precisamente, el calor que desprende el conductor por el paso de la corriente. Sin embargo, en la mayoría de las aplicaciones es un efecto indeseado y la razón por la que los aparatos eléctricos y electrónicos necesitan un ventilador que disipe el calor generado y evite el calentamiento excesivo de los diferentes dispositivos. Potencia eléctrica La potencia eléctrica se define como la cantidad de trabajo realizado por una corriente eléctrica. Potencia en corriente continua Cuando se trata de corriente continua (DC) la potencia eléctrica desarrollada en un cierto instante por un dispositivo de dos terminales es el producto de la diferencia de potencial entre dichos terminales y la intensidad de corriente que pasa a través del dispositivo. Esto es, donde I es el valor instantáneo de la corriente y V es el valor instantáneo del voltaje. Si I se expresa en amperios y V en voltios, P estará expresada en Watts. Igual definición se aplica cuando se consideran valores promedio para I, V y P. Cuando el dispositivo es una resistencia de valor R o se puede calcular la resistencia equivalente del dispositivo, la potencia también puede calcularse como 59 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Magnetismo. 3.2.1. Concepto de magnetismo. Magnetismo Líneas de fuerza magnéticas de un imán de barra, producidas por limaduras de hierro sobre papel. En física, el magnetismo es un fenómeno por el que los materiales ejercen fuerzas de atracción o repulsión a otros materiales. Hay algunos materiales conocidos que han presentado propiedades magnéticas detectables fácilmente como el níquel, hierro y sus aleaciones que comúnmente se llaman (imanes). Sin embargo todos los materiales son influenciados, de mayor o menor forma, por la presencia de un campo magnético. También el magnetismo tiene otras manifestaciones en física, particularmente como uno de los dos componentes de la onda electromagnética, como por ejemplo la luz. Tipos de imanes. Imán Un imán (del francés aimant) es un cuerpo o dispositivo con un campo magnético significativo, de forma que tiende a alinearse con otros imanes (por ejemplo, con el campo magnético terrestre). Tipos de imanes Los imanes pueden ser imanes naturales, como la magnetita, un óxido de hierro (Fe3O4) con propiedades magnéticas. Un imán artificial es un cuerpo de material ferromagnético al que se ha comunicado la propiedad del magnetismo, bien mediante frotamiento con un imán natural, bien por la acción de corrientes eléctricas aplicadas en forma conveniente (electroimanación). Un imán permanente está fabricado en acero imanado (hierro con un alto contenido en carbono), lo que hace que conserve su poder magnético. Sin embargo, una fuerte carga eléctrica o un impacto de considerable magnitud puede causar que el imán pierda su fuerza actuante. Los imanes también pueden ser imanes temporales, es decir, que pierden sus propiedades una vez que cesa la causa que provoca el magnetismo, o permanentes. Dichos imanes están fabricados en hierro dulce (con un contenido muy bajo en carbono). Un electroimán es una bobina (en el caso mínimo, una espira) por la cual circula corriente eléctrica. Esto genera un campo magnético isomórfico al de un imán de barra el imán se imanta. Un electroimán es un caso particular de un imán temporal. ¿De dónde procede el magnetismo? Fue Oersted quien evidenció en 1820 por primera vez que una corriente genera un campo magnético a su alrededor. En el interior de la materia existen pequeñas corrientes cerradas al movimiento de los electrones que contienen los átomos, cada una de ellas origina un microscópico imán. Cuando estos pequeños imanes están orientados en todas direcciones sus efectos se anulan mutuamente el material no presenta propiedades magnéticas; y en cambio si todos los imanes se alinean actúan como un único imán en ese caso decimos que la sustancia se ha magnetizado. Polos magnéticos Líneas de fuerza de un imán visualizadas mediante limaduras de hierro extendidas sobre una cartulina. Tanto si se trata de un tipo de imán como de otro la máxima fuerza de atracción se halla en sus extremos, llamados polos. Un imán consta de dos polos, denominados polo norte y polo sur. Polos iguales se repelen y polos distintos se atraen. No existen polos aislados (monopolo magnético), y por lo tanto, si un imán se rompe en dos partes, se forman dos nuevos imanes, cada uno con su polo norte y su polo sur, solamente que la fuerza de atracción del imán disminuye. 60 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Entre ambos polos se crean líneas de fuerza, siendo estas líneas cerradas, por lo que en el interior del imán también van de un polo al otro. Como se muestra en la figura, pueden ser visualizadas esparciendo limaduras de hierro sobre una cartulina situada encima de una barra imantada; golpeando suavemente la cartulina, las limaduras se orientan en la dirección de las líneas de fuerza. Forma de magnetizar una sustancia Colocando el material en un fuerte campo magnético producido por un magneto permanente o por una corriente eléctrica, o cuando el material calentado que se puede volver magnético (ej. acero o lava basáltica) se enfría en la presencia de algún campo magnético. 3.2.2. Magnetismo terrestre. Campo magnético terrestre Líneas del campo magnético terrestre. Salen del polo norte magnético hacia el polo sur Una brújula apunta en la dirección Norte - Sur por tratarse de una aguja imantada inmersa en el campo magnético terrestre: desde este punto de vista, la Tierra se comporta como un imán gigantesco y tiene polos magnéticos, los cuales, en la actualidad, no coinciden con los polos geográficos. El Polo Norte Magnético se encuentra a 1800 kilómetros del Polo Sur Geográfico. En consecuencia, una brújula no apunta exactamente hacia el Norte geográfico; la diferencia, medida en grados, se denomina declinación magnética. La declinación magnética depende del lugar de observación, por ejemplo actualmente en Madrid (España) es aproximadamente 3º oeste. El polo sur magnético está desplazándose por la zona norte canadiense en dirección hacia el norte de Alaska. Origen del campo magnético terrestre El origen del campo terrestre permanece aún sin una explicación definitiva, si bien la teoría comúnmente aceptada es la generación del campo magnético por el Efecto Dinamo. Esta teoría muestra como un fluido conductor en movimiento (como es el magma terrestre) puede generar y mantener un campo magnético como el de la Tierra. Por ser de clase variable el campo magnético tiende a ser de género adyacente esto quiere decir que por no pertenecer a un ángulo trascendente obtuso la variación del campo no está perfectamente determinada por un patrón común. Variaciones del campo magnético terrestre El campo magnético de la Tierra varía en el curso de las eras geológicas, es lo que se denomina variación secular. Según se ha comprobado por análisis de los estratos al considerar que los átomos de hierro contenidos tienden a alinearse con el campo magnético terrestre. La dirección del campo magnético queda registrada en la orientación de los dominios magnéticos de las rocas y el ligero magnetismo resultante se puede medir. 61 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Midiendo el magnetismo de rocas situadas en estratos formados en periodos geológicos distintos se elaboraron mapas del campo magnético terrestre en diversas eras. Estos mapas muestran que ha habido épocas en que el campo magnético terrestre se ha reducido a cero para luego invertirse. Durante los últimos cinco millones de años se han efectuado más de veinte inversiones, la más reciente hace 700.000 años. Otras inversiones ocurrieron hace 870.000 y 950.000 años. El estudio de los sedimentos del fondo del océano indica que el campo estuvo prácticamente inactivo durante 10 o 20 mil años, hace poco más de un millón de años. Esta es la época en la que surgieron los seres humanos. No se puede predecir cuándo ocurrirá la siguiente inversión porque la secuencia no es regular. Ciertas mediciones recientes muestran una reducción del 5% en la intensidad del campo magnético en los últimos 100 años. Si se mantiene este ritmo el campo volverá a invertirse dentro de unos 2.002 años. Campo magnético El campo magnético es una propiedad del espacio por la cual una carga eléctrica puntual de valor q que se desplaza a una velocidad , sufre los efectos de una fuerza que es perpendicular y proporcional tanto a la velocidad como a una propiedad del campo, llamada inducción magnética (o según algunos autores, Densidad de flujo magnético). Así, dicha carga percibirá una fuerza descrita como (Nótese que tanto F como v y B son magnitudes vectoriales y el producto cruz es un producto vectorial que tiene como resultante un vector perpendicular tanto a v como a B). La existencia de un campo magnético se pone en evidencia por la propiedad localizada en el espacio de orientar un magnetómetro (laminilla de acero imantado que puede girar libremente). La aguja de una brújula, que pone en evidencia la existencia del campo magnético terrestre, puede ser considerada un magnetómetro. 3.3. Electromagnetismo 3.3.1. Concepto de electromagnetismo y su desarrollo histórico Electromagnetismo El Electromagnetismo es una rama de la Física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos fueron sentados por Faraday y formulados por primera vez de modo completo por James Clerk Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales que relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales (corriente eléctrica, polarización eléctrica y polarización magnética), conocidas como ecuaciones de Maxwell. El electromagnetismo es una teoría de campos; es decir, las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales dependientes de la posición en el espacio y del tiempo. El Electromagnetismo describe los fenómenos físicos macroscópicos en los cuales intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre las sustancias sólidas, líquidas y gaseosas. Por ser una teoría macroscópica, es decir, aplicable sólo a un número muy grande de partículas y a distancias grandes respecto de las dimensiones de éstas, el Electromagnetismo no describe los fenómenos atómicos y moleculares, para los que es necesario usar la Mecánica Cuántica. Historia Desde la antigua Grecia se conocían los fenómenos magnéticos y eléctricos pero no es hasta inicios del siglo XVII donde se comienza a realizar experimentos y a llegar a conclusiones científicas de éstos fenómenos.[1] Durante éstos dos siglos, XVII y XVIII, grandes hombres de ciencia como William Gilbert, Otto von Guericke, Stephen Gray, Benjamin Franklin, Alessandro 62 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Volta entre otros estuvieron investigando estos dos fenómenos de manera separada y llegando a conclusiones coherentes con sus experimentos. A principios del siglo XIX Hans Christian Ørsted planteó la hipótesis de que los fenómenos magnéticos y eléctricos estuviesen relacionados. De ahí es que los trabajos de físicos como André-Marie Ampère, William Sturgeon, Joseph Henry, Georg Simon Ohm, Michael Faraday en ese siglo, son unificados por James Clerk Maxwell en 1861 con un conjunto de ecuaciones que describían ambos fenómenos como uno solo, como un fenómeno electromagnético.[1] Las ahora llamadas ecuaciones de Maxwell demostraba que los campos eléctricos y los campos magnéticos eran un solo campo electromagnético. Además describía la naturaleza ondulatoria de la luz, y su semejanza con la naturaleza de los campos magnéticos y eléctricos, como parte de una onda electromagnética.[2] Con una sola teoría consistente que describía estos dos fenómenos antes separados, los físicos pudieron realizar varios experimentos prodigiosos e inventos muy útiles como la bombilla eléctrica por Thomas Alva Edison o el generador de corriente alterna por Nikola Tesla.[3] En la primera mitad del siglo XX, con el advenimiento de la mecánica cuántica, el electromagnétismo tenía que mejorar su fomulación con el objetivo que sea coherente con la nueva teoría. Ésto se logró en la década de 1940 cuando se completó una teoría cúantica electromagnética o mejor conocida como electrodinámica cuántica. 3.3.2. Descripción cualitativa del campo magnético producido por una corriente eléctrica en un conductor recto, una espira y un solenoide. Cabe destacar que, a diferencia del campo eléctrico, en el campo magnético no existen monopolos magnéticos, sólo dipolos magnéticos, lo que significa que las líneas de campo magnético son cerradas, esto es, el número neto de líneas de campo que entran en una superficie es igual al número de líneas de campo que salen de la misma superficie. Un claro ejemplo de esta propiedad viene representado por las líneas de campo de un imán, donde se puede ver que el mismo número de líneas de campo que salen del polo norte vuelve a entrar por el polo sur, desde donde vuelven por el interior del imán hasta el norte. Como se puede ver en el dibujo, independientemente de que la carga en movimiento sea positiva o negativa, en el punto A nunca aparece campo magnético; sin embargo, en los puntos B y C el campo magnético invierte su sentido dependiendo de si la carga es positiva o negativa. El sentido del campo magnético viene dado por la regla de la mano derecha, siendo las pautas a seguir las siguientes: En primer lugar se imagina un vector qv, en la misma dirección de la trayectoria de la carga en movimiento. El sentido de este vector depende del signo de la carga, esto es, si la carga es positiva y se mueve hacia la derecha, el vector +qv estará orientado hacia la derecha. No obstante, si la carga es negativa y se mueve hacia la derecha, el vector es -qv va hacia la izquierda. 63 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis A continuación, vamos señalando con los cuatro dedos de la mano derecha (índice, medio, anular y meñique), desde el primer vector qv hasta el segundo vector Ur, por el camino más corto o, lo que es lo mismo, el camino que forme el ángulo menor entre los dos vectores. El pulgar extendido indicará en ese punto el sentido del campo magnético. Unidades La unidad de B que se deduce de la ecuación dado el nombre de tesla. es . A esta unidad se le ha La unidad del campo magnético en el Sistema Internacional de Unidades es el tesla, pese a que a menudo se emplea el gauss. Sin embargo, la conversión es directa: 1 Tesla equivale a 1 V·s·m-2, o lo que es lo mismo, 1 kg·s-2·A-1. (Véase unidad derivada del SI). Solenoide El solenoide es un alambre aislado enrollado en forma de hélice (bobina) en número de espiras con un paso acorde a las necesidades, por el que circula una corriente eléctrica. Cuando esto sucede, se genera un campo magnético dentro del solenoide. El solenoide con un núcleo apropiado se convierte en un imán (en realidad electroimán). Este tipo de bobinas o solenoides es utilizado para accionar un tipo de válvula, llamada válvula solenoide, que responde a pulsos eléctricos respecto de su apertura y cierre. Eventualmente controlable por programa, su aplicación más recurrente en la actualidad, tiene relación con sistemas de regulación hidráulica y neumática. Un inductor o bobina es un componente pasivo de un circuito eléctrico que, debido al fenómeno de la autoinducción, almacena energía en forma de campo magnético. Construcción Un inductor está constituido usualmente por una bobina de material conductor, típicamente alambre o hilo de cobre esmaltado. Existen inductores con núcleo de aire o con núcleo de un material ferroso, para incrementar su inductancia. Los inductores pueden también estar construidos en circuitos integrados, usando el mismo proceso utilizado para realizar microprocesadores. En estos casos se usa, comúnmente, el aluminio como material conductor. Sin embargo, es raro que se construyan inductores dentro de los circuitos integrados; es mucho más práctico usar un circuito llamado "girador" que, mediante un amplificador operacional, hace que un condensador se comporte como si fuese un inductor. El inductor consta de las siguientes partes: Pieza polar: Es la parte del circuito magnético situada entre la culata y el entrehierro, incluyendo el núcleo y la expansión polar. Núcleo: Es la parte del circuito magnético rodeada por el devanado inductor. Devanado inductor: Es el conjunto de espiras destinado a producir el flujo magnético, al ser recorrido por la corriente eléctrica. Expansión polar: Es la parte de la pieza polar próxima al inducido y que bordea al entrehierro. 64 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Polo auxiliar o de conmutación: Es un polo magnético suplementario, provisto o no, de devanados y destinado a mejorar la conmutación. Suelen emplearse en las máquinas de mediana y gran potencia. Culata: Es una pieza de sustancia ferromagnética, no rodeada por devanados, y destinada a unir los polos de la máquina. 3.3.3. Inducción electromagnética y su relevancia en la electrificación. La inducción electromagnética es el fenómeno que origina la producción de una fuerza electromotriz (f.e.m. o voltaje) en un medio o cuerpo expuesto a un campo magnético variable, o bien en un medio móvil respecto a un campo magnético estático. Es así que, cuando dicho cuerpo es un conductor, se produce una corriente inducida. Este fenómeno fue descubierto por Michael Faraday quién lo expresó indicando que la magnitud del voltaje inducido es proporcional a la variación del flujo magnético (Ley de Faraday). Por otra parte, Heinrich Lenz comprobó que la corriente debida a la f.e.m. inducida se opone al cambio de flujo magnético, de forma tal que la corriente tiende a mantener el flujo. Esto es válido tanto para el caso en que la intensidad del flujo varíe, o que el cuerpo conductor se mueva respecto de él. 3.3.4. Características de la corriente directa y alterna. Corriente continua Representación de la tensión en corriente continua. La corriente continua (CC en español, en inglés DC, de Direct Current) es el flujo continuo de electrones a través de un conductor entre dos puntos de distinto potencial. A diferencia de la corriente alterna (CA en español, AC en inglés), en la corriente continua las cargas eléctricas circulan siempre en la misma dirección desde el punto de mayor potencial al de menor. Aunque comúnmente se identifica la corriente continua con la corriente constante (por ejemplo la suministrada por una batería), es continua toda corriente que mantenga siempre la misma polaridad. Corriente alterna Figura 1: Onda sinoidal. 65 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Se denomina corriente alterna (abreviada CA en español y AC en inglés) a la corriente eléctrica en la que la magnitud y dirección varían cíclicamente. La forma de onda de la corriente alterna más comúnmente utilizada es la de una onda sinoidal (figura 1), puesto que se consigue una transmisión más eficiente de la energía. Sin embargo, en ciertas aplicaciones se utilizan otras formas de onda periódicas, tales como la triangular o la cuadrada. Utilizada genéricamente, la CA se refiere a la forma en la cual la electricidad llega a los hogares y a las empresas. Sin embargo, las señales de audio y de radio transmitidas por los cables eléctricos, son también ejemplos de corriente alterna. En estos usos, el fin más importante suele ser la transmisión y recuperación de la información codificada (o modulada) sobre la señal de la CA. -Funcionamiento del transformador, generador y motor eléctrico. Transformador Se denomina transformador a una máquina electromagnética que permite aumentar o disminuir el voltaje o tensión en un circuito eléctrico de corriente alterna, manteniendo la frecuencia. La potencia que ingresa al equipo, en el caso de un transformador ideal, esto es, sin pérdidas, es igual a la que se obtiene a la salida. Las máquinas reales presentan un pequeño porcentaje de pérdidas, dependiendo de su diseño, tamaño, etc. Si suponemos un equipo ideal y consideramos, simplificando, la potencia como el producto del voltaje o tensión por la intensidad, ésta debe permanecer constante (ya que la potencia a la entrada tiene que ser igual a la potencia a la salida). Los transformadores son dispositivos basados en el fenómeno de la inducción electromagnética y están constituidos, en su forma más simple, por dos bobinas devanadas sobre un núcleo cerrado de hierro dulce o hierro silicio. Las bobinas o devanados se denominan primario y secundario según correspondan a la entrada o salida del sistema en cuestión, respectivamente. También existen transformadores con más devanados, en este caso puede existir un devanado "terciario", de menor tensión que el secundario. Funcionamiento Representación esquemática del transformador. Si se aplica una fuerza electromotriz alterna en el devanado primario, las variaciones de intensidad y sentido de la corriente alterna crearán un campo magnético variable dependiendo de la frecuencia de la corriente. Este campo magnético variable originará, por inducción, la aparición de una fuerza electromotriz en los extremos del devanado secundario. La relación entre la fuerza electromotriz conductora (Ep), la aplicada al devanado primario y la fuerza electromotriz inducida (Es), la obtenida en el secundario, es directamente proporcional al número de espiras de los devanados primario (Np) y secundario (Ns) . 66 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Esta particularidad tiene su utilidad para el transporte de energía eléctrica a larga distancia, al poder efectuarse el transporte a altas tensiones y pequeñas intensidades y por tanto pequeñas pérdidas. Así, si el número de espiras (vueltas) del secundario es 100 veces mayor que el del primario, si aplicamos una tensión alterna de 230 Voltios en el primario, obtendremos 23000 Voltios en el secundario (una relación 100 veces superior, como lo es la relación de espiras). A la relación entre el número de vueltas o espiras del primario y las del secundario se le llama relación de vueltas del transformador o relación de transformación. Ahora bien, como la potencia aplicada en el primario, en caso de un transformador ideal, debe ser igual a la obtenida en el secundario, el producto de la fuerza electromotriz por la intensidad (potencia) debe ser constante, con lo que en el caso del ejemplo, si la intensidad circulante por el primario es de 10 Amperios, la del secundario será de solo 0,1 amperios (una centésima parte). Generador eléctrico Un generador eléctrico es todo dispositivo capaz de mantener una diferencia de potencial eléctrico entre dos de sus puntos, llamados polos, terminales o bornes. Los generadores eléctricos son máquinas destinadas a transformar la energía mecánica en eléctrica. Esta transformación se consigue por la acción de un campo magnético sobre los conductores eléctricos dispuestos sobre una armadura (denominada también estator). Si mecánicamente se produce un movimiento relativo entre los conductores y el campo, se generara una fuerza electromotriz (F.E.M.). Se clasifican en dos tipos fundamentales: primarios y secundarios. Son generadores primarios los que convierten en energía eléctrica la energía de otra naturaleza que reciben o de la que disponen inicialmente, mientras que los secundarios entregan una parte de la energía eléctrica que han recibido previamente . Se agruparán los dispositivos concretos conforme al proceso físico que les sirve de fundamento. Motor eléctrico Un motor eléctrico es un dispositivo rotativo que transforma energía eléctrica en energía mecánica, y viceversa, convierte la Energía mecánica en energía electrica funcionando como generador o dynamo. Los motores electricos de tracción usados en locomotoras realizan a menudo ambas tareas, si se los equipa con frenos dynamo. Por estos motivos son ampliamente utilizados en instalaciones industriales y demás aplicaciones que no requieran autonomía respecto de la fuente de energía, dado que la energía eléctrica es difícil de almacenar. La energía de una batería de varios kg equivale a la que contienen 80 g de gasolina. Así, en automóviles se están empezando a utilizar en vehículos híbridos para aprovechar las ventajas de ambos. Ventajas En diversas circunstancias presenta muchas ventajas respecto a los motores de combustión: A igual potencia, su tamaño y peso son más reducidos. 67 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Se pueden construir de cualquier tamaño. Tiene un par de giro elevado y, según el tipo de motor, prácticamente constante. Su rendimiento es muy elevado (típicamente en torno al 80%, aumentando el mismo a medida que se incrementa la potencia de la máquina). 4. Óptica La Óptica es la rama de la física que estudia el comportamiento de la luz, y los fenómenos que produce, así como sus características y sus manifestaciones. Abarca el estudio de la reflexión, la refracción, las interferencias, la difracción, la formación de imágenes y la interacción de la luz con la materia. 4.1 Desarrollo histórico Reflexión y refracción En la Edad Antigua se conocía la propagación rectilínea de la luz y la reflexión y refracción. Dos filósofos y matemáticos griegos escribieron tratados sobre óptica, Empédocles y Euclides. Ya en la Edad Moderna René Descartes consideraba la luz como una onda de presión transmitida a través de un medio elástico perfecto (el éter) que llenaba el espacio. Atribuyó los diferentes colores a movimientos rotatorios de diferentes velocidades de las partículas en el medio. La ley de la refracción fue descubierta experimentalmente en 1621 por Willebrord Snell. En 1657 Pierre de Fermat enunció el principio del tiempo mínimo y a partir de él dedujo la ley de la refracción. Interferencia y difracción Robert Boyle y Robert Hooke descubrieron de forma independiente el fenómeno de la interferencia conocido como anillos de Newton. Hooke también observó la presencia de luz en la sombra geométrica, debido a la difracción, fenómeno que ya había sido descubierto por Francesco Maria Grimaldi. Hooke pensaba que la luz consistía en vibraciones propagadas instantáneamente a gran velocidad y creía que en un medio homogéneo cada vibración generaba una esfera que crece de forma regular. Con estas ideas, Hooke intentó explicar el fenómeno de la refracción e interpretar los colores. Sin embargo, los estudios que aclararon las propiedades de los colores fueron desarrollados por Newton que descubrió en 1666 que la luz blanca puede dividirse en sus colores componentes mediante un prisma y encontró que cada color puro se caracteriza por una refractabilidad específica. Las dificultades que la teoría ondulatoria se encontraba para explicar la propagación rectilínea de la luz y la polarización (descubierta por Huygens) llevaron a Newton a inclinarse por la teoría corpuscular, que supone que la luz se propaga desde los cuerpos luminosos en forma de partículas. Dispersión de la luz en dos prismas de distinto material. En la época en que Newton publicó su teoría del color, no se conocía si la luz se propagaba instantáneamente o no. El descubrimiento de la velocidad finita de la luz lo realizó en 1675 Olaf Römer a partir de observaciones de los eclipses de Júpiter. Primeras teorías y otros fenómenos Por su parte, Hooke fue de los primeros defensores de la teoría ondulatoria que fue extendida y mejorada por Christian Huygens que enunció el principio que lleva su nombre, según el cual cada punto perturbado por una onda puede considerarse como el centro de una nueva onda secundaria, la envolvente de estas ondas secundarias define el frente de onda en un tiempo posterior. Con la ayuda de este principio, consiguió deducir las leyes de la reflexión y refracción. 68 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis También pudo interpretar la doble refracción del espato de Islandia, fenómeno descubierto en 1669 por Erasmus Bartholinus, gracias a la suposición de la transmisión de una onda secundaria elipsoidal, además de la principal de forma esférica. Durante esta investigación Huygens descubrió la polarización. Cada uno de los dos rayos emergentes de la refracción del espato de Islandia puede extinguirse haciéndolo pasar por un segundo cristal del mismo material, rotado alrededor de un eje con la misma dirección que el rayo luminoso. Fue sin embargo Newton el que consiguió interpretar este fenómeno, suponiendo que los rayos tenían ―lados‖, propiedad que le pareció una objeción insuperable para la teoría ondulatoria de la luz, ya que en aquella época los científicos sólo estaban familiarizados con las ondas longitudinales. El prestigio de Newton, indujo el rechazo por parte de la comunidad científica de la teoría ondulatoria, durante casi un siglo, con algunas excepciones, como la de Leonhard Euler. No fue hasta el comienzo del Siglo XIX en que nuevos progresos llevaron a la aceptación generalizada de la teoría ondulatoria. El primero de ellos fue la enunciación por Thomas Young en 1801, del principio de interferencia y la explicación de los colores de películas delgadas. Sin embargo, como fueron expresadas en términos cualitativos no consiguieron reconocimiento generalizado. En esta misma época Étienne-Louis Malus describió la polarización por reflexión, en 1808 observó la reflexión del Sol desde una ventana a través de un cristal de espato de Islandia y encontró que las dos imágenes birrefringentes variaban sus intensidades relativas al rotar el cristal, aunque Malus no intentó interpretar el fenómeno. Aportes de Fresnel Augustin-Jean Fresnel ganó un premio instituido en 1818 por la academia de París por la explicación de la difracción, basándose en la teoría ondulatoria, que fue la primera de una serie de investigaciones que, en el curso de algunos años, terminaron por desacreditar completamente la teoría corpuscular. Los principios básicos utilizados fueron: el principio de Huygens y el de interferencia de Young, los cuales, según demostró Fresnel, son suficientes para explicar, no sólo la propagación rectilínea, sino las desviaciones de dicho comportamiento (como la difracción). Fresnel calculó la difracción causada por rendijas, pequeñas aperturas y pantallas. Una confirmación experimental de su teoría de la difracción fue la verificación realizada por François Jean Dominique Arago de una predicción de Poisson a partir de las teorías de Fresnel, que es la existencia de una mancha brillante en el centro de la sombra de un disco circular pequeño. En el mismo año (1818) Fresnel también investigó el problema de la influencia del movimiento terrestre en la propagación de la luz. Básicamente el problema consistía en determinar si existe alguna diferencia entre la luz de las estrellas y la de fuentes terrestres. Arago encontró experimentalmente que (aparte de la aberración) no había diferencia. Sobre la base de este descubrimiento Fresnel desarrolló su teoría de la convección parcial del éter por interacción con la materia, sus resultados fueron confirmados experimentalmente en 1851 por Armand Hypolite Louis Fizeau. Junto con Arago, Fresnel investigó la interferencia de rayos polarizados y encontró en 1816 que dos rayos polarizados perpendicularmente uno al otro, nunca interferían. Este hecho no pudo ser reconciliado con la hipótesis de ondas longitudinales, que hasta entonces se había dado por segura. Young explicó en 1817 el fenómeno con la suposición de ondas transversales. Fresnel intentó explicar la propagación de la luz como ondas en un material (éter) y dado que en un fluido sólo son posibles las oscilaciones elásticas longitudinales, concluyó que el éter debía comportarse como un sólido, pero como en aquella época la teoría de ondas elásticas en sólidos no estaba desarrollada, Fresnel intentó deducir las propiedades del éter de la observación experimental. Su punto de partida fueron las leyes de propagación en cristales. En 1832, William Rowan Hamilton predijo a partir de las teorías de Fresnel la denominada refracción cónica, confirmada posteriormente de forma experimental por Humprey Lloyd. Fue también Fresnel el que en 1821 dio la primera indicación de las causas de la dispersión al considerar la estructura molecular de la materia, idea desarrollada posteriormente por Cauchy. Los modelos dinámicos de los mecanismos de las vibraciones del éter, llevaron a Fresnel a deducir las leyes que ahora llevan su nombre y que gobiernan la intensidad y polarización de los rayos luminosos producidos por la reflexión y refracción. 69 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis La teoría del éter En 1850 Foucault, Fizeau y Breguet realizaron un experimento crucial para decidir entre las teorías ondulatoria y corpuscular. El experimento fue propuesto inicialmente por Arago y consiste en medir la velocidad de la luz en aire y agua. La teoría corpuscular explica la refracción en términos de la atracción de los corpúsculos luminosos hacia el medio más denso, lo que implica una velocidad mayor en el medio más denso. Por otra parte, la teoría ondulatoria implica, de acuerdo con el principio de Huygens que en el medio más denso la velocidad es menor. En las décadas que siguieron, se desarrolló la teoría del éter. El primer paso fue la formulación de una teoría de la elasticidad de los cuerpos sólidos desarrollada por Claude Louis Marie Henri Navier que consideró que la materia consiste de un conjunto de partículas ejerciendo entre ellas fuerzas a lo largo de las líneas que los unen. Diferentes desarrollos aplicables a la Óptica fueron realizados por Siméon Denis Poisson, George Green, James MacCullagh y Franz Neuman. Todas ellas encontraban dificultades por intentar explicar el fenómeno óptico en términos mecánicos. Por ejemplo, al incidir sobre un medio una onda transversal, se deberían producir ondas, tanto longitudinales como transversales, pero, según los experimentos de Arago y Fresnel, solo se producen del segundo tipo. Otra objeción a la hipótesis del éter es la ausencia de resistencia al movimiento de los planetas. Un primer paso para abandonar el concepto de éter elástico lo realizó MacCullagh, que postuló un medio con propiedades diferentes a la de los cuerpos ordinarios. Las leyes de propagación de ondas en este tipo de éter son similares a las ecuaciones electromagnéticas de Maxwell. Las ondas luminosas como ondas electromagnéticas Mientras tanto, las investigaciones en electricidad y magnetismo se desarrollaban culminando en los descubrimientos de Michael Faraday. James Clerk Maxwell consiguió resumir todo el conocimiento previo en este campo en un sistema de ecuaciones que establecían la posibilidad de ondas electromagnéticas con una velocidad que podía calcularse a partir de los resultados de medidas eléctricas y magnéticas. Cuando Rudolph Kohlrausch y Wilhelm Weber realizaron estas medidas, la velocidad obtenida resultó coincidir con la velocidad de la luz. Esto llevó a Maxwell a especular que las ondas luminosas eran electromagnéticas, lo que se verificó experimentalmente en 1888 por Heinrich Hertz. La teoría cuántica Pero, incluso la teoría electromagnética de la luz es incapaz de explicar el proceso de emisión y absorción. Las leyes que rigen estos últimos procesos comenzaron a dilucidarse con Joseph von Fraunhofer que descubrió entre 1814-1817 líneas oscuras en el espectro solar. La interpretación como líneas de absorción de las mismas se dio por primera vez en 1861 sobre la base de los experimentos de Robert Wilhelm Bunsen y Gustav Kirchhoff. La luz de espectro continuo del Sol, al pasar por los gases de la atmósfera solar, pierde por absorción, justamente aquellas frecuencias que los gases que la componen emiten. Este descubrimiento marca el inicio del análisis espectral que se base en que cada elemento químico tiene un espectro de líneas característico. El estudio de estos espectros no pertenece exclusivamente al campo de la Óptica ya que involucra la mecánica de los propios átomos y las leyes de las líneas espectrales revelan información, no tanto sobre la naturaleza de la luz como la estructura de las partículas emisoras. Finalmente la comunidad científica acabó aceptando que la mecánica clásica es inadecuada para una descripción correcta de los sucesos que ocurren en el interior de los átomos y debe ser reemplazada por la teoría cuántica. La aplicación de la misma permitió a Niels Bohr explicar las leyes de las líneas espectrales de los gases. Así pues, la mecánica cuántica ha influido decisivamente sobre el concepto científico de la naturaleza de la luz. Fue Albert Einstein el que, basándose en los cuantos de Planck retomó la teoría corpuscular de la luz en una nueva forma, asignándole realidad física de dichos cuantos (fotones). De este modo pudo explicar algunos fenómenos que se habían descubierto, relativos a la transformación de la luz en energía corpuscular que eran inexplicables con la teoría ondulatoria. Así, en el efecto fotoeléctrico la energía impartida a las partículas secundarias es independiente de la intensidad y es proporcional a la frecuencia de la luz. 70 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis La teoría detallada de la interacción entre campo y materia requiere de los métodos de la mecánica cuántica (cuantización del campo). En el caso de la radiación electromagnética, Dirac fue el primero en realizarlo, fundando las bases de la óptica cuántica. La óptica a su vez ha influido decisivamente en otros frentes de la física, en particular la rama de la óptica de cuerpos en movimiento participó en el desarrollo de la teoría de la relatividad. El primer fenómeno observado en este campo fue la aberración de las estrellas fijas, estudiado por James Bradley en 1728. El fenómeno aparece con la observación de las estrellas en diferentes posiciones angulares, dependiendo del movimiento de la Tierra respecto a la dirección del haz de luz. Bradley interpretó el fenómeno como causado por la velocidad finita de la luz y pudo determinar su velocidad de este modo. Otro fenómeno de la óptica de cuerpos en movimiento es la convección de la luz por los cuerpos en movimiento, que Fresnel mostró se podía entenderse como la participación de éter en el movimiento con sólo una fracción de la velocidad del cuerpo en movimiento. Fizeau demostró después esta convección experimentalmente con la ayuda de flujos de agua. El efecto del movimiento de la fuente luminosa fue estudiado por Christian Doppler, que formuló el principio de su mismo nombre. Hertz fue el primero en intentar generalizar las leyes de Maxwell a objetos en movimiento. Su formulación, sin embargo, entraba en conflicto con algunos experimentos. Otro investigador en este campo fue Hendrik Antoon Lorentz que supuso el éter en estado de reposo absoluto como portador del campo electromagnético y dedujo las propiedades de los cuerpos materiales a partir de la interacción de partículas eléctricas elementales (los electrones). Pudo deducir el coeficiente de convección de Fresnel a partir de su teoría, así como el resto de fenómenos conocidos en 1895. Sin embargo con la mejora de la precisión en la determinación de caminos ópticos, obtenida gracias al interferómetro de Albert Abraham Michelson con el que se descubrió una anomalía: resultó imposible demostrar la existencia de un corrimiento del éter requerida por la teoría del éter estacionario. Esta anomalía fue resuelta por Albert Einstein en 1905 con su teoría especial de la relatividad. Teorías científicas Desde el punto de vista físico, la luz es una onda electromagnética. Según el modelo utilizado para la luz, se distingue entre las siguientes ramas, por orden creciente de precisión (cada rama utiliza un modelo simplificado del empleado por la siguiente): La óptica geométrica u óptica física: Trata a la luz como un conjunto de rayos que cumplen el principio de Fermat. Se utiliza en el estudio de la transmisión de la luz por medios homogéneos (lentes, espejos), la reflexión y la refracción. La óptica ondulatoria: Considera a la luz como una onda plana, teniendo en cuenta su frecuencia y longitud de onda. Se utiliza para el estudio de difracción e interferencia. La óptica electromagnética: Considera a la luz como una onda electromagnética, explicando así la reflectancia y transmitancia, y los fenómenos de polarización y anisotropía. La óptica cuántica: Estudio cuántico de la interacción entre las ondas electromagnéticas y la materia, en el que la dualidad onda-corpúsculo desempeña un papel crucial. Espectro electromagnético Si bien la Óptica se inició como una rama de la física distinta del electromagnetismo en la actualizada se sabe que la luz visible parte del espectro electromagnético, que no es más que el conjunto de todas las frecuencias de vibración de la las ondas electromagnéticas. Los colores visibles al ojo humano se agrupan en la parte del espectro denominado visible. 71 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Luz La luz (del latín lux, lucis) es una onda electromagnética, compuesta por partículas energizadas llamadas fotones, capaz de ser percibida por el ojo humano y cuya frecuencia o energía determina su color. La ciencia que estudia las principales formas de producir luz, así como su control y aplicaciones se denomina óptica. El espectro electromagnético En términos generales, el espectro electromagnético abarca, según un orden creciente de frecuencias (o decreciente de longitudes de onda): las de radio las microondas los rayos infrarrojos la luz visible la radiación ultravioleta los rayos X los rayos gamma. El espectro visible Espectro visible La luz visible (al ojo humano) forma parte de una estrecha franja que va desde longitudes de onda de 380 nm (violeta) hasta los 780 nm (rojo). Los colores del espectro se ordenan como en el arco iris, formando el llamado espectro visible. Frecuencia y longitud de onda se relacionan por la expresión: donde c es la velocidad de la luz en el vacío, frecuencia f ó ν, y longitud de onda λ. Objetos visibles Hay dos tipos de objetos visibles: aquellos que por sí mismos emiten luz y los que la reflejan. El color de estos depende del espectro de la luz que incide y de la absorción del objeto, la cual determina qué ondas son reflejadas. 72 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis La luz blanca se produce cuando todas las longitudes de onda del espectro visible están presentes en proporciones e intensidades iguales. Esto se verifica en un disco que gira velozmente y que contiene todos los colores distribuidos uniformemente. El ojo humano es sensible a este pequeño rango del espectro radioeléctrico. Las ondas que tienen menor frecuencia que la luz (por ejemplo la radiofrecuencia), tienen mayor longitud de onda, y rodean los objetos sin interaccionar con ellos. Esto permite tener cobertura en el teléfono móvil aún dentro de una casa. Las ondas de mayor frecuencia que la luz tienen una longitud de onda tan pequeña que atraviesan la materia, por ejemplo los rayos X atraviesan algunos materiales como la carne, aunque no los huesos. Es sólo en la franja del espectro que va desde el violeta hasta el rojo donde las ondas electromagnéticas interaccionan (se reflejan o absorben) con la materia y permiten ver los objetos, sus formas, su posición, etc. Dentro de esta franja del espectro se puede determinar qué frecuencia o conjunto de frecuencias refleja o emite cada objeto, es decir, el color que tiene. Naturaleza de la luz La luz se compone de partículas energizadas denominadas fotones, cuyo grado de energía y frecuencia determina la longitud de onda y el color. Según estudios científicos, la luz sería una corriente de paquetes fotónicos que se mueven en el campo en forma ondulatoria por un lado y en forma corpuscular por otro. Teoría corpuscular Newton descubre en 1666 que la luz natural, al pasar a través de un prisma es separada en una gama de colores que van desde el rojo al azul; concluye que la luz blanca o natural está compuesta por todos lo colores del arcoiris. Isaac Newton propuso una teoría corpuscular para la luz, en contraposición a un modelo ondulatorio propuesto por Huygens. Supone que la luz está compuesta por una granizada de corpúsculos o partículas luminosas, los cuales se propagan en línea recta, que pueden atravesar medios transparentes y ser reflejados por materias opacas. Esta teoría explica la propagación rectilínea de la luz, la refracción y la reflexión; pero no explica los anillos de Newton (irisaciones en las láminas delgadas de los vidrios), que sí lo hace la teoría de Huygens, y tampoco los fenómenos de interferencia y difracción. Newton, experimentalmente demostró que la luz blanca, al traspasar un prisma, se dispersa en rayos de colores y que éstos, a su vez, al pasar por un segundo prisma no se descomponen, sino que son homogéneos. De esta descomposición de la luz deduce y demuestra que al dejar caer los rayos monocromáticos sobre un prisma, éstos se recombinan para transformarse en luz blanca. Se desprende así que ésta resulta de una combinación varia de rayos coloreados que poseen diferentes grados de refrangibilidad; desde el violeta –el más refrangible- hasta el rojo –que tiene el menor índice de refracción -. La banda de los colores prismáticos forma el espectro, cuya investigación y estudio conduciría, en la segunda mitad del siglo XIX, a varios hallazgos ribeteados con el asombro. Tal como enunciado, Newton consideró a la luz semejante a un flujo de proyectiles que son emitidos por un cuerpo que genera luminosidad. Supuso que la visión era la consecuencia de la colisión de granizadas de proyectiles que impactaban en los ojos. Con su hipótesis corpuscular, intentó explicar el hermoso fenómeno de los anillos de colores engendrados por láminas delgadas (los famosos anillos de Newton) e interpretó igualmente la refracción de la luz dentro de la hipótesis corpuscular, aceptando que las partículas luminosas, al pasar de un ambiente poco denso (aire) a otro más denso (cristales), aumentan su velocidad debido a una atracción más fuerte. Esta conclusión, en nada es coincidente con la teoría ondulatoria de la luz, la que propugna una propagación más lenta de la luz en el paso a través de materiales más densos. La teoría sobre una naturaleza corpuscular de la luz, sustentada por el enorme prestigio de Newton, prevaleció durante el siglo XVIII, pero debió ceder hacia mediados del siglo XIX frente a la teoría ondulatoria que fue contrastada con éxito con la experiencia. En la física actual, el descubrimiento de nuevos fenómenos ha llevado –sin arrinconar la teoría ondulatoria- a una conciliación de ambas ponencias teóricas. 73 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Teoría ondulatoria Propugnada por Christian Huygens en el año 1678, describe y explica lo que hoy se considera como leyes de reflexión y refracción. Define a la luz como un movimiento ondulatorio semejante al que se produce con el sonido. Ahora, como los físicos de la época consideraban que todas las ondas requerían de algún medio que las transportaran en el vacío, para las ondas lumínicas se postula como medio a una materia insustancial e invisible a la cual se le llamó éter (cuestión que es tratada con mayores detalles en la separata 4.03 de este mismo capítulo). Justamente la presencia del éter fue el principal medio cuestionador de la teoría ondulatoria. En ello, es necesario equiparar las vibraciones luminosas con las elásticas transversales de los sólidos sin que se transmitan, por lo tanto, vibraciones longitudinales. Aquí es donde se presenta la mayor contradicción en cuanto a la presencia del éter como medio de transporte de ondas, ya que se requeriría que éste reuniera alguna característica sólida pero que a su vez no opusiera resistencia al libre tránsito de los cuerpos sólidos. (Las ondas transversales sólo se propagan a través de medios sólidos.) En aquella época, la teoría de Huygens no fue muy considerada, fundamentalmente por el prestigio que alcanzó Newton. Pasó más de un siglo para que fuera tomada en cuenta la Teoría Ondulatoria de la luz. Los experimentos del médico inglés Thomas Young sobre los fenómenos de interferencias luminosas, y los del físico francés Auguste Jean Fresnel sobre la difracción fueron decisivos para que ello ocurriera y se colocara en la tabla de estudios de los físicos sobre la luz, la propuesta realizada en el siglo XVII por Huygens. Young demostró experimentalmente el hecho paradójico que se daba en la teoría corpuscular de que la suma de dos fuentes luminosas pueden producir menos luminosidad que por separado. En una pantalla negra practica dos minúsculos agujeros muy próximos entre sí: al acercar la pantalla al ojo, la luz de un pequeño y distante foco aparece en forma de anillos alternativamente brillantes y oscuros. ¿Cómo explicar el efecto de ambos agujeros que por separado darían un campo iluminado, y combinados producen sombra en ciertas zonas? Young logra explicar que la alternancia de las franjas por la imagen de las ondas acuáticas. Si las ondas suman sus crestas hallándose en concordancia de fase, la vibración resultante será intensa. Por el contrario, si la cresta de una onda coincide con el valle de la otra, la vibración resultante será nula. Deducción simple imputada a una interferencia y se embriona la idea de la luz como estado vibratorio de una materia insustancial e invisible, el éter, al cual se le resucita. Ahora bien, la colaboración de Auguste Fresnel para el rescate de la teoría ondulatoria de la luz estuvo dada por el aporte matemático que le dio rigor a las ideas propuestas por Young y la explicación que presentó sobre el fenómeno de la polarización al transformar el movimiento ondulatorio longitudinal, supuesto por Huygens y ratificado por Young, quien creía que las vibraciones luminosas se efectuaban en dirección paralela a la propagación de la onda luminosa, en transversales. Pero aquí, y pese a las sagaces explicaciones que incluso rayan en las adivinanzas dadas por Fresnel, inmediatamente queda presentada una gran contradicción a esta doctrina, ya que no es posible que se pueda propagar en el éter la luz por medio de ondas transversales, debido a que éstas sólo se propagan en medios sólidos. En su trabajo, Fresnel explica una multiplicidad de fenómenos manifestados por la luz polarizada. Observa que dos rayos polarizados ubicados en un mismo plano se interfieren, pero no lo hacen si están polarizados entre sí cuando se encuentran perpendicularmente. Este descubrimiento lo invita a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente en dirección a la propagación y establece que ese algo no puede ser más que la propia vibración luminosa. La conclusión se impone: las vibraciones en la luz no pueden ser longitudinales, como Young lo propusiera, sino perpendiculares a la dirección de propagación, transversales. Las distintas investigaciones y estudios que se realizaron sobre la naturaleza de la luz, en la época en que nos encontramos de lo que va transcurrido del relato, engendraron aspiraciones de mayores conocimientos sobre la luz. Entre ellas, se encuentra la de lograr medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones astronómicas. Hippolyte Fizeau (1819- 1896) concretó el proyecto en 1849 con un clásico experimento. Al hacer pasar la luz reflejada por dos espejos entre los intersticios de una rueda girando rápidamente, determinó la 74 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis velocidad que podría tener la luz en su trayectoria, que estimó aproximadamente en 300.000 km./s. Después de Fizeau, lo siguió León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del agua. Ello fue de gran interés, ya que iba a servir de criterio entre la teoría corpuscular y la ondulatoria. La primera, como señalamos, requería que la velocidad fuese mayor en el agua que en el aire; lo contrario exigía, pues, la segunda. En sus experimentos, Foucault logró comprobar, en 1851, que la velocidad de la luz cuando transcurre por el agua es inferior a la que desarrolla cuando transita por el aire. Con ello, la teoría ondulatoria adquiere cierta preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada por Maxwell. Naturaleza cuántica de la luz Sin embargo, la teoría electromagnética clásica no podía explicar la emisión de electrones por un conductor cuando incide luz sobre su superficie, fenómeno conocido como efecto fotoeléctrico. Este efecto consiste en la emisión espontánea de electrones (o la generación de una diferencia de potencial eléctrico) en algunos sólidos (metálicos o semiconductores) irradiados por luz. Fue descubierto y descrito experimentalmente por Heinrich Hertz en 1887 y suponía un importante desafío a la teoría electromagnética de la luz. En 1905, el joven físico Albert Einstein presentó una explicación del efecto fotoeléctrico basándose en una idea propuesta anteriormente por Planck para la emisión espontánea de radiación lumínica por cuerpos cálidos y postuló que la energía de un haz luminoso se hallaba concentrada en pequeños paquetes, que denominó cuantos de energía y que en el caso de la luz se denominan fotones. El mecanismo del efecto fotoeléctrico consistiría en la transferencia de energía de un fotón a un electrón. Cada fotón tiene una energía proporcional a la frecuencia de vibración del campo electromagnético que lo conforma. Posteriormente, los experimentos de Millikan demostraron que la energía cinética de los fotoelectrones coincidía exactamente con la dada por la fórmula de Einstein. El punto de vista actual es aceptar el hecho de que la luz posee una doble naturaleza que explica de forma diferente los fenómenos de la propagación de la luz (naturaleza ondulatoria) y de la interacción de la luz y la materia (naturaleza corpuscular). Esta dualidad onda/partícula, postulada inicialmente para la luz, se aplica en la actualidad de manera generalizada para todas las partículas materiales y constituye uno de los principios básicos de la mecánica cuántica. Velocidad de la luz La velocidad de la luz en el vacío, según la Teoría de la Relatividad de Einstein, es una constante para todos los observadores y se representa mediante la letra c (del latín celeritas). En el Sistema Internacional de Unidades se toma el valor: c = 299.792.458 m/s o c = 299.792,458 km/s Medición de la velocidad de la luz Galileo Galilei (1564-1642), físico y astrónomo italiano, fue el primero en intentar medir la velocidad de la luz, pero el primero en encontrar un método efectivo a tal fin fue el astrónomo danés Ole Roemer (1644-1710) quien calculó en 1676 y a partir de "demoras" en los eclipses de las lunas de Júpiter, que la velocidad de la luz era de aproximadamente 225.302 km/s. Velocidad de las señales Ninguna señal que contenga información puede transmitirse a velocidades superiores a la velocidad de la luz en el vacío. Este hecho es explicado en el marco de la teoría de la relatividad especial de Einstein y es una consecuencia del Principio de causalidad. Velocidad de la luz en distintos medios La velocidad de la luz varía según el medio en el cual se propaga, siendo más lenta en el vidrio que en el vacío o el aire. Por esto se denomina IOR (Índice de refracción) de un medio al cociente de la velocidad de la luz en el vacío y la velocidad de la luz en el medio que se desea calcular. Ejemplos: IOR del Vacio = 1,00000 75 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis (En Condiciones normales de presión y temperatura) IOR del Aire = 1,00029 IOR del Agua = 1,333 IOR del Diamante = 2,417 Refracción de la luz Una refracción es la desviación de un haz de luz provocado por el cambio de medio a otro con distinto IOR (Índice de refracción). Este fenómeno puede ser observado cuando uno introduce un lápiz en un vaso con agua o cuando una lupa concentra los rayos de luz en un sólo punto. Velocidad de la luz en medios dieléctricos La luz se propaga a velocidades menores en medios dieléctricos. Cuando en un medio material una partícula supera la velocidad de la luz correspondiente a dicho medio, se produce una emisión secundaria de luz denominada radiación de Cherenkov. Este efecto se observa en reactores nucleares que utilizan el agua para apantallar emisiones de neutrones y en los grandes detectores de neutrinos de agua pesada, como el Kamiokande, cuando un neutrino atraviesa el hielo produce la luz denominada "luz de Cherenkov". También se produce un tipo de radiación de Cherenkov en la alta atmósfera terrestre, causado por el impacto de rayos cósmicos y otras partículas de muy alta energía. Cambios en la velocidad de la luz Algunas teorías cosmológicas apuntan la posibilidad de que el valor de la velocidad de la luz en el vacío podría haber variado a lo largo de la historia del Universo aunque no hay datos observacionales que permitan demostrar esta hipótesis. Según las últimas investigaciones, entre ellas las de un astrónomo australiano, y un físico teórico portugués, este dato se está corroborando. ¿Se puede superar la velocidad de la luz? En numerosas ocasiones se han planteado experimentos o hechos observados en los que se afirma haber superado la velocidad de la luz. En el marco actual de la física es difícil concebir tal hecho porque esta barrera forma parte intrínseca de la estructura del espaciotiempo. Los físicos actuales sostienen que no es posible superar la velocidad de la luz en el vacío, algo difícilmente comprensible por los no entendidos en relatividad y que es considerado, frecuentemente, como una visión fundamentalista. 4.2 Óptica geométrica La óptica geométrica parte de las leyes fenomenológicas de Snell de la reflexión y la refracción. A partir de ellas, basta hacer geometría con los rayos luminosos para la obtención de las fórmulas que corresponden a los espejos, dioptrio y lentes (o sus combinaciones), obteniendo así las leyes que gobiernan los instrumentos ópticos a que estamos acostumbrados. La óptica geométrica usa la noción de rayo luminoso; es una aproximación del comportamiento que corresponde a las ondas electromagnéticas (la luz) cuando los objetos involucrados son de tamaño mucho mayor que la longitud de onda usada; ello permite despreciar los efectos derivados de la difracción, comportamiento ligado a la naturaleza ondulatoria de la luz. Óptica geométrica Este campo de la óptica se ocupa de la aplicación de las leyes de reflexión y refracción de la luz al diseño de lentes y otros componentes de instrumentos ópticos. Reflexión y refracción Refracción de la luz en diamantes El brillo de los diamantes se debe a su elevado índice de refracción, aproximadamente 2,4. El índice de refracción de un material transparente indica cuánto desvía los rayos de luz. La habilidad del joyero reside en tallar las facetas de modo que cada rayo de luz se refleje muchas veces antes de salir de la piedra. El índice de refracción es ligeramente distinto para cada color de la luz, por lo que la luz blanca se divide en sus componentes dando lugar a los fuegos multicolores de los diamantes. Si un rayo de luz que se propaga a través de un medio homogéneo incide sobre la superficie de un segundo medio homogéneo, parte de la luz es reflejada y parte entra como rayo refractado en 76 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis el segundo medio, donde puede o no ser absorbido. La cantidad de luz reflejada depende de la relación entre los índices de refracción de ambos medios. El plano de incidencia se define como el plano formado por el rayo incidente y la normal (es decir, la línea perpendicular a la superficie del medio) en el punto de incidencia (véase figura 1). El ángulo de incidencia es el ángulo entre el rayo incidente y la normal. Los ángulos de reflexión y refracción se definen de modo análogo. Las leyes de la reflexión afirman que el ángulo de incidencia es igual al ángulo de reflexión, y que el rayo incidente, el rayo reflejado y la normal en el punto de incidencia se encuentran en un mismo plano. Si la superficie del segundo medio es lisa, puede actuar como un espejo y producir una imagen reflejada (figura 2). En la figura 2, la fuente de luz es el objeto A; un punto de A emite rayos en todas las direcciones. Los dos rayos que inciden sobre el espejo en B y C, por ejemplo, se reflejan como rayos BD y CE. Para un observador situado delante del espejo, esos rayos parecen venir del punto F que está detrás del espejo. De las leyes de reflexión se deduce que CF y BF forman el mismo ángulo con la superficie del espejo que AC y AB. En este caso, en el que el espejo es plano, la imagen del objeto parece situada detrás del espejo y separada de él por la misma distancia que hay entre éste y el objeto que está delante. Si la superficie del segundo medio es rugosa, las normales a los distintos puntos de la superficie se encuentran en direcciones aleatorias. En ese caso, los rayos que se encuentren en el mismo plano al salir de una fuente puntual de luz tendrán un plano de incidencia, y por tanto de reflexión, aleatorio. Esto hace que se dispersen y no puedan formar una imagen. Ley de Snell Esta importante ley, llamada así en honor del matemático holandés Willebrord van Roijen Snell, afirma que el producto del índice de refracción del primer medio y el seno del ángulo de incidencia de un rayo es igual al producto del índice de refracción del segundo medio y el seno del ángulo de refracción. El rayo incidente, el rayo refractado y la normal a la superficie de separación de los medios en el punto de incidencia están en un mismo plano. En general, el índice de refracción de una sustancia transparente más densa es mayor que el de un material menos denso, es decir, la velocidad de la luz es menor en la sustancia de mayor densidad. Por tanto, si un rayo incide de forma oblicua sobre un medio con un índice de refracción mayor, se desviará hacia la normal, mientras que si incide sobre un medio con un índice de refracción menor, se desviará alejándose de ella. Los rayos que inciden en la dirección de la normal son reflejados y refractados en esa misma dirección. Ley de Snell: n1seni = n2senr Para un observador situado en un medio menos denso, como el aire, un objeto situado en un medio más denso parece estar más cerca de la superficie de separación de lo que está en realidad. Un ejemplo habitual es el de un objeto sumergido, observado desde encima del agua, como se muestra en la figura 3 (sólo se representan rayos oblicuos para ilustrar el fenómeno con más claridad). El rayo DB procedente del punto D del objeto se desvía alejándose de la normal, hacia el punto A. Por ello, el objeto parece situado en C, donde la línea ABC intersecta una línea perpendicular a la superficie del agua y que pasa por D. En la figura 4 se muestra la trayectoria de un rayo de luz que atraviesa varios medios con superficies de separación paralelas. El índice de refracción del agua es más bajo que el del vidrio. Como el índice de refracción del primer y el último medio es el mismo, el rayo emerge en dirección paralela al rayo incidente AB, pero resulta desplazado. 4.3 Prismas Cuando la luz atraviesa un prisma —un objeto transparente con superficies planas y pulidas no paralelas—, el rayo de salida ya no es paralelo al rayo incidente. Como el índice de refracción de una sustancia varía según la longitud de onda, un prisma puede separar las diferentes longitudes de onda contenidas en un haz incidente y formar un espectro. En la figura 5, el ángulo CBD entre la trayectoria del rayo incidente y la trayectoria del rayo emergente es el ángulo de desviación. Puede demostrarse que cuando el ángulo de incidencia es igual al ángulo formado por el rayo 77 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis emergente, la desviación es mínima. El índice de refracción de un prisma puede calcularse midiendo el ángulo de desviación mínima y el ángulo que forman las caras del prisma. Leyes Ángulo crítico Puesto que los rayos se alejan de la normal cuando entran en un medio menos denso, y la desviación de la normal aumenta a medida que aumenta el ángulo de incidencia, hay un determinado ángulo de incidencia, denominado ángulo crítico, para el que el rayo refractado forma un ángulo de 90°. Con la normal, por lo que avanza justo a lo largo de la superficie de separación entre ambos medios. Si el ángulo de incidencia se hace mayor que el ángulo crítico, los rayos de luz serán totalmente reflejados. La reflexión total no puede producirse cuando la luz pasa de un medio menos denso a otro más denso. Las tres ilustraciones de la figura 6 muestran la refracción ordinaria, la refracción en el ángulo crítico y la reflexión total. La fibra óptica es una nueva aplicación práctica de la reflexión total. Cuando la luz entra por un extremo de un tubo macizo de vidrio o plástico, puede verse reflejada totalmente en la superficie exterior del tubo y, después de una serie de reflexiones totales sucesivas, salir por el otro extremo. Es posible fabricar fibras de vidrio de diámetro muy pequeño, recubrirlas con un material de índice de refracción menor y juntarlas en haces flexibles o placas rígidas que se utilizan para transmitir imágenes. Los haces flexibles, que pueden emplearse para iluminar además de para transmitir imágenes, son muy útiles para la exploración médica, ya que pueden introducirse en cavidades estrechas e incluso en vasos sanguíneos. Superficies esféricas y asféricas La mayor parte de la terminología tradicional de la óptica geométrica se desarrolló en relación con superficies esféricas de reflexión y refracción. Sin embargo, a veces se consideran superficies no esféricas o asféricas. El eje óptico es una línea de referencia que constituye un eje de simetría, y pasa por el centro de una lente o espejo esféricos y por su centro de curvatura. Si un haz de rayos estrecho que se propaga en la dirección del eje óptico incide sobre la superficie esférica de un espejo o una lente delgada, los rayos se reflejan o refractan de forma que se cortan, o parecen cortarse, en un punto situado sobre el eje óptico. La distancia entre ese punto (llamado foco) y el espejo o lente se denomina distancia focal. Cuando una lente es gruesa, los cálculos se realizan refiriéndolos a unos planos denominados planos principales, y no a la superficie real de la lente. Si las dos superficies de una lente no son iguales, ésta puede tener dos distancias focales, según cuál sea la superficie sobre la que incide la luz. Cuando un objeto está situado en el foco, los rayos que salen de él serán paralelos al eje óptico después de ser reflejados o refractados. Si una lente o espejo hace converger los rayos de forma que se corten delante de dicha lente o espejo, la imagen será real e invertida. Si los rayos divergen después de la reflexión o refracción de modo que parecen venir de un punto por el que no han pasado realmente, la imagen no está invertida y se denomina imagen virtual. La relación entre la altura de la imagen y la altura del objeto se denomina aumento lateral. Si se consideran positivas las distancias del eje x medidas desde una lente o espejo en el sentido contrario a la luz incidente contado a partir del vértice. Eje +y hacia arriba, entonces, siendo u la distancia del objeto, v la distancia de la imagen y f la distancia focal de un espejo o una lente delgada, los espejos esféricos cumplen la ecuación 1/u + 1/v = 1/f y las lentes esféricas la ecuación 1/u - 1/v = 1/f Si llamamos y al tamaño del objeto e y' al de la imágen, entonces para el agrandamiento la expresión será la siguiente: A = y'/y Si una lente simple tiene superficies de radios r 1 y r 2 y la relación entre su índice de refracción y el del medio que la rodea es n, se cumple que 78 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis 1 = n - n0 [ 1 - 1 ] f n0 r2 r1 La distancia focal de un espejo esférico es igual a la mitad de su radio de curvatura. Como se indica en la figura 7, los rayos que se desplazan en un haz estrecho en la dirección del eje óptico e inciden sobre un espejo cóncavo cuyo centro de curvatura está situado en C, se reflejan de modo que se cortan en B, a media distancia entre A y C. Si la distancia del objeto es mayor que la distancia AC, la imagen es real, reducida e invertida. Si el objeto se encuentra entre el centro de curvatura y el foco, la imagen es real, aumentada e invertida. Si el objeto está situado entre la superficie del espejo y su foco, la imagen es virtual, aumentada y no invertida. Un espejo convexo sólo forma imágenes virtuales, reducidas y no invertidas, a no ser que se utilice junto con otros componentes ópticos. 4.4 Lentes Una lente es un medio u objeto que concentra o dispersa rayos de luz. Las lentes más comunes se basan en el distinto grado de refracción que experimentan los rayos de luz al incidir en puntos diferentes de la lente. Entre ellas están las utilizadas para corregir los problemas de visión en gafas, anteojos o lentillas. También se usan lentes, o combinaciones de lentes y espejos, en telescopios y microscopios. El primer telescopio astronómico fue construido por Galileo Galilei usando dos lentes convergentes. Existen también instrumentos capaces de hacer converger o divergir otros tipos de ondas electromagnéticas y a los que se les denomina también lentes. Por ejemplo, en los microscopios electrónicos las lentes son de carácter magnético. En astrofísica es posible observar fenómenos de lentes gravitatorias cuando la luz procedente de objetos muy lejanos pasa cerca de objetos masivos, curvándose en su trayectoria. Origen de la palabra Lente La palabra lente proviene del latín "lentis" que significa "lenteja" con lo que a las lentes ópticas se las denomina así por similitud de forma con la legumbre. En el siglo XIV empezaron a fabricarse pequeños discos de vidrio que podían montarse sobre un marco. Fueron las primeras gafas de lectura. Tipos principales de lentes. Lente convexa. Una lente convexa es más gruesa en el centro que en los extremos. La luz que atraviesa una lente convexa se desvía hacia dentro (converge). Esto hace que se forme una imagen del objeto en una pantalla situada al otro lado de la lente. La imagen está enfocada si la pantalla se coloca a una distancia determinada, que depende de la distancia del objeto y del foco de la lente. La lente del ojo humano es convexa, y además puede cambiar de forma para enfocar objetos a distintas distancias. La lente se hace más gruesa al mirar objetos cercanos y más delgada al mirar objetos lejanos. A veces, los músculos del ojo no pueden enfocar la luz sobre la retina, la pantalla del globo ocular. Si la imagen de los objetos cercanos se forma detrás de la retina, se dice que existe hipermetropía. Lente cóncava. Las lentes cóncavas están curvadas hacia dentro. La luz que atraviesa una lente cóncava se desvía hacia fuera (diverge). A diferencia de las lentes convexas, que producen imágenes reales, las cóncavas sólo producen imágenes virtuales, es decir, imágenes de las que parecen proceder los rayos de luz. En este caso es una imagen más pequeña situada delante del 79 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis objeto (el trébol). En las gafas o anteojos para miopes, las lentes cóncavas hacen que los ojos formen una imagen nítida en la retina y no delante de ella. Lupa. Una lupa es una lente convexa grande empleada para examinar objetos pequeños. La lente desvía la luz incidente de modo que se forma una imagen virtual ampliada del objeto (en este caso un hongo) por detrás del mismo. La imagen se llama virtual porque los rayos que parecen venir de ella no pasan realmente por ella. Una imagen virtual no se puede proyectar en una pantalla. Las lentes con superficies de radios de curvatura pequeños tienen distancias focales cortas. Una lente con dos superficies convexas siempre refractará los rayos paralelos al eje óptico de forma que converjan en un foco situado en el lado de la lente opuesto al objeto. Una superficie de lente cóncava desvía los rayos incidentes paralelos al eje de forma divergente; a no ser que la segunda superficie sea convexa y tenga una curvatura mayor que la primera, los rayos divergen al salir de la lente, y parecen provenir de un punto situado en el mismo lado de la lente que el objeto. Estas lentes sólo forman imágenes virtuales, reducidas y no invertidas. Si la distancia del objeto es mayor que la distancia focal, una lente convergente forma una imagen real e invertida. Si el objeto está lo bastante alejado, la imagen será más pequeña que el objeto. Si la distancia del objeto es menor que la distancia focal de la lente, la imagen será virtual, mayor que el objeto y no invertida. En ese caso, el observador estará utilizando la lente como una lupa o microscopio simple. El ángulo que forma en el ojo esta imagen virtual aumentada (es decir, su dimensión angular aparente) es mayor que el ángulo que formaría el objeto si se encontrara a la distancia normal de visión. La relación de estos dos ángulos es la potencia de aumento de la lente. Una lente con una distancia focal más corta crearía una imagen virtual que formaría un ángulo mayor, por lo que su potencia de aumento sería mayor. La potencia de aumento de un sistema óptico indica cuánto parece acercar el objeto al ojo,y es diferente del aumento lateral de una cámara o telescopio, por ejemplo, donde la relación entre las dimensiones reales de la imagen real y las del objeto aumenta según aumenta la distancia focal. La cantidad de luz que puede admitir una lente aumenta con su diámetro. Como la superficie que ocupa una imagen es proporcional al cuadrado de la distancia focal de la lente, la intensidad luminosa de la superficie de la imagen es directamente proporcional al diámetro de la lente e inversamente proporcional al cuadrado de la distancia focal. Por ejemplo, la imagen producida por una lente de 3 cm de diámetro y una distancia focal de 20 cm sería cuatro veces menos luminosa que la formada por una lente del mismo diámetro con una distancia focal de 10 cm. La relación entre la distancia focal y el diámetro efectivo de una lente es su relación focal, llamada también número f. Su inversa se conoce como abertura relativa. Dos lentes con la misma abertura relativa tienen la misma luminosidad, independientemente de sus diámetros y distancias focales. Aberración La óptica geométrica predice que la imagen de un punto formada por elementos ópticos esféricos no es un punto perfecto, sino una pequeña mancha. Las partes exteriores de una superficie esférica tienen una distancia focal distinta a la de la zona central, y este defecto hace que la imagen de un punto sea un pequeño círculo. La diferencia en distancia focal entre las distintas partes de la sección esférica se denomina aberración esférica. Si la superficie de una lente o espejo, en lugar de ser una parte de una esfera es una sección de un paraboloide de revolución, los rayos paralelos que inciden en cualquier zona de la superficie se concentran en un único punto, sin aberración esférica. Mediante combinaciones de lentes convexas y cóncavas puede corregirse la aberración esférica, pero este defecto no puede eliminarse con una única lente esférica para un objeto e imagen reales. El fenómeno que consiste en un aumento lateral distinto para los puntos del objeto no situados en el eje óptico se denomina coma. Cuando hay coma, la luz procedente de un punto forma una familia de círculos situados dentro de un cono, y en un plano perpendicular al eje óptico la imagen adquiere forma de gota. Escogiendo adecuadamente las superficies puede eliminarse la coma para un determinado par de puntos objeto-imagen, pero no para todos los puntos. Los puntos del objeto y la imagen correspondientes entre sí (o conjugados) para los que no existe aberración esférica ni coma se denominan puntos aplanáticos, y una lente para la que existe dicho par de puntos se denomina lente aplanática. 80 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis El astigmatismo es un defecto por el que la luz procedente de un punto del objeto situado fuera del eje se esparce en la dirección del eje óptico. Si el objeto es una línea vertical, la sección transversal del haz refractado es una elipse; a medida que se aleja uno de la lente, la elipse se transforma primero en una línea horizontal, luego vuelve a expandirse y posteriormente pasa a ser una línea vertical. Si en un objeto plano, la superficie de mejor enfoque está curvada, se habla de ‗curvatura de imagen‘. La ‗distorsión‘ se debe a una variación del aumento con la distancia axial, y no a una falta de nitidez de la imagen. Como el índice de refracción varía con la longitud de onda, la distancia focal de una lente también varía, y produce una ‗aberración cromática‘ axial o longitudinal. Cada longitud de onda forma una imagen de tamaño ligeramente diferente; esto produce lo que se conoce por aberración cromática lateral. Mediante combinaciones (denominadas acromáticas) de lentes convergentes y divergentes fabricadas con vidrios de distinta dispersión es posible minimizar la aberración cromática. Los espejos están libres de este defecto. En general, en las lentes acromáticas se corrige la aberración cromática para dos o tres colores determinados. Las lentes son medios transparentes limitados por dos superficies, siendo curva al menos una de ellas. Tipos de lentes convergentes Las lentes convergentes son más gruesas por el centro que por el borde, y concentran (hacen converger) en un punto los rayos de luz que las atraviesan. A este punto se le llama foco (F) y la separación entre él y la lente se conoce como distancia focal (f). Observa que la lente 2 tiene menor distancia focal que la 1. Decimos, entonces, que la lente 2 tiene mayor potencia que la 1. La potencia de una lente es la inversa de su distancia focal y se mide en dioptrías si la distancia focal la medimos en metros. Las lentes convergentes se utilizan en muchos instrumentos ópticos y también para la corrección de la hipermetropía. Las personas hipermétropes no ven bien de cerca y tienen que alejarse los objetos. Una posible causa de la hipermetropía es el achatamiento anteroposterior del ojo que supone que las imágenes se formarían con nitidez por detrás de la retina. 81 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Si las lentes son más gruesas por los bordes que por el centro, hacen diverger (separan) los rayos de luz que pasan por ellas, por lo que se conocen como lentes divergentes. Tipos de lentes divergentes Si miramos por una lente divergente da la sensación de que los rayos proceden del punto F. A éste punto se le llama foco virtual. En las lentes divergentes la distancia focal se considera negativa. La miopía puede deberse a una deformación del ojo consistente en un alargamiento anteroposterior que hace que las imágenes se formen con nitidez antes de alcanzar la retina. Los miopes no ven bien de lejos y tienden a acercarse demasiado a los objetos. Las lentes divergentes sirven para corregir este defecto. Formación de imágenes: Si tomas una lente convergente (seguro que las tienes en el laboratorio de tu Centro) y la mueves acercándola y alejándola de un folio blanco que sostienes con la otra mano, comprobarás que para una cierta distancia se forma una imagen invertida y más pequeña de los objetos que se encuentran alejados de la lente. Cuando es posible proyectar la imagen formada decimos que se trata de una imagen real, y si no la podemos proyectar la denominamos imagen virtual. 82 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis Las lentes convergentes, para objetos alejados, forman imágenes reales, invertidas y de menor tamaño que los objetos En cambio, si miras un objeto cercano a través de la lente, observarás que se forma una imagen derecha y de mayor tamaño que el objeto. Para objetos próximos forman imágenes virtuales, derechas y de mayor tamaño. Intenta hacer lo mismo con una lente divergente y observarás que no es posible obtener una imagen proyectada sobre el papel y que al mirar a su través se ve una imagen derecha y de menor tamaño que los objetos. Las imágenes producidas por las lentes divergentes son virtuales, derechas y menores que los objetos Espejos Un espejo es una superficie pulida en la que al incidir la luz, se refleja siguiendo las leyes de la reflexión. El ejemplo más simple es el espejo plano. En él, un haz de rayos de luz paralelos puede cambiar de dirección completamente como conjunto y continuar siendo un haz de rayos paralelos, podiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real. Sin embargo, la imagen resulta derecha, pero invertida en el eje vertical. Existen también espejos cóncavos y espejos convexos. Cuando un espejo es cóncavo y la curva es una parábola, si un rayo incide paralelo al eje del espejo, se refleja pasando por el foco (que es la mitad del centro óptico de la esfera a la que pertenece el espejo), y si incide pasando por el foco, se refleja paralelo al eje principal. Historia Los espejos como utensilios de tocador y objeto manual fueron muy usados en las civilizaciones egipcia, griega, etrusca y romana. Se fabricaban siempre con metal bruñido, generalmente cobre, plata o bronce, a este proceso se le conoce como plateo. Tenían forma de placa redonda u oval, decorada ordinariamente con grabados o relieves mitológicos en el reverso (los romanos carecen de grabados, pero no de relieves) y con mango tallado para asirlos cómodamente; de ellos, se conservan todavía muchos ejemplares en algunos museos arqueológicos. Durante la alta Edad Media, apenas se hizo uso del espejo, hasta que en el siglo XIII se inventó la fabricación de los de 83 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis vidrio y de cristal de roca sobre lámina metálica (o con amalgama de plomo o estaño que son los espejos azogados), sin dejar por esto de construirse los de sólo metal hasta el siglo XVIII. El espejo, como mueble de habitación, empieza con el siglo XVI, pues aunque durante los dos siglos anteriores se citan algunos ejemplares históricos apenas era conocido y su uso era poco corriente. En dicho siglo, se presenta con marco elegante y pie artístico y ocupa lugar distinguido en el salón como objeto movible y de dimensiones reducidas. Hacia fines del siglo XVII las fábricas venecianas logran construir espejos de gran tamaño y desde entonces sirven como objetos singularmente decorativos en los salones, en los que ocupan un lugar destacado. Los espejos modernos consisten de una delgada capa de mercurio o aluminio depositado sobre una plancha de vidrio, la cual protege el metal y hace al espejo más duradero. Fórmulas Físicas Para una imagen formada por un espejo esférico se cumple que: en la que f es la distancia del foco al espejo, s la distancia del objeto al espejo y s' la distancia de la imágen formada al espejo, se lee: "La inversa de la distancia focal es igual a la suma de la inversa de la distancia del objeto al espejo con la inversa de la suma de la imágen formada al espejo y Espejos planos: Los espejos planos los utilizamos con mucha frecuencia. Si eres buen observador te habrás fijado en que la imagen producida por un espejo plano es virtual, ya que no la podemos proyectar sobre una pantalla, tiene el mismo tamaño que el objeto y se encuentra a la misma distancia del espejo que el objeto reflejado. Habrás observado también que la parte derecha de la imagen corresponde a la parte izquierda del objeto y viceversa. Esto se llama inversión lateral. Espejos esféricos: Los espejos retrovisores de los automóviles, los que se encuentran en las esquinas de las calles con poca visibilidad, los que se utilizan para la vigilancia en los centros comerciales, los que usamos en el cuarto de baño para vernos "aumentados", etc son ejemplos de espejos esféricos. Hay dos clases de espejos esféricos, los cóncavos y los convexos. El interior del casquete esférico es la parte La parte reflectante está en el exterior del reflectante. casquete esférico. 84 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis El centro de curvatura (O) es el centro de la esfera a la que pertenece el casquete. Cualquier rayo que pase por este punto se reflejará sin cambiar de dirección.El centro del casquete esférico (C) se denomina centro de figura. La línea azul, que pasa por los dos puntos anteriones se denomina eje óptico. El foco (F) es el punto en el que se concentran los rayos reflejados, para el caso de los espejos cóncavos, o sus prolongaciones si se trata de espejos convexos. Llamamos distancia focal de un espejo a la distancia entre los puntos F y C. Formación de imágenes En los espejos convexos siempre se forma una imagen virtual y derecha con respecto al objeto: En los espejos cóncavos, si el objeto se encuentra a una distancia superior a la distancia focal se forma una imagen real e invertida que puede ser mayor o menor que el objeto : Si el objeto se encuentra a una distancia inferior a la distancia focal, se forma una imagen virtual y derecha con respecto al objeto: 85 Guía Descargada desde : http://www.mxgo.net Librería Digital / E-BOOKS Gratis