Download EXTRATERRESTRES COMPUTADORAS
Document related concepts
no text concepts found
Transcript
El Meteoro del Sur Boletín de los climas terrestre y espacial. Boletín Meteorológico, publicación del Colegio de Ciencias y Humanidades Plantel Sur. Año 5, Volumen 2, No. 3 febrero 2014 EXTRATERRESTRES COMPUTADORAS RADIOTELESCOPIOS 1 UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO ESCUELA NACIONAL COLEGIO DE CIENCIAS Y HUMANIDADES PLANTEL SUR El meteoro del Sur Boletín de los climas terrestre y espacial. Editor: Fís. Arturo García Cole Director: Lic. Jaime Flores Suaste Colaboradores externos: Bertha Vázquez Román, M. en C. Carlos Cario Ramírez Colaboradores internos: Ing. Santiago Alfredo Díaz Azuara M. en C. Jaime Arturo Osorio Rosales Computo: Fís. Arturo García Cole & Ing. Santiago Alfredo Díaz Azuara D.R. © 2009, CCH-Sur Universidad Nacional Autónoma de México Llanuras y Cataratas s/n Jardines del Pedregal 04500, México, D.F. e-mail: meteorocch@gmail.com Web: http://colecchsur.wordpress.com https://twitter.com/EstMetSur https://www.facebook.com/estacion.meteorologicasur http://meteorocch.blogspot.mx Imagen de portada: http://us.123rf.com/400wm/400/400/leks/leks1108/leks110800102/10222432-dos-palomas-mensajeras-son-maravilla-pararecibir-el-sms.jpg Logo de la Estación Meteorológica del Plantel Sur. 2 Editorial El cine y el clima Alfredo Díaz-Azuara & Blanca Rivera-Pérez Ufff hace calor y me encuentro en una encrucijada son las siete pm y no sé si ver la entrega del premio Oscar en casa o ir al cine1 ver al Sr. Peabody y Sherman. Lo olvide, es muy probable que ni tengas una idea de quienes son Peabody (es un perro que habla y es el ser mas inteligente del mundo) y Sherman (es un niño e hijo adoptivo de Peabody), bueno son personajes de una caricatura de los 60s, salían en “Las Aventuras de Rocky y Bullwinkle y amigos”, lo divertido de la mini serie son sus aventuras que pasan con el fin de poner las cosas en orden en el espaciotiempo mientras aprende Sherman. Por cierto, la forma de hacer cine ha cambiando radicalmente en los últimos 10 años, y esto se debe a los contantes cabios tecnológicos que año tras año se dan; y así nuestro cine analógico (celuloide) nos dirá adiós para dar entrada al cine digital2 (cámaras de vídeo a 33 megapíxeles “7680 x 4320” con 60 imágenes por segundo "UHDV” y discos duros de alta velocidad; aunque esto sólo se ha demostrado en una configuración especial de laboratorio3, la velocidad más alta se consigue en cámaras de alta velocidad industriales y científicas que son capaces de filmar vídeo 1024x1024 a hasta 1 millón de imágenes por segundo durante breves periodos de grabación). Esto me recuerda que la temperatura de un proyector4 de un cine oscila entre 35 °C (imagínate si no existieran los climas artificiales, en mis tiempos había un encargado que tenia que estar dedicado a supervisar la proyección para el auditorio) y esa temperatura sólo es del proyector de toda la cabina5 oscila entre 50 – 60 °C. Ilustración 1 Tormenta solar, imagen NASA. 1 2 3 4 5 Y hablando de temperatura sabias que la temperatura de nuestro planeta es afectada por el clima espacial, si así como lo lees. La cantidad de energía solar que llega a nuestro planeta afecta la temperatura atmosférica (¡Orale!). Y esta a su vez, depende de la actividad del sol, y la manifestación más conocida por el hombre son las tormentas solares, varios estudios han corroborado que, durante los períodos en que se http://www.esdelibro.es/archivos/trabajos10/201000099_cine_trabajo.pdf https://www.youtube.com/watch?v=VVJLm9eWg40 http://www.avsforum.com/t/409580/uhdtv-future-of-audio-and-video http://www.kelonik.com/pdf/NEC_Digital_Cinema_SpecBrochure_spa.pdf?PHPSESSID=520c1bfa7e930c1b755ce539f382680d http://kinefilia.wordpress.com/2012/10/26/visita-a-una-cabina-de-proyeccion/ 3 produce un incremento de la actividad solar 6 , amplía el número de contingencias médicas relacionadas con infartos de miocardio y derrames cerebrales, así como de intentos de suicidio. Así que hay que tener cuidado con las manchas solares, más bien por el número de ellas. Ah! casi lo olvidaba las tormentas solares (Ilistración 1.) también afectan7 las comunicaciones por ondas de radio, los satélites, animales migratorios, los vuelos de avión, etcétera. Lo que me recuerda que durante la Segunda Guerra Mundial, hubo tantos problemas de comunicación para las fuerzas armadas, por lo que el ingeniero de radio de RCA Communications, John Nelson ideo un método de predicción de tormentas solares que hasta la fecha tiene un 95% exactitud. La pregunta final sería y ¿porque los del clima siempre olvidan dar el clima espacial? Ya es tiempo de ponerles traje de astronautas a los comentaristas del clima. 6 7 4 http://www.ncbi.nlm.nih.gov/pubmed/8199794?dopt=Abstrac http://www.ccme.es/efectos.html Contenido EDITORIAL .................................................. 3 CONTENIDO ................................................. 5 BUSQUEDA DE INTELIGENCIA EXTRATERRESTRE .... 6 COMO “PIENSA” UNA COMPUTADORA ................ 11 RADIOTELESCOPIOS ...................................... 15 ¿QUE SON LAS AURORAS POLARES? ................. 18 BENEFICIOS DE LA ATMOSFERA TERRESTRE ....... 21 ¿SABIAS QUE? ............................................ 23 DIRECTORIO ............................................... 24 5 Busqueda de Inteligencia Extraterrestre Jaime Osorio Rosales “El descubrimiento de otras civilizaciones podría abatir gran parte de la necesidad de conflicto aquí en la Tierra” Actualmente algunos científicos postulan que si tan sólo en la Vía Láctea existen miles de millones de estrellas, es absurdo pensar que la Tierra, nuestro planeta, fue el único lugar donde se desarrolló la inteligencia. Para demostrar sus presunciones han intentado, por más de cuarenta años, captar señales de radio provenientes de alguna civilización extraterrestre. En ello consiste el famoso programa SETI: siglas de Search for Extraterrestrial Intelligence. De acuerdo con esos científicos, SETI es el único medio por el cual podemos probar la existencia de vida inteligente más allá del Sistema Solar, ya que los viajes interestelares por ahora no son posibles, además de que los costos de los programas de búsqueda son relativamente bajos. En 1959, la revista Nature publicó un artículo en el que Philip Morrison y Giuseppe Cocconi, de la Universidad de Cornell, proponen un método para entablar comunicación con civilizaciones extraterrestres; sugieren que para sintonizar las señales el canal adecuado es en la frecuencia de 1.420 millones de ciclos por segundo (Mc/s), esto es, una longitud de onda de 21 cm, por ser la línea que emiten los átomos de hidrógeno. Como este es el compuesto más abundante en todo el Universo, parece razonable pensar que las civilizaciones extraterrestres usan la misma frecuencia de emisión y de recepción para realizar el contacto. En 1961 se llevó a cabo una afamada reunión cuyo principal objetivo fue conversar acerca de la posibilidad de contactar con civilizaciones extraterrestres; el suceso se realizó en Green Bank, Virginia Estados Unidos, sede de la National Radio Astronomy Observatory, y asistieron Cocconi, Morrison, el famoso físico Frank Drake, los astrónomos Su-Shu Huang y Carl Sagan, el biólogo molecular Melvin Calvin (quien recién había recibido el premio Nobel), el especialista en delfines John C. Lilly, y los ingenieros electrónicos Bernard M. Oliver y Dana W. Atchley. Días antes del encuentro, Frank Drake desarrolló una ecuación que proporcionaría las bases para las discusiones y que sería utilizada para evaluar la probabilidad de encontrar vida e inteligencia extraterrestre. La llamada ecuación de Drake es la siguiente: 𝑁 = 𝑅∗ (𝑓! )(𝑛! )(𝑓! )(𝑓! )(𝑓! )(𝐿) en la cual N representa el número de civilizaciones comunicativas en la Galaxia. Las primeras tres fracciones son valores astronómicos que estiman, respectivamente, la proporción de formación de estrellas R*, la fracción de estrellas con planetas fp y el número de planetas por estrellas en los que el ambiente es favorable para mantener la vida ne; los siguientes dos factores pertenecen al dominio de la biología, la fracción de planetas convenientes en los que se originó la vida fl, y la 6 fracción de planetas donde se originó y evolucionó la vida en alguna forma inteligente fi; las últimas dos son del ámbito cultural, fracción de planetas con seres inteligentes que desarrollaron una fase comunicativa fc, y la vida media en la cual una civilización se comunica L. Durante la reunión en Green Bank se conservó el entusiasmo sobre el número de sistemas planetarios estimados gracias a una investigación en la rotación estelar, Su-Shu Huang se encargó de deducir el número de planetas en la Galaxia convenientes para el desarrollo de la vida, Calvin argumentó que el origen de la vida era un evento común y un paso inevitable en la evolución planetaria; Lilly comentó que si los delfines se consideran seres inteligentes, entonces la inteligencia evolucionó independientemente dos veces en la Tierra, por ello deducía que también podría evolucionar en otros planetas. En definitiva, todos concluyeron que dependiendo del promedio de la vida media de una civilización, el rango se ubicaría entre menos de mil hasta mil millones de civilizaciones con las que podríamos comunicarnos en toda la Galaxia. Un año antes se realizó la primera búsqueda, encabezada por Drake y su equipo, con el proyecto Ozma en honor al nombre de la reina de la mítica tierra de Oz, un lugar lejano, difícil de encontrar, donde habitan seres extraños y exóticos. La observación se hizo en las instalaciones de la NRAO en Green Bank; inició el 8 de abril de 1960 y duró poco más de una semana. Sus objetivos fueron dos estrellas de tipo solar, Tau Ceti y Epsilon Eridani, y aunque falló en la búsqueda de inteligencia extraterrestre, facilitó la realización de otros programas de búsqueda, los cuales se llevan a cabo hasta la fecha, pero aún sin éxito. En las décadas de los 60’s y 70’s, se realizó una serie de conferencias dedicadas al estudio de la vida extraterrestre que impulsó el nacimiento de una nueva disciplina, la Exobiología, con el subsecuente establecimiento de una comunidad científica encargada de la investigación de la vida más allá de la Tierra, la cual estuvo formada únicamente por físicos, químicos e ingenieros, especialmente del SETI. Con base en esta aclaración, hay que recalcar dos puntos importantes: En primer lugar, los conceptos acerca de la evolución extraterrestre no fueron consultados a biólogos evolucionistas, y no porque no hubiera biólogos cualificados que opinaran sobre este tipo de cuestiones. Aún vivían los creadores de la teoría sintética de la evolución, George Simpson, Ernst Mayr y Theodosius Dobzhansky; de hecho, ellos discutieron, en artículos separados, sobre la vida e inteligencia extraterrestre, y resulta interesante saber que sus opiniones fueron considerablemente escépticas. En segundo lugar, la ecuación de Drake es bastante determinista, idea muy controvertida en biología; las últimas cuatro variables de la ecuación no puede evaluarse, mucho menos (fi), porque no es posible predecir un rumbo concreto en el curso de la evolución, simplemente podemos decir que nuestra historia evolutiva fue sumamente compleja y, por consiguiente, es bastante difícil tratar de determinar una inteligencia extraterrestre tomando como modelo solamente lo ocurrido en la Tierra. Por lo anterior, el conflicto se ha arraigado entre dos formaciones disciplinarias; por un lado los físicos, quienes tienden al determinismo, y por el otro, los biólogos, a quienes se les ha inculcado la importancia del azar en los procesos evolutivos. Pero, ¿qué tan azarosos pueden ser estos procesos? En su libro La vida maravillosa, Stephen Jay Gould escribió que la evolución de la 7 inteligencia en el planeta Tierra fue altamente indeterminada, un suceso totalmente improbable visto en retrospectiva, si en el transcurso de la evolución cualquier evento fuera diferente, la especie humana jamás habría existido. Qué mundos alternos surgirían sin la evolución de los organismos pluricelulares (constituido por 2 o más células), de los animales, y los mamíferos; si no hubiera caído un meteorito en la Tierra hace sesenta y cinco millones de años, cuando los mamíferos vivían bajo la sombra de los dinosaurios; es muy probable que los primeros jamás habrían alcanzado las formas actuales —incluyendo al ser humano. Si en el curso de la evolución, la vida tomara otra alternativa, es seguro que no estaríamos aquí. En palabras de Gould, el “Homo sapiens es una cosa tan pequeña, en un Universo enorme, un acontecimiento evolutivo ferozmente improbable, claramente situado dentro del dominio de las contingencias”. Pese a eso, Gould no era totalmente escéptico en cuanto a la posibilidad de evolución de inteligencia extraterrestre, ponía mucha atención en el fenómeno de las convergencias; por ejemplo, la capacidad de volar —sostenía Gould— ha evolucionado por separado en insectos, aves, murciélagos y pterosaurios; todos tienen los principios básicos para levantar el vuelo, aun con una morfología variada. Por lo tanto, Gould estaba de acuerdo con el postulado de que la inteligencia podría haber evolucionado en otros mundos por caminos convergentes, al igual que aquí en la Tierra la facultad del vuelo en los animales. Además, coincidía con la postura de que SETI era la única forma de comprobar la hipótesis de los extraterrestres inteligentes, aunque también reconocía que sus posibilidades de éxito eran muy escasas. En una de las investigaciones que apoyan fuertemente la nueva perspectiva, realizadas por Walter J. Gehring y sus colaboradores, encontraron que el gen Pax 6, el que regula la morfogénesis del ojo, es homólogo tanto en insectos como en vertebrados. Es interesante señalar que en este gen se ha detectado en todos los grupos de animales que poseen ojos, desde invertebrados de simetría bilateral hasta mamíferos. Estos resultados comienzan a generar dudas sobre la hipótesis del origen de los ojos, señala que el origen de los ojos fue un evento raro, y una vez que surgió el prototipo, la selección natural actuó optimizando el desarrollo de los ojos en los diferentes grupos de animales, como es el caso de la convergencia de los de vertebrados y de cefalópodos (invertebrados marinos). Estas conclusiones son sorprendentes, ya que empezamos a comprender que los animales podrían ser variaciones de un mismo diseño corporal que se remonta al precámbrico y, por lo tanto, el surgimiento de cada estructura o morfología, como los ojos y el cerebro de los animales, podría ser irrepetible. Con base en lo anterior, podemos revisar uno de los descubrimientos más importantes en la exobiología. El 7 de agosto de 1996, la National Aeronautics and Space Administration (NASA), realizó una conferencia de prensa para anunciar la publicación de un artículo en la revista Science, “Search for past life on Mars: possible relic biogenic 8 activity in martian meteorite ALH84001”. En ese texto, David S. McKay y sus colegas afirmaban haber encontrado en un meteorito marciano la evidencia de una posible forma de vida extraterrestre. La historia de este meteorito surge hace quince mil millones de años, cuando Marte fue impactado por un asteroide, desprendiéndose de él algunos fragmentos que viajaron por el espacio exterior hasta que cayeron en la Antártica hace trece mil años. Al examinar varios de esos fragmentos se descubrió que en las grietas de uno de ellos había substancias químicas que suelen formarse por alguna actividad biológica; y no sólo eso, incluso presentaba unos microfósiles que recordaban a las bacterias de la Tierra. Lo más curioso del asunto es que esos microfósiles datan de tres mil seiscientos millones de años atrás, lo que coincide con los fósiles más antiguos de la Tierra, una época en la que el agua era abundante en la superficie de Marte. Aunque todas estas evidencias podrían explicarse de otra manera (no mediante la materia biológica), es cierto que despertó el interés del público y el de la ciencia. Ahora bien, ¿Qué relación tiene el meteorito marciano con la inteligencia extraterrestre? Sus bacterias nos conducen a una conclusión fascinante: que ése podría ser el tipo cosmopolita de la vida en el Universo. Si es así, ¿cuáles son las posibilidades de que surja la vida partiendo de las bacterias? Antes podría ser cualquier cosa refiriéndonos a la materia organizada, ahora tendría que surgir de una célula tipo bacteriano, el cual es muy diferente a nuestro tipo celular que es eucarionte (organismos formados por células con núcleo verdadero) y sus orígenes pueden rastrearse hace mil cuatrocientos millones de años, una época en la que las condiciones atmosféricas de la Tierra empezaban a cambiar. En aquel entonces hubo un incremento exponencial de oxígeno, un gas venenoso que resultó mortífero para los organismos dominantes en ese período; solamente algunos sobrevivieron, entre ellos los eucariontes. Las mitocondrias transforman el oxígeno en energía, cualidad que proporcionaría a las nuevas células eucariontes el boleto para la supervivencia. En conclusión, sin la simbiosis de las dos células, las eucariontes no existirían. Ya que las últimas son la materia prima para la construcción de organismos pluricelulares. Éste caso sólo representa un pequeño ejemplo de las millones de contingencias que nos conducen a pensar en lo indeterminado que es la inteligencia extraterrestre. Finalmente, según la hipótesis de Peter D. Ward y Donald Brownlee, la vida bacteriana está extendida por todo el Universo, y que la vida compleja (como los animales) probablemente es extraña y difícil de mantener, postura a la que llaman la hipótesis de la Tierra extraña. De hecho, Ward y Brownlee desarrollaron su propia ecuación, la ecuación de la Tierra extraña, que es la siguiente: 9 𝑁 = 𝑁 ∗ 𝑓! 𝑓!" 𝑛! 𝑛! 𝑓! 𝑓! 𝑓! 𝑓! (𝑓! )(𝑓!" ) donde N* es el número de estrellas en la Vía Láctea, fp la fracción de estrellas con planetas, fpm la fracción de planetas ricos en metales, ne el número de planetas en zonas habitables de la estrella, ng las estrellas en una zona habitable de la Galaxia, fi la fracción de planetas habitables donde se originó la vida, fc la fracción de planetas donde surgió vida compleja como los metazoos, fl el porcentaje del tiempo de vida de un planeta donde existe vida compleja como los metazoos, fm la fracción de planetas que tengan un satélite del tamaño adecuado, fj la fracción de sistemas solares con planetas del tamaño de Júpiter, y por último, fme la fracción de planetas con un bajo número de eventos de extinción masiva. Con todas estas variables, el valor del número de civilizaciones en la Vía Láctea, según Ward y Brownlee, se aproxima a cero. Escribieron, “evidentemente, algunos de estos términos se conocen en poco detalle pero la variabilidad de factores que han permitido la evolución de la vida animal en este planeta, debe ser más grande de lo que se conoce ahora. La continua marginalización de la Tierra y su lugar en el Universo quizás debería ser examinada de nuevo. No estamos en el centro del Universo y nunca lo estaremos. Sin embargo, no somos tan ordinarios como la ciencia nos ha hecho creer durante milenios”. Aunque todas las propuestas acerca del programa SETI parecen bastante interesantes, es indudable que sus posibilidades de éxito son escasas y, por lo tanto, podrían representar una perdida de tiempo y de recursos. Thomas Kuhn decía que la ciencia es un fenómeno social que se realiza por medio de nociones y supuestos teóricos que un grupo humano comparte en una época en particular. Quizás, por ahora, no podamos responder a la pregunta más enigmática de la humanidad; debido a que un gran punto en contra salta a relucir, y es el chantajismo, la explotación de ideas de seres con cabeza grande y verdes que se venden en muñecos, centralizando la idea de que son seres de otros mundos que son malos y nos invadirán, tal cual, lo representan una infinidad de títulos de películas sobre el tema. Pero de algo sí podemos estar seguros: nuestra especie es del tipo de vida más raro y exótico que pueda presenciar el Cosmos. Tal vez el Universo está plagado de vida, pero imaginar que hay seres inteligentes en otros mundos, en realidad es lo que nos hace únicos. Matematicamente todo cambia, si consideramos que el universo está compuesto por 100.000 millones de galaxias y si las dividimos por la población mundial, a cada uno le tocarían 14 galaxias, cada una de ellas formadas por unos 100.000 millones de estrellas, entonces es probable, que cada una de estas estrellas tengan planetas que giran alrededor de ellas, como lo hacen alrededor del Sol. Y, por lo tanto, sería posible la existencia del vida en el universo. Aunque aun no se ha podido demostrar que existan seres inteligentes extraterrestre nuestra ciencia ha dado pasos agigantados en el conocimiento y exploracion del universo y puede ser posible que muy pronto tengamos mas informacion sobre otros sistemas parecidos al nuestro donde existan quizas otras Tierras habitadas. 10 Cómo “Piensa” una Computadora Jaime Osorio Rosales Las usas para contarle un chiste a un amigo, para hacer tu tarea y para jugar. Sin ellas, tu vida no sería igual. Pero, ¿cómo funciona realmente una computadora? Al igual que tú, la computadora debe tener la capacidad de recordar, pensar y decir lo que piensa. Para ello necesita un cerebro, una memoria y la capacidad de comunicarse y recibir órdenes. El cerebro de la computadora es el procesador, que le otorga la capacidad de pensar. Mientras más rápido sea el procesador, más rápido pensará la computadora. En nuestras ocupadas vidas queremos una computadora que pueda ejecutar nuestras órdenes lo más rápidamente posible. Así como no te gustaría tener un teléfono que demore 10 minutos para marcar, tampoco te gustaría visitar una página web que demore varias horas en cargarse. Una computadora realiza varios miles de millones de cálculos simples por segundo. Mientras que tú o yo, contando un número por segundo en forma continua, necesitaríamos 32 años para contar mil millones, una computadora lo hace en un abrir y cerrar de ojos. La unidad central de proceso (CPU por sus siglas en inglés) es el "cerebro" de las computadoras. Las computadoras nos superaron en cuanto a la rapidez para pensar, pero la comparación entre las personas y las máquinas llega sólo hasta ahí. Aunque un ser humano cuente más lentamente, el cerebro está conformado por 10 mil millones de neuronas que son pequeños procesadores muy efectivos. Quizá contemos lentamente, pero somos muy buenos para realizar con rapidez "cálculos" complejos como reconocer un rostro, inventar una historia o correr, acciones que a una computadora le resultarían muy difíciles. La computadora también tiene una memoria. En realidad, tiene muchas. Así como los seres humanos tenemos una memoria de corto plazo que nos permite recordar cuándo nos sentamos por última vez, y una memoria de largo plazo que nos permite decir nuestro nombre y domicilio, la computadora también cuenta con estas memorias. Su memoria "de corto plazo" se denomina Memoria de Acceso Aleatorio o RAM (Random Access Memory). La memoria RAM se usa para los trabajos que estás realizando en este momento: la carta que escribes, la página web que visitas o el progreso del video juego que 11 estás jugando. La RAM se borra al apagar la computadora; por eso, si deseas que la computadora recuerde tu carta, la página web o el nivel del juego, debes guardar esos datos en la memoria de largo plazo. La mayoría de las computadoras utilizan un disco denominado "disco duro" para la memoria de largo plazo. Los puntos microscópicos de la superficie del disco están magnetizados en una u otra dirección en un patrón que representa el código de la información que guardas. Este patrón magnético permanece cuando apagas la computadora y se podrá leer la próxima vez que la enciendas. Otro tipo de memoria de largo plazo se denomina Memoria de Solo Lectura o ROM (Read Only Memory). Estos chips contienen la información básica necesaria para que la computadora arranque y realice otras funciones elementales que no cambian aunque se agreguen y cambien programas, aplicaciones o documentos. Existen muchos dispositivos capaces de recordar información. Además de los chips que se usan para las memorias RAM y ROM y el disco magnético usado para almacenamiento de largo plazo, podemos mencionar los discos CD y DVD, las memorias flash y las bandas magnéticas de las tarjetas de crédito, entre otros. Todos ellos tienen algo en común: almacenan la información en "bits" (dígitos binarios). Un bit es algo que puede estar en uno de dos estados: un interruptor que se apaga o enciende, un punto de material magnético orientado en una dirección o en otra, un área microscópica de un CD plástico que tiene o no tiene una pequeña marca grabada en la superficie. Sea cual fuere el medio de almacenamiento, estos bits con sus dos posibles estados que se representan como 0 y 1 se pueden usar para codificar casi cualquier información. Situación del software Aunque las computadoras cada vez más complejas pueden razonar mejor, una computadora solamente hace lo que se le ordena. Ahí es donde aparece el software. Un programa de software es una sucesión de instrucciones. Puede ser simple, como para que puedas calcular tu asignación de todo el año, o complicado, como para predecir dónde se debe perforar un pozo para extraer petróleo. A veces, un error en el programa de la computadora provoca un resultado inesperado y, generalmente, desagradable. Para los ingenieros de software es extremadamente difícil diseñar un programa perfecto. Por eso la mayoría de los programas inicialmente contienen errores y la depuración se convierte en una tarea diaria para los programadores. Depurar generalmente es una tarea difícil y agotadora. El elemento más importante para depurar un problema es la capacidad del programador para hacerlo. Sin embargo, la dificultad de la depuración del software varía considerablemente de acuerdo con el lenguaje de programación usado y a las herramientas utilizadas como depuradores. 12 Los depuradores son herramientas de software que permiten que el programador pueda controlar la ejecución de un programa, detenerla, reiniciarla, ejecutarla en cámara lenta, cambiar los valores de la memoria y en algunos casos, retroceder en el tiempo. Finalmente, una computadora debe saber cómo comunicarse. Para ello es necesario conectarla a dispositivos periféricos. En el mundo digital actual, la computadora no sólo está equipada con los elementos básicos (teclado, mouse y pantalla) sino también con un módem, una cámara y una impresora. Todos los periféricos están conectados mediante un cable a la placa madre que está instalada en la caja de la computadora con un enchufe. En el interior de la caja, el ventilador de refrigeración produce un suave sonido similar al del viento. Muchas, y en realidad probablemente la mayoría de las computadoras, no cuentan con teclado ni pantalla sino que están incorporadas en diferentes dispositivos. Así, en un automóvil hay una computadora que detecta el funcionamiento y estado del motor y controla diferentes funciones. Los dispositivos de entrada son sensores y los dispositivos de salida son actuadores. LA PRIMERA COMPUTADORA ELECTRÓNICA A partir de la época de Babbage, las calculadoras mecánicas se tornaron cada vez más complicadas, especialmente en la época en que las fabricaba International Business Machines, compañía creada en 1911 y más conocida como IBM. Sin embargo, la primera computadora completamente electrónica apareció recién durante la Segunda Guerra Mundial. ¡Realizaba 5000 adiciones por segundo! Se llamó ENIAC. Fue desarrollada y fabricada por el Laboratorio de Investigación de Balística del ejército de los Estados Unidos. Se encendió por primera vez en 1947 y funcionó en forma continua hasta el 2 de octubre de 1955 a las 11:45 p.m. Para almacenar los dígitos utilizaba contadores de anillos de diez ENIAC, sigla que en inglés significa posiciones. Para realizar los cálculos "contaba" los Computador e Integrador Numérico Electrónico Numerical Integrator And pulsos con los contadores de anillos y si el contador (Electronic Computer) fue la primera computadora reiniciaba el conteo, generaba "pulsos de acarreo". totalmente electrónica. La idea era simular con la electrónica la operación de las ruedas de dígitos de una máquina de sumar mecánica. Después del nacimiento de las primeras computadoras como la ENIAC en la década de 1950, los descubrimientos experimentales demostraron que los transistores realizaban las mismas funciones que los tubos de vacío. En 1979, el microprocesador o circuito integrado INTEL 8088 podía realizar 300.000 operaciones por segundo. En el año 2000 la Pentium 4, también fabricada por INTEL, podía realizar aproximadamente 1.700.000.000 operaciones por segundo, ¡unas 6000 veces más! Este crecimiento exponencial de la cantidad de transistores por circuito integrado funciona de acuerdo con la Ley de Moore. En 1965, sólo cuatro años después de que se descubriera el circuito integrado plano, Gordon Moore observó que aproximadamente cada dos años se duplicaba el número de transistores por circuito integrado. Crédito: Cortesía de Intel Corporation. En 2004, un chip de silicona de 0,5 mm 13 cuadrados (0,02 pulgadas cuadradas) tenía la misma capacidad que ENIAC, que ocupaba una habitación grande. Allá por 1943, cuando Thomas Watson, presidente de IBM, dijo: "creo que hay un mercado mundial para unas cinco computadoras", no podía imaginarse que su propia compañía jugaría un papel clave para transformar la computadora en un elemento siempre presente en nuestra vida cotidiana. Las computadoras cada vez son más rápidas y más pequeñas y proliferan en todo el mundo con sorprendente velocidad. Sin el chip de computadora, la vida no sería como la conocemos hoy. Apenas medio siglo después de su invención, todo aparato veloz y complejo, desde un reproductor de DVD hasta un avión caza, tiene un chip. Un chip de computadora puede hacer funcionar la red de suministro eléctrico de una ciudad, el microondas que utilizamos para calentar alimentos o el teléfono celular con el que nos comunicamos con los amigos y la familia. En realidad, muchos eruditos piensan que la computadora es uno de los inventos más importantes de la humanidad. 14 Radiotelescopios Jaime Osorio R. “ Escrutan el cielo captando las ondas electromagnéticas de baja frecuencia “ ¿Sabías que en CCH-Sur hay un radiotelescopio funcionando? La radioastronomía en CCH-Sur nos interesa ya que se pueden promover, vincular actividades y proyectos que refuercen los conceptos aprendidos en Matemáticas y Física. Dichos proyectos están diseñados para que los estudiantes tengan una relación directa con proyectos científicos de adquisición de datos y de fenómenos astrofísicos reales. Desde el ciclo escolar 2008-2009 está en operación un radiotelescopio en nuestro Plantel, se colocó una antena dipolar en la azotea de la Biblioteca, la cual envía su información a una computadora que se encuentra en la Estación Meteorológica edif. CH (planta baja) y a la Red Mexicana de Radiotelescopios. Varios planteles y dependencias de la UNAM también cuentan con una antena que envía información a la Red. Como propuesta futura, en nuestro Plantel se tiene considerada la construcción de 3 radiotelescopios de plato, por tanto, será necesario instalar el circuito electrónico para la adquisición de los datos obtenidos, armar los receptores para cada antena, realizar la instalación física y la electrónica necesaria para colocarlos en la azotea de un edificio del plantel y realizar la calibración de los radiotelescopios. Por lo anterior se hace una cordial invitación a toda la comunidad a participar en este proyecto. Si estas interesado acude a Estación Meteorológica edif. CH (planta baja). 15 Un radiotelescopio es un dispositivo utilizado para captar las ondas de radio provenientes de cuerpos celestes. Muchos de estos cuerpos (como púlsares y galaxias activas) emiten señales de radiofrecuencia. Dichas radiaciones se detectan más en la región de radio del espectro electromagnético que en la región de la luz visible (captada por los telescopios ópticos convencionales). Constituído desde complejos sistemas tecnológicos hasta por una simple antena en forma de dipolo, conectada a un sensible aparato de amplificación y registro, los radiotelescopios recogen y analizan las ondas radio que emiten los objetos espaciales. La observación de las longitudes de onda "invisibles" desde la Tierra está condicionada principalmente por las ventanas atmosféricas. Son pocas las regiones, aparte de la región óptica, que no son absorbidas por la atmósfera terrestre. Las longitudes de onda cortas, como los rayos gamma, X y UV, son absorbidas en la ionósfera y en la estratósfera (capa de ozono), impidiendo cualquier observación de este rango desde la superficie terrestre. Parte de la radiación infrarroja es absorbida por el vapor de agua y el CO2, que está localizado en la zona de la atmósfera más cercana a la Tierra, por lo que existen algunos telescopios infrarrojos situados en las cimas de las altas montañas. Los radiotelescopios más comunes están formados por un disco metálico de forma de antena parabólica, llamado reflector, o simplemente parabólica. Dicho disco actúa como el espejo de un telescopio reflector, recoge las ondas radio y las hace converger en la antena situada en el centro (foco). Luego, la señal se envía a una serie de instrumentos que la amplifican, la graban y la elaboran para extraer información. En el foco de un radiotelescopio está la antena de dipolo conectada al aparato de amplificación y registro. En la práctica, las ondas de radio incidentes producen sobre la antena débiles corrientes eléctricas, que son después amplificadas por los circuitos del receptor. En radioastronomía, para captar buenas señales, se deben utilizar grandes antenas o grupos de antenas trabajando en paralelo (array). La mayoría de radiotelescopios utilizan una antena parabólica para amplificar las ondas. Esto permite a los astrónomos observar el espectro de radio de una región del cielo. Se pueden usar dos o más radiotelescopios en conjunto y combinar las señales que reciben de la misma fuente. Esto permite a los astrónomos evaluar con mejor detalle y precisión la fuente de emisión. Cuando dos o más radiotelescopios son combinados apropiadamente, pueden formar un gran radiotelescopio (large array). La técnica de combinarlos y analizar el conjunto de las señales de radio se denomina radiointerferometría. Además, debido a que las longitudes de onda con las cuales trabaja la radioastronomía son aproximadamente un millón de veces mayores que las de las radiaciones visibles, para que un radiotelescopio tenga el mismo poder de 16 resolución que un telescopio debería ser proporcionalmente más grande, lo que plantearía, como es comprensible, delicados problemas constructivos. La parte de la astronomía dedicada al estudio de todas estas radiaciones y a las observaciones a través de radiotelescopios se denomina Radioastronomía. Gracias a esta rama de la astronomía, es posible ver cuerpos y situaciones que no son posibles de detectar con la astronomía óptica. La ventaja de poder estudiar los cuerpos celestes, no solo a través de su luz visible, sino también a través de las radioondas que ellos emiten, es todavía discutida duramente por los científicos, por las dificultades que se deben afrontar para lograr que las señales sean inteligibles. Muchos objetos celestes emiten radiaciones de radiofrecuencia. Examinando la frecuencia, potencia y tiempos de las emisiones de radio de estos objetos, los astrónomos son capaces de ampliar nuestra comprensión del Universo. Los radiotelescopios también se utilizan en ocasiones en proyectos como SETI (es el acrónimo del inglés Search for ExtraTerrestrial Intelligence, o búsqueda de Inteligencia Extraterrestre) y en el seguimiento de vuelos espaciales no tripulados. Radioastrónomos y astrofísicos de todo el mundo, están convencidos de la utilidad de la búsqueda de una eventual vida extraterrestre a través de técnicas radioastronómicas, una pequeña parte del tiempo de actividad de algunos radiotelescopios se dedica a la investigación sistemática de transmisiones inteligentes, provenientes de eventuales planetas extrasolares habitados por civilizaciones evolucionadas. En la actualidad se pueden encontrar operativos cientos de radiotelescopios, observando, analizando y mapeando superficies de planetas y asteroides como la Luna, con el objeto de ampliar la información del universo. Como en el caso de los telescopios ópticos, la potencia del instrumento crece proporcionalmente con la superficie del colector. Sin embargo, los radiotelescopios pueden alcanzar dimensiones mucho mayores. La razón de ello se comprende en seguida si se tiene en cuenta la diferente precisión de elaboración requerida para la superficie reflectante que, en cualquiera de sus puntos, no puede diferir de la superficie ideal (por ejemplo, de un paraboloide) en más de una décima de la longitud de onda. En caso contrario, el resultado es una disminución de la capacidad de resolución y de la potencia. Para los telescopios ópticos, que trabajan con ondas de 0,5 µm, la precisión requerida es del orden de una diez-milésima de milímetro, e incluso menos. En cambio, para un radiotelescopio con antena paraboloide que trabaje, supongamos, con ondas de 10 cm, bastará con que la antena no difiera de la superficie perfecta en más de un centímetro. Las modernas técnicas de construcción pueden asegurar esta precisión incluso sobre superficies metálicas de un centenar de metros de diámetro. El mayor radiotelescopio del mundo es el "fijo" de Arecibo (Puerto Rico), con un colector esférico de 305 m de diámetro. 17 ¿Qué son las Auroras Polares? Carlos Alberto Rodríguez Martínez Tal vez alguna vez hayas oído hablar acerca de las auroras polares son fenómenos que se manifiestan en forma de brillo o luminiscencia en el cielo nocturno de las regiones polares, estos fenómenos atmosféricos se clasifican dependiendo de su localización en 2 clases: 1) Auroras boreales son las que se manifiestan en el hemisferio norte y 2) Auroras australes son las que se manifiestan en el hemisferio sur. El nombre que llevan de “aurora” proviene del nombre que le daban los romanos a la “diosa del amanecer”, dentro de la primera clase de auroras la palabra boreal proviene del griego “bóreas” que usaban los navegantes y todos los estudiosos del tiempo para referirse a los vientos del norte; mientras que en el segundo caso “austral” siempre hace referencia a lo que proviene del sur. Fig. 1: Aurora boreal vista en Tromso, Noruega. El origen de las auroras polares es muy interesante, ya que se producen cuando una eyección de masa coronal viaja con el viento solar a velocidades de 300-1,000 km/s, conforme se van acercando al planeta los rayos son deflactados (quiere decir que el viento solar al llegar al Ecuador es repelido por el campo magnético hacia los polos, donde la atmósfera es más delgada) de la Tierra y fluyen por la magnetósfera en forma de río, al chocar estas partículas de energía solar con los átomos y moléculas de la magnetósfera llegan a un estado excitado de energía y después de que esos átomos y moléculas regresan a su nivel normal de energía devuelven el excedente energético en forma de luz difusa. La altitud necesaria para que se desarrollen adecuadamente las auroras polares va de los 95 hasta los 1,000 km/snm y esto se debe a que necesitan una temperatura atmosférica especialmente fría para manifestarse en toda su belleza. Las distintas formas y colores que adquieren las auroras dependen en buena medida del tiempo que duren en el cielo nocturno, este último puede variar desde minutos hasta meses y van de la mano con las condiciones meteorológicas del lugar. El fenómeno empieza generalmente como un gran arco que se extiende por todo el horizonte en dirección este-oeste, cerca de la media noche puede que incrementen su brillo y empiezan a formarse ondas y estructuras verticales. Finalmente el cielo se llena de bandas, espirales y rayos que parecen moverse como si fueran nubes o palpitar como si tuvieran vida propia. Hay que resaltar que el fenómeno durante el día se calma, pero como en el invierno no sale el Sol por varios meses es la época en que pueden ser apreciadas con mayor probabilidad a menos que exista un cielo nublado. Los colores dependen del tipo de átomos o moléculas que las partículas del viento solar excitan y del nivel de energía que durante la interacción alcanzan. Por ejemplo: el oxígeno (O2) produce los 18 colores más comunes que son el verde y el amarillo, mientras que el nitrógeno (N2) produce el azul y finalmente el helio (He) produce tanto el rojo como el púrpura. Esto último también lo podemos corroborar a través del entendimiento del espectro electromagnético, ya que el color que vemos depende de la cantidad de energía producida por la radiación, si la luz es demasiado energética los colores que emitirá serán un azul muy intenso o un violeta, mientras que si es poco energética el color que emitirá será un rojo, anaranjado o amarillo. Fig. 2: Aurora boreal vista en Kvaloya, norte de Noruega. Si te das cuenta el proceso de formación de los colores de las auroras es muy parecido al que ocurre con los anuncios de neón, ya que al excitarse este gas por medio de las corrientes eléctricas adquieren un excedente de energía que al ser devuelto emite una luz que depende del gas que la conforma. Dentro de las mitologías tradicionales, por ejemplo, los vikingos creían que la aurora era un puente de fuego construido por los dioses para conectar el cielo con la Tierra; mientras que los inuit (esquimales) creían que los espíritus de sus ancestros bailaban sobre las auroras. Fig. 3: Avistamiento en Noruega. Fig. 4: Uno de los lugares con mayores avistamientos de auroras es Noruega debido a sus condiciones climatológicas que favorecen la existencia de vida, gracias a la corriente marina cálida proveniente del Golfo de México. 19 Fig. 5: Aurora polar causada por la interacción de oxígeno y helio. Fig. 6: Cielo completamente iluminado en Karlsoy, norte de Noruega. El Telescopio Espacial Hubble ha tomado varias fotografías de planetas dentro de nuestro Sistema Solar que también se caracterizan por tener el mismo comportamiento atmosférico con relación a este fenómeno, lo cual hace suponer a los científicos que los siguientes planetas deben poseer un campo magnético similar al de la Tierra: Júpiter, Saturno, Urano, Neptuno, Mercurio y el caso especial de Marte que no tiene un campo magnético parecido al de la Tierra, pero posee algunos campos magnéticos locales que dan origen a las auroras. Fig. 7: Imagen de una aurora polar extraterrestre vista a través del UV en Júpiter. Bibliografía: “Calculo de la altura de formación de auroras boreales”; Serra-Ricart, Miquel; Instituto de Astrofísica de Canarias, Tenerife; España, 2011; www.iac.es/adjuntos/www/auroras.pdf “Las auroras han fascinado a viejos y a noruegos durante generaciones, pero ¿cuál es su explicación científica?”; Torres Vázquez, Federico; Instituto Geofísico de Alaska Fairbansks, 2012; www.visitnorway.com/es 20 Beneficios de la Atmosfera Terrestre Carlos Alberto Rodríguez Martínez La atmósfera terrestre es la capa gaseosa gracias a la cual podemos respirar y constituye la causa fundamental por la cual ha existido la vida en este planeta. Durante la Era geológica Mesozoica (característica por ser la época de los dinosaurios) que abarca entre 251 y 65.5 millones de años a.n.e. (antes de nuestra era). La existencia de esos grandes reptiles solo fue posible gracias a un incremento extraordinario en la disponibilidad de oxígeno atmosférico del planeta durante ese rango de 185.5 millones de años a.n.e. Por supuesto la abundancia de (O2) hizo aumentar de tamaño primeramente a las plantas con las que se alimentaban los herbívoros. Fig. 1: Tanto la fauna como las plantas crecieron mucho durante el Mesozoico gracias a la abundancia de (O2) Con el término del exceso de oxígeno la evolución continuo´ su camino hacia formas más pequeñas y adaptables, debido a que la atmósfera misma ha seguido evolucionando ininterrumpidamente y por ello ha variado la proporción de sus gases a lo largo de las distintas Eras geológicas, ése es el factor determinante que ha causado los procesos de extinción masiva que han ocurrido a lo largo de la historia del planeta. Estos gases son atraídos por la gravedad de la Tierra y le permiten conservar temperaturas no tan extremas en su superficie, ya que de otro modo la posibilidad de la vida sería aún más complicada. Fig. 2: A lo largo de la historia los gases que posibilitan las vida han sufrido variaciones muy violentas. Actualmente la atmósfera mide aproximadamente 100 km de altura en las zonas intertropicales, pero en los polos su volumen se reduce drásticamente gracias a que la carencia de aire caliente en esas regiones impide que se expanda su volumen, puesto que al volverse calentarse se vuelve más ligero y sube a las altas capas de la atmósfera para después enfriarse y generar así las circulaciones local, regional y general de la atmósfera. Más de la mitad de su masa se concentra en los primeros 6 km y el 75% en los primeros 11 km de altura msnm. Se calcula además que la masa total de la atmósfera es de 5.1x1018 kg. La atmósfera contiene a la capa de ozono (O3) que 21 funciona de escudo protector contra la radiación ultravioleta que al ser altamente energética es perjudicial para la vida en general. Los gases que componen actualmente la atmósfera son los siguientes y se encuentran en estas proporciones: La tropósfera (capa más próxima a la superficie terrestre) contiene 78% de nitrógeno (N2), oxígeno (O2) representa el 21% del total, argón (Ar) representa el 0.9% del total, dióxido de carbono (CO2) representa el 0.03% del total y es necesario para que las plantas llevan a cabo el proceso fotosintético y es el resultado de otros procesos biológicos como la respiración y la combustión de los organismos que contienen carbono; el ozono (O3) solo se encuentra en la estratósfera y es el que absorbe la mayor parte de los rayos UV. El vapor de agua se encuentra en proporciones muy variables y participa en la formación de nubes y la retención de calor en la tropósfera. Finalmente el resto de la lista de gases atmosféricos se completa con el neón, hidrógeno, helio, metano, kriptón, óxido nitroso y xenón que se encuentran en proporciones minúsculas. Fig. 3: Perfil de las distintas capas atmosféricas. Para concluir bastaría hacer las siguientes precisiones sobre cada una de las capas de la atmósfera: 1) La tropósfera es la capa que contiene todos los fenómenos meteorológicos y disminuye su temperatura con la altura alrededor de 6.5°C/km. 2) La estratósfera contiene a la capa de ozono y su temperatura es menor a los -60°C. 3) La mesósfera se caracteriza por tener que alcanzan los -90°C y se encuentra a una altura de 80 km. 4) La Ionósfera va de los 90 a 400 km de altura y se caracteriza por tener átomos cargados eléctricamente llamados iones que posibilitan la transmisión de ondas electromagnéticas y allí se desintegran los meteoros y 5) La exósfera es donde los gases se dispersan y relacionan con el espacio exterior a 360 millas de altitud; es aquí donde orbitan los satélites meteorológicos y de telecomunicaciones. Geografía Física Bibliografía: “Earth fact sheet”, Williams, David R., 2004; “Physical Geography”, Strahler, Arthur N., New York: John Wiley & Sons, 1960; “Geografía Física”, Strahler, Arthur N., Barcelona Omega, 2005. 22 ¿Sabias qué? Efectos de la Actividad Solar en Palomas Mensajeras Arturo García Cole ¿Cómo viajan las palomas mensajeras? Las palomas mensajeras viajan grandes distancias, pueden ser soltadas a unas 645 kilómetros de su palomar, hasta un lugar que nunca han ido antes, y regresar en un plazo de 1 día. Cuando son utilizadas para competencias los últimas 65 kilómetros de su recorrido, el ave viaja utilizando la vista. Mientras que los otros 580 kilómetros, determina su regreso por medio de la "detección" de campos magnéticos de la Tierra. ¿Cómo puede el Sol afectar a las palomas mensajeras ? Cuando ocurre una eyección de masa coronal (CME), el viento solar (partículas cargadas procedentes del Sol) producen tormentas geomagnéticas que distorsionan el campo magnético de la Tierra. Las palomas ya no confían en su sistema de guía y se pueden perder. Los dueños de las palomas corredoras, especialmente en las zonas muy septentrionales, realizan un seguimiento de la actividad solar y no vuelan sus palomas en ciertas condiciones geomagnéticas. ¿Cómo medimos la actividad geomagnética ? La actividad geomagnética se mide a lo que llamamos el índice "A", una medida de la intensidad del campo magnético, que va de 0 a 400 nT (mínima a máxima perturbación respectivamente). Otro número útil es el índice "K", que rastrea los cambios en la “radio atmosfera” y afecta la navegación de la paloma. El índice K oscila entre 0 y 9 (sin y máxima perturbación respectivamente). ¿Qué niveles de actividad geomagnética son peligrosos para las palomas ? Cualquier registro sobre los 150 nT en el índice “A” de actividad geomagnética, 4 o más en el índice "K", se considera inseguro para el entrenamiento o competencia de palomas mensajeras. Bibliografía: http://solar-center.stanford.edu/solar-weather/pigeons.html 23 Directorio Dr. JOSÉ NARRO ROBLES Rector de la UNAM Lic. LUCÍA LAURA MUÑOZ CORONA Directora General del CCH. PLANTEL SUR Lic. JAIME FLORES SUASTE Director Mtro. LUIS AGUILAR ALMAZÁN Secretario General Lic. SERGIO GARITA HERNÁNDEZ Secretario Administrativo Q.F.B. SUSANA LIRA DE GARAY Secretaria Académica Lic. ROSA MARÍA VILLAVICENCIO HUERTA Secretario Docente Act. PATRICIA PUENTE HUITRÓN Secretaria de Asuntos Estudiantiles Mtra. NADIA TERESA MÉNDEZ VARGAS Secretaria de Apoyo al Aprendizaje Ing. Aeronáutica JOSÉ MARIN GONZÁLEZ Secretario Técnico SILADIN Mtra. GEORGINA BALDERAS GALLARDO Unidad de Planeación Fís. ARTURO GARCÍA COLE Responsable de la publicación Coordinador de la Estación Meteorológica 24