Download Reloj de sol
Document related concepts
Transcript
Metrología, Universidad Nacional de Colombia REVISTA ARTICULOS GRUPO 12 Universidad Nacional de Colombia 2012 1 Metrología, Universidad Nacional de Colombia INDICE ARTÍCULO 1 2 3 4 INTEGRANTES G12N05 G12N10giovanni G12N32juandavid G12N33CAROLINA G12N6ANDRES G12N16fernando G12N03gustavo G12N13juanfelipe G12N30Miguel G12N24Felipe TÍTULO Pag El tiempo en el tiempo 3 El Efecto Hall Patrón de Resistencia 6 Incertidumbre y su estimación 10 Temperatura y métodos de calibración de termómetros 13 5 6 7 8 9 10 2 Metrología, Universidad Nacional de Colombia El tiempo en el tiempo Edward Norberto Bautista Rodríguez Universidad Nacional de Colombia Ingeniería Mecánica Resumen, A lo largo de la historia, la humanidad ha tenido una gran necesidad de medir y conocer el tiempo en el que se desarrolla, es por eso que se han desarrollado una gran variedad de relojes que serán objeto de nuestra investigación, incluyendo las influencias de la época, la tecnología, el ambiente y la necesidad. Reloj de sol La forma mas sencilla de medir el tiempo es el uso del sol, pues es este el regulador universal del paso del tiempo, sin el viviríamos algo así como una noche eterna, sin darnos cuenta del paso de una hora o un día. Es por eso que es tal ves la forma mas antigua de medir el tiempo, se tiene conocimiento de relojes solares desde 4000 a.C. usados por los chinos, también los usaban los egipcios y los incas, pero su uso se atribuye al filosofo Jonio Anaximandro en el siglo VI a.C. Clepsidra y reloj de arena Este reloj tiene su fundamento en un objeto mas antiguo llamado la clepsidra, que es un reloj de agua, el cual era mucho mas útil y preciso que el reloj solar pues no dependía de un agente externo a él, como es el sol, consistía en un vaso, en cuya extremidad inferior se encontraba un tubo angosto por donde goteaba el agua que caía en otro vaso. Sobre este recipiente, había una escala graduada y al llenarse, indicaba las horas transcurridas. La clepsidra, data de los años 3000 a.C. usada por los egipcios, pero perfeccionada por griegos y romanos. El reloj de arena no nada diferente a una clepsidra que en lugar de agua tiene arena, pero cada que la arena pasa de un lugar al otro, hay que girarlo para volver a empezar la medición de otro periodo de tiempo, que por lo general era de una hora. Aunque se sabe que su invención es muy antigua, la primera de la que se tiene conocimiento es de 1338. Relojes mecánicos Aún no se sabe quién inventó el primer Reloj Mecánico, lo que se sabe es que los primeros que se han encontrado son del año 1290. Su mecanismo consiste en un conjunto de ruedas giratorias accionadas por un peso colgado de una cuerda. Pero en 1670 un invento de William Clement inspirado en las anclas de los buques funcionaba con el vaivén de un péndulo que mece la ancora de tal manera que se traba y después se destraba en cada uno de los dientes de la rueda lo que a su ves permite un movimiento preciso. Tan solo cinco años después apareció Hyugens con otro hallazgo de gran importancia como lo es el volante con muelle en espiral, este reloj era el más exacto hasta ese momento, con un error de solo 5 minutos diarios. El reloj de tipo péndulo más conocido es el llamado Reloj Cucú. [1] 3 Metrología, Universidad Nacional de Colombia Reloj eléctrico En 1840 Alexander Bain construyó un reloj eléctrico accionado por la atracción y repulsión eléctrica. Reloj de cristal de cuarzo En 1920, Warren Marrison y J.W. Horton construyen el primer reloj de cuarzo en los Bell Telephone Laboratories. Son relojes que se caracteriza por poseer una pieza de cuarzo que sirve para generar los impulsos necesarios a intervalos regulares que permitirán la medición del tiempo. El cuarzo se talla habitualmente en forma de lámina y se introduce en un cilindro metálico. Éste tiene por función la protección del mineral. Para que vibre el cristal de cuarzo, debe ser alimentado por un campo eléctrico oscilante generado por un circuito electrónico. Son relojes muy exactos, sólo se atrasan o adelantan 3 segundos al año. [2] Reloj atómico Reloj nuclear Los relojes atómicos son actualmente los relojes más exactos del mundo y se basan en las propiedades físicas que tienen las fuentes de emisión de cesio. El primer reloj atómico de cesio fue construido en 1955 en el Laboratorio Nacional de Física (NLP), en Inglaterra. Sus creadores fueron Louis Essen y John V.L Parry A pesar de la precisión alcanzada por los relojes atómicos, los científicos parecen no estar conformes aun con un error de un segundo cada 138millones de años y por eso se encuentran trabajando en el desarrollo de un nuevo reloj, que será conocido como reloj nuclear, de este se tiene poca información debido a que aun se encuentra en etapa de diseño. Los relojes atómicos establecieron una nueva forma de medir el tiempo, según este patrón, un segundo se corresponde con 9.192.631.770 ciclos de la radiación asociada a la transición hiperfina desde el estado de reposo del isótopo de cesio-133. La precisión alcanzada con este tipo de reloj atómico es tan elevada que admite únicamente un error de un segundo en 30.000 años, pero el más exacto del mundo actualmente se encuentra en el NPL de Londres y tarda 138millones de años en perder un segundo. La precisión extrema de este reloj, es cien veces superior a la de los actuales relojes atómicos, proviene del núcleo de un solo ion de torio. El reloj nuclear podría ser útil para algunas comunicaciones confidenciales y para el estudio de teorías fundamentales de la física. Asimismo podría añadir precisión al sistema de posicionamiento global, que se sustenta ahora en relojes atómicos. Los relojes mecánicos emplean un péndulo que provee las oscilaciones con las que se mide el tiempo. En los relojes modernos son cristales de cuarzo los que proveen las oscilaciones de alta frecuencia que 4 Metrología, Universidad Nacional de Colombia operan como una horquilla de afinación musical en lugar del antiguo péndulo. La precisión de los relojes atómicos proviene de las oscilaciones de los electrones en los átomos inducidas por rayo láser. Pero a estos electrones pueden afectarles los campos magnéticos y eléctricos, y por eso los relojes atómicos a veces sufren una desviación de unos cuatro segundos a lo largo de la existencia del universo. Pero los neutrones son mucho más pesados que los electrones y están agrupados con más densidad en el núcleo atómico de manera que son menos susceptibles a tales trastornos ambientales. Según el artículo del Instituto Tecnológico de Georgia, para crear las oscilaciones los investigadores planifican el uso de un láser que opera en frecuencias de petaherzios -10 elevado a la 15 potencia, ó 1.000.000.000.000.000 oscilaciones por segundo- para hacer que el núcleo de un ion de torio 229 pase a un estado de energía más elevado. Los diseñadores tienen otro problema: para que el reloj nuclear sea estable hay que mantenerlo a temperaturas muy bajas de apenas decenas de microkelvin y para producir y mantener tales temperaturas habitualmente los físicos usan un refrigerante del laser, pero en este sistema eso se presenta como un problema, porque la luz del laser también se usa para crear las oscilaciones que marcan el paso del tiempo. [3] Referencias [1] http://www.profesorenlinea.cl/mediosocial/Relo jHistoria.htm [2] http://www.wickedmagazine.org/2011/08/el-relojatomico-es-el-mas-preciso-del.html [3] http://www.elespectador.com/tecnologia/articulo333157-disenan-reloj-nuclear-100-veces-maspreciso-el-atomico-actual 5 Metrología, Universidad Nacional de Colombia EFECTO HALL PATRÓN DE RESISTENCIA Nelson Castro [a] Juan D. Rodríguez G. [b] Palabras clave: Voltaje Hall / Campo Magnético /Campo eléctrico / Corriente /Metrología Resumen La calidad es el factor principal al momento de aumentar la productividad en cualquier organización, solo es posible llegar a ello mediante la utilización de la metrología pues sus normas conllevan responsabilidad, reproducibilidad y confiabilidad en los procesos llevados a cabo. Una de las partes dentro de la metrología es el uso de patrones con trazabilidad internacional. Uno de estos patrones corresponde a la resistencia el cual hace uso del efecto Hall cuántico para reportar su correspondiente valor, y se elabora de tal forma que sea posible reproducir en cualquier parte del planeta. Abstract Quality is the main factor when increasing productivity in any organization; you can only achieve this through the use of metrology because its rules include liability, reproducibility and reliability of the processes carried out. A party in metrology is the use of standards with international traceability. One of these patterns corresponds to the resistance which makes use of the Hall effect for reporting the corresponding quantum value, and is prepared so that it can play anywhere in the world. Email: [a] ngcastror@unal.edu.co [b] juadrodriguezgom@unal.edu.co 1. Introducción Productividad, una palabra que soporta una gran cantidad de procesos sincronizados y altamente eficientes que se encuentran enmarcados por la calidad, uno de estos elementos de gran importancia es la metrología. Se obtiene calidad si las mediciones que realizan equipos o instrumentos de medición son confiables en la magnitud que el proceso lo requiera, con un nivel de exactitud y certeza que solo es otorgada por la calibración de estos elementos, que además confieren un nivel alto de precisión a cada medida realizada. Esta calibración no es sino una comparación con patrones estándar nacionales e internacionales reconocidos, en una cadena ininterrumpida llamada trazabilidad. Por medio del uso correcto de la metrología es posible asegurar un cliente satisfecho además de proteger al consumidor con lo cual se facilita la cooperación industrial mediante el intercambio de mercancías. En la metrología el patrón es el pilar de su función, una pieza de estos patrones corresponde a la resistencia, el cual hace uso del efecto hall cuántico para reportar valores muy exactos de resistencia que serán comparados con otros elementos para generar un instrumento o máquina de medición. El efecto hall en si utiliza los conceptos de Fuerza de Lorentz, Ley de Coulomb y campos magnéticos además de aplicaciones como el condensador de placas paralelas y la definición de corriente como conceptos generales de un fenómeno a escala normal, sin embargo la real aplicación se encuentra cuando las temperaturas son muy bajas y los campos magnéticos son muy altos pues allí en el conductor la energía toma valores discretos, lo cual hace factible su uso como patrón. Dentro del campo de la física existen diferentes disciplinas que se encargan de estudiar fenómenos particulares de la naturaleza con el fin de dar una explicación científica a estos acontecimientos. Este artículo incluye conceptos y fundamentos basados en la física de electricidad y magnetismo, y trabaja términos relacionados con la metrología en cuanto a la instauración del patrón de resistencia eléctrica. El tema principal que maneja gira alrededor del fenómeno físico conocido como “Efecto Hall”, llamado así por Edwin Herbert Hall quien fundamentó y realizó las demostraciones necesarias para entender este efecto electromagnético. Principalmente este artículo pretende dar una breve explicación al porqué del comportamiento del efecto mencionado anteriormente, analizando como influyen cada uno de los elementos que actúan en el proceso total del experimento, con el fin de llegar a relacionar estos conceptos con las leyes básicas que rigen la electricidad y el magnetismo. Además, proyecta resaltar la importancia de este fenómeno en campos como el de la metrología y la vida cotidiana. 2. Aspectos Generales 6 Metrología, Universidad Nacional de Colombia 2.1 Metrología Una magnitud física define una característica observable de un sistema físico. Son magnitudes físicas la longitud, el tiempo, la masa, la velocidad, la fuerza, el campo eléctrico, etc. A cada magnitud le corresponde una unidad de medida, de manera de poder expresar cuantitativamente su valor en una medición o cálculo referido a un sistema físico. Un sistema de unidades es el conjunto de unidades asignadas a cada magnitud básica o derivada que se use en la ciencia o la técnica. La normalización internacional de pesos y medidas se halla bajo el control de la Conferencia General de Pesos y Medidas. Las conferencias se realizan en la actualidad cada cuatro años. La Conferencia designa el Comité Internacional de Pesos y Medidas, formado por 18 miembros de países diferentes, se reúne cada año y controla la Oficina Internacional de Pesos y Medidas (Bureau International des Poids et Mesures - BIPM), que es el organismo encargado de asegurar la unificación mundial de las mediciones físicas. El BIPM se creó en 1875 con la adhesión de 17 estados. Actualmente 55 estados, adhieren al sistema. Debido a la creciente complejidad de la definición, control y adecuación de los patrones de medida a los avances científicos, la Conferencia ha creado Comités Consultivos (nueve, en la actualidad) sobre diferentes aspectos metrológicos y desde 1965 publica una revista científica propia, llamada Metrología, además de las publicaciones realizadas por sus expertos en distintas revistas científicas internacionales y los distintos informes de sus cuerpos consultivos y laboratorios propios. En 1960 la Conferencia General de Pesos y Medidas adoptó el llamado Sistema Internacional de Unidades (SI) que fue adoptado luego por cada país adherente con particularidades propias. El SI tiene unidades básicas (consideradas por convención dimensionalmente independientes) y derivadas (que surgen algebraicamente de combinaciones de las unidades básicas). La metrología es un conjunto de reglas y normas que permiten realizar una correcta medida, con herramientas otorgadas por instituciones como el BIPM y es desde estas instituciones que comienza la cadena productiva, pues sin la cuantificación no es posible realizar ninguna tarea empresarial. 2.2 Descubrimiento Este fenómeno fue observado por primera vez en la universidad Johns Hopkins en Baltimore U.S.A. en el año de 1879 por el físico estadounidense Edwin Herbert Hall. En Octubre del año 1879, el físico Edward Herbert Hall observa un efecto en el cual la aplicación de un campo magnético intenso sobre una delgada lámina de oro por la que circula una corriente, produce una diferencia de tensión transversal al flujo de corriente en la lámina, esta tensión fue conocida como voltaje Hall. El experimento realizado por Edward Hall, está esquematizado por un circuito que consta de una fuente de voltaje conectada en serie a una resistencia y a una fina lámina de oro, como se muestra en la figura 1. Fig. 1 Efecto Hall en lámina de oro La diferencia de potencial es generada entre las caras transversales a las que está conectada la corriente, y su valor es proporcional a la relación que existe entre la magnitud de la corriente y el valor del campo magnético. Para el año de 1980 físico alemán Klaus von Klitzing descubriría el efecto Hall cuántico, el cual significó la base para el estándar internacional de resistencia eléctrica utilizado para categorizar los materiales conductores de electricidad. 2.3 Relación con la Metrología Las mediciones confiables suministradas por instrumentos de medición precisos y exactos traen consigo la calidad de los productos. Para asegurar el correcto funcionamiento de los equipos y tener la certeza de que las mediciones efectuadas son exactas, estos instrumentos deben ser calibrados, es decir, comparados con patrones nacionales o internacionales reconocidos, en una cadena ininterrumpida llamada trazabilidad El patrón de resistencia establecido gracias al experimento de efecto Hall cuántico, significó un gran paso no sólo para física, sino también para la metrología, pues generó un manejo óptimo de las mediciones de resistencia y aseguró un futuro uso apropiado de la tecnología que permitió resultados más confiables que han venido beneficiando al cliente y protegiendo al consumidor. De esta manera, facilitó la cooperación industrial y el intercambio comercial internacional de mercancías. 7 Metrología, Universidad Nacional de Colombia 3. Física del Efecto Hall En donde representa el campo eléctrico de las cargas, B el campo magnético y q la carga. Debido a que estas dos fuerzas son iguales se tiene que: Como el voltaje Hall es igual a: Fig. 2. Lámina delgada de un material conductor o semiconductor por la que fluye una corriente I en dirección x y en la dirección y se aplica un campo magnético uniforme . · d representa la distancia entre c y a (figura 3). de la ecuación 4 y se reemplaza en la ecuación 5 obteniendo: Se despeja Fig. 3 Medición del voltaje transversal, Voltaje Hall La fuerza magnética está definida como: Esta fuerza actúa sobre los electrones generando una acumulación de los mismos en el borde c, con lo cual se genera un campo eléctrico entre las cargas negativas en c y las positivas en a (remitirse a las figuras2 y 3). La densidad de los portadores de carga se obtiene midiendo la corriente en la muestra y esta expresada como: En donde A es el área de la sección transversal del conductor, y es igual a: Cuando se alcanza un equilibrio, los electrones ya no son desviados hacia arriba, por lo cual el campo eléctrico es constante, permitiendo medir la diferencia de potencial llamada VOLTAJE HALL . A continuación se presenta la deducción de la expresión del voltaje Hall: Fuerza Magnética sobre los portadores Finalmente se reemplaza en la ecuación 6 para obtener la expresión completa para el voltaje Hall: Fuerza Magnética sobre los portadores En donde la expresión: 8 Metrología, Universidad Nacional de Colombia 4. Representa el coeficiente o la resistencia Hall. 3.1 Efecto Hall Cuántico Antes del descubrimiento del Efecto Hall Cuántico (EHC), utilizado actualmente para reproducir el ohm en los principales laboratorios nacionales del mundo, el Ohm se mantenía mediante un conjunto de resistores de 1 Ω, tipo Thomas. El segundo descubrimiento clave para la metrología cuántica eléctrica fue el efecto Hall cuántico, observado por primera vez por Klaus von Klitzing en 1980. Este efecto puede observarse en dispositivos semiconductores cuando se les aplican campos magnéticos del orden de 10 Tesla (100.000 veces el campo magnético terrestre) y se enfrían a temperaturas inferiores a la del Helio líquido (4,2 K). En estas condiciones experimentales el dispositivo presenta valores cuantizados de la resistencia Hall. Se ha comprobado, con una incertidumbre de partes en 1010 que dichos valores de resistencia son independientes de variables como la corriente de medida, la temperatura o el tipo de dispositivo. 3.2 Medición del Voltaje Hall Por medio de la obtención experimental del Voltaje Hall, se puede deducir la velocidad de los portadores de carga junto con su concentración, debido a que cuando se alcanza el estado de equilibrio, la fuerza eléctrica ejercida sobre cada carga, se nivela con la fuerza magnética (ecuación 4). Con esto se comprueba la relación de proporcionalidad directa que existe entre la corriente eléctrica y el campo magnético con el voltaje Hall y la relación de proporcionalidad inversa entre el voltaje Hall y el número de portadores por unidad de volumen. Consecuentemente, un sensor de efecto Hall puede determinar la fuerza que realiza un campo magnético, conociendo la corriente aplicada y vicevers Si la fuerza del campo magnético y la corriente son conocidas, el sensor Hall se puede utilizar como detector de metales o como detector de componentes magnéticos en general. Este tipo de sensores se encuentran en circuitos integrados ubicados en impresoras láser, disqueteras de ordenador, en motores de corriente continua, etc. Una aplicación interesante del efecto Hall es la posibilidad de determinar la concentración de iones en la sangre, al igual que la velocidad de circulación del flujo sanguíneo. Si se aplica un campo magnético transversal a la corriente sanguínea que fluye por una arteria, el voltaje Hall generado depende de esa velocidad y teniendo esa, es posible determinar la concentración de los iones. 5. Fig. 4. Medición voltaje Hall La figura 4 muestra un dispositivo experimental destinado a medir el voltaje Hall. Sobre una corriente eléctrica opera un imán que produce un campo magnético (B). La fuerza magnética que se genera (Fm) desvía las cargas en movimiento hacia uno de los extremos del cable, lo que implica una polarización en cada uno de los lados de la lamina. En consecuencia, entre ambos extremos se establece un campo eléctrico y una correspondiente diferencia de potencial o voltaje Hall visible, en mayor o menor medida dependiendo del material y el grosor de la lámina. Aplicaciones REFERENCIAS [1] Serway A. Raymond, Jewett John W. Física para ciencias e ingeniería con física moderna. Cengage Learning. Séptima Edición. Volumen 2. págs. 825-827 [2] “Efecto Hall” [En Línea]. Disponible en: http://intercentres.edu.gva.es/iesleonardodavinci/Fisica/ Electromagnetismo/Electromagnetismo07b.htm. Consultado: Junio/2012 [3] “Efecto Hall”. [En Línea] Disponible en: http://www.sabelotodo.org/electrotecnia/efectohall.html . Consultado: Junio /2012. [3] “Efecto Hall”. [En Línea] Disponible en: http://www.sabelotodo.org/electrotecnia/efectohall.html . Consultado: Junio /2012. [4] “Nuevos patrones eléctricos basados en fenómenos cuánticos”. Ciencia en Aragón (2005). Disponible: http://www.aragoninvestiga.org/Nuevos-patroneselectricos-basados-en-fenomenos-cuanticos/. [5]”CNM-PNE-3, Patrón Nacional de Resistencia Eléctrica en corriente continua”. Centro nacional de metrología. Disponible: http://fisica1000017.wikispaces.com/file/view/Patron+ Nacional+de+Resistencia+Electrica+Cenam.pdf [6]”Laboratorio de metrología”. Icontec internacional. Disponible: http://www.icontec.org.co/index.php?section=93 9 Metrología, Universidad Nacional de Colombia INCERTIDUMBRE Y SU ESTIMACIÓN Resumen La medición es una base para todo aquello que tiene una representación física, por tanto es una base importantísima para la misma física, ahora bien sin una forma definida de medida, una forma de revisión, comprobación de resultados, las bases de las mayorías de cosas, teorías e ideas, estarían planteadas de manera muy abiertas sin conclusiones definidas con ó sin medidas. A continuación en este artículo comentaremos la definición de la medida y de la incertidumbre de manera teórica, con algunos ejemplos, haciendo énfasis en la incertidumbre, a la cual se le dará mas importancia ya que le da precisión a la medida, ya que sin esta no serviría de nada el hecho de medir si no existe confiabilidad en la medida. INTRODUCCIÓN Con respecto a las medidas, la unidad con la cual se debe medir debe presentar unas condiciones como son: La medición es un procedimiento típico de la ciencia, en el cual se compara el objeto a medir con un patrón seleccionado cuya magnitud física es comparable y se desea medir cuantas veces el patrón es el objeto a medir. - Esta cantidad desconocida en magnitud y queremos medir será mesurada con un objeto de referencia ya establecido en un sistema como el sistema internacional ó el sistema ingles, los cuales son los más utilizados. - Ahora bien las medidas, debido a una serie de factores, pueden verse afectadas, por ejemplo, la persona que mide debido al ángulo en que mide, ve de manera errónea el dato, ó quizás el instrumento no está bien calibrado, ha sido modificado con esfuerzos plásticos, ó el ambiente ha modificado la precisión del instrumento, incluso es posible que el instrumento diga que un porcentaje o la medida de error. Aquí es donde por el afán o por la necesidad de tener una medida exacta se busca hallar una cota que le dé límite al error, donde la incertidumbre no supere lo necesario, si bien lo necesario puede ser que la incertidumbre no supere un limite pues los cambios en los resultados afecten de manera progresiva el error aumentándolo, o quizás al necesitar el resultado de una manera exacta se desarrollara un objeto que afectará o el cual tendrá características de tolerancia, si bien el porcentaje de error es muy alto es muy probable que el objeto tenga problemas, inconsistencias o sea obsoleto. DESARROLLO Antes de profundizar con el tema de errores e incertidumbre se planteará de manera breve las basas sobre las cuales se realizan pruebas de incertidumbre, es decir los objetos y patrones de medida. - Inalterable (no debe cambiar la medida con el tiempo ni con quien la realice). Ser universal (debe ser utilizada en lo posible por todos y de la misma forma). Debe ser fácilmente reproducible (ya que si es difícil reproducirla sería difícil para cualquiera o en su mayoría todo el que necesite hacer medidas tendría un gran problema consiguiente el patrón de unidad). Ahora no todas las medidas son universales, pero tienen la tendencia a una búsqueda de la universalidad siendo así la más utilizada el sistema de unidades del sistema internacional (S.I). Una medición directa es cuando tenemos un instrumento de medida con las condiciones mencionadas, comparando con este el fenómeno o la naturaleza física a medir, es claro comentar que un instrumento de medida de cierto tipo solo aplica para medir fenómenos o cantidades del mismo tipo de magnitud. Existe también la forma de medir por medidas reproducibles, que al ser efectuadas una serie de comparaciones de la misma. Cuando al efectuar una serie de comparaciones entre la misma variable y el aparato de medida y se obtiene el mismo resultado o uno bastante cercano esta medida es reproducible ya que tiene cierto grado de confianza, en esta capacidad de reproducción está basado los patrones de medidas del S.I. La medida estadística está basada al efectuar serie de comparaciones entre la misma variable y el aparado de medida variables se obtienen distintos resultados, este tipo de medida es aplicables para cuando el fenómeno a medir se puede presentar aleatorio, como por ejemplo medir cierta particularidad de un grupo de personas a cierta tendencia. 10 La medición indirecta es cuando una medición directa no es aplicable por la magnitud de el objeto a medir es difícil de medir por comparación directa, esto suele ocurrir cuando el objeto a medir es muy pequeño, muy grande y depende de obstáculos de otra naturaleza. Entonces basándonos en otros tipos de variables medimos el objeto, como por ejemplo hallar la altura de un edificio en función de longitud de su sombra y el ángulo de incidencia de la luz, o la comparación entre dos objetos y su sombra con la misma incidencia de la luz pero sin saber el ángulo de incidencia. Ahora bien todas las medidas tienen un cierto error una incertidumbre a saber el dato exacto medido. Por esto es necesario hallar una cota ó intervalo en el cual varía el resultado medido y el que se tiene entendido como el verdadero. No siempre se tiene un resultado verdadero, entonces esta incertidumbre es el resultado de varias medidas del objeto a medir. Este valor “real” es una convención en la cual es la estimación adecuada de la zona de valores en donde se encuentra ale valor correcto del objeto mesurado y que en términos teóricos o prácticas es imposible de hallar con certeza completa, por eso nos referimos a la incertidumbre de una medida. el valor asociado al error de precisión más confiable es el instrumento. - Errores estadísticos ó aleatorios. Como dijimos antes, el tipo de medida estadística es el resultado de varias fuentes que no pueden ser controladas y que de manera aleatoria generan un resultado que puede que no tenga un valor “real” con el cual comparar. Así también estos errores pueden presentarse en las medidas comunes como es al medir unos fenómenos se vea afectado pro fuentes aleatorias que afecten al objeto a medir o el instrumento mensurador. Una forma de calcular el error en la medida es repetir varias veces la medida, si obtenemos el mismo resultado el por que la apreciación el instrumento no es suficiente para manifestar los errores; en cambio si resultan diferentes valores podemos apreciar de manera más fácil los errores que estamos cometiendo. En este caso aplicamos el método de estadística descriptiva en el cual hallamos el valor medio, y el error será equivalente a la desviación típica de los valores obtenidos. En el Vocabulario Internacional de metrología (VIM) se encuentra definida la incertidumbre como “un parámetro asociado al resultado de una medición que caracteriza la dispersión de los valores que razonablemente podrían ser atribuidos al mesurando”. El error en las medidas son las incertidumbres, estos errores pueden ser clasificados en: - Errores sistemáticos. Los cuales se basan en la presencia de un factor que no se ha tomado en cuenta y que afecta de manera significativa el resultado de la medida. Estos errores se repiten constantemente al no tenerse en cuenta en todas las medidas dando un resultado siempre de la misma forma. Por ejemplo medir siempre con una misma regla, esta regla sin estar calibrada de manera correcta. - Errores de observación. Este error es resultado del observador, la persona que mide, al observar por ejemplo en ángulo equivocado, o no calibrar de manera adecuado ó tomar el dato al tiempo exacto. En otras palabras errores humanos al no tener cuidado. - Errores de precisión del aparato de medida. Todo instrumento de medida presenta una limitación en la precisión. Este error de precisión puede darse de manera explicita en el instrumento o puede que ni siquiera se mencione, este demuestra la calidad y confiabilidad del instrumento. Entre más pequeño es Cuando la medición que realizamos la hacemos de manera indirecta, a partir de otra que ya conocemos, estas contienen un margen de error el cual será necesario hallar con el valor indirecto y que este además se transmite. A esta transmisión de errores de las magnitudes calculadas de manera indirecta se le llama propagación de errores. Para hallar este error normalmente es utilizar el método de la diferencia total, el cual se basa en que todos los cálculos están basados en funciones, si estas funciones presentan varias variables y corresponden a combinaciones lineales de diferenciales cuyos coeficientes son los gradientes de la función. Supongamos la magnitud a medir es r= f(X,Y,Z), que es una función de otras magnitudes X, Y , Z, que se ha medido directamente incluyendo sus incertidumbres directas, obteniéndose entonces los valores de: La incertidumbre entonces de la magnitud r viene dada por: Existen otras formas de obtener un valor de una magnitud a partir de medidas directas, como por ejemplo la regresión lineal, el cual será aplicable cuando la relación entre dos magnitudes X y Y es lineal. En otras palabras de la forma. de como se hace la medida el proceso a hallar la incertidumbre tiene determinados pasos. Y= mx+b Dentro de las medidas entonces no solo se hacen mediciones directas por comparación sino por mediciones indirectas o cálculos a los cuales les debe someter un redondeo y unos pasos para asegurar la fiabilidad de los procesos y de los resultados. Siendo “m” la pendiente de la función y “b” la constante que define la ordenada en el origen. Cuando dos magnitudes se relacionan de manera lineal, la gráfica que generan es una línea de manera lineal que corta al eje en el origen en (0, b). Si obtenemos medidas directas o indirectas entre los valores que generaron la recta no estarán perfectamente alineados. Utilizando la regresión lineal podemos obtener la recta que más se aproxima a los puntos. Cabe también mencionar las reglas del redondeo, en la cuales después de tomar medidas normalmente se aplican cálculos sobre estos datos dando como resultado otros datos con definiciones derivadas de las primeras medidas. Las cantidades físicas que se han medido en el experimento y las constantes con las que se trabajan en los cálculos se toman un número finito de decimales. Los resultados de las operaciones son números que en principio no tienen un valor exacto, por ello mismo el número de cifras significativas es limitado pues no tiene sentido considerar más cifras si estas muestran error. Supongamos que queremos redondear un número que quede representado con n cifras significativas. - Si (n+1)-esima cifra suprimida es menor que 5, la nesima cifra conservada no varía. - Si (n+1)-esima cifra suprimida es mayor que 5, la nesima cifra conservada aumenta e una unidad. - Si la (n+1)-esima cifra suprimida es igual a 5 se aplica lo siguiente: 1) Si entre las cifras suprimidas además del 5 son distintas de cero la n-esima cifra conservada aumenta en 1. 2) Todas las cifras suprimidas salvo el 5 son ceros; la nesima cifra conservada aumenta en 1, si el numero de cifras suprimidas es impar, no varía si es par. A pesar de la necesidad de medir un algo es necesario también saber con qué finalidades, si bien solo es aprender a medir ó medir algo que no necesita mucha precisión no hace falta hacer un proceso riguroso como el descrito, en cambio si el valor tiene que ser preciso, pues será reproducible ó según la precisión planteará otra cosas ameritará el proceso y el más sumo de los cuidados en cuanto a la mesura y a el resultado de hallar la incertidumbre y los errores. REFERENCIAS - - - CONCLUSIONES Todas las medidas tienen una representación física y a cada medida tiene inherente a ella un error ya que el valor exacto preciso de la mesura es imposible de hallar de manera teórica, y el valor que consideramos verdadero es un resultado dado como convención que después de un proceso determinado con pasos definidos y que debe ser siempre el mismo se obtiene una media al a cual se tiende a tener el mismo resultado con un porcentaje de media ó una cota, que además dependiendo - - BECKWITH, Thomas G. MARANGONI, Roy D. LINHARD V. John H. Mechanical measurements 2007 Pearson/Prentice Hall 6th ed.ISBN 0201847655 http://www.cartesia.org/article.php?sid=187 http://www.mitecnologico.com/im/Main/Sensibilidad Incertidumbre Introducción a la Física experimental, Introducción a la Teoría de Errores. Universidad de la Laguna. D. C. Baird. Experimentation: An Introduction to Measurement Theory and Experiment Design. Prentice Hall, 1962. J. R. Taylor. An Introduction to Error Analysis. University Science Books, 1982. Apuntes de Laboratorio de Física General, editado por la Facultad de Ciencias de la UNAM, 1976 Federick J. Buche, FISICA GENERAL, Mc Graw Hill, 1999. "Mecánica elemental" de Juan G. Roederer. R. Resnick y D. Halliday, Física, Vol. II, 4ª Ed. (Addison-Wesley Interamericana, México, D.F. 1995). D.C. Baird, Experimentation, 3ª Ed. (Prentice Hall, Nueva York, 1999). 3. J. Miranda, Evaluación de la Incertidumbre en Datos Experimentales (Instituto de Física, UNAM, México, 2000). Temperatura y métodos de calibración de termómetros G. Aponte, J. Garzón, E. Neira y M. Ramos Grupo12 Facultad de Ciencias, Fundamentos de Electricidad y Magnetismo. Universidad Nacional de Colombia, Bogotá Resumen El fin de este escrito es la comparación entre un termómetro digital y uno análogo, para ello se definirá el concepto de temperatura y su importancia como magnitud física, para poder deducir de ahí métodos de calibración de termómetros que nos permitan realizar la comparación de los instrumentos mencionados inicialmente. Temperatura: Esta es una magnitud relacionada al a energía cinética que posean átomos y moléculas que compartan un cuerpo, siendo una magnitud escalar propia de un sistema termodinámico, esto convierte a la temperatura en una cuantificación de la actividad de la materia dentro de un cuerpo. Existe una gran importancia de cuantificar, con cierto grado de precisión, aquella idea intuitiva de lo caliente o frio. La importancia radica en que una cantidad apreciable propiedades de la materia está en función de la temperatura como el rendimiento en las reacciones químicas, el estado en que se puedan ver los materiales, el espacio que ocupan, la presión, la radiación o la conductividad térmica. Es posible usar la ley cero de la termodinámica para definir cierto comportamiento en la temperatura y definir un principio de funcionamiento para un instrumento que la mida. La ley termo dinámica dice que si dos partes de un sistema entran en contacto térmico es probable que ocurran cambios en las propiedades de ambas. Estos cambios se deben a la transferencia de calor entre las partes. Para que un sistema esté en equilibrio térmico debe llegar al punto en que ya no hay intercambio neto de calor entre sus partes. Lo último es en suma el principio que se usa para el termómetro, con ello se dice que cuando el termómetro esta en equilibrio térmico con el cuerpo en cuestión se puede realizar la medición de su temperatura pues estos comparte el mismo valor de la misma. Este instrumento conserva una historia llena de numerosos intentos de crear escalas de medición y de implementar métodos efectivos de medición, no trataremos esto con profundidad pues no existe la necesidad de hacerlo. Aunque hay cosas importantes sobre la unidades que se tienen que exponer. Unidades de temperatura Los valores que puede adoptar la temperatura en cualquier escala de medición, no tienen un nivel máximo, sino un nivel mínimo: el cero absoluto que en virtud de lo dicho anteriormente es cuando la energía cinética de las partículas de un cuerpo es cero. Las siguientes son algunas de las escalas definidas: Grado Celsius (°C) Para establecer una base de medida de la temperatura Anders Celsius utilizó (en 1742) los puntos de fusión y ebullición del agua. Se considera que una mezcla de hielo y agua que se encuentra en equilibrio con aire saturado a 1 atm está en el punto de fusión. Una mezcla de agua y vapor de agua (sin aire) en equilibrio a 1 atm de presión se considera que está en el punto de ebullición. Celsius dividió el intervalo de temperatura que existe entre éstos dos puntos en 100 partes iguales a las que llamó grados centígrados °C. Sin embargo, en 1948 fueron renombrados grados Celsius en su honor; así mismo se comenzó a utilizar la letra mayúscula para denominarlos. En 1954 la escala Celsius fue redefinida en la Décima Conferencia de Pesos y Medidas en términos de un sólo punto fijo y de la temperatura absoluta del cero absoluto. El punto escogido fue el punto triple del agua que es el estado en el que las tres fases del agua coexisten en equilibrio, al cual se le asignó un valor de 0,01 °C. La magnitud del nuevo grado Celsius se define a partir del cero absoluto como la fracción 1/273,16 del intervalo de temperatura entre el punto triple del agua y el cero absoluto. Como en la nueva escala los puntos de fusión y ebullición del agua son 0,00 °C y 100,00 °C respectivamente, resulta idéntica a la escala de la definición anterior, con la ventaja de tener una definición termodinámica. Grado Fahrenheit (°F) Toma divisiones entre el punto de congelación de una disolución de cloruro amónico (a la que le asigna valor cero) y la temperatura normal corporal humana (a la que le asigna valor 100). Es una unidad típicamente usada en los Estados Unidos; erróneamente, se asocia también a otros países anglosajones como el Reino Unido o Irlanda, que usan la escala Celsius. Grado Réaumur (°Ré, °Re, °R) Es usado para procesos industriales específicos, como el del almíbar. Kelvin (K) El Kelvin es la unidad de medida del SI. La escala Kelvin absoluta es parte del cero absoluto y define la magnitud de sus unidades, de tal forma que el punto triple del agua es exactamente a 273,16 K. La conversión entre estas unidades es sencilla pues se pueden establecer relaciones lineales entre cada ellas expresadas en las siguientes ecuaciones: Ver Anexo # 1. Calibración de termómetros La temperatura es una de las magnitudes físicas más importantes, pues la realización de gran número de procesos académicos, industriales y cotidianos, depende de esta. Pero a su vez podemos pensar que su significado no es ampliamente entendido ya que al parecer está definida bajo una serie de condiciones teóricas, mientras que los demás parámetros si tienen materialización inmediata. Aunque para la medición de temperatura, se dejan como supuestos sistemas termodinámicos perfectos y para estos se establecen una escala que los represente como la escala Kelvin (K), conteniendo esta en valor cero de temperatura definido de forma teórica. Se pueden obtener valores cerca de lo ideal utilizando como referencia la Escala de Temperatura de 1990 (ITS-90) que permite el usa de la escala Celsius de manera al terna por su similitud a la Kelvin. Por lo tanto si un termómetro es calibrado, convendría serlo con base a la ITS90 la cual posee valores en grados Celsius con aprobación internacional, referenciados a fenómenos físicos reproducibles que siempre ocurren a la misma temperatura, como el punto de solidificación de un metal puro. La forma más sencilla y confiable de calibrar termómetros es utilizando los puntos fijos de la tabla siguiente, sin embargo debe tenerse cuidado para tener una verdadera trazabilidad, ya que se tiene una limitante en cuanto al rango en que se encuentra la tabla. El método de calibración por comparación es el más utilizado. Implica comparar un termómetro inferior con otro superior. Pueden ser del mismo tipo, pero el superior debe estar calibrado a mayor precisión. La comparación puede ser hecha en un baño líquido donde el volumen sea suficiente para garantizar la misma temperatura en todo el volumen. Este volumen isotérmico debe ser suficiente para contener los dos termómetros y que ambos estén a la temperatura del baño. Ver anexo # 2 Inmersión Para calibrar un termómetro de trabajo en un punto lejos del punto fijo, se debe utilizar el SPRT y luego el termómetro de trabajo para comparar ambas medidas. Para esto, se necesita poner ambos termómetros en el mismo volumen isotérmico suficientemente grande para garantizar que ambos termómetros están a la misma temperatura que el volumen que los contiene. A partir de los métodos definidos para la escala ITS-90, se establecen los dos métodos para calibrar termómetros: el de puntos fijos y el método de comparación. Para calibrar usando puntos fijos, es posible usar unos instrumentos llamados celdas de puntos fijos que poseen gran confiabilidad dentro de las calibraciones industriales, este tipo de celdas existe una gran variedad que contienen sustancias de alta pureza como celdas primarias de cuarzo-vidrio, Celdas de Agua y Celdas Delgadas de Metal con pureza igual a 99.99995%, de aceptación internacional disponibles en Indio, Estaño y aluminio, con incertidumbres de hasta 0.07m. Estas celdas darían la mayor versatilidad para llevar a cabo las calibraciones. La empresa vería reducido a un mínimo las necesidades de enviar equipo a re-calibrar fuera de sus instalaciones economizando en costos y daños de transporte. Comparación La profundidad de inmersión del termómetro para que logre la temperatura del baño depende de la construcción del termómetro, de la diferencia de temperatura entre el baño y el medio ambiente, de la capacidad de transferencia de calor del baño y de la estabilidad de la temperatura en el baño. Una regla de oro para la profundidad de inmersión es: de 10 a 15 veces el diámetro del termómetro mas la longitud del sensor. Esta longitud podría aumentarse para altas o bajas temperaturas de calibración y cuando el diámetro del termómetro es significativamente más pequeño que el diámetro interno del pozo donde está inmerso. Una prueba simple para determinar si la profundidad de inmersión es correcta o no, consiste en sacar el termómetro unos 2 cm y observar si las lecturas cambian. Si se continúa sacando el termómetro, se puede confirmar la mínima profundidad de inmersión de ese termómetro. Calibraciones trazables En calibración, una medición trazable es aquella en que desde el comienzo y hasta el fin de la calibración, esta puede ser identificable con valores patrón. No existen periodos de tiempo asociados con la trazabilidad. De aquí que una cadena de trazabilidad muy larga puede tener varios años entre el comienzo y el fin de la misma. Tener una ruta trazable no garantiza buenas mediciones. Las buenas mediciones pasan por el personal de laboratorio, equipo, medio ambiente y procedimientos. En el Reino Unido hay un órgano independiente (NAMAS ) que monitorea el trabajo de sus Laboratorios Acreditados para asegurarse que la calibración final es sensiblemente trazable a reconocidos estándares nacionales. El término “reconocidos estándares nacionales” significa que los estándares primarios de otro país se pueden utilizar en cuanto exista un acuerdo de cooperación entre esos países. Sensores de temperatura Los sensores en generales son dispositivos capaces de detectar magnitudes físicas como temperatura y humedad. Para poder conocer lo que los sensores leen, estos transforman las magnitudes medidas en señales eléctricas, que después de ejecutarla muestran los resultados obtenidos de la medición. Ahora bien, para este caso particular se usaron dos sensores, el LM35 y el Dallas DS18S20. A continuación se muestra una descripción de cada uno: LM35 El LM35 es un sensor de temperatura con una precisión calibrada de 1ºC. Puede medir temperaturas en el rango que abarca desde -55º a + 150ºC. La salida es muy lineal y cada grado centígrado equivale a 10 mV en la salida. Bajo costo. Baja impedancia de salida. Su tensión de salida es proporcional a la temperatura, en la escala Celsius. No necesita calibración externa y es de bajo costo. Funciona en el rango de alimentación comprendido entre 4 y 30 voltios. Como ventaja adicional, el LM35 no requiere de circuitos adicionales para su calibración externa cuando se desea obtener una precisión del orden de ±0.25 ºC a temperatura ambiente, y ±0.75 ºC en un rango de temperatura desde 55 a 150 ºC. La baja impedancia de salida, su salida lineal y su precisa calibración inherente hace posible una fácil instalación en un circuito de control. Debido a su baja corriente de alimentación (60uA), se produce un efecto de autocalentamiento reducido, menos de 0.1 ºC en situación de aire estacionario. El sensor se presenta en diferentes encapsulados pero el más común es el to-92 de igual forma que un típico transistor con 3 patas, dos de ellas para alimentarlo y la tercera nos entrega un valor de tensión proporcional a la temperatura medida por el dispositivo. Con el LM35 sobre la mesa las patillas hacia nosotros y las letras del encapsulado hacia arriba tenemos que de izquierda a derecha los pines son: VCC Vout - GND. Sus características más relevantes son: La salida es lineal y equivale a 10mV/ºC por lo tanto: +1500mV = 150ºC Precisión de ~1,5ºC (peor caso), 0.5ºC garantizados a 25ºC. +250mV = 25ºC No linealidad de ~0,5ºC (peor caso). Baja corriente de alimentación (60uA). Amplio rango de funcionamiento (desde -55º a + 150ºC). -550mV = -55ºC Funcionamiento: Para hacer un termómetro lo único que se necesita es un voltímetro bien calibrado y en la escala correcta para que nos muestre el voltaje equivalente a temperatura. El LM35 funciona en el rango de alimentación comprendido entre 4 y 30 voltios. Puede conectarse a un conversor Analógico/Digital y tratar la medida digitalmente, almacenarla o procesarla con un µControlador o similar. El LM35 puede ser aplicado fácilmente de la misma manera que otros sensores de temperatura integrados al circuito. Puede ser pegado o cementado a una superficie y su temperatura estará dentro de aproximadamente 0.01˚C de la superficie de la misma. Esto supone que la temperatura del aire del ambiente es casi la misma que la de la superficie; si la temperatura del aire fuera más alta o baja que la de la superficie, la temperatura del LM35 sería una temperatura intermedia entre la temperatura de la superficie y la del aire. Esto es especialmente cierto para el empaque plástico TO-92, donde los conductores de cobre son el principal camino térmico para transportar calor hacia el dispositivo, de manera que su temperatura esté más cerca de la del aire que la de la superficie. Para minimizar este problema, hay que asegurarse de que la conexión al LM35 es mantenida a la misma temperatura que la superficie de interés. La forma más fácil de hacerlo es cubrir estos cables con una gota de resina epoxy que se asegurará de que los conductores y cables estén a la misma temperatura que la superficie, y que la temperatura del LM35 no será afectada por la del aire. El empaque de metal TO-46 puede ser soldado a una superficie de metal o tubería sin dañarse. Por supuesto, en ese caso la terminal-V del circuito estará conectada a tierra hacia ese metal. El LM35 puede ser montado dentro de un tubo de metal con sellado final, y puede ser sumergido en un baño o atornillado a un agujero roscado en un tanque. Como con cualquier IC, el LM35, su cableado acompañante y sus circuitos deben permanecer aislados y secos, para evitar fugas y corrosión. Esto es importante si el circuito debe operar a temperaturas frías donde puede ocurrir condensación. Revestimientos impresos en el circuito y barnices como Humiseal y pinturas o gotas de resina epoxy son usadas frecuentemente para asegurarse de que la humedad no pueda corroer el LM35 o sus conexiones. Estos dispositivos son a veces soldados a una aleta de calor pequeña ligera, para disminuir la constante de tiempo térmico y acelerar la respuesta en aire con movimiento lento. Una pequeña masa térmica puede ser añadida al sensor, para dar una lectura más estable a pesar de pequeñas desviaciones en la temperatura del aire. Usos: El sensor de temperatura puede usarse para compensar un dispositivo de medida sensible a la temperatura ambiente, refrigerar partes delicadas del robot o bien para loggear temperaturas en el transcurso de un trayecto de exploración. Dallas DS18S20 El termómetro digital DS18S20 provee medidas de temperatura centígradas en 9bits y tiene una función de alarma con puntos gatillo programable por el usuario. El DS18S20 se comunica por un puerto bus de un cable que por definición solo requiere un cable de datos para comunicación con un microprocesador central. Opera en temperaturas en un rango de -55°C to +125°C y tiene una precisión de 0.5°C en un rango de –10°C to +85°C. Además puede obtener energía del cable de datos (“energía parásita”) eliminando la necesidad de una fuente de energía externa. Cada DS18S20 tiene un código serial único de 64-bits, que permite que múltiples DS18S20s funcionen en el mismo bus de 1 cable; así, es simple usar un microprocesador para controlar muchos DS18S20s distribuidos sobre un área grande. Aplicaciones que pueden beneficiarse de esta característica incluyen controles ambientales HVAC, sistemas de monitoreo de la temperatura dentro de edificios, equipo o maquinaria, y monitoreo de procesos y sistemas de control. La ROM de 64-bits almacena el código serial del dispositivo. La memoria del bloc de notas contiene el registro de temperatura de 2-bytes que almacena el resultado digital del sensor de temperatura. En adición, el bloc de notas provee acceso a los registros de alarma superior e inferior de 1-byte (TH and TL). El registro TH y el TL son no volátiles (EEPROM), así que serán retenidos cuando el sensor sea apagado. suministra energía al dispositivo cuando la señal del bus está baja. Este método de derivar energía del bus de un cable es conocido como “energía parasitaria”. Como alternativa, el DS18S20 también puede usar energía de una fuente externa en VDD. Ensayo El ensayo consistió en medir la temperatura con los dos sensores mencionados durante un tiempo de 20 minutos, en el cual se garantizo que esta magnitud fuera constante; cabe mencionar que la temperatura de referencia fue de 19.5 °C. De las mediciones hechas se obtuvieron las siguientes gráficas y tablas: Gráficas: Tablas: El DS18S20 usa el protocolo de bus de 1 cable exclusivo de Dallas que implementa la comunicación usando una señal de control. La línea de control requiere una resistencia débil ya que todos los dispositivos están conectados al bus por medio de un puerto de 3 estados o de drenaje abierto. (El pin DQ en el caso del DS18S20). En este sistema de bus, el microprocesador identifica y se dirige a dispositivos en el bus usando el código de 64 bits único de cada dispositivo. Como cada uno tiene un código único, el número de dispositivos que pueden ser dirigidos en un bus es virtualmente ilimitado. Otra característica del DS18S20 es la habilidad de operar sin una fuente de poder externa. La energía es suministrada a través de la resistencia del bus de 1 cable por medio del pin DQ cuando la señal del bus está alta. La señal del bus alta también carga un capacitor interno (CPP), el cual Ver anexo # 3 A simple vista se puede ver que los resultados obtenidos eran los esperados, el sensor Dallas al ser un sensor digital y de mayor precisión, marco la temperatura que había en el lugar y lo hizo durante todo el tiempo que duro el ensayo, es decir que este fue preciso y exacto. Por otra parte, el sensor ML35 presenta temperaturas muy variables a lo largo del ensayo, y durante este nunca marco la temperatura correcta, lo cual muestre que este es poco preciso y exacto. De igual forma, al observar los valores estadísticos se puede ver que lo dicho en el párrafo anterior es totalmente cierto. La media del sensor Dallas fue de 19,5 °C, con una desviación estándar de 0, es decir que ninguna medición se alejó de la media, o mejor aun, todos los datos fueron iguales a esta; es decir todos fueron de igual magnitud. En cuanto al sensor ML35, se pude ver que este, en su valor máximo, estuve un grado por debajo del valor de la temperatura, además, sus mediciones variaron en un rango de 0.5 °C y presentaron una desviación estándar de 0.2°C, lo cual también muestra la poca exactitud y precisión. Se podría calibrar el sensor ML35 con el sensor Dallas, ya que este último tiene una calibración mejor, lo cual se ve reflejado en su precisión y exactitud. Para ello se podría usar el método de la comparación explicado anteriormente, Conclusiones Si bien se sabía desde un comienzo que la metrología es de suma importancia para un gran número de profesiones, este trabajo, enfocándose a la temperatura, permitió explicar como se calibran los equipos, que unidades de medición se manejan y como funcionan algunas de los sensores mas comunes. Además, se pudo ver como los sensores, que deberían marcar la misma temperatura, presentan una diferencia de mas de un grado Centígrado, lo cual muestra una vez más lo importante que es la metrología, ya que si se tomara el sensor ML35 y se tomaran datos con este, tanto los datos como las conclusiones obtenidas a partir de este no tendría ninguna validez, ya que el equipo no esta calibrado y por tanto arrojaría datos poco confiables. Bibliografía 2010. Ds 18S20 High-Precision 1Wire Digital Thermometer. 20 de Mayo de 2012 <http://datasheets.maximic.com/en/ds/DS18S20.pdf>. Dave Ayres, Anne Blundell. «Isotech China.» 2011. Calibración Termometros. 18 de Mayo de 2012 <http://www.isotechchina.com/pdfs/tempcal-es.pdf>. Instrument, Texas. 2011. LM35 Precision Centigrade Temperature Sensors. 20 de Mayo de 2012 <http://www.ti.com/lit/ds/symlink/l m35.pdf>. Universidad Nacional De Colombia, Sede Medellin. ¿Como se mide la temperatura? 2010. 23 de Mayo de 2012 <http://www.virtual.unal.edu.co/cur sos/sedes/medellin/nivelacion/uv000 07/lecciones/unidad3/energia_pagin a4p.html>. X-Robotics. 2012. 21 de Mayo de 2012 <http://www.xrobotics.com/sensores.htm>. Anexo # 1 Kelvin Grados Celsius Grados Fahrenheit Grado Réaumur Kelvin Grados Celsius Grados Fahrenheit Grado Réaumur Tomado de http://es.wikipedia.org/wiki/Temperatura Anexo # 2 CARACTERÍSTICA TEMPERATURA TERMÓMETRO PUNTO FIJO FÍSICA °C INTERPOLACION Argón Triple punto -189,3442 SPRT Mercurio Triple punto -38,8344 SPRT Agua Triple punto 0.010 SPRT Galio Punto de fusión 29,7646 SPRT Indio Punto solidificación 156,5985 SPRT Estaño Punto solidificación 231,928 SPRT Zinc Punto solidificación 419,527 SPRT Aluminio Punto solidificación 660,323 SPRT Plata Punto solidificación 961,78 SPRT Oro Punto solidificación 1064,18 RT SPRT: Termómetro estándar de resistencia de platino RT: Termómetro de radiación Triple punto: Estados sólido, líquido y gaseoso en equilibrio. Anexo # 3 Máximo (°C) Mínimo (°C) Moda (°C) Media (°C) Desviación Estándar (°C) Sensor LM35 18.54 18.06 18.06 18.252 0.235151015 Sensor Dallas DS18S20 19.5 19.5 19.5 19.5 0 Diferencia 1.44 0.96 1.44 1.248 0.235151015 Inserte aquí su artículo y procure dejarlo en el mismo formato es decir EN BLANCO al final