Download Reloj de sol
Document related concepts
Transcript
Metrología, Universidad Nacional de Colombia REVISTA ARTICULOS GRUPO 12 Universidad Nacional de Colombia 2012 1 Metrología, Universidad Nacional de Colombia INDICE ARTÍCULO INTEGRANTES TÍTULO Pag 1 G12N05 El tiempo en el tiempo 3 El Efecto Hall Patrón de Resistencia 6 2 G12N10giovanni G12N32juandavid 3 G12N33CAROLINA G12N6ANDRES 10 Incertidumbre y su estimación G12N16fernando 4 5 6 7 8 9 10 2 Metrología, Universidad Nacional de Colombia El tiempo en el tiempo Edward Norberto Bautista Rodríguez Universidad Nacional de Colombia Ingeniería Mecánica Resumen, A lo largo de la historia, la humanidad ha tenido una gran necesidad de medir y conocer el tiempo en el que se desarrolla, es por eso que se han desarrollado una gran variedad de relojes que serán objeto de nuestra investigación, incluyendo las influencias de la época, la tecnología, el ambiente y la necesidad. Reloj de sol La forma mas sencilla de medir el tiempo es el uso del sol, pues es este el regulador universal del paso del tiempo, sin el viviríamos algo así como una noche eterna, sin darnos cuenta del paso de una hora o un día. Es por eso que es tal ves la forma mas antigua de medir el tiempo, se tiene conocimiento de relojes solares desde 4000 a.C. usados por los chinos, también los usaban los egipcios y los incas, pero su uso se atribuye al filosofo Jonio Anaximandro en el siglo VI a.C. Clepsidra y reloj de arena Este reloj tiene su fundamento en un objeto mas antiguo llamado la clepsidra, que es un reloj de agua, el cual era mucho mas útil y preciso que el reloj solar pues no dependía de un agente externo a él, como es el sol, consistía en un vaso, en cuya extremidad inferior se encontraba un tubo angosto por donde goteaba el agua que caía en otro vaso. Sobre este recipiente, había una escala graduada y al llenarse, indicaba las horas transcurridas. La clepsidra, data de los años 3000 a.C. usada por los egipcios, pero perfeccionada por griegos y romanos. El reloj de arena no nada diferente a una clepsidra que en lugar de agua tiene arena, pero cada que la arena pasa de un lugar al otro, hay que girarlo para volver a empezar la medición de otro periodo de tiempo, que por lo general era de una hora. Aunque se sabe que su invención es muy antigua, la primera de la que se tiene conocimiento es de 1338. Relojes mecánicos Aún no se sabe quién inventó el primer Reloj Mecánico, lo que se sabe es que los primeros que se han encontrado son del año 1290. Su mecanismo consiste en un conjunto de ruedas giratorias accionadas por un peso colgado de una cuerda. Pero en 1670 un invento de William Clement inspirado en las anclas de los buques funcionaba con el vaivén de un péndulo que mece la ancora de tal manera que se traba y después se destraba en cada uno de los dientes de la rueda lo que a su ves permite un movimiento preciso. Tan solo cinco años después apareció Hyugens con otro hallazgo de gran importancia como lo es el volante con muelle en espiral, este reloj era el más exacto hasta ese momento, con un error de solo 5 minutos diarios. El reloj de tipo péndulo más conocido es el llamado Reloj Cucú. [1] 3 Metrología, Universidad Nacional de Colombia Reloj eléctrico En 1840 Alexander Bain construyó un reloj eléctrico accionado por la atracción y repulsión eléctrica. Reloj de cristal de cuarzo En 1920, Warren Marrison y J.W. Horton construyen el primer reloj de cuarzo en los Bell Telephone Laboratories. Son relojes que se caracteriza por poseer una pieza de cuarzo que sirve para generar los impulsos necesarios a intervalos regulares que permitirán la medición del tiempo. El cuarzo se talla habitualmente en forma de lámina y se introduce en un cilindro metálico. Éste tiene por función la protección del mineral. Para que vibre el cristal de cuarzo, debe ser alimentado por un campo eléctrico oscilante generado por un circuito electrónico. Son relojes muy exactos, sólo se atrasan o adelantan 3 segundos al año. [2] Reloj atómico Reloj nuclear Los relojes atómicos son actualmente los relojes más exactos del mundo y se basan en las propiedades físicas que tienen las fuentes de emisión de cesio. El primer reloj atómico de cesio fue construido en 1955 en el Laboratorio Nacional de Física (NLP), en Inglaterra. Sus creadores fueron Louis Essen y John V.L Parry A pesar de la precisión alcanzada por los relojes atómicos, los científicos parecen no estar conformes aun con un error de un segundo cada 138millones de años y por eso se encuentran trabajando en el desarrollo de un nuevo reloj, que será conocido como reloj nuclear, de este se tiene poca información debido a que aun se encuentra en etapa de diseño. Los relojes atómicos establecieron una nueva forma de medir el tiempo, según este patrón, un segundo se corresponde con 9.192.631.770 ciclos de la radiación asociada a la transición hiperfina desde el estado de reposo del isótopo de cesio-133. La precisión alcanzada con este tipo de reloj atómico es tan elevada que admite únicamente un error de un segundo en 30.000 años, pero el más exacto del mundo actualmente se encuentra en el NPL de Londres y tarda 138millones de años en perder un segundo. La precisión extrema de este reloj, es cien veces superior a la de los actuales relojes atómicos, proviene del núcleo de un solo ion de torio. El reloj nuclear podría ser útil para algunas comunicaciones confidenciales y para el estudio de teorías fundamentales de la física. Asimismo podría añadir precisión al sistema de posicionamiento global, que se sustenta ahora en relojes atómicos. Los relojes mecánicos emplean un péndulo que provee las oscilaciones con las que se mide el tiempo. En los relojes modernos son cristales de cuarzo los que proveen las oscilaciones de alta frecuencia que 4 Metrología, Universidad Nacional de Colombia operan como una horquilla de afinación musical en lugar del antiguo péndulo. La precisión de los relojes atómicos proviene de las oscilaciones de los electrones en los átomos inducidas por rayo láser. Pero a estos electrones pueden afectarles los campos magnéticos y eléctricos, y por eso los relojes atómicos a veces sufren una desviación de unos cuatro segundos a lo largo de la existencia del universo. Pero los neutrones son mucho más pesados que los electrones y están agrupados con más densidad en el núcleo atómico de manera que son menos susceptibles a tales trastornos ambientales. Según el artículo del Instituto Tecnológico de Georgia, para crear las oscilaciones los investigadores planifican el uso de un láser que opera en frecuencias de petaherzios -10 elevado a la 15 potencia, ó 1.000.000.000.000.000 oscilaciones por segundo- para hacer que el núcleo de un ion de torio 229 pase a un estado de energía más elevado. Los diseñadores tienen otro problema: para que el reloj nuclear sea estable hay que mantenerlo a temperaturas muy bajas de apenas decenas de microkelvin y para producir y mantener tales temperaturas habitualmente los físicos usan un refrigerante del laser, pero en este sistema eso se presenta como un problema, porque la luz del laser también se usa para crear las oscilaciones que marcan el paso del tiempo. [3] Referencias [1] http://www.profesorenlinea.cl/mediosocial/Relo jHistoria.htm [2] http://www.wickedmagazine.org/2011/08/el-relojatomico-es-el-mas-preciso-del.html [3] http://www.elespectador.com/tecnologia/articulo333157-disenan-reloj-nuclear-100-veces-maspreciso-el-atomico-actual 5 Metrología, Universidad Nacional de Colombia EFECTO HALL PATRÓN DE RESISTENCIA Nelson Castro [a] Juan D. Rodríguez G. [b] Palabras clave: Voltaje Hall / Campo Magnético /Campo eléctrico / Corriente /Metrología Resumen La calidad es el factor principal al momento de aumentar la productividad en cualquier organización, solo es posible llegar a ello mediante la utilización de la metrología pues sus normas conllevan responsabilidad, reproducibilidad y confiabilidad en los procesos llevados a cabo. Una de las partes dentro de la metrología es el uso de patrones con trazabilidad internacional. Uno de estos patrones corresponde a la resistencia el cual hace uso del efecto Hall cuántico para reportar su correspondiente valor, y se elabora de tal forma que sea posible reproducir en cualquier parte del planeta. Abstract Quality is the main factor when increasing productivity in any organization; you can only achieve this through the use of metrology because its rules include liability, reproducibility and reliability of the processes carried out. A party in metrology is the use of standards with international traceability. One of these patterns corresponds to the resistance which makes use of the Hall effect for reporting the corresponding quantum value, and is prepared so that it can play anywhere in the world. Email: [a] ngcastror@unal.edu.co [b] juadrodriguezgom@unal.edu.co 1. Introducción Productividad, una palabra que soporta una gran cantidad de procesos sincronizados y altamente eficientes que se encuentran enmarcados por la calidad, uno de estos elementos de gran importancia es la metrología. Se obtiene calidad si las mediciones que realizan equipos o instrumentos de medición son confiables en la magnitud que el proceso lo requiera, con un nivel de exactitud y certeza que solo es otorgada por la calibración de estos elementos, que además confieren un nivel alto de precisión a cada medida realizada. Esta calibración no es sino una comparación con patrones estándar nacionales e internacionales reconocidos, en una cadena ininterrumpida llamada trazabilidad. Por medio del uso correcto de la metrología es posible asegurar un cliente satisfecho además de proteger al consumidor con lo cual se facilita la cooperación industrial mediante el intercambio de mercancías. En la metrología el patrón es el pilar de su función, una pieza de estos patrones corresponde a la resistencia, el cual hace uso del efecto hall cuántico para reportar valores muy exactos de resistencia que serán comparados con otros elementos para generar un instrumento o máquina de medición. El efecto hall en si utiliza los conceptos de Fuerza de Lorentz, Ley de Coulomb y campos magnéticos además de aplicaciones como el condensador de placas paralelas y la definición de corriente como conceptos generales de un fenómeno a escala normal, sin embargo la real aplicación se encuentra cuando las temperaturas son muy bajas y los campos magnéticos son muy altos pues allí en el conductor la energía toma valores discretos, lo cual hace factible su uso como patrón. Dentro del campo de la física existen diferentes disciplinas que se encargan de estudiar fenómenos particulares de la naturaleza con el fin de dar una explicación científica a estos acontecimientos. Este artículo incluye conceptos y fundamentos basados en la física de electricidad y magnetismo, y trabaja términos relacionados con la metrología en cuanto a la instauración del patrón de resistencia eléctrica. El tema principal que maneja gira alrededor del fenómeno físico conocido como “Efecto Hall”, llamado así por Edwin Herbert Hall quien fundamentó y realizó las demostraciones necesarias para entender este efecto electromagnético. Principalmente este artículo pretende dar una breve explicación al porqué del comportamiento del efecto mencionado anteriormente, analizando como influyen cada uno de los elementos que actúan en el proceso total del experimento, con el fin de llegar a relacionar estos conceptos con las leyes básicas que rigen la electricidad y el magnetismo. Además, proyecta resaltar la importancia de este fenómeno en campos como el de la metrología y la vida cotidiana. 2. Aspectos Generales 2.1 Metrología Una magnitud física define una característica observable de un sistema físico. Son magnitudes físicas la longitud, el tiempo, la masa, la velocidad, la fuerza, el campo eléctrico, etc. A cada magnitud le corresponde una unidad de medida, de manera de poder expresar cuantitativamente su valor en una medición o cálculo referido a un sistema físico. Un sistema de unidades es el conjunto de unidades asignadas a cada magnitud básica o derivada que se use en la ciencia o la técnica. La normalización internacional de pesos y medidas se halla bajo el control de la Conferencia General de Pesos y Medidas. Las conferencias se realizan en la actualidad cada cuatro años. La Conferencia designa el Comité Internacional de Pesos y Medidas, formado por 18 miembros de países diferentes, se reúne cada año y controla la Oficina Internacional de Pesos y Medidas (Bureau International des Poids et Mesures - BIPM), que es el organismo 6 Metrología, Universidad Nacional de Colombia encargado de asegurar la unificación mundial de las mediciones físicas. El BIPM se creó en 1875 con la adhesión de 17 estados. Actualmente 55 estados, adhieren al sistema. Debido a la creciente complejidad de la definición, control y adecuación de los patrones de medida a los avances científicos, la Conferencia ha creado Comités Consultivos (nueve, en la actualidad) sobre diferentes aspectos metrológicos y desde 1965 publica una revista científica propia, llamada Metrología, además de las publicaciones realizadas por sus expertos en distintas revistas científicas internacionales y los distintos informes de sus cuerpos consultivos y laboratorios propios. En 1960 la Conferencia General de Pesos y Medidas adoptó el llamado Sistema Internacional de Unidades (SI) que fue adoptado luego por cada país adherente con particularidades propias. El SI tiene unidades básicas (consideradas por convención dimensionalmente independientes) y derivadas (que surgen algebraicamente de combinaciones de las unidades básicas). La metrología es un conjunto de reglas y normas que permiten realizar una correcta medida, con herramientas otorgadas por instituciones como el BIPM y es desde estas instituciones que comienza la cadena productiva, pues sin la cuantificación no es posible realizar ninguna tarea empresarial. internacional de resistencia eléctrica utilizado para categorizar los materiales conductores de electricidad. 2.3 Relación con la Metrología Las mediciones confiables suministradas por instrumentos de medición precisos y exactos traen consigo la calidad de los productos. Para asegurar el correcto funcionamiento de los equipos y tener la certeza de que las mediciones efectuadas son exactas, estos instrumentos deben ser calibrados, es decir, comparados con patrones nacionales o internacionales reconocidos, en una cadena ininterrumpida llamada trazabilidad El patrón de resistencia establecido gracias al experimento de efecto Hall cuántico, significó un gran paso no sólo para física, sino también para la metrología, pues generó un manejo óptimo de las mediciones de resistencia y aseguró un futuro uso apropiado de la tecnología que permitió resultados más confiables que han venido beneficiando al cliente y protegiendo al consumidor. De esta manera, facilitó la cooperación industrial y el intercambio comercial internacional de mercancías. 2.2 Descubrimiento Este fenómeno fue observado por primera vez en la universidad Johns Hopkins en Baltimore U.S.A. en el año de 1879 por el físico estadounidense Edwin Herbert Hall. 3. Física del Efecto Hall En Octubre del año 1879, el físico Edward Herbert Hall observa un efecto en el cual la aplicación de un campo magnético intenso sobre una delgada lámina de oro por la que circula una corriente, produce una diferencia de tensión transversal al flujo de corriente en la lámina, esta tensión fue conocida como voltaje Hall. El experimento realizado por Edward Hall, está esquematizado por un circuito que consta de una fuente de voltaje conectada en serie a una resistencia y a una fina lámina de oro, como se muestra en la figura 1. Fig. 2. Lámina delgada de un material conductor o semiconductor por la que fluye una corriente I en dirección x y en la dirección y se aplica un campo magnético uniforme . Fig. 1 Efecto Hall en lámina de oro La diferencia de potencial es generada entre las caras transversales a las que está conectada la corriente, y su valor es proporcional a la relación que existe entre la magnitud de la corriente y el valor del campo magnético. Para el año de 1980 físico alemán Klaus von Klitzing descubriría el efecto Hall cuántico, el cual significó la base para el estándar Fig. 3 Medición del voltaje transversal, Voltaje Hall 7 Metrología, Universidad Nacional de Colombia La fuerza magnética está definida como: Esta fuerza actúa sobre los electrones generando una acumulación de los mismos en el borde c, con lo cual se genera un campo eléctrico entre las cargas negativas en c y las positivas en a (remitirse a las figuras2 y 3). Cuando se alcanza un equilibrio, los electrones ya no son desviados hacia arriba, por lo cual el campo eléctrico es constante, permitiendo medir la diferencia de potencial llamada VOLTAJE HALL . En donde A es el área de la sección transversal del conductor, y es igual a: Finalmente se reemplaza en la ecuación 6 para obtener la expresión completa para el voltaje Hall: A continuación se presenta la deducción de la expresión del voltaje Hall: Fuerza Magnética sobre los portadores Fuerza Magnética sobre los portadores En donde la expresión: Representa el coeficiente o la resistencia Hall. En donde representa el campo eléctrico de las cargas, B el campo magnético y q la carga. Debido a que estas dos fuerzas son iguales se tiene que: Como el voltaje Hall es igual a: · d representa la distancia entre c y a (figura 3). Se despeja 3.1 Efecto Hall Cuántico Antes del descubrimiento del Efecto Hall Cuántico (EHC), utilizado actualmente para reproducir el ohm en los principales laboratorios nacionales del mundo, el Ohm se mantenía mediante un conjunto de resistores de 1 Ω, tipo Thomas. El segundo descubrimiento clave para la metrología cuántica eléctrica fue el efecto Hall cuántico, observado por primera vez por Klaus von Klitzing en 1980. Este efecto puede observarse en dispositivos semiconductores cuando se les aplican campos magnéticos del orden de 10 Tesla (100.000 veces el campo magnético terrestre) y se enfrían a temperaturas inferiores a la del Helio líquido (4,2 K). En estas condiciones experimentales el dispositivo presenta valores cuantizados de la resistencia Hall. Se ha comprobado, con una incertidumbre de partes en 1010 que dichos valores de resistencia son independientes de variables como la corriente de medida, la temperatura o el tipo de dispositivo. 3.2 Medición del Voltaje Hall de la ecuación 4 y se reemplaza en la ecuación 5 obteniendo: La densidad de los portadores de carga se obtiene midiendo la corriente en la muestra y esta expresada como: 8 Fig. 4. Medición voltaje Hall Metrología, Universidad Nacional de Colombia La figura 4 muestra un dispositivo experimental destinado a medir el voltaje Hall. Sobre una corriente eléctrica opera un imán que produce un campo magnético (B). La fuerza magnética que se genera (Fm) desvía las cargas en movimiento hacia uno de los extremos del cable, lo que implica una polarización en cada uno de los lados de la lamina. En consecuencia, entre ambos extremos se establece un campo eléctrico y una correspondiente diferencia de potencial o voltaje Hall visible, en mayor o menor medida dependiendo del material y el grosor de la lámina. 4. Aplicaciones Por medio de la obtención experimental del Voltaje Hall, se puede deducir la velocidad de los portadores de carga junto con su concentración, debido a que cuando se alcanza el estado de equilibrio, la fuerza eléctrica ejercida sobre cada carga, se nivela con la fuerza magnética (ecuación 4). Con esto se comprueba la relación de proporcionalidad directa que existe entre la corriente eléctrica y el campo magnético con el voltaje Hall y la relación de proporcionalidad inversa entre el voltaje Hall y el número de portadores por unidad de volumen. Consecuentemente, un sensor de efecto Hall puede determinar la fuerza que realiza un campo magnético, conociendo la corriente aplicada y vicevers 5. REFERENCIAS [1] Serway A. Raymond, Jewett John W. Física para ciencias e ingeniería con física moderna. Cengage Learning. Séptima Edición. Volumen 2. págs. 825-827 [2] “Efecto Hall” [En Línea]. Disponible en: http://intercentres.edu.gva.es/iesleonardodavinci/Fisica/Electromagne tismo/Electromagnetismo07b.htm. Consultado: Junio/2012 [3] “Efecto Hall”. [En Línea] Disponible en: http://www.sabelotodo.org/electrotecnia/efectohall.html. Consultado: Junio /2012. [3] “Efecto Hall”. [En Línea] Disponible en: http://www.sabelotodo.org/electrotecnia/efectohall.html. Consultado: Junio /2012. [4] “Nuevos patrones eléctricos basados en fenómenos cuánticos”. Ciencia en Aragón (2005). Disponible: http://www.aragoninvestiga.org/Nuevos-patrones-electricos-basadosen-fenomenos-cuanticos/. [5]”CNM-PNE-3, Patrón Nacional de Resistencia Eléctrica en corriente continua”. Centro nacional de metrología. Disponible: http://fisica1000017.wikispaces.com/file/view/Patron+Nacional+de+ Resistencia+Electrica+Cenam.pdf [6]”Laboratorio de metrología”. Icontec internacional. Disponible: http://www.icontec.org.co/index.php?section=93 Si la fuerza del campo magnético y la corriente son conocidas, el sensor Hall se puede utilizar como detector de metales o como detector de componentes magnéticos en general. Este tipo de sensores se encuentran en circuitos integrados ubicados en impresoras láser, disqueteras de ordenador, en motores de corriente continua, etc. Una aplicación interesante del efecto Hall es la posibilidad de determinar la concentración de iones en la sangre, al igual que la velocidad de circulación del flujo sanguíneo. Si se aplica un campo magnético transversal a la corriente sanguínea que fluye por una arteria, el voltaje Hall generado depende de esa velocidad y teniendo esa, es posible determinar la concentración de los iones. 9 Metrología, Universidad Nacional de Colombia INCERTIDUMBRE Y SU ESTIMACIÓN Resumen La medición es una base para todo aquello que tiene una representación física, por tanto es una base importantísima para la misma física, ahora bien sin una forma definida de medida, una forma de revisión, comprobación de resultados, las bases de las mayorías de cosas, teorías e ideas, estarían planteadas de manera muy abiertas sin conclusiones definidas con ó sin medidas. A continuación en este artículo comentaremos la definición de la medida y de la incertidumbre de manera teórica, con algunos ejemplos, haciendo énfasis en la incertidumbre, a la cual se le dará mas importancia ya que le da precisión a la medida, ya que sin esta no serviría de nada el hecho de medir si no existe confiabilidad en la medida. INTRODUCCIÓN Con respecto a las medidas, la unidad con la cual se debe medir debe presentar unas condiciones como son: La medición es un procedimiento típico de la ciencia, en el cual se compara el objeto a medir con un patrón seleccionado cuya magnitud física es comparable y se desea medir cuantas veces el patrón es el objeto a medir. - Esta cantidad desconocida en magnitud y queremos medir será mesurada con un objeto de referencia ya establecido en un sistema como el sistema internacional ó el sistema ingles, los cuales son los más utilizados. - Ahora bien las medidas, debido a una serie de factores, pueden verse afectadas, por ejemplo, la persona que mide debido al ángulo en que mide, ve de manera errónea el dato, ó quizás el instrumento no está bien calibrado, ha sido modificado con esfuerzos plásticos, ó el ambiente ha modificado la precisión del instrumento, incluso es posible que el instrumento diga que un porcentaje o la medida de error. Aquí es donde por el afán o por la necesidad de tener una medida exacta se busca hallar una cota que le dé límite al error, donde la incertidumbre no supere lo necesario, si bien lo necesario puede ser que la incertidumbre no supere un limite pues los cambios en los resultados afecten de manera progresiva el error aumentándolo, o quizás al necesitar el resultado de una manera exacta se desarrollara un objeto que afectará o el cual tendrá características de tolerancia, si bien el porcentaje de error es muy alto es muy probable que el objeto tenga problemas, inconsistencias o sea obsoleto. DESARROLLO Antes de profundizar con el tema de errores e incertidumbre se planteará de manera breve las basas sobre las cuales se realizan pruebas de incertidumbre, es decir los objetos y patrones de medida. - Inalterable (no debe cambiar la medida con el tiempo ni con quien la realice). Ser universal (debe ser utilizada en lo posible por todos y de la misma forma). Debe ser fácilmente reproducible (ya que si es difícil reproducirla sería difícil para cualquiera o en su mayoría todo el que necesite hacer medidas tendría un gran problema consiguiente el patrón de unidad). Ahora no todas las medidas son universales, pero tienen la tendencia a una búsqueda de la universalidad siendo así la más utilizada el sistema de unidades del sistema internacional (S.I). Una medición directa es cuando tenemos un instrumento de medida con las condiciones mencionadas, comparando con este el fenómeno o la naturaleza física a medir, es claro comentar que un instrumento de medida de cierto tipo solo aplica para medir fenómenos o cantidades del mismo tipo de magnitud. Existe también la forma de medir por medidas reproducibles, que al ser efectuadas una serie de comparaciones de la misma. Cuando al efectuar una serie de comparaciones entre la misma variable y el aparato de medida y se obtiene el mismo resultado o uno bastante cercano esta medida es reproducible ya que tiene cierto grado de confianza, en esta capacidad de reproducción está basado los patrones de medidas del S.I. La medida estadística está basada al efectuar serie de comparaciones entre la misma variable y el aparado de medida variables se obtienen distintos resultados, este tipo de medida es aplicables para cuando el fenómeno a medir se puede presentar aleatorio, como por ejemplo medir cierta particularidad de un grupo de personas a cierta tendencia. 10 La medición indirecta es cuando una medición directa no es aplicable por la magnitud de el objeto a medir es difícil de medir por comparación directa, esto suele ocurrir cuando el objeto a medir es muy pequeño, muy grande y depende de obstáculos de otra naturaleza. Entonces basándonos en otros tipos de variables medimos el objeto, como por ejemplo hallar la altura de un edificio en función de longitud de su sombra y el ángulo de incidencia de la luz, o la comparación entre dos objetos y su sombra con la misma incidencia de la luz pero sin saber el ángulo de incidencia. Ahora bien todas las medidas tienen un cierto error una incertidumbre a saber el dato exacto medido. Por esto es necesario hallar una cota ó intervalo en el cual varía el resultado medido y el que se tiene entendido como el verdadero. No siempre se tiene un resultado verdadero, entonces esta incertidumbre es el resultado de varias medidas del objeto a medir. Este valor “real” es una convención en la cual es la estimación adecuada de la zona de valores en donde se encuentra ale valor correcto del objeto mesurado y que en términos teóricos o prácticas es imposible de hallar con certeza completa, por eso nos referimos a la incertidumbre de una medida. el valor asociado al error de precisión más confiable es el instrumento. - Errores estadísticos ó aleatorios. Como dijimos antes, el tipo de medida estadística es el resultado de varias fuentes que no pueden ser controladas y que de manera aleatoria generan un resultado que puede que no tenga un valor “real” con el cual comparar. Así también estos errores pueden presentarse en las medidas comunes como es al medir unos fenómenos se vea afectado pro fuentes aleatorias que afecten al objeto a medir o el instrumento mensurador. Una forma de calcular el error en la medida es repetir varias veces la medida, si obtenemos el mismo resultado el por que la apreciación el instrumento no es suficiente para manifestar los errores; en cambio si resultan diferentes valores podemos apreciar de manera más fácil los errores que estamos cometiendo. En este caso aplicamos el método de estadística descriptiva en el cual hallamos el valor medio, y el error será equivalente a la desviación típica de los valores obtenidos. En el Vocabulario Internacional de metrología (VIM) se encuentra definida la incertidumbre como “un parámetro asociado al resultado de una medición que caracteriza la dispersión de los valores que razonablemente podrían ser atribuidos al mesurando”. El error en las medidas son las incertidumbres, estos errores pueden ser clasificados en: - Errores sistemáticos. Los cuales se basan en la presencia de un factor que no se ha tomado en cuenta y que afecta de manera significativa el resultado de la medida. Estos errores se repiten constantemente al no tenerse en cuenta en todas las medidas dando un resultado siempre de la misma forma. Por ejemplo medir siempre con una misma regla, esta regla sin estar calibrada de manera correcta. - Errores de observación. Este error es resultado del observador, la persona que mide, al observar por ejemplo en ángulo equivocado, o no calibrar de manera adecuado ó tomar el dato al tiempo exacto. En otras palabras errores humanos al no tener cuidado. - Errores de precisión del aparato de medida. Todo instrumento de medida presenta una limitación en la precisión. Este error de precisión puede darse de manera explicita en el instrumento o puede que ni siquiera se mencione, este demuestra la calidad y confiabilidad del instrumento. Entre más pequeño es Cuando la medición que realizamos la hacemos de manera indirecta, a partir de otra que ya conocemos, estas contienen un margen de error el cual será necesario hallar con el valor indirecto y que este además se transmite. A esta transmisión de errores de las magnitudes calculadas de manera indirecta se le llama propagación de errores. Para hallar este error normalmente es utilizar el método de la diferencia total, el cual se basa en que todos los cálculos están basados en funciones, si estas funciones presentan varias variables y corresponden a combinaciones lineales de diferenciales cuyos coeficientes son los gradientes de la función. Supongamos la magnitud a medir es r= f(X,Y,Z), que es una función de otras magnitudes X, Y , Z, que se ha medido directamente incluyendo sus incertidumbres directas, obteniéndose entonces los valores de: La incertidumbre entonces de la magnitud r viene dada por: Existen otras formas de obtener un valor de una magnitud a partir de medidas directas, como por ejemplo la regresión lineal, el cual será aplicable cuando la relación entre dos magnitudes X y Y es lineal. En otras palabras de la forma. de como se hace la medida el proceso a hallar la incertidumbre tiene determinados pasos. Y= mx+b Dentro de las medidas entonces no solo se hacen mediciones directas por comparación sino por mediciones indirectas o cálculos a los cuales les debe someter un redondeo y unos pasos para asegurar la fiabilidad de los procesos y de los resultados. Siendo “m” la pendiente de la función y “b” la constante que define la ordenada en el origen. Cuando dos magnitudes se relacionan de manera lineal, la gráfica que generan es una línea de manera lineal que corta al eje en el origen en (0, b). Si obtenemos medidas directas o indirectas entre los valores que generaron la recta no estarán perfectamente alineados. Utilizando la regresión lineal podemos obtener la recta que más se aproxima a los puntos. Cabe también mencionar las reglas del redondeo, en la cuales después de tomar medidas normalmente se aplican cálculos sobre estos datos dando como resultado otros datos con definiciones derivadas de las primeras medidas. Las cantidades físicas que se han medido en el experimento y las constantes con las que se trabajan en los cálculos se toman un número finito de decimales. Los resultados de las operaciones son números que en principio no tienen un valor exacto, por ello mismo el número de cifras significativas es limitado pues no tiene sentido considerar más cifras si estas muestran error. Supongamos que queremos redondear un número que quede representado con n cifras significativas. - Si (n+1)-esima cifra suprimida es menor que 5, la nesima cifra conservada no varía. - Si (n+1)-esima cifra suprimida es mayor que 5, la nesima cifra conservada aumenta e una unidad. - Si la (n+1)-esima cifra suprimida es igual a 5 se aplica lo siguiente: 1) Si entre las cifras suprimidas además del 5 son distintas de cero la n-esima cifra conservada aumenta en 1. 2) Todas las cifras suprimidas salvo el 5 son ceros; la nesima cifra conservada aumenta en 1, si el numero de cifras suprimidas es impar, no varía si es par. A pesar de la necesidad de medir un algo es necesario también saber con qué finalidades, si bien solo es aprender a medir ó medir algo que no necesita mucha precisión no hace falta hacer un proceso riguroso como el descrito, en cambio si el valor tiene que ser preciso, pues será reproducible ó según la precisión planteará otra cosas ameritará el proceso y el más sumo de los cuidados en cuanto a la mesura y a el resultado de hallar la incertidumbre y los errores. REFERENCIAS - - - CONCLUSIONES Todas las medidas tienen una representación física y a cada medida tiene inherente a ella un error ya que el valor exacto preciso de la mesura es imposible de hallar de manera teórica, y el valor que consideramos verdadero es un resultado dado como convención que después de un proceso determinado con pasos definidos y que debe ser siempre el mismo se obtiene una media al a cual se tiende a tener el mismo resultado con un porcentaje de media ó una cota, que además dependiendo - - BECKWITH, Thomas G. MARANGONI, Roy D. LINHARD V. John H. Mechanical measurements 2007 Pearson/Prentice Hall 6th ed.ISBN 0201847655 http://www.cartesia.org/article.php?sid=187 http://www.mitecnologico.com/im/Main/Sensibilidad Incertidumbre Introducción a la Física experimental, Introducción a la Teoría de Errores. Universidad de la Laguna. D. C. Baird. Experimentation: An Introduction to Measurement Theory and Experiment Design. Prentice Hall, 1962. J. R. Taylor. An Introduction to Error Analysis. University Science Books, 1982. Apuntes de Laboratorio de Física General, editado por la Facultad de Ciencias de la UNAM, 1976 Federick J. Buche, FISICA GENERAL, Mc Graw Hill, 1999. "Mecánica elemental" de Juan G. Roederer. R. Resnick y D. Halliday, Física, Vol. II, 4ª Ed. (Addison-Wesley Interamericana, México, D.F. 1995). D.C. Baird, Experimentation, 3ª Ed. (Prentice Hall, Nueva York, 1999). 3. J. Miranda, Evaluación de la Incertidumbre en Datos Experimentales (Instituto de Física, UNAM, México, 2000). Inserte aquí su artículo y procure dejarlo en el mismo formato es decir EN BLANCO al final