Download CUESTIONARIO_2[1][1]
Document related concepts
no text concepts found
Transcript
CUESTIONARIO 2: OSWALDO IBARRA RODRÍGUEZ FECHA: 10/FEB/2011 1. DEFINA LAS GENERACIONES DE LOS COMPUTADORES Primera generación Abarca desde los inicios de los años 50 hasta unos diez años después, y en la cual la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajos que puede existir, que se conoce como lenguaje de máquina. Estas máquinas eran así: Estaban constituida con electrónica de válvulas Se programaba en lenguaje de máquina Un programa es un conjunto de instrucciones para que la máquina efectué alguna tarea, y que el lenguaje más simple en el que puede especificarse un programa se llama lengua de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios). Características Principales: Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta. Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas). Alto consumo de energía. El voltaje de los tubos era de 300v y la posibilidad de fundirse era grande. Almacenamiento de la información en tambor magnético interior. Un tambor magnético recogía y memorizaba los datos y los programas que se les suministraban. Continúas fallas o interrupciones en el proceso. Requerían sistemas auxiliares de aire acondicionado especial. Programación en lenguaje de máquina. Alto costo. Uso de tarjetas perforadas para suministrar datos de programas. Computadoras representativa y utilizada en las elecciones presidenciales de los EUA en 1952. Fabricación industrial. 1947 ENIAC. Primera computadora digital electrónica de la historia. 1949 EDVAC. Primera computadora programable. 1951 UNIVAC I. Primera computadora comercial. 1953 IBM 701. Para introducir los datos (tarjetas perforadas) 1954 IBM. Continúo con otros modelos (tambor magnético). Segunda Generación La segunda generación comienza con el advenimiento del transistor; ésta va desde finales de los años 50, cuando los transistores reemplazaron a los bulbos en los circuitos de las computadoras. Las computadoras de la segunda generación ya no tienen bulbos, sino transistores su tamaño pasa a ser más reducido que sus antecesoras con válvulas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de de máquina, y que recibe el nombre de "lenguaje de alto nivel" o lenguaje de programación. Estas nuevas computadoras eran así: Construidas con electrónica de transistores. Programación de lenguaje de alto nivel. En esta generación las computadoras al ser reducidas de tamaño el costo era menor. Comienzan entonces a aparecer muchas empresas y las computadoras eran muy avanzadas. Las computadoras de la segunda generación también redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Algunas de estas computadoras se programaban con cintas perforadas y otras por medio de un cableado en un tablero. Los escritos de una computadora podían transferirse a otra con un mínimo esfuerzo. Las computadoras de esa generación fueron: La philco 212, la UNIVAC M460, la Control Data Corporations 1604, Luego vino la 3000, la IBM 7090, y la NCR 315. Características principales: Transistor como potente principal. El componente principal es un pequeño trozo de semiconductor, y se expone en los llamados circuitos transistores. Disminución del tamaño Disminución del consumo y de la producción de calor Su fiabilidad alcanza metas inimaginables con los efímeros tubos al vacío Mayor rapidez, la velocidad de las operaciones ya no se mide en segundos sino en menos Memorias internas de núcleos de ferrita Instrumentos de almacenamiento: cintas y discos Mejoran los dispositivos de entrada y salida, para la mejor lectura de tarjetas perforadas, se disponía de células fotoeléctricas. Introducción de elementos modulares. Aumenta la confiabilidad. Las impresoras aumentan su capacidad de trabajo. Lenguaje de programación más potente. Aplicaciones comerciales en aumento. Tercera Generación En la tercera generación de computadoras su característica fundamental es que su electrónica es basada en circuitos integrados y además su manejo es por medio de los lenguajes de control de los sistemas operativos. La IBM produce la seria 360 que utilizaba técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares. El sistema operativo de la serie 360, se llamo OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. Mini computadoras, con la introducción del modelo360 IBM acaparó el 70% del mercado En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida. En los años 70, la IBM produce la seria 370. Y posteriormente surge mas modelos y el mercado crece con gran rapidez Las características principales: Circuitos integrados desarrollado en 1958 por Jack Kilbry. Circuitos integrados, miniaturización y reunión de centenares de elementos en una placa de silicio o (chip) Menor consumo de energía Apreciable reducción de espacio Aumento de fiabilidad y flexibilidad Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta Generalización de lenguas de programación de alto nivel Compatibilidad para compartir software entre diversos equipos Computadoras en serie 360 IBM Teleproceso Multiprogramación Tiempo compartido Renovación de periféricos Instrumentos del sistema Ampliación de aplicaciones La mini computadora. Cuarta generación En la cuarta generación aparecen los microprocesadores siendo un avance importante en microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Así nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general. Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de muchos más componentes en un chip: producto de la micro miniaturización de los circuitos electrónicos. Características principales: Microprocesador: desarrollo por Intel Corporation a solicitud de una empresa japonesa (1971) Se minimizan los circuitos, aumenta la capacidad de almacenamiento Reduce el tiempo de respuesta Gran expansión del uso de las computadoras Memorias electrónicas más rápidas Sistemas de tratamiento de base de datos Generalización de las aplicaciones Multiproceso Microcomputador. Quinta generación El proyecto del Sistema de computadoras de quinta generación fue desarrollado por el ministerio de industria y comercio internacional de Japón que comenzó en 1982 para crear computadoras de quinta generación. Debía ser resultado de un proyecto de investigación a gran escala entre el gobierno y la industria de Japón en la década de los ochenta. Las características que se pretendía que las computadoras adquirieran eran la siguiente: Inteligencia Artificial Son sistemas que pueden aprender a partir de la experiencia y que son capaces de aplicar asta información en situaciones nuevas. Tuvo sus inicios en los años 50 algunas aplicaciones se pueden encontrar en: Traductores de lenguajes Robots con capacidad de movimiento Juegos Reconocimientos de formas tridimensionales Entendimiento de relatos no triviales Debe quedar claro que la inteligencia artificial no implica computadoras inteligentes; implica más bien computadoras que ejecutan programas diseñados para simular algunas de las reglas mentales mediante las cuales se puede obtener conocimiento a partir de hechos específicos que ocurren, o de entender frases del lenguaje hablando, o de aprender reglas para ganar juegos de mesa. Para desarrollar este concepto se pretendía cambiar la forma en que las computadoras interactuaban con la información cambiando su lenguaje base a un lenguaje de programación lógica. Sexta generación Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera. 2. ¿QUÉ ES SISTEMA OPERATIVO? Un Sistema Operativo (SO) es el software básico de una computadora que provee una interfaz entre el resto de programas del ordenador, los dispositivos hardware y el usuario. Las funciones básicas del Sistema Operativo son administrar los recursos de la máquina, coordinar el hardware y organizar archivos y directorios en dispositivos de almacenamiento. Los Sistemas Operativos más utilizados son Dos, Windows, Linux y Mac Algunos SO ya vienen con un navegador integrado, como Windows que trae el navegador Internet Explorer. 3. QUÉ ES UN DISPOSITIVO DE ENTRADA Y CUÁLES PERIFÉRICOS LO CONFORMAN? Son los que envían información a la unidad de procesamiento, en código binario. Dispositivos de entrada (entre otros): Teclado: Un teclado se compone de una serie de teclas agrupadas en funciones que podremos describir: Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt...etc. Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1. Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta,... etc. Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas. Recomendaciones: En este apartado es conveniente distinguir entre dos tipos de teclado: De Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura. Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario. Mouse: A este periférico se le llamó así por su parecido con este roedor. Suelen estar constituidos por una caja con una forma más o menos anatómica en la que se encuentran dos botones que harán los famosos clicks de ratón siendo transmitidos por el cable al puerto PS/IIo al puerto de serie (COM1 normalmente). Dentro de esta caja se encuentra una bola que sobresale de la caja a la que se pegan 4 rodillos ortogonalmente dispuestos que serán los que definan la dirección de movimiento del ratón. El ratón se mueve por una alfombrilla ocasionando el movimiento de la bola que a su vez origina el movimiento de uno o varios de estos rodillos que se transforma en señales eléctricas y producen el efecto de desplazamiento del ratón por la pantalla del ordenador. Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad de cableado. Otros presentan la bola en la parte superior de la caja no estando por tanto en contacto con la alfombrilla y teniendo que ser movida por los dedos del usuario aunque se origina el mismo efecto. Micrófono: Periférico por el cual transmite sonidos que el ordenador capta y los reproduce, los salva, etc. Se conecta a la tarjeta de sonido. Escáner: Es un dispositivo utiliza un haz luminoso para detectar los patrones de luz y oscuridad (o los colores) de la superficie del papel, convirtiendo la imaginen señales digitales que se pueden manipular por medio de un software de tratamiento de imágenes con reconocimiento óptico de caracteres. Un tipo de escáner utilizado con frecuencia es el flatbed, que significa que el dispositivo de barrido se desplaza a lo largo de un documento fijo. En este tipo de escáneres, como las fotocopiadoras de oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y son barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner flatbedutiliza un elemento de barrido instalado en una carcasa fija encima del documento. Un tipo muy popular de escáner es el escáner de mano, también llamado handheld, porque el usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres tienen la ventaja de ser relativamente baratos, pero resultan algo limitados porque no pueden leer documentos con una anchura mayor a 12 o 15 centímetros. Lector de código de barras: dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos. Cámara digital: Cámara que se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios tipos: Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador. Cámara de video: Graba videos como si de una cámara normal se tratara, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado. Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso es generalmente para videoconferencias por internet, pero mediante el software adecuado, se pueden grabar videos como una cámara normal y tomar fotos estáticas. Lápiz Óptico: dispositivo señalador que permite sostener sobre la pantalla un lápiz que está conectado al ordenador y con el que es posible seleccionar elementos u opciones (el equivalente a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla. El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario. Joystick: dispositivo señalador muy conocido, utilizado mayoritariamente para juegos de ordenador o computadora, pero que también se emplea para otras tareas. Un joysticko palanca de juegos tiene normalmente una base de plástico redonda o rectangular, a la que está acoplada una palanca vertical. Los botones de control se localizan sobre la base y algunas veces en la parte superior de la palanca, que puede moverse en todas direcciones para controlar el movimiento de un objeto en la pantalla. Tarjetas perforadas: ficha de papel manila de 80 columnas, de unos 7,5 cm (3 pulgadas) de ancho por 18 cm (7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos en forma de orificios practicados por una máquina perforadora. Estos orificios correspondían a números, letras y otros caracteres que podía leer un ordenador equipada con lector de tarjetas perforadas. Pantalla Táctil: pantalla diseñada o modificada para reconocer la situación de una presión en su superficie. Al tocar la pantalla, el usuario puede hacer una selección mover el cursor. El tipo de pantalla táctil más sencillo está compuesto de una redde líneas sensibles, que determinan la situación de una presión mediante la unión de los contactos verticales y horizontales. 4. ¿QUÉ ES UN DISPOSITIVO DE ALMACENAMIENTO? ¿CUÁLES CONOCE? Dispositivo de almacenamiento es todo aparato que se utilice para grabar los datos de la computadora de forma permanente o temporal. Una unidad de disco, junto con los discos que graba, es un dispositivo de almacenamiento. A veces se dice que una computadora tiene dispositivos de almacenamiento primarios (o principales) y secundarios (o auxiliares). Cuando se hace esta distinción, el dispositivo de almacenamiento primario es la memoria de acceso aleatorio (RAM) de la computadora, un dispositivo de almacenamiento permanente pero cuyo contenido es temporal. El almacenamiento secundario incluye los dispositivos de almacenamiento más permanentes, como unidades de disco y de cinta. La velocidad de un dispositivo se mide por varios parámetros: la velocidad máxima que es capaz de soportar, que suele ser relativa, en un breve espacio de tiempo y en las mejores condiciones; la velocidad media, que es la que puede mantener de forma constante en un cierto período de tiempo, y, por último, el tiempo medio de acceso que tarda el dispositivo en responder a una petición de información debido a que debe empezar a mover sus piezas, a girar y buscar el dato solicitado. Este tiempo se mide en milisegundos (ms), y cuanto menor sea esta cifra más rápido será el acceso a los datos. 5. ¿QUÉ ES UN DISPOSITIVO DE SALIDA Y CUÁLES PERIFÉRICOS LO CONFORMAN? Son instrumentos que interpretan la información y permiten la comunicación entre los seres humanos y las computadoras. Estos dispositivos convierten los resultados que produce el procesador y que están en código de máquina en una forma susceptible de ser empleada por las personas. Los dispositivos de salida de un computador son el hardware que se encarga de mandar una respuesta hacia el exterior del computador, como pueden ser: los monitores, impresoras, sistemas de sonido, módem, entre otros. Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos del computador. Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos del computador, algunos ejemplos de dispositivos de salida son: MONITORES IMPRESORAS BOCINAS PLOTTERS GRAFICADORAS 6. ¿QUÉ ES HARDWARE? En computación, término inglés que hace referencia a cualquier componente físico tecnológico, que trabaja o interactúa de algún modo con la computadora. No sólo incluye elementos internos como el disco duro, CD-ROM, disquetera, sino que también hace referencia al cableado, circuitos, gabinete, etc. E incluso hace referencia a elementos externos como la impresora, el mouse, el teclado, el monitor y demás periféricos. El hardware contrasta con el software, que es intangible y le da lógica al hardware (además de ejecutarse dentro de éste). El hardware no es frecuentemente cambiado, en tanto el software puede ser creado, borrado y modificado sencillamente. (Excepto el firmware, que es un tipo de software que raramente es alterado). 7. ¿QUÉ ES SOFTWARE? En computación, el software -en sentido estricto- es todo programa o aplicación programado para realizar tareas específicas. El término "software" fue usado por primera vez por John W. Tukey en 1957. Algunos autores prefieren ampliar la definición de software e incluir también en la definición todo lo que es producido en el desarrollo del mismo. La palabra "software" es un contraste de "hardware"; el software se ejecuta dentro del hardware. El software en sentido amplio Una definición más amplia de software incluye mucho más que sólo los programas. Esta definición incluye: - La representación del software: programas, detalles del diseño escritos en un lenguaje de descripción de programas, diseño de la arquitectura, especificaciones escritas en lenguaje formal, requerimientos del sistema, etc. - El conocimiento de la ingeniería del software: Es toda la información relacionada al desarrollo de software (por ejemplo, cómo utilizar un método de diseño específico) o la información relacionada al desarrollo de un software específico (por ejemplo, el esquema de pruebas en un proyecto). Aquí se incluye información relacionada al proyecto, información sobre la tecnología de software, conocimiento acerca de sistemas similares y la información detallada relacionada a la identificación y solución de problemas técnicos. - La información de la aplicación. 8. DEFINA EL ACRÓNIMO DE MEMORIA RAM Y EXPLIQUE SU FUNCIÓN Memoria de acceso aleatorio (RAM): (Random Access Memory) Es una forma de equipo de almacenamiento de datos . Hoy en día, toma la forma de circuitos integrados que permiten almacenar datos para acceder en cualquier orden (es decir, al azar ). "Azar" se refiere a la idea de que cualquier pieza de datos que pueden obtenerse en un tiempo constante , independientemente de su ubicación física y si está relacionada con la pieza anterior de los datos. 9. DEFINA EL ACRÓNIMO DE MEMORIA ROM, EXPLIQUE SU FUNCIÓN La memoria ROM, (read-only memory) o memoria de sólo lectura, es la memoria que se utiliza para almacenar los programas que ponen en marcha el ordenador y realizan los diagnósticos. La mayoría de los ordenadores tienen una cantidad pequeña de memoria ROM (algunos miles de bytes). 10. DEFINA LAS SIGUIENTES EQUIVALENCIAS: BIT: Bit es el acrónimo de Binary digit. (Dígito binario). Un bit es un dígito del sistema de numeración binario. Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1. Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados: Apagada o encendida Memoria de computadora de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm. corresponden a 512 bytes. El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1). BYTE: Byte es una palabra inglesa (pronunciada [bait] o ['bite]), que si bien la Real Academia Española ha aceptado como equivalente a octeto (es decir a ocho bits), para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos eso (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit). Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos). -KILOBYTE: Un Kilobyte (abreviado como KB o Kbyte) es una unidad de medida equivalente a mil bytes de memoria de ordenador o de capacidad de disco. Por ejemplo, un dispositivo que tiene 256K de memoria puede almacenar aproximadamente 256.000 bytes (o caracteres) de una vez. En sistemas decimales, kilo significa 1.000, pero el mundo de los ordenadores se basa en un sistema binario de dos en vez de diez. Así pues, un kilobyte es realmente 1.024 (210) bytes. Para distinguir entre una K decimal (1.000) y una K binaria (1.024), el IEEE ha sugerido usar una k minúscula para un kilo decimal y una K mayúscula para un kilo binario. MEGABYTE: (MB, Mbyte) Unidad que sirve para medir cantidad datos informáticos. Sirve para medir tamaño de archivos, capacidad de almacenamiento, velocidad de transferencia de datos (al agregarle una unidad de tiempo, generalmente segundos), etc. Un megabyte equivale exactamente a 1024 KB (kilobytes) o a 1.048.576 bytes. 1024 (MB) megabytes equivalen a 1 GB. Para redondear se suele decir que un megabyte equivale a un millón de bytes. -GIGABYTE: Un gigabyte es una unidad de almacenamiento de información cuyo símbolo es el GB, equivale a 109 bytes. Por otro lado, al igual que el resto de prefijos del SI, para la informática muchas veces se confunden con 230 el cual debe ser denominado gibibyte según normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binarios y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos, por otro lado la gran mayoría de los dispositivos de almacenamiento se miden en base diez. Giga proviene del griego γίγας, /Jigas/ que significa gigante. En lenguaje coloquial, "Gigabyte" se abrevia a menudo como giga. -TERABYTE: Un terabyte es una unidad de almacenamiento de información cuyo símbolo es el TB, y equivale a 1012 bytes. Por otro lado, en la informática a menudo se confunde con 2 40, pero es un error ya que al valor 240 se denomina tebibyte según la normativa IEC 60027-2 y la IEC 80000-13:2008 publicada por la Comisión Electrotécnica Internacional. Confusiones similares existen con el resto de prefijos de múltiplos del S.I. (Sistema Internacional de Medidas). Adoptado en 1960, el prefijo Tera viene del griego τέρας, que significa "monstruo o bestia". 11. QUÉ SISTEMAS OPERATIVOS CONOCE? Existen varios tipos de sistemas operativos, definidos según su capacidad para administrar simultáneamente información de 16 bits, 32 bits, 64 bits o más. Sistema Programación Usuario único DOS 16 bits X Windows3.1 16/32 bits X no preventivo X cooperativo Windows95/98/Me 32 bits Usuario múltiple Tarea única Multitarea X WindowsNT/2000 32 bits X preventivo WindowsXP 32/64 bits X preventivo Unix / Linux 32/64 bits X preventivo MAC/OS X 32 bits X preventivo VMS 32 bits X preventivo 12. ¿QUÉ ES EL LENGUAJE DE BAJO NIVEL? Los lenguajes de bajo nivel son más fáciles de utilizar que los lenguajes máquina, pero, al igual que ellos, dependen de la máquina en particular. El lenguaje de bajo nivel por excelencia es el ensamblador. Las instrucciones en lenguaje ensamblador son instrucciones conocidas como nemotécnicos. Por ejemplo, nemotécnicos típicos de operaciones aritméticas son: en inglés, ADD, SUB, DIV, etc.; en español, SUM, RES, DIV, etc. Una instrucción típica de suma sería: ADD M, N, P Esta instrucción podría significar “sumar el número contenido en la posición de memoria M al número almacenado en la posición de memoria N y situar el resultado en la posición de memoria P”. Evidentemente es mucho más sencillo recordar la instrucción anterior con un nemotécnico que su equivalente en código máquina”. 0110 1001 1010 1011 Un programa escrito en lenguaje ensamblador no puede ser ejecutado directamente por la computadora en esto se diferencia esencialmente del lenguaje máquina, sino que requiere una fase de traducción al lenguaje máquina. El programa original escrito en lenguaje ensamblador se denomina programa fuente y el programa traducido en lenguaje máquina se conoce como programa objeto, ya directamente entendible por la computadora. El traductor de programas fuente a objeto es un programa llamado ensamblador, existente en casi todos los computadores. No se debe confundir el programa ensamblador, encargado de efectuar la traducción del programa fuente escrito a lenguaje máquina, con el lenguaje ensamblador, lenguaje de programación con una estructura y gramática definidas. 13. ¿QUÉ ES EL LENGUAJE DE ALTO NIVEL? Los lenguajes de alto nivel logran la independencia del tipo de máquina y se aproximan al lenguaje natural. Se puede decir que el principal problema que presentan los lenguajes de alto nivel es la gran cantidad de ellos que existen actualmente en uso. Los lenguajes de alto nivel, también denominados lenguajes evolucionados, surgen con posterioridad a los anteriores, con los siguientes objetivos, entre otros: Lograr independencia de la máquina, pudiendo utilizar un mismo programa en diferentes equipos con la única condición de disponer de un programa traductor o compilador, que lo suministra el fabricante, para obtener el programa ejecutable en lenguaje binario de la máquina que se trate. Además, no se necesita conocer el hardware específico de dicha máquina. Aproximarse al lenguaje natural, para que el programa se pueda escribir y leer de una forma más sencilla, eliminando muchas de las posibilidades de cometer errores que se daban en el lenguaje máquina, ya que se utilizan palabras (en inglés) en lugar de cadenas de símbolos sin ningún significado aparente. Incluir rutinas de uso frecuente como son las de entrada/salida, funciones matemáticas, manejo de tablas, etc., que figuran en una especie de librería del lenguaje, de tal manera que se pueden utilizar siempre que se quieran sin necesidad de programarlas cada vez. 14. ¿QUÉ ES EL LENGUAJE DE MÁQUINA? El lenguaje máquina es el único que entiende directamente la computadora, utiliza el alfabeto binario que consta de los dos únicos símbolos 0 y 1, denominados bits (abreviatura inglesa de dígitos binarios). El lenguaje máquina es el único que entiende directamente la computadora, utiliza el alfabeto binario que consta de los dos únicos símbolos 0 y 1, denominados bits (abreviatura inglesa de dígitos binarios). Fue el primer lenguaje utilizado en la programación de computadoras, pero dejó de utilizarse por su dificultad y complicación, siendo sustituido por otros lenguajes más fáciles de aprender y utilizar, que además reducen la posibilidad de cometer errores. EJEMPLO 0000 0001 1010 0001 01 A1 1000 1001 1001 1010 89 9A 0011 1010 1001 1100 3A 9C 0111 0100 0111 0000 74 70 1110 1001 0010 0000 E9 20