Download Para realizar una suma o una resta, se activaba el sistema de
Document related concepts
no text concepts found
Transcript
Historia de la computación (Redirigido desde Historia de la informática) La computadora u ordenador, no es un invento de alguien en particular, sino el resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con áreas tales como la electrónica, lamecánica, los materiales semiconductores, la lógica, el álgebra y la programación. Contenido [ocultar] 1 Siglo XVII 2 Siglo XVIII 3 Siglo XIX 4 Siglo XX 5 Siglo XXI 6 Véase también 7 Enlaces externos Siglo XVII El matemático e ingeniero Muhammad ibn Musa al-Khwarizmi, inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones a fin de hallar la solución al problema que se plantea. 1617 Justo antes de morir, el matemático escocés John Napier (1550-1617), famoso por su invención de los logaritmos, desarrolló un sistema para realizar operaciones aritméticas manipulando barras, a las que llamó "huesos" juanito pppm ya que estaban construidas con material de hueso o marfil, y en los que estaban plasmados los dígitos. Dada su naturaleza, se llamó al sistema "Napier Bones". Los Huesos de Napier tuvieron una fuerte influencia en el desarrollo de la regla deslizante (cinco años más tarde) y las máquinas calculadoras subsecuentes, que contaron con logaritmos. 1623 La primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Llamado "El Reloj Calculador", la máquina incorporó los logaritmos de Napier, hacía rodar cilindros en un albergue grande. Se comisionó un Reloj Calculador para Johannes Kepler, el matemático famoso, pero fue destruido por el fuego antes de que se terminara. 1624 La primera regla deslizante fue inventada por el matemático inglés William Oughtred. La regla deslizante (llamada "Círculos de Proporción") era un juego de discos rotatorios que se calibraron con los logaritmos de Napier. Se usó como uno de los primeros aparatos de la informática analógica. Su época de esplendor duró más o menos un siglo, el comprendido entre la segunda mitad del siglo XIX y el último cuarto del XX, hasta que a comienzos de 1970, calculadoras portátiles comenzaron a ser populares. 1642 Pascalina firmada por Pascal en 1652. Blaise Pascal inventa la Pascalina en 1645. Con esta máquina, los datos se representaban mediante las posiciones de los engranajes. La Pascalina es una de las primeras calculadoras mecánicas, que funcionaba a base de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. 1666 La primera máquina de multiplicar se inventó por Sir Samuel Morland, entonces Amo de mecánicas a la corte de Rey Charles II de Inglaterra. El aparato constó de una serie de ruedas, cada una de las cuales representaba decenas, centenas, etc. Un alfiler de acero movía los diales para ejecutar los cálculos. A diferencia de la Pascalina, este aparato no tenía avance automático de columnas. 1673 La primera calculadora de propósito general fue inventada por el matemático alemán Gottfried Leibniz. El aparato era una partida de la Pascalina; mientras opera usa un cilindro de dientes (la rueda de Leibniz) en lugar de la serie de engranajes. Aunque el aparato podía ejecutar multiplicaciones y divisiones, padeció de problemas de fiabilidad que disminuyó su utilidad. Siglo XVIII 1769 El Jugador de Ajedrez Autómata, "El Turco", fue inventado por el Barón Wolfgang von Kempelen, un noble húngaro. Pretendió ser una máquina pura, incluía un jugador de ajedrez "robótico", sin embargo fue una farsa, la cabina era una ilusión óptica bien planteada que permitía a un maestro del ajedrez esconderse en su interior y operar el maniquí, era una sensación dondequiera que iba pero se destruyó en un incendio en 1856. 1777 Se inventó la primera máquina lógica por Charles Mahon, el Conde de Stanhope. El "demostrador lógico" era un aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es el precursor de los componentes lógicos en computadoras modernas. Siglo XIX 1801 El francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras. Inspirado por instrumentos musicales que se programaban usando papel agujereado, la máquina se parecía a una atadura del telar que podría controlar automáticamente los dibujos usando una línea de tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba por formar la base de muchos aparatos de la informática e idiomas de la programación. 1820 La primera calculadora de producción masiva se distribuyó por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetros se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862. 1822 Charles Babbage completó su Artefacto de la diferencia, una máquina de propósito específico que se podía usar para calcular valores de funciones polinómicas mediante el método de las diferencias. El Artefacto de la Diferencia era un ensamble complejo de ruedas, engranajes, y remaches. Babbage diseñó su "Artefacto Analítico", un aparato de propósito general que era capaz de ejecutar cualquier tipo de cálculo matemático. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de cálculos computacionales que ahora se consideran el corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora digital subsiguiente, incluidas las modernas. El artefacto analítico fue finalmente construido por un equipo moderno de ingenieros, en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento, Babbage hoy se conoce como el "Padre de las Computadoras Modernas". 1837 Fue inicialmente descrita la máquina analítica de Charles Babbage. Es el diseño de un computador moderno de propósito general. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores. 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas se adaptaran de manera que causaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunos consideran a Lady Lovelace la primera programadora. 1854 El desarrollo del Álgebra de Boole fue publicado por el lógico inglés George Boole. El sistema de Boole redujo a argumentos lógicos las permutaciones de tres operadores básicos algebraicos: y,o, y no. A causa del desarrollo del álgebra de Boole, Boole es considerado por muchos como el padre de la teoría de la informática. 1869 La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el Piano lógico, usó un alfabeto de cuatro términos lógicos para resolver silogismos complicados. 1878 Un comité de la Asociación Británica para el avance de la ciencia recomendó no construir la máquina analítica, por lo que Babbage no tuvo acceso a fondos del gobierno. Ramón Verea, quien vivía en la ciudad de Nueva York, inventó una calculadora con una tabla interna de multiplicación; esto fue mucho más rápido que usar acarreos u otro método digital de aquel tiempo. Él no se interesó en poner su obra en producción, sólo quiso mostrar que un español podía inventar tanto como un americano. 1879 A los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, entre otros. Gracias a la máquina tabuladora de Hollerith el censo de 1890 se realizó en dos años y medio, cinco menos que el censo de 1880.Se tardaba tanto en hacer el censo debido a la llegada masiva de inmigrantes. 1884 Dorr Felt desarrolló su Comptómetro, el cual fue la primera calculadora que se operaba con sólo presionar teclas en vez de, por ejemplo, deslizar ruedas. 1893 La primera máquina exitosa de multiplicación automática se desarrolló por Otto Steiger. "El Millonario", como se le conocía, automatizó la invención de Leibniz de 1673, y fue fabricado por Hans W. Egli de Zurich. Originalmente hecha para negocios, la ciencia halló inmediatamente un uso para el aparato, y varios miles de ellos se vendieron en los cuarenta años que siguieron. Siglo XX 1906 El primer tubo de vacío fue inventado por el estadounidense, Lee De Forest. El "Audion", como se llamaba, tenía tres elementos dentro de una bombilla del vidrio evacuada. Los elementos eran capaces de hallar y amplificar señales de radio recibidas de una antena. El tubo al vacío encontraría uso en varias generaciones tempranas de 5 computadoras, a comienzos de 1930. 1919 El primer circuito multivibrador o biestable (en léxico electrónico flip-flop) fue desarrollado por los inventores americanos W.H. Eccles y F.W. Jordan. El flip-flop permitió diseñar circuitos electrónicos que podían tener dos estados estables, alternativamente, pudiendo representar así el 0 como un estado y el otro con un 1. Esto formó la base del almacenamiento y proceso del bit binario, estructura que utilizan las actuales computadoras. 1924 Walther Bothe construyó una puerta lógica AND para usarla en experimentos físicos, por lo cual recibió el premio Nobel de física en 1954. 1925 Se fundan los laboratorios Bell. 1930 Vannevar Bush construyó una máquina diferencial parcialmente electrónica, capaz de resolver ecuaciones diferenciales. 1931 Kurt Gödel publicó un documento sobre los lenguajes formales basados en operaciones aritméticas. Lo usó para codificar arbitrariamente sentencias y pruebas formales, y mostró que los sistemas formales, como las matemáticas tradicionales, son inconsistentes en un cierto sentido, o que contienen sentencias improbables pero ciertas. Sus resultados son fundamentales en las ciencias teóricas de la computación. 1936 Alan Turing describe la máquina de Turing, la cual formaliza el concepto de algoritmo. 1940 Samuel Williams y George Stibitz completaron en los laboratorios Bell una calculadora que podía manejar números complejos. 1941 La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática. 1942 John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computer"). 1944 Se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. 1945 El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla al sistema fue documentado por los diseñadores del Mark II. Erróneamente se cree que de allí proviene el uso del término "bug", que significa insecto o polilla en inglés. Sin embargo este término ya se usaba mucho antes para referirse a malfuncionamientos de aparatos mecánicos, eléctricos y electrónicos. El "Oxford English Dictionary " documenta este uso de la palabra desde 1889. Vannevar Bush desarrolló la teoría de Memex, un dispositivo de hipertexto ligado a una librería de libros y películas. 1946 ENIAC. Se construye en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator), que fue la primera computadora electrónica de propósito general. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18.000 tubos de vacío, consumía 200kW de energía eléctrica y requería todo un sistema de aire acondicionado; tenía la capacidad para realizar cinco mil operaciones aritméticas por segundo. 1947 Se inventa el transistor, en Laboratorios Bell por John Bardeen, Walter H. Brattain, y William Shockley. 1949 Fue desarrollada la primera memoria, por Jay Forrester, la cual reemplazó los no confiables tubos al vacío como la forma predominante de memoria por los próximos diez años. 1950 Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras. 1951 Comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado. Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC I. El Sistema A-0 fue inventado por Grace Murray Hopper. Fue el compilador desarrollado para una computadora electrónica. 1952 Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, considerada la primera red neural. 1953 IBM fabricó su primera computadora escala industrial, la IBM 650 Se amplía el uso del lenguaje ensamblador para la programación de las computadoras. Se crean memorias a base de magnetismo (conocidas como memorias de núcleos magnéticos). 1954 Se desarrolla el lenguaje de programación de alto nivel FORTRAN. 1956 Darthmouth da una conferencia en a partir de la que nace el concepto de inteligencia artificial. Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC. 1957 Es puesta a la venta por parte de IBM la primera impresora de matriz de puntos. 1958 Comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío. El primer circuito integrado se construyó por Jack S. Kilby. La organización ARPA es creada como consecuencia tecnológica de la llamada Guerra Fría. 1960 Se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras. Aparece ALGOL, el primer lenguaje de programación estructurado y orientado a los procedimientos. Se crea el primer compilador de computador. C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort. 1961 Kenneth Iverson inventa el lenguaje de programación APL en IBM. Aparece el concepto de paginación de memoria, descrito por T. Kilburn y D. J. Howart. 1962 Los primeros programas gráficos que dejan que el usuario dibuje interactivamente en una pantalla fueron desarrollados por Iván Sutherland en MIT. El primer compilador autocontenido, es decir, capaz de compilar su propio código fuente fue el creado para Lisp por Hart y Levin en el MIT. Un equipo de la Universidad de Manchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada,memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año. El estudiante del MIT Steve Russell escribe el primer juego de computadora, llamado Spacewar!. 1963 Caracteres ASCII imprimibles, del 32 al 126. Un comité Industria-Gobierno define el código estándar de caracteres ASCII. El primer minicomputador comercialmente exitoso es distribuido por DEC (Digital Equipment Corporation). 1964 La aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados. Aparece el CDC 6600, la primera supercomputadora comercialmente disponible. Se desarrolla el lenguaje BASIC (el Dartmouth BASIC), John George Kemeny y Thomas Eugene Kurtz en el Dartmouth College 1965 Gordon Moore publica la famosa Ley de Moore. La lógica difusa, diseñada por Lofti Zadeh, se usó para procesar datos aproximados. J. B. Dennis introduce por primera vez el concepto de segmentación de memoria. Los algoritmos de exclusión mutua (sistemas operativos) fueron tratados por primera vez en los clásicos documentos de Dijkstra. 1966 La mayoría de ideas y conceptos que existían sobre redes fueron aplicadas a ARPANET. Aparecen los primeros ensayos que más tarde definirían lo que hoy es la programación estructurada. 1967 Los primeros programas exitosos de ajedrez fueron desarrollados por Richard Greenblatt en el MIT. Es inventado el diskette (disco flexible) en IBM por David Noble, bajo la dirección de Alan Shugart. 1968 Robert Noyce y Gordon Moore fundan la corporación Intel. 1969 El protocolo de comunicaciones NCP fue creado para controlar la red ARPANET. La primera minicomputadora de 16-bit es distribuida por la Data General Corporation. Se desarrolla en los laboratorios Bell el lenguaje de programación B cuyos aportes fueron mayoritariamente de Ken Thompson y Dennis Ritchie. Nace el sistema operativo UNICS en los laboratorios Bell de AT&T por un grupo de empleados de dicho laboratorio, entre los que se encuentran Ken Thompson, Dennis Ritchie y Douglas Mcllroy. 1970 El sistema UNICS, es renombrado como Unix. El primer cable de fibra óptica fue comercialmente producido por Corning Glass Works, Inc. Se publica el primer modelo de base de datos relacional, por E.F. Codd. El profesor suizo Niklaus Wirth desarrolla el lenguaje de programación Pascal. Brinch Hansen utiliza por primera vez la comunicación interprocesos en el sistema RC 400. Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una capacidad de 1024 bits (1Kbits). 1971 Se presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004. Ray Tomlinson crea el primer programa para enviar correo electrónico, como consecuencia, la arroba se usa por primera vez con fines informáticos. Un grupo de investigadores del MIT presentaron la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (FTP). Texas Instruments vende la primera calculadora electrónica portátil. 1972 Aparecen los disquetes de 5 1/4 pulgadas. Se reconoce el primer virus informático, creado por Robert Thomas Morris. Atacó a una máquina IBM Serie 360 y fue llamado Creeper. Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C en los Laboratorios Bell. Nolan Bushnell y Ted Dabney fundan la Atari. Intel desarrolla y pone a la venta el procesador 8008. El concepto de región crítica fue sugerido por C. A. R. Hoare y Per Brinch Hansen. 1973 ARPA cambia su nombre por DARPA. 1974 Es creado el protocolo TCP por Vint Cerf y Robert Kahn. Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local (LAN). Gary Kildall crea el sistema operativo CP/M, en base al cual se desarrolla posteriormente, de manera polémica, MS-DOS, suponiendo una violación a los derechos de autor (copyright) del CP/M. 1975 En enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal. Se funda la empresa Microsoft. 1976 Se funda la empresa Apple. 1977 Se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje. 1978 Se desarrolla el famoso procesador de textos WordStar, originalmente para plataforma CP/M (Control Program for Microcomputer). 1979 Dan Bricklin crea la primera hoja de cálculo, más tarde sería denominada VisiCalc. Aparece el juego Pacman creado por Toru Iwatani de la empresa Namco. 1980 Surge el primer prototipo de Computadora de Instrucción Reducida (RISC), desarrollado por un grupo de investigación en IBM. La empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000. Se desarrolla el primer microprocesador de 32-bit en un solo chip en Laboratorios Bell, llamado Bellmac-32. 1981 Se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares. Se termina de definir el protocolo TCP/IP. Apple presenta el primer computador personal que se vende a gran escala, el apple II. Sony crea los disquetes de 3 1/2 pulgadas. 1982 La Asociación Internacional MIDI publica el MIDI. Se funda Compaq Computer Corporation, una compañía de computadoras personales, por Rod Canion, Jim Harris y Bill Murto. 1983 Logo de GNU. Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS. Compaq (Compaq Computer Corporation) fabrica el primer clon PC IBM compatible, el Compaq portable. ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet. Se anuncia públicamente el proyecto GNU iniciado por Richard Stallman. Aparece el lenguaje de programación C++ diseñado por Bjarne Stroustrup. Nace el primer sistema operativo de Sun llamado SunOS. Aparece el famoso Lotus 1-2-3, un programa de hoja de cálculo realizado por la compañía Lotus Software. El sistema DNS consistía de 1000 hosts. Se funda Borland. 1984 IBM presenta el PC-AT, con procesador Intel 80286, bus de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 KB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5.795 dólares. Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox. Las compañías Philips y Sony crean los CD-Roms para computadores. Se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica a los sistemas Unix. Aparece el lenguaje LaTeX para procesamiento de documentos. Hewlett-Packard lanza su popular impresora LaserJet. Leonard Bosack y Sandra Lerner fundan Cisco Systems que es líder mundial en soluciones de red e infraestructuras para Internet. 1985 Microsoft presenta el sistema operativo Windows 1.0. Compaq saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16bits con microprocesador Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más rápida que una PC IBM. Fue la primera de la línea de computadoras Compaq Deskpro. Bertrand Meyer crea el lenguaje de programación Eiffel. Adobe crea el PostScript. El ruso Alexey Pazhitnov crea el juego Tetris. 1986 ISO estandariza SGML, lenguaje en que posteriormente se basaría XML. Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM. El lenguaje SQL es estandarizado por ANSI. Aparece el programa de cálculo algebraico de computadora MathCad. Se registra la primera patente base de codificación de lo que hoy conocemos como MP3. Compaq pone en venta la PC compatible Compaq Portable II, mucho más ligera y pequeña que su predecesora, usaba microprocesador de 8 MHz y 10MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido. 1987 Se desarrolla la primera versión del actual protocolo X11. Larry Wall crea el lenguaje de programación Perl. El proyecto GNU crea el conjunto de compiladores llamado "GNU Compiler Collection". Compaq introdujo la primera PC basada en el nuevo microprocesador de Intel; el 80386 de 32 bits, con la Compaq Portable 386 y la Compaq Portable III. Aún IBM no estaba usando este procesador. Compaq marcaba lo que se conocería como la era de los clones de PC. 1988 Soft Warehouse desarrolla el programa de álgebra computacional llamado Derive. Stephen Wolfram y su equipo sacan al mercado la primera versión del programa Mathematica. Aparece el primer documento que describe lo que hoy se conoce como firewalls. Aparece el estándar XMS. 1989 Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster. T. E. Anderson estudia las cuestiones sobre el rendimiento de las hebras o hilos en sistemas operativos (threads). 1990 Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL. Se construye el primer prototipo de procesador óptico en AT&T (Laboratorios de Bell). Guido van Rossum crea el lenguaje de programación Python. 1991 Tux (Logo de Linux). Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix. Comienza a popularizarse la programación orientada a objetos. Surge la primera versión del estándar Unicode. Aparece la primera versión de Adobe Premiere. Compaq puso a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados de los 90's en vender una PC de menos de $1,000.Compaq se convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix. 1992 Es introducida la arquitectura de procesadores Alpha diseñada por DEC bajo el nombre AXP, como reemplazo para la serie de microcomputadores VAX que comúnmente utilizaban el sistema operativo VMS y que luego originaría el openVMS. El procesador Alpha 21064 de 64 bits y 200MHz es declarado como el más rápido del mundo. Microsoft lanza Windows 3.1. Aparece la primera versión del sistema operativo Solaris. GNU comienza a utilizar el núcleo Linux. 1993 Un grupo de investigadores descubrieron que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation). Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT. Se crea la lista TOP500 que recopila los 500 ordenadores más potentes de la tierra. 1994 Marc Andreessen crea el famoso navegador web Netscape Navigator. Es diseñado el PHP, originalmente en lenguaje Perl, seguidos por la escritura de un grupo de CGI binarios escritos en el lenguaje C por el programador danéscanadiense Rasmus Lerdorf. 1995 Lanzamiento de Windows 95 por parte de Microsoft. Aparece la primera versión de MySQL. Inicia el desarrollo del servidor Apache. La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems. Se presenta públicamente el lenguaje de programación Ruby. Se especifica la versión 1.5 del DVD, base actual del DVD. 1996 Se crea Internet2, más veloz que la Internet original. Se publica la primera versión del navegador web Opera. Se inicia el proyecto KDE. La tecnología de DjVu fue originalmente desarrollada en los laboratorios de AT&T. Aparece la primera versión de SuperCollider. Sabeer Bhatia y Jack Smith fundan HotMail. 1997 Es creado reproductor multimedia Winamp, cuya distribución es realizada gratuitamente por la empresa estadounidense Nullsoft. Aparece la primera versión pública de FlightGear. Spencer Kimball y Peter Mattis crean la inicial librería GTK+. 1998 La W3C publica la primera versión de XML. Es lanzado al mercado el sistema Windows 98 por parte de Microsoft. Compaq adquirió Digital Equipment Corporation, la compañía líder en la anterior generación de las computadoras durante los años 70 y principios de los 80. Esta adquisición convertiría a Compaq en el segundo más grande fabricante de computadoras, en términos de ingresos. Larry Page y Sergey Brin fundan Google Inc. 1999 GNOME. Aparece el entorno de escritorio GNOME. Se publica la primera versión de MSN Messenger. Surge Mac OS 9. Siglo XXI 2000 Es presentado el prototipo de computador cuántico construido por un equipo de investigadores de IBM. Es lanzado el sistema operativo Windows 2000 por Microsoft. Es lanzado el sistema operativo Windows Me por Microsoft. Lanzamiento de Mac OS X. 2001 Microsoft desarrolla, como parte de su plataforma .NET, el lenguaje de programación C#, que después fue aprobado como un estándar por la ECMA e ISO. Se lanza el sistema operativo Windows XP por parte de Microsoft. 2002 Lanzamiento del navegador web Mozilla Firefox, llamado en un primer momento Phoenix. Puesta en marcha del supercomputador Earth Simulator que sería el ordenador más potente según el TOP500. 2005 Los usuarios de Internet con conexión de banda ancha superan a los usuarios de internet con conexión vía módem en la mayoría de países desarrollados. Se lanza el programa Google Earth. Lanzamiento de Windows XP Media Center Edition Puesta en funcionamiento del supercomputador MareNostrum en el BSC. Creación de YouTube. 2006 Lanzamiento del sistema operativo de Microsoft Windows Vista Entra en servicio el supercomputador Magerit perteneciente al CeSViMa. 2007 La empresa Dell lanza al mercado la primera computadora portátil (laptop) con la distribución Linux Ubuntu preinstalada. La empresa de Steve Jobs, Apple, lanza al mercado la nueva versión el Mac OS X Leopard 10.5 2008 Apple lanza al mercado la MacBook Air la cual, al parecer, es la laptop más delgada del mundo en ese momento. Apple lanza el móvil más revolucionario de la historia en toda Europa y América, el iPhone 3G . Google, contrarresta a Apple lanzando el G1 con su nuevo sistema Android para móviles. Lanzamiento del navegador Google Chrome. Lanzamiento de KDE 4.0. El supercomputador Roadrunner de IBM es el primero en superar el PetaFLOP alcanzando el número 1 en la lista de los más veloces, TOP500. 2009 Debian GNU/Linux 5.0 KDE 4.2 RC Apple, lanza al mercado la nueva versión el Mac OS X Snow Leopard 10.6 El 22 de octubre se lanza el sucesor de Windows Vista, el Windows 7. 2010 Se espera el lanzamiento de Google Chrome OS, un sistema operativo creado por la empresa Google y basado en Linux. IBM crea un procesador de grafeno con una frecuencia efectiva de 100 GHz Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la velocidad de transmisión de datos entre el dispositivo conectado y la computadora. Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz INTRODUCCIÓN En la actualidad no se puede pensar en casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo. Las computadorashan invadido la mayoría de las labores del ser humano El mundo está cambiando y usted deberá aprender todas esas, antes complicadas, hoy comunes tecnologías modernas que le permitirán conseguir unempleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la comodidad de su hogar (teletrabajo), reduciendo el tráfico en las calles y por ende la contaminación de las grandes ciudades. La mayoría de los gobiernos de los países en desarrollo han tomado muy en serio los programas deeducación para crear en sus poblaciones una "cultura informática". Definitivamente, las computadoras están cambiando nuestras vidas. Ahora hemos de aprenderla para no quedar inmersos en una nueva forma deanalfabetismo. Lo anterior contribuye a la creación de nuevos esquemas sociales que incluyen: novedosas maneras de comercialización aprovechando las facilidades para comunicarse con todo el mundo a través de Internet; la necesidad de crear leyes adecuadas a la realidad cibernética actual y, sobre todo; la concepción de una nueva manera de relacionarse con nuestros semejantes, que contemple una serie de normas éticas que regulen la convivencia pacifica y cordial entre los millones de personas que tienen que utilizar estas avanzadas tecnologías para realizar su trabajo, estudio, descanso y esparcimiento diarios. PRÓLOGO Hoy día todos los habitantes del mundo somos dependientes directos o indirectos del uso de las computadoras, como en oficinas bancarias, grandes y medianos comercios, centros de enseñanza, oficinas de ventas y reservaciones para viajes, clínicas médicas u hospitales, fabricas y almacenesindustriales, organismos de gobierno y oficinas administrativas, laboratorios, y centros de investigación. Estas máquinas maravillosas inventadas por el hombre, tal como ahora las concebimos, son el resultado de una secuencia de eventos que el transcurso de esta investigación conoceremos. Para saber mas acerca de estos eventos en esta investigación mostraremos las diferentes generaciones por las que ha pasado el mundo de lacomputación, esta larga historia es necesario mencionar las épocas y los personajes gracias a cuyos valiosos aportes a través del tiempo, hicieron posible la gestación de la hoy llamada Era de la Computación, la cual sin lugar a dudas es el resultado de un largo proceso evolutivo que jamás cesará. MARCO TEÓRICO PRIMERA GENERACIÓN (1951 a 1958) Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en códigoespecial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo delectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modeloscontemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una ventade 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras. SEGUNDA GENERACIÓN (1959-1964) Transistor Compatibilidad Limitada El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en lossistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH. Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961). TERCERA GENERACIÓN (1964-1971) Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora. Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicacionesmatemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de 30000, al grado que IBM llegó a conocerse como sinónimo de computación. También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips). Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70. CUARTA GENERACIÓN (1971 a 1981) Microprocesador , Chips de memoria, Microminiaturización Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC) En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004. Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su granproducción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes. Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuraso arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet. Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System). Las principales tecnologías que dominan este mercado son: IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente. Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizaroperaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús. QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989) Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha. Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras. Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992. El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen. También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador. Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural eirán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial. El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration). Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial. El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras. El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. SEXTA GENERACIÓN 1990 HASTA LA FECHA Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera. CONCLUSION En esta investigación acerca de las generaciones de las computadoras nos hemos dado cuenta del avance que han tenidos y , gracias a los avances en relación a ellas hemos alcanzado un nivel de tecnología muy elevado el cual nos ha servido para muchas áreas, como por ejemplo las comunicaciones, lamedicina, la educación, etc. La investigación actual va dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios millones de componentes en un solo chip. Las computadoras se han convertido en la principal herramienta utilizada por el hombre y ya son parte esencial de cada uno de nosotros, y usted deberá aprender todas esas, antes complicadas hoy comunes tecnologías modernas. 10. SUMARY THE FIRST GENERATION The computers of the first Generation used bulbs to try information. These computers of bulbs were much bigger and were generating more heat that the contemporary models. I construct the UNIVAC I, which the Committee of the census used to evaluate the census of 1950 It (He,She) began then to construct electronic computers and his(her,your) first entry was with the IBM 701 in 1953. THE SECOND GENERATION The invention of the transistor there made possible a new Generation of computers, more rapid, smaller and with minor needs of ventilation. Nevertheless the cost continued being a significant portion of the budget of a Company. The computers of the second generation also were using networks(nets) of magnetic cores(nucleuses) instead of gyratory drums for the primary storage. The programs of computers also improved. The COBOL (COmmon Busines Oriented Languaje) Grace Murria Hooper (1906-1992), who in 1952 habia invented the first collector was one of CODASYL's principal figures (Committee on Dates SYstems Languages), The companies began to apply the computers to tasks of storage of records, as managing of inventories, list and accounting. THIRD GENERATION The computers of the third party generation emerged with the development of the integrated circuits (silicon tablets) in which there are placed thousands of electronic components, in an integration in miniature. The computers again became smaller, more rapid, they were detaching less heat and were energetically more efficient. The discovery in 1958 of the first Integrated Circuit (Chip) for the engineer Jack S. Kilby (born in 1928) of Texas Instruments, They start using the magnetic means of storage, as magnetic tapes FOURTH GENERATION Two improvements in the technology of the computers mark the beginning of the fourth generation: the replacement of the memories (reports) with magnetic cores(nucleuses), for those of silicon chips and the placement of Many(Many people) more components in a Chip. This generation of computers was characterized by big technological advances realized in a very short time. In 1977 the first microcomputers appear. IBM and his(her,your) compatible so called clowns, made by infinity of companies with base in the processors 8088, 8086, 80286, 80386, 80486, 80586 or Pentium, Pentium II, Pentium III and Celeron de Intel and in the second term(end) Apple Computer, with his(her,your) Macintosh and the Power Macintosh, which have great capacity of generation of graphs and sounds thanks to his(her,your) powerful processors Motorola series 68000 and PowerPC, respectively. FIFTH GENERATION It is necessary to mention two big technological advances, which serve as parameter for the beginning of the above mentioned generation: the creation in 1982 of the first supercomputer with capacity of parallel process, designed by Seymouy Cray, who already was experimenting from 1968 with supercomputers, and that founds in 1976 the Cray Research Inc.; and the advertisement on the part of the Japanese government of the project " fifth generation ", who as(according to) was established in the agreement by six of the biggest Japanese companies of computation, should end in 1992. According to this project, to which the countries added technologically more advanced not to stay behind of Japan, the principal characteristic would be the application of the artificial intelligence (To, Artificial Intelligence). Conectividad between(among) computers, that from 1994, with the advent of the network(net) Internet and of the World Wide Web SIXTH GENERATION Since supposedly the sixth generation of computers is in march from beginning of the years nonsales, we have to at least, outline the characteristics that must have the computers of this generation. Also there are mentioned some of the technological advances of last decade of the 20th century and what expects to be achieved in the 21st century. Hundreds of microprocessors vectoriales working at the same time, the networks (nets) of world area (Wide Area Network, WAN) they will continue growing desorbitadamente GLOSARIO BIT: (dígito binario) un dígito simple de un numero binario (1 ó 0) BYTE: Grupo de bits adyacentes operados como una unidad, COMPILADOR: Programa de computadora que produce un programa en lenguaje de maquina, de un programa fuente que generalmente esta escrito por el programador en un lenguaje de alto nivel. CÓDIGO MAQUINA: para que se pueda ejecutar un programa, debe estar en lenguaje de maquina de la computadora que lo esta ejecutando. CHIP: 1. Pastilla. 2. Plaqueta. 3. Pequeña pieza de silicio o algún otro material semiconductor, que contiene en su interior un circuito integrado. Por su propia naturaleza, chip es sinónimo de circuito integrado. CIRCUITO INTEGRADO: 1. Chip 2. Sistema de circuitos interrelacionados, almacenados en una pequeña tableta o pastilla de silicio. COMPUTADORA: Máquina o dispositivo capaz de recibir información, procesarla y entregar resultados en la forma deseada. 2. Equipo electrónico (Hardware) que recibe instrucciones en forma de pro gramas (Software) para resolver diferentes tareas utilizando algoritmos. COMPUTADORA DIGITAL: Computadora que opera sobre datos discretos o discontinuos; en otras palabras, sobre dígitos binarios (ceros y unos) representados por impulsos eléctricos. Esto contrasta con las computadoras analógicas, las cuales operan sobre variables continuas como latemperatura o la presión estableciendo analogías entre las variaciones y los datos. La mayoría de las computadoras actuales son de tipo digital. COMPUTADORA PERSONAL (PC): Microcomputadora destinada a trabajo individual o de escritorio. 2. Sistema individual de escritorio, portátil o de portafolio que consta de monitor, unidad central de procesamiento y teclado. El nombre de Personal Computer (PC) lo dio IBM a sus microcomputadoras de escritorio, y es como se conoce a las computadoras con tecnología IBM y a sus clones o compatibles. Actualmente tienen una gran capacidad de procesamiento, comparable con las minis o macro computadoras utilizadas por bancos, centros de investigación e industria en general. DATOS: Símbolos, letras, números o hechos aislados que pueden ser leídos y procesados por una computadora para producir información. EQUIPO HARDWARE: Componentes mecánicos, eléctricos, magnéticos y electrónicos de una computadora o sistema de cómputo. 2. Los componentes físicos de un sistema de cómputo, en contrapartida con el software, que es intangible. FIBRA ÓPTICA: Delgadísimo filamento transparente hecho de material dieléctrico como vidrio o plástico, que tiene una enorme capacidad de transmisión de la luz mediante impulsos luminosos; esto es, en comunicaciones se está en posibilidad de transmitir millones de bits por segundo utilizando estos útiles medios. HARDWARE: Es la parte tangible del computador. INFORMACION: Es lo que se obtiene del procesamiento de datos, es el resultado final. INFORMÁTICA: El término es acrónimo de INFORmación au toMATICA, que significa: todo aquello que tiene relación con el procesamiento de datos, utilizando las computadoras o los equipos de procesamiento automático de información. En Estados Unidos no es muy conocido el término, que se toma como sinónimo de lnformation Technology (IT). INTELIGENCIA ARTIFICIAL (Al): 1. Rama de la ciencia de la computación que intenta entender la naturaleza de la inteligencia para producir nuevos tipos de máquinas o programas inteligentes. 2. Emulación mediante sistemas de cómputo, de situaciones asociadas con la inteligencia y elcomportamiento humanos como el razonamiento, el aprendizaje y la auto-superación. LENGUAJE BINARIO: Código o len guaje utilizado en computación, en el cual la codificación de datos se realiza únicamente mediante bits; es decir unos y ceros. MICROCOMPUTADORA: Pequeña computadora que utiliza uno o más microprocesadores para realizarlos procesos de cálculo. Generalmente consta de unidades de entrada y salida como teclado y monitor respectivamente, y unidades de almacenamiento secundario de información. MICROPROCESADOR: Unidad Central de Procesamiento (CPU) de una computadora, ubicada en el interior de uno o varios chips. 2. Pequeño y complejo procesador central de una computadora compuesto de una gran cantidad de microcircuitos encapsulados en una sola unidad. MULTIPROGRAMACION: En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. PROGRAMA: Es una colección de instrucciones que indican a la computadora que debe hacer. Un programa se denomina software, por lo tanto, programa, software e instrucción son sinónimos. PROGRAMA FUENTE: Instrucción escrita por el programador en un lenguaje de programación para plantear al computador el proceso que debe ejecutar. PROGRAMACIÓN: Proceso de escribir una secuencia de pasos o instrucciones que permiten resolver un problema o tarea específica, auxiliado por el planteamiento de un algoritmo. 2. Pasos que si siguen para crear un programa: diseño, codificaciòn escritura, modificación, depuración, compilación oinducción del código al lenguaje de la máquina, y del programa. PROGRAMAS SOFTWARE: lnstrucciones, funciones y comandos que integran un programa para controlar. El software o programa es una creación intelectual que no depende absolutamente del equipo físico sobre el cual trabaja. Es la parte intangible de la computación, pero al fin y al cabo, la parte más importante, porque ninguna computadora hace nada para lo que no haya sido programada. Los programas de propósito específico, como los procesadores de textos o los manejadores de bases de datos se conocen como software de aplicación. Los sistemas operativos constituyen una claseespecial de programas de control. SISTEMA OPERATIVO: Programa o grupo de programas que permiten controlar las operaciones de la computadora. SISTEMAS EXPERTOS: Sistemas desarrollados mediante las técnicas de inteligencia artificial para resolución de problemas específicos. SOFTWARE: Conjunto de programas, documentos, procesamientos y rutinas asociadas con la operación de un sistema de computadoras, es decir, la parte intangible de computador. TUBO DE VACÍO. Tubo electrónico que se utiliza como amplificador o conmutador, controlando el flujo de electrones en su interior, al vacío. TRANSISTOR: Dispositivo electrónico que sirve como amplificador de señal o controlador de interrupción (conmutador). TARJETA PERFORADA: Tenía un alambre que pasaba a través de los huecos dentro de una copa de mercurio debajo de la tarjeta, cerrando de este modo el circuito eléctrico. Este proceso disparaba unos contadores mecánicos y ordenaba los recipientes de las tarjetas, tabulando así en forma apropiada la información Antecedentes de la computadora Enviado por becu211284 Anuncios Google Conecta En Facebook Encuentra A Tus Amigos En Facebook Unete Ahora Para Conectar Con ellos www.Facebook.com Cursos de Informática Encuentra Excelentes Universidades Cerca De Ti en Segundos Aquí! www.DestinoEducacion.com.mx Portátil Dell™ Vostro™ MX ¡Durabilidad, Poder y Protección! Conozca la Portátil para Empresas. Dell.com/MX/Vostro Indice 1. El Abaco 2. La Pascalina 3. Historia de la computadora 4. La máquina analítica 6. Circuitos integrados 7. Generaciones De La Computadora 8. Pioneros de la computación 1. El Abaco Quizás fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo. 2. La Pascalina El inventor y pintor Leonardo Da Vinci (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Blas Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos. 3. Historia de la computadora La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en Las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetasperforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo depoblación de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos. 4. La máquina analítica También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de lacomputadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. 5. Primeros ordenadores Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación. Ordenadores electrónicos Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulaso tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU) Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por eldesarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde. El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador. A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata. 6. Circuitos integrados A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio. 7. Generaciones De La Computadora Teniendo en cuenta las diferentes etapas de desarrollo que tuvieron las computadoras, se consideran las siguientes divisiones como generaciones aisladas con características propias de cada una, las cuáles se enuncian a continuación. Primera Generación Sistemas constituidos por tubos de vacío, desprendían bastante calor y tenían una vida relativamente corta. Máquinas grandes y pesadas. Se construye el ordenador ENIAC de grandes dimensiones (30 toneladas) Almacenamiento de la información en tambor magnético interior. Un tambor magnético disponía de su interior del ordenador, recogía y memorizaba los datos y los programas que se le suministraban. Programación en lenguaje máquina, consistía en largas cadenas de bits, de ceros y unos, por lo que la programación resultaba larga y compleja. Alto costo. Uso de tarjetas perforadas para suministrar datos y los programas. Segunda Generación Transistores Cuando los tubos de vacío eran sustituidos por los transistores, estas últimas eran más económicas, más pequeñas que las válvulas miniaturizadas consumían menos y producían menos calor. Por todos estos motivos, la densidad del circuito podía ser aumentada sensiblemente, lo que quería decir que los componentes podían colocarse mucho más cerca unos a otros y ahorrar mucho más espacio. Tercera Generación Circuito integrado (chips) Aumenta la capacidad de almacenamiento y se reduce el tiempo de respuesta. Generalización de lenguajes de programación de alto nivel. Compatibilidad para compartir software entre diversos equipos. Cuarta Generación Microcircuito integrado El microprocesador: el proceso de reducción del tamaño de los componentes llega a operar a escalas microscópicas. La microminiaturización permite construir el microprocesador, circuito integrado que rige las funciones fundamentales del ordenador. Quinta Generación Y La Inteligencia Artificial El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrarsoluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. El conocimiento recién adquirido le servirá como base para la próxima serie de soluciones. 8. Pioneros de la computación Atanasoff Y Berry Una antigua patente de un dispositivo que mucha gente creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor de la computadora digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Computer) Un estudiante graduado, Clifford Berry, fue una útil ayuda en la construcciónde la computadora ABC. Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una placa con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física." Pascal Fue el primero en diseñar y construir una máquina sumadora. Quería ayudar a su padre, quien era cobrador de impuestos, con los cálculos aritméticos. La máquina era mecánica y tenía un sistema de engranes cada uno con 10 dientes; en cada diente había grabado un dígito entre el 0 y el 9. Así para representar un número, el engrane del extremo derecho se movía hasta tener el dígito de las unidades, el engrane que le seguía a la izquierda tenía el dígito de las decenas, el siguiente el de las centenas y así sucesivamente. Los números se representaban en la máquina como nosotros lo hacemos en notación decimal. Para realizar una suma o una resta, se activaba el sistema de engranes que hacía girar cada uno de ellos. Comenzaba por el extremo derecho y seguía, uno por uno, hacia la izquierda. Cuando la suma en un engrane excedía el número 9, automáticamente el engrane inmediato a la izquierda se movía un décimo de vuelta aumentando en 1 la cantidad que representaba. Así Blaise Pascal logró resolver el problema del acarreo de dígitos para las máquinas sumadoras y obtuvo una máquina que podía sumar cualquier par de números. Charles Babagge Sus máquinas y su legado El Babbage del que todo mundo ha leído es, sin embargo, el inventor fracasado que se pasó toda su vida intentando construir la primera computadora de uso general de la historia y que, pese a haber fracasado, hizo aportaciones muy significativas al desarrollo de la informática. Muchas son las visiones románticas y hasta un tanto fantasiosas que se han escrito sobre la vida de Babbage. Mucho es lo que se ha dicho sobre sus "maravillosas máquinas", pero también mucha es la confusión que se ha desarrollado en torno a sus verdaderas aportaciones y a las razones por las que nunca pudo completar la construcción de las mismas. Wilkes nos ofrece quizá una de las visiones menos apasionadas del genio de Babbage, y nos hace ver que realmente la primera máquina que Babbage intentaba construir, llamada Máquina Diferencial (Difference Engine) sólo era capaz de tabular polinomios, y que requería, de cualquier manera, bastante trabajo con lápiz y papel. La idea no era realmente tan buena como Babbage pensaba, pero él nunca lo hubiera admitido. Sin embargo, este proyecto tuvo un impacto muy importante en la investigación aplicada en Inglaterra, pues el gobierno británico decidió financiarlo con una fuerte suma de dinero, en su afán de perfeccionar la impresión de las tablas de navegación, tan comunes en aquella época. Joseph Clement, tal vez el mejor fabricante de herramientas del Reino Unido, fue asignado para trabajar con Babbage en el diseño de esta máquina. Sin embargo, tras una fuerte disputa Babbage acabó quedándose solo y sin un centavo de las £34,000 que invirtió en el proyecto después de 10 años de intenso trabajo. Se ha especulado que la máquina nunca se construyó porque todavía no se contaba con la tecnología necesaria, pero eso no parece ser cierto, dado que Georg y Edvard Scheutz, dos ingenieros Suecos que leyeron un artículo sobre la máquina de Babbage, fueron capaces de construir una Máquina Diferencial unos 10 años después de que el proyecto original se abandonara. La máquina funcionó y fue vendida al Observatorio Dudley en Nueva York, aunque se dice que nunca lo hizo muy bien y por ello pronto cayó en desuso. Una réplica de esta máquina se conserva en la oficina del Censo de Londres. Realmente, la aportación clave de Babbage a la computación moderna vino con su siguiente máquina: La Máquina Analítica (Analytical Engine), el cual, de haberse construido, habría sido efectivamente la primera computadora de uso general de la historia. Babbage empezó a trabajar en este nuevo proyecto en 1834, pese a su fracaso con su máquina anterior, y continuó haciéndolo durante toda su vida. Su modelo fue refinado muchas veces, y a lo largo de este proceso, Babbage tuvo muchas ideas visionarias sobre las computadoras. Por ejemplo, sugirió el uso de tarjetas perforadas para controlar su máquina, y anticipó el uso de las mismas para representar un algoritmo e incluso inventó el concepto de bucles o ciclos en programación. También anticipó el uso de microprogramación, aunque dejó huecos importantes en su trabajo, y falló en anticipar cuestiones tan obvias hoy en día como es el uso de variables en un programa. Todo este trabajo, habría permanecido prácticamente desconocido por años de no haber sido por Ada, Condesa de Lovelace, la hija del famoso poeta Lord Byron, de quien hablaremos la próxima ocasión, que se dio a la tarea de difundir las ideas de Babbage sobre su máquina. Se ha llegado a decir sobre la Máquina Analítica, que sería injusto afirmar que Babbage fracasó también en su intento por construirla, pues nunca intentó realmente hacerlo, sabedor de que resultaría prácticamente imposible volver a conseguir fondos para financiar tal proyecto. Sin embargo, sus planos y notas fueron tan detallados que en 1991 el Museo Nacional de Ciencia y Tecnología de Londres construyó una máquina basándose en ellos y usando sólo materiales y herramientas disponibles en la época de Babbage. La máquina ha funcionado desde entonces, sin ningún problema. ¿Por qué no pudo entonces Babbage lograr fructificar su sueño? La respuesta sigue siendo un misterio. Hay quienes dicen que le faltó habilidad política para negociar con el gobierno, pero la verdad es que después de haberse gastado una fortuna y no recibir nada a cambio, creo que el gobierno de cualquier país se mostraría reacio a seguir invirtiendo en el mismo proyecto. Tal vez la verdadera razón haya sido la naturaleza idealista de Babbage que le impedía materializar muchas de sus maravillosas visiones, a la luz de su obsesión por lo perfecto. Babbage nunca tuvo miedo a ser olvidado ni se sintió decepcionado por la indiferencia que sus contemporáneos mostraron por su trabajo. Cerca del final de su vida escribió: "No tengo miedo de dejar mi reputación a cargo de aquel que tenga éxito construyendo mi Máquina Analítica, porque él y sólo él será capaz de apreciar totalmente la naturaleza de mi esfuerzo y el valor de sus resultados". Nada más cierto que eso, puesto que a pesar de que Charles Babbage murió en total soledad la mañana del 18 de octubre de 1871 a sólo 2 meses de volverse un octogenario, sus aportaciones serían realmente apreciadas sólo hasta que las primeras computadoras digitales fueron construidas, a mediados del presente siglo. Sus experimentos dejarían huella profunda en el trabajo sobre autómatas del español Leonardo Torres de Quevedo a principios de este siglo; posiblemente la idea de Herman Hollerith de usar tarjetas perforadas fue derivada por la sugerencia de Babbage, y se ha llegado a especular que la Máquina Analítica pudo haber sido incluso la fuente principal de inspiración del modelo teórico de la computadora moderna desarrollado por el matemático Alan Turing y que hoy se conoce como "máquina de Turing". Con tan convincente evidencia de la importancia de sus ideas tal vez no importe tanto que Babbage no haya logrado construir sus máquinas después de todo, pues sus aportaciones resultaron igualmente significativas de cualquier forma. Se sabe que Babbage nunca recibió remuneración alguna por su trabajo de 10 años en la Máquina Diferencial, por lo que el Parlamento Inglés decidió ofrecerle un título de nobleza a cambio (le ofrecieron el título de Barón) Babbage rehusó aceptarlo, pidiendo mejor una pensión vitalicia que nunca le fue concedida. ¿Un error de apreciación? No realmente, si consideramos que lo que realmente recibió a cambió del trabajo de toda una vida fue algo más valioso que cualquier título de nobleza: un sitio privilegiado en la historia de la informática, el de padre de la computación moderna. Gottfried Wihelm Leibniz Demostró las ventajas de utilizar el sistema binario en lugar del decimal en las computadoras mecánicas. Inventó y construyó una máquina aritmética que realizaba las cuatro operaciones básicas y calculaba raíces cuadradas. Nació el 1 de julio de 1646 en Leipzig, Sajonia (ahora Alemania) Murió el 14 de noviembre de 1716 en Hannover, Hannover (ahora Alemania) Leibniz ha sido uno de los más grandes matemáticos de la historia, se le reconoce como uno de los creadores del Cálculo Diferencial e Integral; pero fue un hombre universal que trabajó en varias disciplinas: lógica, mecánica, geología, jurisprudencia, historia, lingüística y teología. Inventó una máquina aritmética que empezó a diseñar en 1671 y terminó de construir en 1694; era una máquina mucho más avanzada que la que había inventado Pascal y a la que llamó "calculadora secuencial o por pasos", en alemán: "dice Getrocknetsrechenmaschine". La máquina no sólo sumaba y restaba, sino que además podía multiplicar, dividir y sacar raíz cuadrada. Sin embargo, en esa época el desarrollo de la técnica no se encontraba en condiciones de producir en serie las piezas de gran precisión indispensables para el funcionamiento de la máquina. El modelo que construyó Leibniz nunca funcionó correctamente; sin embargo, en 1794 se construyó un modelo funcional de la calculadora de Leibniz que actualmente se exhibe en la Real Sociedad de Londres. Esta última máquina tampoco resultó confiable y no fue sino hasta 1820 cuando se fabricó un aparato infalible y comercial capaz de realizar las cuatro operaciones aritméticas fundamentales. John Von Neumann : un genio incomparable Su interés por la computación Con el advenimiento de la Segunda Guerra Mundial, von Neumann hubo de abandonar sus estudios en matemáticas puras, y concentrarse en problemas más prácticos para servir al Gobierno del que ahora era nacional. Fue consultor en proyectos de balística, en ondas de detonación, y eventualmente, se involucró en el desarrollo de la bomba atómica, en donde demostró la factibilidad de la técnica de implosión que más tarde se usaría en la bomba que detonó en Nagasaki. Sin embargo, debido a su valía como consultor en otras agencias gubernamentales ligadas a la guerra, von Neumann fue uno de los pocos científicos a quien no se le requirió permanecer de tiempo completo en Los Álamos. Fue precisamente durante la primera mitad de 1943, en plena guerra, que se interesó por primera vez en la computación. Tras un viaje a Inglaterra, le dijo a Voblen que creía sumamente importante que se utilizaran máquinas para acelerar los complejos cálculos involucrados con su trabajo. Aunque comenzaron a utilizar equipo de IBM, éste no satisfizo las necesidades del Proyecto Manhattan, y von Neumann empezó pronto a buscar opciones en otros lados. En 1944 sólo había unos pocos proyectos para desarrollar computadoras en los Estados Unidos: Howard Aiken en Harvard, George Stibitz en Laboratorios Bell, Jan Schilt en la Universidad Columbia, y Presper Eckert y John W. Mauchly, en la Universidad de Pennsylvania. Aunque von Neumann contactó a los 3 primeros científicos y estuvo en contacto con sus máquinas, la única computadora con la que realmente se involucró a fondo fue la última, llamada ENIAC (Electronic Numerical Integrator and Computer), que durante mucho tiempo fue ignorada por la comunidad científica, y que con el apoyo de von Neumann fue finalmente tomada en serio hasta convertirse en un proyecto de primera línea. Curiosamente, la ENIAC tenía una arquitectura en paralelo, aunque casi carecía de memoria (sólo podía almacenar 20 palabras), y otra máquina más ambiciosa, llamada EDVAC (Electronic Discrete Variable Arithmetic Computer) nació del deseo de sus diseñadores de construir una máquina "más útil" que operara en serie. Desgraciadamente, la reputación de von Neumann tenía también su lado negativo, y debido a una indiscreción a la prensa y al hecho de que firmó como autor único un borrador del EDVAC, el proyecto no sólo perdió su status de secreto, sino que se volvió objeto de una enorme controversia, pues Mauchly y Eckert no sólo se disgustaron mucho por no haber recibido el crédito debido, sino que fueron despedidos de la Universidad de Pennsylvania ante su negativa de ceder a la institución los derechos del ENIAC. Este error le costó a la Universidad de Pennsylvania el perder su status de universidad de primer nivel en los Estados Unidos, y todavía hoy se recuerda a éste como uno de sus peores momentos históricos. Eventualmente, la guerra terminó, el EDVAC se volvió del dominiopúblico, Mauchly y Eckert fundaron su propia empresa y von Neumann regresó a Princeton con el sueño de construir su propia máquina. Sus Últimos Años Debido a los tropiezos que tuvo inicialmente para conseguir dinero para construir su computadora, varias universidades le ofrecieron trabajo a von Neumann después de la guerra, y aunque estuvo cerca de aceptar al menos una de estas ofertas, fue leal al IEA, y finalmente logró conseguir los fondos que necesitaba para su proyecto con ayuda de Princeton y la RCA. Su idea era construir una máquina similar a EDVAC pero más poderosa y más rápida. La computadora IAS fue eventualmente construida en los 50s, y su diseño ha servido como inspiración para la mayoría de las computadoras modernas, si bien la arquitectura que hoy recibe su nombre no fue realmente producto de su inventiva. Sus principales contribuciones en computación fueron: la noción del uso de monitores para visualizar datos, la invención del diagrama de flujo, la teoría de los autómatas celulares, incontables técnicas de cómputo matemático, fue co-autor de la teoría de juegos que dio pie al famoso método de Montecarlo, y fue co-autor del otrora famoso libro: "Cybernetics: Or Control and Communication in the Animal and the Machine" en el que explicaba junto con Norbert Wiener la manera en que los cerebros electrónicos podrían efectuar tareas humanas de diferentes grados de dificultad. En octubre de 1954 se volvió miembro de la Comisión de Energía Atómica, por lo que se tuvo que mudar junto con su esposa a Georgetown, en Washington, D.C. A la vez, sirvió como consultor para la IBM, en donde conoció a John Backus mientras desarrollaba el FORTRAN. Curiosamente, von Neumann desdeñó el trabajo de Backus pensando que nadie requeriría jamás usar un lenguaje de programación de más alto nivel que el lenguaje binario que él tan bien conocía. En el verano de ese mismo año, se lastimó el hombro izquierdo en una caída, y en la cirugía posterior se descubrió que tenía cáncer en los huesos. Pese a saberse cerca de la muerte, continuó con su tremendo ritmo de trabajo, y en sus últimos días el secretario de defensa, y los secretarios del ejército, la marina y la fuerza aérea norteamericanas, se daban cita alrededor de la cama de von Neumann en el hospital Water Reed en Washington, D.C. Sólo médicos y personal con autorización militar podían verlo, ante el temor que revelara secretos importantes mientras estaba sedado. Para ese entonces, von Neumann había recibido un sinnúmero de doctorados Honoris Causa, la medalla presidencial al mérito, el premio Enrico Fermi y el premio Albert Einstein. Aunque nunca practicó en vida la religión Católica, bajo la cual fue bautizado por sus padres, al sentir cerca su fin pidió que un sacerdote le diera los sacramentos. Sus planes de irse a trabajar como profesor a la Universidad de California en Los Ángeles nunca se volverían realidad, porque el "mejor matemático del mundo", como lo llamara Herman H. Goldstine, falleció el 8 de febrero de 1957. Su leyenda, sin embargo, sigue viva hasta nuestros días en los corredores de Princeton y en una pléyade de libros alrededor del mundo. Ada Byron Ada Byron conoció a Charles Babbage en 1833, cuando ella tenía 18 años y el 42. Quedó tan impresionada por las ideas sobre las máquinas que Babbage inventaba que decidió estudiar matemáticas para poder ayudar a su amigo en lo que se refería a la rama teórica de sus inventos. Se convirtió, con el paso de los años, en una gran matemática y científica. Trabajó siempre muy cerca de Babbage en el diseño de máquinas computadoras y muy en particular en el diseño de la "máquina analítica". A propósito escribió: "La característica que distingue a la máquina analítica, es la inclusión en ella del principio que Jacquard concibió para regular la fabricación, mediante tarjetas perforadas, de los más complicados modelos de brocados. Al capacitar a los mecanismos para combinar entre sí símbolos generales ensucesiones de variedad y extensión ilimitadas, se establece un eslabón entre las operaciones materiales y los procesos mentales abstractos de la rama más teórica de la ciencia matemática. Se desarrolla un lenguaje nuevo, amplio y poderoso, para su empleo futuro en el análisis, cuyas verdades se podrán manejar de modo que su aplicación sea más práctica y precisa para la humanidad de lo que hasta ahora han hecho las medidas a nuestro alcance..." Ada Byron desarrolló de manera teórica el primer programa que la máquina analítica utilizó, pero su trabajo no se limitó a la parte científica; cuando el gobierno les retiro el apoyo financiero, Ada apostó en las carreras de caballos y empeñó todas sus joyas para obtener el dinero que se necesitaba en la construcción de la máquina. Herman Hollerith A los 19 años se graduó en la escuela de minería de la Universidad de Columbia y empezó a trabajar en la Oficina de Censos de los Estados Unidos. En 1880 se realizó el primer gran censo de ese país y la información se escribió en tarjetas extremadamente largas que debían acomodarse y contarse manualmente en las clasificaciones deseadas: edad, sexo, ocupación, etcétera, lo cual obligaba a que se reacomodaran y contaran varias veces. Hollerith se propuso desarrollar un método más práctico para manejar estos datos. En 1889 termino su "máquina tabuladora eléctrica" que lograba registrar datos en tarjetas perforadas. Gracias a este invento se lograban tabular de 50 a 75 tarjetas por minuto y conteos que manualmente se hubieran terminado en años, podían lograrse en pocos meses. Herman Hollerith fundó en 1896 la Compañía de Máquinas Tabuladoras para promover el uso comercial de su invento. Más tarde la compañía cambió al nombre de International Business Machine (IBM). Howard H. Aiken Construyó una computadora electromecánica programable siguiendo las ideas introducidas por Babbage A partir de 1939 Howard Aiken, de la Universidad de Harvard, en asociación con ingenieros de la compañía IBM, trabajó durante 5 años en la construcción de una computadora totalmente automática, la "Harvard Mark I" que medía 15 metros de largo por 2.4 de altura. Esta máquina se controlaba con tarjetas perforadas, podía realizar cinco operaciones fundamentales: suma, resta, multiplicación, división y consulta de tablas de referencia. Los datos entraban mediante tarjetas perforadas y salían a través de una máquina electrónica. Konrad Zuse Introdujo interruptores magnéticos, llamados relevadores eléctricos en las computadoras. Introdujo el control programado mediante cinta perforada lo que permitió automatizar el proceso de cálculo. Construyó la primera computadora electromecánica programable. Zuse continuó perfeccionando la computadora y en 1939 terminó una segunda versión a la que llamó Z2, dos años más tarde presentó la Z3, considerada por los expertos como la primera computadora totalmente programable. Esta computadora contenía en su procesador y en su memoria cerca de 2,600 relevadores que eran interruptores magnéticos que permitían introducir en las máquinas la representación binaria de los números. En 1941 Zuse y un amigo solicitaron al gobierno alemán un patrocinio para construir una computadora electrónica más rápida que utilizara tubos de vacío. Sin embargo la ayuda no les fue otorgada y la máquina se quedó en proyecto. Alan Mathison Turing Diseñó la primera computadora electrónica digital de bulbos. Turing fue un gran matemático, lógico y teórico de la computación. Cundo era estudiante de postgrado en la universidad de Princeton en 1936, publicó el artículo "On computable numbers", que estableció las bases teóricas para la computación moderna. En él describió lo que después se llamó la "Máquina de Turing": un dispositivo teórico que leía instrucciones de una cinta de papel perforada y ejecutaba todas las operaciones de una computadora. El artículo también fijó los límites de las ciencias de la computación al demostrar que existen problemas que ningún tipo de computadora podrá resolver. Después de doctorarse en 1938, Turing tuvo la oportunidad de poner sus teorías en práctica. Bajo su dirección se construyó "Colossus", una máquina cuyo propósito era descifrar el código secreto militar alemán y que fue terminada en 1943. En la actualidad se le considera la primera computadora digital electrónica. J. Presper Eckert y John W. Mauchly Construyeron la computadora electrónica más grande del mundo y utilizaron para ello 18,000 bulbos. J. Presper Eckert y John W. Mauchly, de la Universidad de Pennsylvania, inventaron y desarrollaron en 1946 la ENIAC, acrónimo de Electronic Numerical Integrator and Calculator. Fue la mayor computadora de bulbos construida para uso general. Cuando ENIAC funcionaba correctamente, la velocidad de cálculo era entre 500 y 1000 veces superior a las calculadoras electromecánicas de su tiempo, casi la velocidad de las calculadoras de bolsillo de hoy. Años más tarde Eckert y Mauchly construyeron la UNIVAC, la primera computadora que manejó información alfabética y numérica con igual facilidad. Herman Hollerith Herman Hollerith (1860-1929). Herman Hollerith (Buffalo, Nueva York, 29 de febrero de1860 — 17 de noviembre de 1929) fue un estadísticoestadounidense que inventó la máquina tabuladora. Es considerado como el primer informático, es decir, el primero que logra el tratamiento automático de la información (Informática = Información + automática). [editar]Biografía En el siglo XIX, los censos se realizaban de forma manual, con el retraso que ello suponía (hasta 10 ó 12 años). Ante esta situación, Hollerith comenzó a trabajar en el diseño de una máquina tabuladora o censadora, basada en tarjetas perforadas. Hollerith observó que la mayor parte de las preguntas contenidas en los censos se podían contestar con un SÍ o un NO. Entonces ideó una tarjeta perforada, una cartulina en la que, según estuviera perforada o no en determinadas posiciones, se contestaba este tipo de preguntas. La tarjeta tenía 80 columnas. El Gobierno de los Estados Unidos eligió la máquina tabuladora de Hollerith (considerada por algunos como la primera computadora) para elaborar el censo de 1890. Se tardaron sólo 3 años en perforar unas 56 millones de tarjetas. Hollerith patentó su máquina en 1889. Un año después incluyó la operación de sumar con el fin de utilizarla en la contabilidad de los Ferrocarriles Centrales de Nueva York. En 1896, Hollerith fundó la empresa Tabulating Machine Company, con el fin de explotar comercialmente su invento. En 1911, dicha compañía se fusionó con Computing Scale Company,International Time Recording Company y Bundy Manufacturing Company, para crear la Computing Tabulating Recording Corporation (CTR). El 14 de febrero de 1924, CTR cambió su nombre por el deInternational Business Machines Corporation (IBM), cuyo primer presidente fue Thomas John Watson, que curiosamente no estaba muy convencido del futuro que podían tener estas máquinas. Hollerith murió en 1929 a los 69 años, a causa de una infección en los riñones. inea del tiempo de la computación (Historia de la Computación). Por: Francisco Leonel Rubio Quintanilla. Ultima actualización 25 de Noviembre del 2000. Esta linea trata de no ser exclusivista y se busca incluir todos los acontecimientos posibles para ser la linea mas completa y precisa si crees que algo le sobra o le falta te agradecería tus comentarios. Se trata de incluir toda la información posible respecto a computadoras, macro, micro, Sistemas operativos, Microprocesadores incluso de consolas de videojuegos. rubioq@hotmail.com Introducción. A lo largo de la historia el hombre fue resolviendo sus necesidades de registración, para llevar la cuenta de sus bienes y efectuar las operaciones necesarias para la permuta o la venta de los mismos. Fue ideando métodos ágiles de cálculos, tales como contar con los elementos que les proporcionaba la naturaleza, por ejemplo: dedos, piedras, nudos en la soga, etc. Partiendo de la idea de contar con los dedos, los pueblos primitivos tomaron como base de sus cálculos el número 10, pero no todos tomaron el mismo Antigüedad. sistema, los mayas calculaban en base al 20, los babilonios en base al 60, y los esquimales en base al 5, etc. En la medida que el hombre acumulaba un mayor número de posesiones, aumentaba la tarea de contar. El mundo antiguo iniciaba su expansión y los comerciantes compraban, vendían, efectuaban trueques, inventariaban, necesitaban un dispositivo para recoger información y obtener resultados exactos. Uno de los dispositivos mecánicos primitivos de cálculos fue el contador de arena de los egipcios, que consistía en surco en la arena donde colocaban piedras o guijarros. Ábaco. Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa. 2600a.C. Ya que podemos ver que el ábaco y la computadora personal son dos pequeños dispositivos para proceso de datos separados por miles de años de historia. Todo comienza en la antigüedad con los mercaderes, que estaban buscando la idea de llevar las cuentas de sus ganancias y sus perdidas. Aparte, por otro lado buscaban la manera de contar la cantidad de animales; como el ganado, etc; que tenían. Los métodos y herramientas para efectuar transacciones comerciales se desarrollaron conforme se fueron introduciendo las monedas como un medio para comerciar y las transacciones se hicieron mas complicadas y por lo tanto necesitaron métodos de cálculo mas rápidos. Así fue como apareció el ábaco, que rápidamente apareció por todo el mundo y todavía se sigue usando actualmente. De hecho, dicen en algunos libros que las personas que saben utilizar el ábaco podrían realizar en la computadora operaciones y cálculos rápidamente. Después de este avance pasaron cerca de 4000 años antes del siguiente mejoramiento importante, ya que, el uso de los números romanos obstaculizaron la invención de aparatos mecánicos de computación. Sistema numérico arábigo. 1200 Alrededor del año 1200 de nuestra era, con la aceptación del número arábigo, se favorecieron los avances. Pero no apareció ningún aparato mecánico recién hasta el siglo XVII. Logaritmos y regla de calculo. 1617 John NEPIER, desarrolló los logaritmos, este sistema proporcionó un método conveniente para abreviar los cálculos, convierte la multiplicación, división, potenciación y radicación en simples sumas y restas. Esto deriva la invención de la Regla de cálculo. Sumadora de Da Vinci. entre 1452 El inventor y pintor Leonardo Da Vinci (1452-1519) trazó las y 1519 ideas para una sumadora mecánica. La Pascalina. 1642 El primero en lograr con éxito el desarrollo de una calculadora mecánica para contar dígitos fue Blaise PASCAL (1642) a la que se denominó Sumadora de Pascal o Pascalina, era un aparato apropiado para efectuar largas sumas, consistía en una hilera de ruedas, cada una de las cuales constaba de diez dientes iguales que representaban los dígitos del 0 al 9, formando lo que llamó la Rueda Contadora Decimal. Su mecanismo se lo puede comparar con el del cuentakilómetros del automóvil. Durante los siguientes dos a tres millones de años de la historia se fueron desarrollando métodos para el procesamiento de datos y el siguiente descubrimiento importante se produjo en 1642. Cuando Blaise Pascal, Francés de 19 años, trabajaba en la oficina de su padre de contabilidad fiscal, decidió que debía hacer algo para que su padre y otros contadores fiscales no tuvieran que sumar largas columnas de números y se tardaran tanto y gastaran tanto tiempo valioso. Así que atravesé del tiempo desarrollo una máquina calculadora mecánica que era operada por una serie de discos de selección, unidos a engranes, que tenían los números del cero al nueve en su circunferencia. El problema que tenía esta calculadora era que sólo servía para sumar. Multiplicadora de Leibnitz. En base a la sumadora de Pascual, en 1671, Leibnitz (científico y filósofo alemán) proyectó una máquina de multiplicar por medio de sumas sucesivas. 1694 Gottfried Wilhelm Leibnitz empezó a trabajar sobre una máquina que pudiera multiplicar y dividir directamente. La primera versión fue terminada en 1694, que fue en forma de dispositivo escalonada, y por cierto todavía se pueden encontrar en muchas calculadoras actuales. El telar de Jacquard. Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel el rígido. 1801 El telar de tejido, inventado en 1801 por el Francés JosephMarie Jackard (1753-1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarje tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido en particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. La tejedora de Vaucamon. 1807 En la revolución de la computación influyeron en gran medida las técnicas de las tarjetas perforadas. Las mismas surgen primero de la industria textil, en el período 1725-1745, Yacques de Vaucamon desarrolló un equipo de tejer, que era controlado por una cinta de papel perforado, su diseño era muy rudimentario pero sirvió de inspiración para futuros progresos. En 1807, Joseph Jacquard, perfeccionó una máquina que empleaba una secuencia de tarjetas perforadas, cuyas perforaciones controlaban la selección de los hilos y la ejecución del diseño. La locura de Babbage. 1823 Charles Babbage (1793-1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de lascomputadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias Babbage concibió la idea de una "máquina analítica". En esencia, ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina analítica de Babbage podía sumar, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecanismos que cubrirían el área de un campo de fútbol y necesitaría accionarse por una locomotora. Los escépticos le pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte. Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica por varías décadas. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa de secuencia. La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. Babbage inventó en 1822 la primera computadora de propósito general. Nunca llegó a construirla, ya que las técnicas de precisión de la época no estaban preparadas para satisfacer las necesidades de su proyecto. Pero el concepto que dejó BABBAGE en el diseño de su máquina, ha suministrado ideas básicas que se utilizaron en las computadoras modernas. Propuso una máquina con ruedas contadoras decimales que fuera capaz de efectuar una operación de suma en un segundo; era ante todo automática y requería un mínimo de atención por parte del operador, lograba esto evitando que la máquina perdiera velocidad. Babbage había diseñado su máquina con capacidad de acumular datos, operar y controlar la ejecución de las instrucciones. Dicha máquina debía disponer de: a) Dispositivo de entrada b) Memoria para almacenar los datos introducidos y los resultados de las operaciones intermedias c) Unidad de control, vigila la ejecución correcta de las instrucciones d) Unidad de aritmética y lógica, efectúa las operaciones e) Dispositivo de salida, transmite el resultado al exterior La primera programadora. 1843 En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace como la primera programadora. El Algebra Boleana. 1854 George Boole publicó su pensar acerca de la lógica simbólica, la cual décadas después formó la base de las aplicaciones en las ciencias de las computadoras. El papel forma continua. 1857 1876 Sir Charles Wheatstone introduce el "continuous feeding paper", o el papel que utilizan las impresoras de "dot matrix" el cual más tarde sería utilizado para almacenar y leer información. Alexander Graham Bell, de 27 años, lleno la patente para el teléfono. La tabuladora de Hollerit. 1890 Herman Hollerit (1860-1929) La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de la oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría mas que los mismo 10 años para terminarlo. La oficina de censos comisiono al estadista Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 años y la oficina se ahorró alrededor de $5,000,000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación" Algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del pasajero. Eso le dio a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular. Hollertih fundó la Tabulating Machine Company y vendió sus productos en todo el mundo. La demanda de sus máquinas se extendió incluso hasta Rusia. El primer censo llevado a cabo en Rusia en 1897, se registró con el Tabulador de Hollerith. En 1911, la Tabulating Machine Company, al unirse con otras Compañías, formó la Computing-Tabulating-Recording-Company. Debido al gran avance que trajo aparejado la Revolución Industrial durante el siglo XIX, junto con la creciente complejidad de la organización social, se planteó un nuevo problema: el tratamiento de grandes cantidades de datos. Así surgen los equipos de tarjetas perforadas, que se usaron para acumular y procesar automáticamente gran cantidad de datos. La primera operación de procesamiento de datos fue lograda por un estadístico que trabajaba en la oficina de censos de los EE.UU., quien desarrolló un sistema mecánico para registrar, calcular y tabular los datos extraídos del censo. El nuevo sistema se basaba en perforaciones en una larga tira de papel que para ser leídas se colocaban en cubetas de mercurio unidas eléctricamente por conductores. En los lugares donde habían perforaciones, unas púas entraban en contacto eléctrico con los conductores, y entonces eran registrados en los contadores. Esto dió origen al sistema binario o de dos posiciones (SI hay perforación o NO hay perforación) esto permite la representación interna de los datos en un computador. HOLLERITH, también ideó una clasificación eléctrica y automática que operaba a razón de 300 tarjetas por minuto. Las clasificaba en forma ascendente y descendente por orden numérico o alfabético. Esta innovaciones aumentaron la velocidad, versatilidad y utilidad de las máquinas de tarjetas perforadas. Esto dio por resultado que se usarán cada vez más estos dispositivos para procesamiento de datos de negocios, así como computación científica y estudios estadísticos. Pero pese a esto, estas máquinas tienen varias limitaciones, ya que por ser electromecánicas su velocidad se veía limitada por el diseño básico y además como cada máquina se diseñaba para cumplir una función especial, la transferencia de tarjetas de una pieza de equipo a otra, para diferentes operaciones, no sólo consume tiempo, sino que incrementa la posibilidad de error. Las raices de IBM. 1896 En 1896, el Dr. Hollerith formó una comapañía para desarrollar una máquina. Esta compañía se fusionó posteriormente con otras dos y se convirtió en lo que hoy se conoce como IBM. (Internacional Business Machines.) James Powers, quien también durante su tiempo fue estadístico del Departamento de Censos, fundó posteriormente otra compañía que con el tiempo formó parte de UNIVAC, una división de Sperry Rand Corporation. IBM y UNIVAC produjeron la mayor parte del equipo elctromecánico para procesamiento de datos del que se dispone hoy en día. 1897 Karl Braun desarrolla el tubo de rayos de cátodos. 1918 Dos inventores construyeron una máquina calculadora basada en los números binarios 1 y 0. Las maquinas electromecánicas de contabilidad (MEC). 1919 Las maquinas electromecánicas de contabilidad (MEC) Los resultados de las máquinas tabuladoras tenían que llevarse al corriente por medios manuales, hasta que en 1919 la Computing-Tabulating-Recording-Company. Anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en que las Compañías efectuaban sus operaciones. Para reflejar mejor el alcance de sus intereses comerciales, en 1924 la Compañía cambió el nombre por el de international Bussines Machines Corporation (IBM) Durante décadas, desde mediados de los cincuentas la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, dirección, etc.) el procesamiento de la tarjeta perforada se conoció también como procesamiento de registro unitario. La familia de las máquinas electromecánicas de contabilidad (EAM) eloctromechanical accounting machine de dispositivos de tarjeta perforada comprende: la perforadora de tarjetas, el verificador, el reproductor, la perforación sumaria, el intérprete, el clasificador, el cotejador, el calculador y la máquina de contabilidad. El operador de un cuarto de máquinas en una instalación de tarjetas perforadas tenía un trabajo que demandaba mucho esfuerzo físico. Algunos cuartos de máquinas asemejaban la actividad de una fábrica; las tarjetas perforadas y las salidas impresas se cambiaban de un dispositivo a otro en carros manuales, el ruido que producía eran tan intenso como el de una planta ensambladora de automóviles. La supuesta primer computadora. John Atanasoff comienza a trabajar en la primera computadora digital pero se olvida de llenar su patente, casi diez años después, la ENAC utilizaría su trabajo como base. 1937 Atanasoff Y Berry Una antigua patente de un dispositivo que mucha gente creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor de la computadora digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Computer). Un estudiante graduado, Clifford Berry, fue una útil ayuda en la construcción de la computadora ABC. Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una placa con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física." 1938 William Hewlett y David Packard formaron HP en una marquesina en Palo Alto California. Konrad Zuse produce la primera computadora que utiliza código binario. 1939 Georges Stibitz y Samuel Williams construyen la Complex Number Computer, la cual se convierte en la precursora de módem como lo conocemos hoy en día. La primer computadora programable. 1941 Konrad Zuse Contruyo la primera compuradora programable y resolvía ecuaciones copleas de ingeniería, fue controlada por tarjetas perforadas, y fue la primera que operó con el sistema binario, comparado con otras decimales. La Mark I. 1944 En 1937 el Dr. Howard H. Aiken de la Universidad de Harvard desarrolló una máquina automática de cómputo que combinaba todas las operaciones en un solo equipo, para ello empleó varias de las ideas originales de Babbage junto con el concepto de agujeros perforados de Jacquard y Hollerith. IBM lo ayudó en el equipo y en 1944 la Calculadora de Secuencia Automática Controlada o Mark 1 estaba terminada y fue presentada a la Universidad de Harvard. La Mark 1 pesaba 5 T. y constaba de un comlpejo de 78 máquinas sumadoras y calculadoras conectadas por 800 Km de cable. Las instrucciones se perforaban en cinta de papel y una vez que la máquina ejecutaba la primera instrucción no requería de la intervención humana, a partir de ese momento. La Mark 1 fue una computadora electromecánica en la cual las operaciones se llevaban a cabo mediante de interruptores y reveladores eléctricos. Apesar de que la tecnología había avanzado, estas máquinas todavía tenían restricciones a causa de su lentitud y de dificultades en su operación mecánica. Después de esta máquina, se construyeron otras digitales en gran escala, como por ejemplo la llamada Mark II, también diseñada por Aiken. La ENIAC. La primera computadora totalmente electrónica fue la E.N.I.A.C. construída en 1943; y fue terminada en 1945. E.N.I.A.C. , una computadora de Primera Generación, económica, científicoacadémico y funcionaba a válvulas de vacío, las que efectuaban las funciones de transferencia de control que en Mark I, realizaban los relevadores; esto, posibilitó que las operaciones se realizaran a mayor velocidad, así podía multiplicar mil veces más rápido que la máquina de Aiken. Esta se construyó en la Universidad de Pennsylvania, la ENIAC fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. 1947 Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer apuntes que describían los principios de la computadora ABC y verla en persona, el Dr. John W. Mauchly colaboró con J.Presper Eckert, Jr. para desarrollar una máquina que calculara tablas de trayectoria para el ejército estadounidense. El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras. Era una computadora electrónica completamente operacional a gran escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer), ó Integrador numérico o y calculador electrónico. La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo. Pesaba 30 toneladas y ocupaba un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x 12 m y con tenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con un sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9) La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pennsylvania, bajaba las luces de Filadelfia siempre que se activaba. La imponente escala y las numerosas aplicaciones generales de la ENIAC señalaron el comienzo de la primera generación de computadoras. El control de la computadora se realizaba mediante el alambrado de cables removibles o cinta de papel y, una vez que el procesamiento de los datos había sido iniciado, ninguna modificación podía efectuarse a pesar de que surgiera la necesidad de hacerlo. Con la EDSAC fue posible tener las instrucciones y lo datos almacenados en la unidad de almacenamiento de la computadora. La EDVAC. 1945 En 1945, John von Neumann, que había trabajado con Eckert y Mauchly en la Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria de la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la llamada EDVAC (Eletronic Discrete-Variable Automatic Computer, es decir computadora automática electrónica de variable discreta), desarrollada por Von Neumann, Eckert y Mauchly. Los programas almacenados dieron a las computadoras una flexibilidad y confiabilidad tremendas, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos. Una computadora con capacidad de programa almacenado podría ser utilizada para varias aplicaciones cargando y ejecutando el programa apropiado. Hasta este punto, los programas y datos podría ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras "entienden". El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las computadoras utilizando medios distintos a los números binarios. La EDSAC. 1949 En 1949 se construyó la E.D.S.A.C. (Computadora Automática Electrónica de Almacenamiento Diferido); con ella los transistores sustituyeron a las válvulas y entonces aparecieron las computadoras de Segunda Generación. Utilizando el mismo principio de almacenamiento se construyeron otras máquinas en utilizar cinta magnética como dispositivo de entrada y salida. Disponía de gran velocidad, confiabilidad, capacidad de memoria y la posibilidad de manejar igualmente números y materias descriptivas. 1949 John Mauchly desarrolla el Shot Code, el primer lenguaje mundial de alto nivel. La UNIVAC. 1951 Conforme la tecnología avanzó en todas las áreas la investigación en el campo de las computadoras se extendió y los resultados se hicieron comercialmente más practicos en tamaño y costo. La UNIVAC 1 (Universal Automatical Computer), instalada en el Departamento de Censos de E.U.A. en 1951 fue la primera computadora que se produjo en forma comercial y contenía varias de las características de las computadoras actuales. Remington Rand comercializó esta máquina. El uso comercial de la computadora UNIVAC comenzó en 1954 y apartir de esa fecha la industria del procesamiento de datos comenzó a crecer hasta alcanzar su magnitud actual. La mayoría de las mejoras en las computadoras, desde esa fecha, han sido en la reducción de su tamaño, hasta el punto de miniaturizar las partes o componentes lo cual produjo un incremento en la velocidad de operación. Hoy en día las computadoras se diseñan y se construyen en diversos países del mundo, entre ellos: Rusia, Japón, E.U.A., Inglaterra Alemania y China. El COBOL. 1952 Hasta este punto, los programas y datos podría ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras "entienden". El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las computadoras utilizando medios distintos a los números binarios. En 1952 Grace Murray Hoper una oficial de la Marina de E.U., desarrolló el primer compilador, un programa que puede traducir enunciados parecidos al inglés en un código binario comprensible para la maquina llamado COBOL (COmmon Business-Oriented Languaje). IBM construye su modelo 650, la primera computadora producida en masa, la compañía vendió 1500 antes de que llegaran al mercado. 1955 Naridender Kapany desarrolla la fibra óptica. 1956 IBM desarrolla el primer disco duro llamado RAMAC. 1957 Texas Instruments construye el primer circuito integrado. Bell Telephone introduce los primeros módems. Investigadores en Bell Labs inventan el láser. 1958 Utilizando el ábaco Lee Kaichen, un profesor chino, realizó cálculos mas rápido que una computadora en Seattle, New York y Taipei. Xerox introduce la primera copiadora comercial. 1959 1962 Digital Equipment Corporation desarrolla la PDP-1, la primera computadora comercial equipada con teclado y monitor. El Peoples National Bank en Gouster, Virginia, instala la primera ATM del mundo, no es muy exitosa y eventualmente la retiran. Programadores en MIT crean el primer juego de vídeo. 1963 Douglas Engelbart construye el primer "Mouse" en el Stanford Research Institute, dos décadas más tarde, la Macintosh lo convertirá en un componente estándar. Se vislumbra ARPANET. 1964 Hace años atrás, las agencias encargadas de la seguridad de la Nación Americana confrontaban una preocupación muy genuina: Cómo las autoridades se comunicarían efectivamente luego de un ataque nuclear. Las comunicaciones juegan un papel importante en las seguridad de las naciones. Cualquier autoridad central sería el blanco principal de un ataque. En 1964 se da a conocer la primera propuesta para dicho problema. En primer lugar la red de comunicaciones sería diseñada desde sus orígenes sin ninguna autoridad central. El principio era sencillo: todos los nodos en la red tendrían igual estatus con la misma capacidad de transmitir, pasar y recibir mensajes. El mensaje por su parte sería dividido en paquetes, cada uno con la información suficiente para llegar a su destino, por lo que el viaje a través de la red sería independiente. La ruta que cada paquete tomase no tendría importancia, siempre y cuando llegase a su destino. A este concepto se le conoce como packet switching networking. 1965 Digital Equipment Corporation construye la primera mini-computadora, su costo es de $18,000. El lenguaje simple de computadoras BASIC es desarrollado, más tarde se convertirá en un lenguaje estándar para las computadoras personales. 1968 Se crea Intel. Debuta la ARPANET, precursora de la Internet. 1969 La primera red grande y ambiciosa basada en dicho concepto (1964) en Estados Unidos fue realizada por la Advanced Reseach Projects Agency (ARPA). Para diciembre de 1969 se encontraban ya conectadas cuatro computadoras, tres en California y una en Utah, en la red que se conoció como ARPANET. Gracias a esta red, científicos e investigadores podían intercambiar información y hacer uso de facilidades de forma remota. Se crea la "Bubble memory", esta permite a las computadoras retener información en dicha memoria aun cuando se apagan. Se introduce el Floppy disck. 1970 Intel desarrolla el primer chip de memoria, la cual almacena 1024 bits de data. Xerox establece su Palo Alto Research Center. Bell Labs desarrolla Uníx. Texas Instruments introduce la calculadora de bolsillo. Aparece la primera impresora dot matrix. 1971 Crece ARPANET. Rápidamente otras facilidades con recursos computacionales comenzaron a hacer uso de esta innovadora tecnología de packet-switching para interconectar sus propios sistemas y eventualmente conectarse con ARPANET. Ya se encontraban alrededor de 20 nodos en ARPANET. Atari lanza su primera máquina de juegos, Pong. La compania se fundo el mismo año por Nolan Bushnell. Programadores en Bell Labs desarrollan el lenguaje C. Ray Tomlinson inventa el correo electrónico. ARPANET continua creceiendo. 1972 Para este segundo año de operación se había descubierto algo inesperado. La mayoría del tráfico en ARPANET no era precisamente computación a distancia sino noticias y mensajes personales. Se desarrolla para entonces lo que se conoce como mailing-lists, técnica para distribuir mensajes automáticamente a un número grande de "suscriptores". ARPANET ya había aumentado a 40 nodos. 15 de Noviembre. El 4004. El primer procesador el 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 KHz, disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados. La primera conexión internacional. 1973 En los años 70 la red continuó creciendo. Incluyendo la primera conexión internacional (Inglaterra y Noruega - 1973). La estructura descentralizada de la red hacía fácil su expansión. El tipo de computadora que se conectara no era importante; sólo debía ser capaz de "hablar el mismo lenguaje" basado en packet-switching. 1 de Abril. El 8008. Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón al primer ordenador personal 1 de Abril. La Altair. 1974 Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador. Esta computadora tenía un costo de al rededor de 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades, en lo que suponía la aparición de la primer computadora que la gente podía comprar, y no ya simplemente utilizar. La computadora contaban con un CPU 8080 como cerebro. Debuta Altair 8800, primera computadora personal mercadeada a gran escala. También se mercadea por primera vez el Liquid cristal display. 1975 Bob Metcalfe de Xerox desarrolla la Ethernet. Se desarrolla el primer procesador de palabras, Electric Pencil. IBM introduce la impresora láser. Para esa misma fecha el gobierno los demanda por tener un monopolio. En el 1982 el gobierno deja el caso pero no antes de procesar 30 millones de páginas de documentación sobre el caso. La primer micro computadora de uso masivo. 1976 Steve Wozniak y Steve Jobs inventan la primera micro computadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo. Data General revela su chip de computadora en el ombligo de una belly dancer en el National Computer Conference en Nueva York. IBM desarrolla la impresora de chorros de tinta o ink jet. El Atari 2600 VCS (Video Computer System). Como una de las primeras consolas para el publico en el mercado. El Atari 2600 es la consola mas classica y domino despues de su inicio el mercado de videojuegos. Aunque la tecnica desde vista de hoy es muy primitiva, miles de juegos se hicieron para este sistema; Hasta hoy no hay una otra consola con mas juegos..! Los simples juegos de solamente 4 KB (!) pudieron fascinar a milliones. Para el PC ya hubo un paquete (Atari Action Pack) para Fans "durodematar" de este sistema. 1977 Ahora hasta hay un Doom-Clone (Screenshot), que programarion unos freaks para el Atari 2600 VCS . Bill Gates y Paul Allen oficialmente fundan Microsoft. La Apple II. Apple introduce la Apple II, la primera computadora preensamblada; Apple II estara al mando del mercado de computadoras personales hasta que las IBM aparezcan en el mercado en el 1981. Tandy y Commodore lanzan sus computadoras con monitor integrado. Wordstar es lanzada y prontamente se convierte en el procesador de palabras más popular. 8 de Junio. El 8088, el 8086 y la IBM PC. 1978 La computadora personal no pasó a ser tal hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere. dBASEII aparece en el mercado. Había ya más de 200 nodos, en ARPANET. 1980 1981 Originalmente el "lenguaje" utilizado por ARPANET fue NCP (Network Control Protocol). Luego fue sustituido por un estándar más sofisticado conocido como TCP/IP. TCP (Transmission Control Protocol) es el responsable de convertir el mensaje en paquetes y luego reconstruir este en el destino. IP (Internet Protocol) es el que maneja el viaje de los paquetes a través de distintos nodos y redes dada la dirección de su destino. Dado que el software que implementaba los protocolos de TCP/IP en las computadoras era de fácil acceso -y sobre todo gratis- unido a la descentralización de la red, no impedía que más y más computadoras se conectasen. IBM introduce la IBM PC con MS-DOS como sistema operativo. Dr. Barney Clark recibe el primer corazón artificial, un microprocesador controla sus funciones. Se introducen los discos compactos. Se propociona el primer clon de IBM. Time Magazine nombra la computadora como "man of the year". Apple introduce Lisa, la primera computadora con interfase gráfica y con un mouse con un costo de $9,995. 1982 El Vectrex. El Vectrex que se inico en 1982 por $199 Dollares en Estados Unidos tambien ya es una pieza de museo, pero no tan viejo como el Atari 2600. La gran differenica a otras consolas es que los juegos del Milton-Bradley Vectrex no son de gráfica de raster (pixel), si no son visualisados con ayuda de gráfica de vectores (linias) en el incluido monitor monochrom. El Vectrex tambien trae un juego en su ROM: un Asteroids-Clone llamado minestorm. Para todos los juegos hubo differentes folios colorados, que se podian colocar en el monitor de 9". El 80286. 1 de Febrero En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, basta mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de ordenadores en todo el mundo Mas de ARPANET. 1983 En 1983 ARPANET separa su parte militar en lo que se conoce como MILNET. Otras grandes redes se organizan en los 80's tales como BITNET (Because it's Time Network), CSNET (Computer Science Network), NSFNET (National Science Fundation Network), así como agencias gubernamentales tales como NASA, The National Institute of Health y The Department of Energy. Debuta el CD-rom. Apple lanza la Macintosh. 1984 También se introducen al mercado los módems 2,400kb/s. El novelista William Gibson utiliza el termino cyberspace. El Nintendo (NES). El NES (Nintendo Entertainment System) se inicio en 1984 como primera consola de 8-Bit en japon con el nombre de Famicom (FAMiliy COMputer). Fue un pedazo sorprende de Hardware comparado con los sistemas de ese tiempo (Coleco, Intellivision, Atari 2600 y 5200). El NES era tecnicamente inferior al Sega Master System , pero los juegos para el NES eran mejores, asi que el NES hizo la carrera, por lo menos en Estados Unidos y Japon. En Europa la situacion era al reves: Sega Master System era el numero uno en el mercado de videojuegos, y el NES era algo curioso. Nintendo Europa saco licencia del los juegos del Sega Master System para sostenerse en el mercado. America Online es fundada. Microsoft desarrolla Windows 1.0 para la IBM. Bill Gates y John Sculley CEO de Apple, firma un arreglo confidencial concediéndole a Microsoft el derecho de utilizar la interfase gráfica de Apple en sus programas. Nintendo llega a los Estados Unidos. 17 de Octubre. El 80386DX. 1985 El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía mayor velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico. El Sega Master System. El Sega Master System se inico en 1985 (un año despues que el NES en japon con el nombre Sega Mark II. Despues se inicio el portatil y compatible Game Gear como respuesta al Gameboy de Nintendo. 1986 Internet se vuelve público. El National Science Fundation aprueba los fondos para el Internet backbone. Para finales de 1986 más de 5,000 nodos se encontraban conectados. En 1989 NSFNET remplaza su backbone de 56Kbps por líneas T1 de 1,544Mbps. La atención de NSF, así como su gran contribución en el establecimiento de la infraestructura en las comunicaciones, hizo que se le considerara el "backbone del Internet". Para este momento más de 100,000 nodos estaban conectados. Por razones de organización se establece un sistemas de "dominios" para distinguir a que grupo o localización pertenece cada nodo. Computadoras internacionales fueron nombradas por su localización geográfica (.us, .uk, .au, .pr, etc.). Las demás fueron agrupadas en seis distintos dominios (.edu, .gov, .mil, .com, .org y .net). Los dominios .edu, .gov y .mil pertenecen a instituciones educativas, gubernamentales y militares respectivamente. Estas fueron las pioneras en ARPANET. Por otra parte el dominio .com pertenece a instituciones comerciales, .org a organizaciones sin fines de lucro y .net a redes que sirven de enlace o apoyo a otras redes. El Atari Jaguar. Martin Brennan y John Mathieson fundaron su propia empresa, Flare 1, ydesarollaron una consola de multiprocesadores. Quando terminaron el diseñio necesitaban un socio y junto con Atari fundaron Flare 2 para finalmente realizar el sistema. En esos tiempos todavia exista un prototipo de 32-Bit: El Atari Panther. Pero tuvieron problemas con el hardware y ademas los competidores, Nintendo y Sega, estavan desarollando sistemas mas potentes, se tomo la decision de segir el desarollo del Atari Panther, tres años despues terminaron el Atari Panther II, finalmente se nombro Atari Jaguar y fue la primera consola de 64-Bit en el mercado. Atari corp. firmo un contrato de $500 milliones de dolares con IBM y ellos empezaron con la producción de Atari Jaguar en altas cantidades. Pero IBM no influio el diseño del los procesadores del Jaguar. El Turbo Grafx 16/PC Engine de NEC. 1987 El Turbo Grafx 16/PC Engine de NEC fue la primera consola de 16Bit. Por lo menos el chip de gráfica era de 16-Bit, aunque la CPU era aun de 8-Bit. Al principio la consola se vendio desde el 30.10.1987 en Japón con el nombre "PC Engine", despues se lanzo al mercado en E.U.A. con el nombre de "TurboGrafx 16" por entonces en USD$190. En ese tiempo el hardware de la consola era lo mas avanzado. Tambien del PC Engine hubo una version portatil: el GT/Turbo Express, que soportaba todos los juegos; algunos hasta mas rapido que en la consola. Pero el Turbo Express tenia los mismos problemas como el Atari Lynx: Las pilas duraban poco tiempo y en comparación con el Gameboy el GT era muy grande y pesado. Pero con un TV-Tuner hasta se puede ver television en la consola La PC Engine fue la primera consola de CD-Rom con un precio adicional de USD$400 pero por lo caro su venta no fue exitosa. Windows 2.03. Microsoft lanza Windows 2.03, muy parecido a la interfase de la Macintosh y Apple les demanda; seis años y diez millones después la corte falla a favor de Microsoft. 16 de Junio. El 80386SX. 1988 En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador. Tim Berners-Lee inventa el World Wide Web. Entierran las Lisas. 1989 Xerox demanda a Apple por robar la interfase gráfica utilizada con Lisa y Macintosh; después de vender alrededor de 60,000 Lisas, Apple descontinuó el modelo y enterró en un vertedero de Utha las computadoras restantes. El HDTV hace su aparición en Japón. 10 de Abril. El 80486DX. El 10 de abril de 1989 aparece el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había pasado de unos ordenadores en los que prácticamente cualquier tarea compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. El Atari Lynx. El Lynx fue desarrollado por Epyx en 1987 bajo el nombre de "Handy". Atari compro todo los derechos y sigio mejorando el sistema El Atari Lynx fue en su inico la primera consola portatil ("handheld") de 16 Bit en 1989 (Prozessador de 8 Bit, CPU de grafica 16 Bit, igual como el NEC TurboGrafx 16/PC Engine) y ademas el primer sistema portatil con pantalla a color. De todos modos otra vez fue un medio fracaso de Atari que estaba tratando de entrar de nuevo al mercado de videojuegos. Aunque en su tiempo el Atari Lynx era claramente superior a sus concurrentes, por su precio caro no entro bien al mercado. Pero el Atari Lynx tambien ofrece unas opciónes especiales como opción para zurdos (presionando un botton la imagen gira por 180 grados), opción de multiplayer con la que puedes conectarhasta 8 (!) consolas por el ComLynx-Port. Luego se inicio el Atari Lynx II, pero con pocos cambios tecnicos. Es un poco mas chico y ligero que el original, la batteria dura un poco mas (antes 4 entonces 5 horas). Ademas la pantalla del Atari II se puede apagar en una pausa de juego para ahorrar batteria, el orignal tenia un autopower-off despues de cinco minutos.La canexión de audifonos era stereo, pero las bocinas un poco mas bajas. El Gameboy. El Gameboy se inico en Abril 1989 primero en el mercado Japones. Pronto saco del mercado a sistemas tecnicamente superiores como el GameGear, Atari Lynx, Nomad y TurboExpress y desde entonces domina el meracdo de videojuegos portatiles. En 1991 en Inglaterra fue elejido como el jugete del año. Por sus buenos juegos y bajo precio el Gameboy salio ser sorprendemente largo de vida. En 1996, 7 años (!) despues de su inicio oficial, Nintendo inicio el Gameboy-Pocket, con un display mejorado, tiempo de standby mas largo y una caja metalica chica. 1997 vinieron Gameboys en color. Como extras hay aumentadores de pantalla, luz para la pantalla, differentes cajas, Snapshot Camera, impresora y un adapdador para 4 Jugadores, que fue vendido por Nintendo junto con un juego de carrera de Formula Uno. Para este sistema se producieron mas de 450 juegos. El Sega Genesis o Megadrive. El Megadrive (Genesis en Estados Unidos) fue la primera consola de 16-Bit. El Megadrive se inicio en 1989 en Japan y 1990 en los Estados Unidos. Pronto saco el Turbo Grafx 16 del mercado de videojuegos y fue el mayor competidor para el SNES que se inico un año despues. Con el Power Base Converter los que tenian un Sega Master System podian usar sus juegos tambien con el Megadrive. Asi que el Megadrive emula el SMS... :-). Tambien se hicieron unos intentos, de combinar el Megadrive con una PC: En japon se vendio el Teradrive, y en inglaterra Amstrad vendio muchos MegaPC´s, cuales se pueden usar como PC o Megadrive. Los juegos del Megadrive eran en la majoria differentes al los de su rival, el SNES. Los juegos del SNES eran amables y bonitos con su grafica de bonbon como en el Jump&Run con el famoso hojalatero Mario. Los juegos de Megadrive eran de mas action. Su character principal "Sonic The Hedgehog" con sus espinas punk era un personaje mas agressivo y rapido, aunque mucha gente opina, que a los juegos de Sonic le falta la variedad en comparación con la serie de Mario. De todos modos muchos Megadrive´s solamente se vendieron por esa serie exitosa de juegos. Ademas Sega tenia una grande collection de juegos de arcade, de cuales muchos se convirtieron para el Megadrive. Se programmaron mas de 600 juegos para este sistema. El SuperGrafx. Fines de 1989 NEC libero el SuperGrafx, una version mejorada (pero todavia de 8-Bit) del Engine original. El tiempo de las consolas de 8-Bi ya estaba terminando, pero la primera producción de 50.000 piezas se vendio en los primeros dias. Hu-Card A pesar de la technologia de 8-Bit de la CPU la PCEngine era relativamente buena y conocida por sus converciónes buenas de juegos de arcade. La version para la PC-Engine del classico shoot´em up R-Type de Arcade hasta hoy es considerada como una de las mejores converción para una consola. Sale Windows 3.0 y las ventas de Microsoft llegan a un billón. El fin de ARPANET. En 1990 ARPANET deja de existir, pero deja un legado que continua creciendo exponencialmente. Aunque el propósito original de la "red de redes" (Internet) ha ido sufriendo cambios, esta sigue siendo muy popular en la comunidad científica. Posiblemente pueda ser considerado el instrumento más importante de la investigación del siglo 20. 1990 En la década pasada el Internet alcanzo una atención importante sumado a un crecimiento espectacular. Su acceso se ha movido desde el sector militar y de investigación, a escuelas, sectores públicos y comerciales. El GameGear. El GameGear es una consola portatil con pantalla a colores de Sega. El GameGear se inicio en 1990 como contesta al Gameboy de Nintendo. Sin duda el GameGear era tecnicamente superior al Gameboy, pero no logro establecerse en el mercado. La promocion del Gameboy era mejor y tambien porque simplemente el GameGear es mas grande y pesado que el Gameboy y en una consola portatil, eso cuenta. Mas de 200 juegos fueron programados para este sistema. El GameGear es compatible con los juegos del Sega Master System usando un adaptador. El Neo·Geo. El Neo·Geo en su tiempo era una pieza impresionante de Hardware y adelantada para su tiempo. SNK ("Shin Nihon Kikaku" que significa algo como "nuevo projecto de Japón") lo inicio 1990 en Estados Unidos. En ese tiempo empesaba el exitó de las consolas y las computadoras de 16-Bit y los jugadores ya no estaban tan impresionados por las maquinas de Arcade. Quando SNK anunció su Neo·Geo mucha gente del mercado prognostico una quiebra para SNK. Tambien porque SNK hasta entonces por años solo habia producido juegos para Nintendo. La serie de "Ikari Warriors" fue exitosa, pero SNK no era de los grandes del mercado. Poco despues del release de la maquina de arcade se anunció la consola de Neo·Geo, que tuvo la hardware identica. Asi que los juegos para la consola de Neo·Geo eran los mismos como en las maquinas de arcade de SNK. Muchos jugadores les gusto eso, pues podian jugar sus juegos favoritos de arcade ahora en casa. Por su precio extremamente alto la venta del Neo·Geo no fue realmente muy exitosa. El Neo·Geo costaba $650 dolares, loscartridges mas de $200 dolares asi que fue una consola casi solamente para aficionados. El precio fue tan alto por la grande memoria de la maquina. Cada cartridge soportaba hasta 330 Mbit (42 MB) y el Neo·Geo tenia 56 MBit (7 MB RAM). Pero con eso el Neo·Geo tambien podia sostener 4(!) juegos al mismo tiempo en la meroria y ofrezer graficás con mucho detalle. El Super Nintendo (SNES). Por una cooperación con NEC el Turbo Grafx 16 hiba a ser el nuevo sistema de Nintendo, pero entonces Nintendo tomo otra decision y produjo su propio sistema: el Super Nintendo Entertainment System (SNES)/Super Famicon (SFC) en japon. El inicio en japon fue el 21.11.1990 y en Estados Unidos en septiembre 1991. Por el buen sonido y unas graficás buenas mucha gente se intereso por ese nuevo sistema. Tambien el exito se debio a la venta del Hit de ese entonces: "Street Fighter II" para el SNES. La unica desventaja en comparación con el Megadrive fue que la CPU del SNES era un poco mas lenta. Esa decisión tambien se tomo, porque en Japon los juegos de RPG son los mas favoritos. Muchas empresas de juegos tuvieron soluciones para ese problema de la CPU relativamente lenta: se vendieron chips especiales con los Gamepacks, como el conocido SuperFX-Chip. Nintendo hasta hoy ha vendido 20 millones de SNES en los Estados Unidos y 46 millones mundialmente. Se producieron mas de 700 juegos para ese sistema. Mas los juegos del NES y del Gameboy que con ayuda de los Adaptores Super 8/Tri-Star y Super Game Boy tambien se pueden jugar en el SNES. El SNES haste hoy se sigue vendiendo pero las compañias ya no producen juegos para ese sistema. 22 de Abril. El 80486SX. 1991 Por su parte, Intel volvió a realizar, una versión del 486. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso co-procesador matemático incorporado, lo que suponía una reducción del costo para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada. 5 de Octubre. Linux 0.02. Linus Torvalds anunció la primera versión "oficial" de Linux, la 0.02. Ya podía ejecutar bash (el shell de GNU) y gcc (el compilador de C de GNU). Marzo. Linux 0.95. Linux saltó de la versión 0.03 a la versión 0.10 al tiempo que más gente empezaba a participar en su desarrollo. Tras numerosas revisiones, se alcanzó la versión 0.95, reflejando la esperanza de tener lista muy pronto una versión "oficial". 1992 Se crea la Internet Society. Para el 1992 se crea el Internet Society con el propósito de estadarizar protocolos en el Internet y proveer organización a tan creciente movimiento. Ese mismo año NSF crea el InterNIC para proveer servicios de información a la comunidad del Internet y actualiza su backbone a T3 (44.736Mbps). Para ese momento el número de computadoras conectadas superaba el millón. 1993 Los Personal Digital Assistants (PDA o handheld computers) son introducidas. Marc Andreesen y Eric Bina diseñan Mosaic, el primer navegador gráfico. Debuta la Newton de Apple. 22 de Marzo. Sale el Pentium. Sale el Pentium, conocidos por P5 en el mundo de la informática mientras se estaban desarrollando, y de los que la prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una palabra. Esto era debido a que otras compañías dedicadas a la producción de procesadores estaban utilizando los mismos nombres puesto que no se podía registrar una cadena de ellos como marca, y por lo tanto, eran de dominio público. De modo que a Intel no le quedó más remedio que ponerle una palabra a su familia de procesadores, que además, con el paso del tiempo, se popularizó en los Estados Unidos de tal forma, que era identificada con velocidad y potencia en numerosos cómics y programas de televisión. Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes. Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio. Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador de este tipo, está seriamente atrasado y no puede trabajar con garantías con los programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones. Diciembre Linux 1.0. El núcleo de Linux estaba en la revisión 0.99.pl14, en una aproximación asintótica al 1.0. Actualmente, el núcleo se encuentra en la versión 1.1 parche 52, y se acerca la 1.2.2. El Atari Jaguar (Jaguar 64 oficialmente). Se presento en noviembre 1993 en Estados Unidos y en otonio 1994 en todo Europa y fue la primera consola de 64-Bit, 3 años antes del Release del Nintendo 64. Desde 1994 tambien Comptronix en Colorado Springs empezo con la producción del Jaguar. En la consola se realizaron clasicos como Rayman, Tempest 2000, Alien vs. Predator, Iron Soldier 1 y 2 y mas. En otono 1995 al fin se libero el esperado Jaguar CD-ROM (con una mejor correction de errores que el CD de la Playstation o del Sega Saturn). Aunque la consola se vendia bien en Estados Unidos en 1996 desaparecio de las revistas de juego y se considera a ver sido un "Flop". El GPS es introducido en los Estados Unidos. Marc Andreessen ayudan a fundar Netscape. Se eliminan las restricciones comerciales de Internet. El año 1994 fue sumamente importante en la historia del Internet. En este año se elimina las restricciones comerciales existentes hasta entonces. Es pues que un mayor interés de parte del sector privado y comercial hace que el Internet llame la atención de los medios. Para fines de 1994 había más de 3.8 millones de nodos registrados y más de 30 millones de usuarios estimados. Las oportunidades comerciales, educativas y de acceso a la información para todo tipo de aplicación son realmente numerosas. Esto unido a la des centralizada organización da un sentido de "libertad" donde se eliminan barreras geográficas y sociales. 1994 Las últimas estadísticas demuestran que el crecimiento exponencial continúa y se estima en más de 19 millones el número de nodos en esta gran red de redes (7/97). El Sega 32X. En fin de noviembre 1994 en E.U. se libero el Sega 32x, un add-on para el Megadrive. El 32x aumento la capacidad del procesador y mejoro la gráfica. Neo·Geo CD. En 1994 SNK inicio el Neo·Geo CD. Con esa nueva consola se pudieron bajar los costos de produción de los grandes chips de rom. Pero con $300 dolares la consola todavia no era nada barrata. La gran desventaja fue la velocidad del transfer de datos, porque el CD-ROM era un single-speed. La majoria de los juegos de SNK eran de peleas y requerian un transfer y accesso a los datos mas rapido. Tiempo de mas de un minuto para iniciar un juego y 20-30 segundos entre los niveles o rounds de un juego eran normal. Mas tarde se inico una version con double-speed, pero solamente se vendio en el mercado japones. Ademas en ese tiempo el mercado de videojuegos ya era dominado por Nintendo´s Snes y Sega´s Genesis/MegaDrive. El PC-FX. El PC-FX de NEC fue el sucedor de 32-Bit- despues del PCEngine/TurboGrafx 16 y fue liberado el 23.12.1994. El diseño es muy especial, pues la consola no es plana , si no esta parada como un PC-Tower. Se tomo este diseño para tener mas espacio para extensiónes. Ademas este sistema tambien no tiene habilidades de 3D, como las otras comsolas de 32-Bit, si no es capaz de FMV (Full Motion Video) y juegos de 2D muy avanzados. Muchos juegos vienen con unas animaciones digitalisadas de anime excelentas. PC-FX Control Pad Existen como 60 juegos para este sistema. El Playstation. El Sony Playstation, tambien conocida como psx, del gigante de electrónica Sony de Japón,se inicio en diciembre 1994 en Japón y en septiembre 1995 en los Estados Unidos de América. La venta en los Estados Unidos de América fue todo un exito: despues del primer fin de semana que la Playstation estuvo en venta, se vendieron mas de 100.000 piezas. En el principo hubo una cooperación de Sony con Nintendo para producir el SNES con CD-ROM para combatir contra el Sega-CD. El SNES-CD nunca se termino. Las empresas ya no trabajaron juntas y el Playstation entro al mercado contra el Nintendo 64, que todavia usa la technologia de cartridges/cartuchos. La televisión con pantalla plana es introducida al mercado. 1995 Micro Soft lanza el Windows 95 primer sistema para PC basada en Intel que incluía en GI en el propio sistema operativo. Pixar Animation Studios y Disney lanzan el primer largo metraje hecho completamente en computadora, Toy Story. La tecnología del DVD es estandarizada. Jeff Bezos funda Amazon.com. Netscape se lanza público. En Abril la NSF dejó de subsidiar lo que se había considerado "el backbone del Internet" 27 de Marzo. Aparece el Pentium Pro. La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo dio un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento substancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz. Un procesador que en principio no tiene muchos visos de saltar al mercado doméstico, puesto que los procesadores Pentium MMX parecen cubrir de momento todas las necesidades en este campo. No podemos asegurar que en un futuro cercano esto no acabe ocurriendo, pues en el mundo de la informática han sucedido las cosas más extrañas, y nunca se sabe por dónde puede tirar un mercado en constante evolución . 18 de Septiembre. El Pentium Overdrive. El 18 de septiembre de 1995 Intel anuncia la disponibilidad de un nuevo modelo procesador de mejora Pentium Overdrive a 83 MHz (además del modelo a 63 MHz que ya existía) que permite la actualización de los microprocesadores 80486 DX, DX2 y SX. Compatible pin a pin con estos microprocesadores en Pentium Overdrive integra la tecnología del Pentium en 3,3 voltios y 0'6 micras. Aparte de ser como un Pentium genuino cabe destacar la presencia de una memoria cache de 32 Kb, un regulador de tensión para reducir la tensión de 5 a 3,3 voltios, disipador y ventilador integrado y una circuitería interna que incrementa en dos veces y media la frecuencia del bus del sistema (33 MHz * 2'5 = 82'5 MHz). El incremento medio en las prestaciones respecto a un 80486 a 66 MHz es de un 50 por ciento aunque en aplicaciones puntuales (AutoCAD 13) puede ser de un 96 por ciento, lo que lo sitúa en las prestaciones de un Pentium genuino a 75 MHz. El Sega Saturn. Sega Saturn apareció en el mercado para paliar la crisis de la compañia que gracias a "maravillas" como 32X o MEGA CD se habia producido. Aunque tambien influyó la crisis general que se produjo despues del boom del 91y92 Sega creo una maquina potente pero no conto con que sony estaba creando la psx. Cuando sony publicó las caracteristicas tecnicas de psx en Sega sonó la alarma de fracasos pero lo unico que pudieron hacer fue incluir otro procesador identico ala cpu ,el SH 2, lo que encarecio la maquina y complico su progamacion hasta limites insospechados. En sega declararon que solo uno de cada cien programadores podia esprimer la consola al maximo. Esto junto a una pesima campaña de marketing produjo que sony trunfara en un mercado para ellos desconocido. El Virtual Boy. El Virtual Boy fue seguramente el major fracaso en la historia de Nintendo. En Noviembre en la expo de Shoshinkai el Virtual Boy de 32-Bit fue presentado la primera vez al publico. Lo especial de esta consola es que ofrece grafica de 3D estilo Virtual Reality, pero solamente en los colores negro y rojo. El sonido tambien fue mejorado solamente un poco en comparacion con el Gameboy. La consola fue anunciada portatil, pero no es posible, porque el Headset fue muy pesado para usarlo, y las manos se necesitan para usar el controller. El 21.07.1995 el Virtual Boy fue liberado en el mercado officialmente en japon y en septiembre del mismo anio en Estados Unidos. Como solamente se vendieron 200.000 unidades mundialmente, pronto Nintendo se dio cuenta que nunca alcansarian el éxito que tuvieron con el Gameboy; por eso Virtual Boy nunca fue liberado en Europa. Nintedo dijo en sus comerciales que pudieras conectar dos Virtual Boys por un cable de Link, pero nunca se vendio y ningun juego soportaba esa possibilidad. Ademas faltaban juegos realmente buenos y la imagen de 3D en negro y rojo despues de un tiempo provocaba dolor de cabeza a los jugadores. Solamente se liberaron 20 juegos para el Virtual Boy: 3DTetris (us) Galactic Pinball (jap/us), Golf (us), Insmouse Mansion (jap), Jack Bros (jap/us), Mario Clash (jap/us), Mario's Tennis inkl. Box (jap/us), Nester's Funky Bowling (us), Panic Bomber (jap,us), Space Squash (jap), Red Alarm (jap/,us), T&E Golf (jap), Teleroboxer (jap/us), Vertical Force (jap/us), Virtual Fishing (jap) , Virtual League Baseball (us), Virtual Professional Baseball '95 (jap), VTetris (jap), Wario Land (jap/us), Waterworld (us) Debuta la Palm Pilot y el Web TV. El Nintendo64. 1996 Esta primera presentación fue el éxito esperado, sobre todo el Jump&Run en 3D Mario 64 dejo a la gente con la boca abierta. La fecha de venta siempre fue retrasada varias veces, pues el programador de Mario 64, Shigeru Miyamato siempre pedia mas tiempo para segir mejorando el juego. En el 23.06.1996 llego el momento. El Nintendo 64 con su procedador de 93,75 MHz era superior a sus concurentes y el nuevo analogpad fue una una pequiena revolution en los controllers de juegos. El inicio en japon no fue tan bueno como esperado, porque no hubo la cantidad de juegos que la gente esperaban. La causa fue la estrategie del "Dreamteams". Nintendo quiso que las Third Partyfirms, solamente producieran exclusivamente juegos para el Nintedo 64. Solamente pocas empresas aceptaron como Rare (Donkey Kong 1-3 para SNES, Blast Corps, Golden Eye, Donkey Kong 64). Pero otras empresas buenas como Capcom y Square Soft pararon la produción de juegos para el Nintendo 64 y trabajaron para los competidores. Asi fue que Nintendo por primera vez perdio en su mercado principal que es japon partes del mercado a un competidor: Sony. En Estados unidos y en Europa el inico fue bastante mejor, acompañado por una promoción gigante. Aunque Nintendo ya poco a poco se aleja de su estragie del "Dreamteams", todavia la produción de juegos no es optimal. Sobre todo por la tecnologia de los cartuchos que es mas ariesgada y cara que los CD-ROMs baratos y con mas capcaidad. Ayuda pudiara dar el 64-DD: un 3 3/4 Magnetic Disc-Drive externo con una capacidad de 64 MByte. Pero lo mas probable es que (igual como el N64Modem) solamente se va a vender en el mercado japones. Un exito tambien no es muy seguro, pues se sabe que la gente que tienen consolas no estan dispuestos gastar mucho en upgrades como para una pc, como se vio en el fracaso de SEGA's 32X-Adaptor y del discdrive japones para el NES. Los DVD llegan a los Estados Unidos. 1997 La especificación DVD, según algunos fabricantes, Digital Vídeo Disc, según otros, Digital Versatile Disc, no es más que un nuevo intento por unificar todos los estándares ópticodigitales de almacenamiento, es decir, cualquier sistema de grabación que almacene imágenes o sonido. DVD abarca todos los campos actualmente existentes, por lo que, si llega a implantarse, un mismo disco DVD podrá utilizarse para almacenar películas, música, datos informáticos, e incluso los juegos de consolas. 7 de Mayo. Intel lanza el Pentium II. Intel lanza el Pentium II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium . Como resultado, el Pentium II es el procesador más rápido de cuantos ha creado Intel. Diamond Multimedia introduce el MP3. El reporte Starr es lanzado a través de internet. El Sega Dreamcast (DC). El Sega Dreamcast de inicio el 27.11.1998 en Japón. La venta en los Estados Unidos de América fue todo un éxito, se vendieron mas de 150.000 piezas el 1998 primer dia. El NeoGeo Pocket. NeoGeo Pocket fue liberado el 28.10.1998 en japon. Es mas pequenio que el Gameboy y ofrece mejores Animationen. Ahora tambien hay una version a color del NeoGeo Pocket, que es superior al Gameboy. Es el momento de Linux. 1999 AOL completa la adquisición de Netscape. Microsoft, con 23,320 empleados llega a los $14.4 billones en ventas. ntes del primer computador Desde el principio del tiempo los hombres siempre han inventado cosas para que la vida fuera más cómoda. Hace 50.000 años, el hombre primitivo aprendió a hacer fuego para obtener calor. Hace 5.000 años, alguien inventó la rueda para poder mover objetos con más facilidad. Hace unos 4.000 años, los chinos inventaron un objeto para solucionar mejor los problemas de matemáticas: el ábaco. El ábaco no podía realizar la mayor parte de las tareas que realiza un computador, pero sí hacía algo importante que hacen los computadores: con él se resolvían los problemas de matemáticas más fácilmente. Ya en el siglo XVII, en 1641, un francés llamado Blaise Pascal hizo un aporte importante para la historia del computador, inventó una máquina de sumar, a la que dio el nombre de Pascalina. Podía sumar y restar largas columnas de números sin cometer ningún error.(cfr. Marquès, P. et al. "Cómo introducir y utilizar el ordenador en la clase". p. 16.) Unos años más tarde, un alemán llamado Gottfried Leibnitz mejoró la máquina de Pascal: inventó una calculadora. Aparte de sumar y restar, también podía multiplicar, dividir, y hallar la raíz cuadrada de un número. Se accionaba manualmente. (cfr. Tison, C. et al. "Guía para niños sobre ordenadores". p. 3.) Casi doscientos años más tarde apareció otro invento importante. Era un telar automático, inventado en 1801 por Joseph-Marie Jacquard. El telar utilizaba información codificada para fabricar la tela. Esta nueva máquina entrelazaba los hilos mientras se pedaleaba. Jacquard hizo unos agujeros en una tarjetas y las juntó para hacer una secuencia. El telar tomaba información de los cartones y la usaba para fabricar los tejidos. (cfr. Idem. pp. 3 - 4) En 1833, Charles Babbage y Lady Augusta Ada Byron, la Condesa de Lovelace, empezaron a trabajar juntos en un invento al que llamaron calculadora analítica. Querían que funcionase por sí sola, sin que nadie la accionara. Buscaron la manera de dar información a la máquina, que hiciera algo con ésta y que devolviera otra información. En 1839, Babbage se dedicó por entero a trabajar en pequeñas computadoras. Lovelace ya había completado sus teorías sobre cómo dar instrucciones al computador. Ninguno de los dos llegó a construir esta máquina. Hacían falta miles de pequeñas piezas construidas a la perfección, y en el siglo XIX no había herramientas que fabricasen piezas tan pequeñas y perfectas. La calculadora no se finalizó nunca. B. El Primer Computador Cada diez años, el gobierno de Estados Unidos hace un censo. En 1880, el gobierno empezó uno, pero había tanta gente en Estados Unidos, que tardaron 8 años en contarlos a todos y en poner información sobre dónde vivían y a qué se dedicaban. Ocho años era demasiado tiempo, así que el gobierno celebró un concurso para encontrar una manera mejor de contar gente. Herman Hollerith inventó una máquina denominada máquina tabuladora. Esta máquina ganó el concurso, y el gobierno la usó en el censo de 1890. La máquina de Herman usaba tarjetas perforadas, y cada agujero significaba algo. Un agujero significaba que la persona estaba casada, otro, que no lo estaba. Un agujero significaba que era de sexo masculino, otro, de sexo femenino. La electricidad pasaba a través de los agujeros y encendía los motores, que a su vez activaban los contadores. En 1890, sólo hicieron falta seis semanas para realizar el primer recuento sencillo. El recuento completo se realizó en sólo dos años y medio. La nueva máquina tabuladora de Herman se hizo famosa. Se vendieron copias a otros países para que realizasen sus censos. Pero Herman no se paró en este invento. Comenzó una empresa llamada International Business Machines. Hoy en día es una de las empresas informáticas más grande del mundo: IBM. (cfr. Idem. pp. 9 - 10.) A principios del siglo XX, muchas personas de todo el mundo inventaron computadores que funcionaban de maneras similares a la máquina tabuladora. Hacían experimentos para que funcionaran más rápido, y realizaran más tareas aparte de contar. C. La Primera Generación de Computadores Alan Turing, en 1937, desarrolló el primer auténtico proyecto de un computador. En 1944, en la Universidad de Harvard, crearon el primer calculador electromecánico, el Mark1. Era lento y poco fiable. En 1945, John von Neumann concibió la idea de un computador que se manejaba mediante instrucciones almacenadas en una memoria. Este concepto moderno de computador se plasmó, en 1946, en un prototipo llamado ENIAC, en los Estados Unidos, a partir de una iniciativa de las fuerzas armadas de ese país. Medía 30 metros de longitud, una altura de 3 y una profundidad de 1. Utilizaba 18.000 válvulas, conectados a 70.000 resistencias, 10.000 condensadores y 6.000 interruptores. (cfr. Pentiraro, E. Op. cit., p. 2.) En 1951, la compañía Sperry Univac, comenzó la producción en serie del primer computador electrónico, el UNIVAC I. Sperry introdujo dentro del UNIVAC la información sobre las elecciones presidenciales estadounidenses de 1952. Antes de que se anunciasen los resultados, UNIVAC ya había predicho que Dwight D. Eisenhower ganaría las elecciones. A partir de ese momento todos los computadores funcionarán según los principios de Von Neumann. D. La Segunda Generación de Computadores En 1948, un grupo de personas que trabajaban en el laboratorio Bell dieron el primer paso hacia un computador pequeño y fácil de usar, al crear el transistor. Un transistor controla la cantidad de energía eléctrica que entra y sale por un cable. Sólo en 1958 se comenzaron a producir en serie los primeros computadores que utilizaban este pequeño bloque de silicio. Este mineral es un material semiconductor que contiene impurezas que alteran su conductividad eléctrica. Así, el computador se vuelve más económico, más rápido y más compacto. E. La Tercera Generación de Computadores Entre finales de los años sesenta y principios de los setenta se prepara otro importante cambio: el circuito integrado. Sobre una pieza de silicio monocristalino de reducido tamaño se encajan piezas semiconductoras. (cfr. Ídem, p. 6.) Se reducen los tamaños, aumentando la velocidad de proceso ya que se requiere una menor cantidad de tiempo para abrir y cerrar los circuitos. F. La Cuarta Generación de Computadores El circuito integrado se utilizó en los computadores hasta mediados de los setenta. En 1971, una empresa norteamericana llamada Intel desarrolló un proyecto de circuito integrado distinto, cuya característica fundamental era la posibilidad de programarlo como un auténtico computador. De esta forma nace el microprocesador. A partir de 1975 se produce una verdadera revolución con este dispositivo de un par de centímetros de longitud. Las diferentes empresas construyen computadores basándose en el chip de Intel. Cada vez más instituciones adquieren computadores para optimizar sus procesos. El chip de silicio es más pequeño que una moneda, pero contiene toda la información que el computador necesita para funcionar. Esto hace que los computadores sean mucho más rápidos y que gasten menos energía. "Hoy en día, no hace falta ser un científico de computadores para manejar un computador. Algunos computadores son tan pequeños que caben en un bolsillo, y se pueden conectar a un enchufe o ponerles pilas. Los computadores pueden manejar la información de formas que nadie se podía imaginar en los tiempos de Hollerith, razón por la que actualmente son tan populares". (Tison, C. Op. cit., p 12.) Pero la historia de los computadores aún no ha terminado. Constantemente se están introduciendo nuevos avances técnicos. Lo que conocemos hoy como computadores, es posible que en el futuro no sea tal y estemos en presencia de tecnologías inimaginables en este momento. Lo mismo que le sucedió a Babbage en el siglo pasado.