Viernes, 13 de junio de 2008
Línea del tiempo en la computación e Internet (Historia de la Computación).

 


Antiguedad. A lo largo de la historia el hombre fue resolviendo sus necesidades de registración, para llevar la cuenta de sus bienes y efectuar las operaciones necesarias para la permuta o la venta de los mismos. Fue ideando métodos ágiles de cálculos, tales como contar con los elementos que les proporcionaba la naturaleza, por ejemplo: dedos, piedras, nudos en la soga, etc. Partiendo de la idea de contar con los dedos, los pueblos primitivos tomaron como base de sus cálculos el número 10, pero no todos tomaron el mismo sistema, los mayas calculaban en base al 20, los babilonios en base al 60, y los esquimales en base al 5, etc.En la medida que el hombre acumulaba un mayor número de posesiones, aumentaba la tarea de contar. El mundo antiguo iniciaba su expansión y los comerciantes compraban, vendían, efectuaban trueques, inventariaban, necesitaban un dispositivo para recoger información y obtener resultados exactos. 

Uno de los dispositivos mecánicos primitivos de cálculos fue el contador de arena de los egipcios, que consistía en surco en la arena donde colocaban piedras o guijarros. 

2600a.C. Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.

Ya que podemos ver que el abaco y la computadora personal son dos pequeños dispositivos para proceso de datos separados por miles de años de historia. Todo comienza en la antiguedad con los mercaderes, que estaban buscando la idea de llevar las cuentas de sus ganancias y sus perdidas. Aparte, por otro lado buscaban la manera de contar la cantidad de animales; como el ganado, etc; que tenian. Los métodos y herramientas para efectuar transacciones comerciales se desarrollaron conforme se fueron introduciendo las monedas como un medio para comerciar y las transacciones se hicieron mas complicadas y por lo tanto necesitaron métodos de cálculo mas rápidos. Así fue como apareció el ábaco, que rápidamente apareció por todo el mundo y todavía se sigue usando actualmente. De hecho, dicen en algunos libros que las personas que saben utilizar el ábaco podrían realizar en la computadora operaciones y cálculos rápidamente.

Después de este avance pasaron cerca de 4000 años antes del siguiente mejoramiento importante, ya que, el uso de los números romanos obstaculizaron la invención de aparatos mecánicos de computación.

1200  Alrededor del año 1200 de nuestra era, con la aceptación del número arábigo, se favorecieron los avances. Pero no apareció ningún aparato mecánico recién hasta el siglo XVII.
1617 John NEPIER, desarrolló los logaritmos, este sistema proporcionó un método conveniente para abreviar los cálculos, convierte la multiplicación, división, potenciación y radicación en simples sumas y restas. Esto deriva la invención de la Regla de cálculo.
entre 1452 y 1519 El inventor y pintor Leonardo Da Vinci (1452-1519) trazó las ideas para una sumadora mecánica. 
1642 El primero en lograr con éxito el desarrollo de una calculadora mecánica para contar dígitos fue Blaise PASCAL (1642) a la que se denominó Sumadora de Pascal o Pascalina, era un aparato apropiado para efectuar largas sumas, consistía en una hilera de ruedas, cada una de las cuales constaba de diez dientes iguales que representaban los dígitos del 0 al 9, formando lo que llamó ‘‘la Rueda Contadora Decimal’’. Su mecanismo se lo puede comparar con el del cuentakilómetros del automóvil.

Durante los siguientes dos a tres millones de años de la historia se fueron desarrollando métodos para el procesameinto de datos y el siguiente descubrimiento importante se produjo en 1642. Cuando Blaise Pascal, Francés de 19 años, trabajaba en la oficina de su padre de contabilidad fiscal, decidió que debía hacer algo para que su padre y otros contadores fiscales no tuvieran que sumar largas columnas de números y se tardaran tanto y gastaran tanto tiempo valioso. Así que através del tiempo desarrollo una máquina calculadora mecánica que era operada por una serie de discos de selección, unidos a engranes, que tenían los números del cero al nueve en su circunferencia. El problema que tenía esta calculadora era que sólo servía para sumar.

1694 En base a la sumadora de Pascal, en 1671, LEIBNIZ (científico y filósofo alemán) proyectó una máquina de multiplicar por medio de sumas sucesivas.

Gottfried Wilhelm Leibnitz empezó a trabajar sobre una máquina que pudiera multiplicar y dividir directamente. La primera versión fue terminada en 1694, que fue en forma de dispositivo escalonada, y por cierto todavía se pueden encontrar en muchas calculadoras actuales. 

1801 Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel el rígido. 

El telar de tejido, inventado en 1801 por el Francés Joseph-Marie Jackard (1753-1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarje tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido en particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. 

1807 En la revolución de la computación influyeron en gran medida las técnicas de las tarjetas perforadas. Las mismas surgen primero de la industria textil, en el período 1725-1745, Yacques de Vaucamon desarrolló un equipo de tejer, que era controlado por una cinta de papel perforado, su diseño era muy rudimentario pero sirvió de inspiración para futuros progresos. En 1807, Joseph Jacquard, perfeccionó una máquina que empleaba una secuencia de tarjetas perforadas, cuyas perforaciones controlaban la selección de los hilos y la ejecución del diseño.
1823 Charles Babbage (1793-1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias Babbage concibió la idea de una "máquina analítica". En esencia, ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina analítica de Babbage podía sumar, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecanismos que cubrirían el área de un campo de fútbol y necesitaría accionarse por una locomotora. Los escépticos le pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte. Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica por varías décadas. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa de secuencia. 

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. 

Babbage inventó en 1822 la primera computadora de propósito general. Nunca llegó a construirla, ya que las técnicas de precisión de la época no estaban preparadas para satisfacer las necesidades de su proyecto. Pero el concepto que dejó BABBAGE en el diseño de su máquina, ha suministrado ideas básicas que se utilizaron en las computadoras modernas. 

Propuso una máquina con ruedas contadoras decimales que fuera capaz de efectuar una operación de suma en un segundo; era ante todo automática y requería un mínimo de atención por parte del operador, lograba esto evitando que la máquina perdiera velocidad. Babbage había diseñado su máquina con capacidad de acumular datos, operar y controlar la ejecución de las instrucciones. 

Dicha máquina debía disponer de: 

a) Dispositivo de entrada 

b) Memoria para almacenar los datos introducidos y los resultados de las operaciones intermedias

c) Unidad de control, vigila la ejecución correcta de las instrucciones

d) Unidad de aritmética y lógica, efectúa las operaciones

e) Dispositivo de salida, transmite el resultado al exterior

1843 En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace como la primera programadora.
1854 George Boole publicó su pensar acerca de la lógica simbólica, la cual décadas después formó la base de las aplicaciones en las ciencias de las computadoras.
1857 Sir Charles Wheatstone introduce el "continuous feeding paper", o el papel que utilizan las impresoras de "dot matrix" el cual más tarde sería utilizado para almacenar y leer información.
1876 Alexander Graham Bell, de 27 años, lleno la patente para el teléfono.
1890 Herman Hollerit (1860-1929) La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de la oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría mas que los mismo 10 años para terminarlo. La oficina de censos comisiono al estadista Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 años y la oficina se ahorró alrededor de $5,000,000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación" Algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del pasajero. Eso le dio a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular. Hollertih fundó la Tabulating Machine Company y vendió sus productos en todo el mundo. La demanda de sus máquinas se extendió incluso hasta Rusia. El primer censo llevado a cabo en Rusia en 1897, se registró con el Tabulador de Hollerith. En 1911, la Tabulating Machine Company, al unirse con otras Compañías, formó la Computing-Tabulating-Recording-Company.

Debido al gran avance que trajo aparejado la Revolución Industrial durante el siglo XIX, junto con la creciente complejidad de la organización social, se planteó un nuevo problema: el tratamiento de grandes cantidades de datos. 

Así surgen los equipos de tarjetas perforadas, que se usaron para acumular y procesar automáticamente gran cantidad de datos. La primera operación de procesamiento de datos fue lograda por un estadístico que trabajaba en la oficina de censos de los EE.UU., quien desarrolló un sistema mecánico para registrar, calcular y tabular los datos extraídos del censo.

El nuevo sistema se basaba en perforaciones en una larga tira de papel que para ser leídas se colocaban en cubetas de mercurio unidas eléctricamente por conductores. En los lugares donde habían perforaciones, unas púas entraban en contacto eléctrico con los conductores, y entonces eran registrados en los contadores. Esto dió origen al sistema binario o de dos posiciones (SI hay perforación o NO hay perforación) esto permite la representación interna de los datos en un computador. 

HOLLERITH, también ideó una clasificación eléctrica y automática que operaba a razón de 300 tarjetas por minuto. Las clasificaba en forma ascendente y descendente por orden numérico o alfabético. 

Esta innovaciones aumentaron la velocidad, versatilidad y utilidad de las máquinas de tarjetas perforadas. Esto dió por resultado que se usarán cada vez más estos dispositivos para procesamiento de datos de negocios, así como computación científica y estudios estadísticos. 

Pero pese a esto, estas máquinas tienen varias limitaciones, ya que por ser electromecánicas su velocidad se veía limitada por el diseño básico y además como cada máquina se diseñaba para cumplir una función especial, la transferencia de tarjetas de una pieza de equipo a otra, para diferentes operaciones, no sólo consume tiempo, sino que incrementa la posibilidad de error.

1896 En 1896, el Dr. Hollerith formó una comapañía para desarrollar una máquina. Esta compañía se fusionó posteriormente con otras dos y se conviertió en lo que hoy se conoce como IBM. (International Business Machines.) James Powers, quien también durante su tiempo fue estadístico del Departamento de Censos, fundó posteriormente otra compañía que con el tiempo formó parte de UNIVAC, una división de Sperry Rand Corporation. IBM y UNIVAC produjeron la mayor parte del equipo elctromecánico para procesamiento de datos del que se dispone hoy en día.
1897 Karl Braun desarrolla el tubo de rayos de cátodos.
1918  Dos inventores construyeron una máquina calculadora basada en los números binarios 1 y 0.
1919 Las maquinas electromecanicas de contabilidad (MEC) Los resultados de las máquinas tabuladoras tenían que llevarse al corriente por medios manuales, hasta que en 1919 la Computing-Tabulating-Recording-Company. Anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en que las Compañías efectuaban sus operaciones. Para reflejar mejor el alcance de sus intereses comerciales, en 1924 la Compañía cambió el nombre por el de international Bussines Machines Corporation (IBM) Durante décadas, desde mediados de los cincuentas la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, dirección, etc.) el procesamiento de la tarjeta perforada se conoció también como procesamiento de registro unitario.

La familia de las máquinas electromecánicas de contabilidad (EAM) eloctromechanical accounting machine de dispositivos de tarjeta perforada comprende: la perforadora de tarjetas, el verificador, el reproductor, la perforación sumaria, el intérprete, el clasificador, el cotejador, el calculador y la máquina de contabilidad. El operador de un cuarto de máquinas en una instalación de tarjetas perforadas tenía un trabajo que demandaba mucho esfuerzo físico. Algunos cuartos de
máquinas asemejaban la actividad de una fábrica; las tarjetas perforadas y las salidas impresas se cambiaban de un dispositivo a otro en carros manuales, el ruido que producía eran tan intenso como el de una planta ensambladora de automóviles. 

1937 John Atanasoff comienza a trabajar en la primera computadora digital pero se olvida de llenar su patente, casi diez años después, la ENAC utilizaría su trabajo como base.

Atanasoff Y Berry Una antigua patente de un dispositivo que mucha gente creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor de la computadora digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Computer). Un estudiante graduado, Clifford Berry, fue una útil ayuda en la construcción de la computadora ABC. 

Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una placa con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física."

1938 William Hewlett y David Packard formaron HP en una marquesina en Palo Alto California. Konrad Zuse produce la primera computadora que utiliza código binario.
1939 Georges Stibitz y Samuel Williams construyen la Complex Number Computer, la cual se convierte en la precursora de módem como lo conocemos hoy en día.
1941 Konrad Zuse Contruyo la primera compuradora programable y resolvia ecuaciones coplejas de ingeniería, fue controlada por tarjetas perforadas, y fue la primera que operó con el sistema binario, comparado con otras decimales.
1944 En 1937 el Dr. Howard H. Aiken de la Universidad de Harvard desarrolló una máquina automática de cómputo que combinaba todas las operaciones en un solo equipo, para ello empleó varias de las ideas originales de Babbage junto con el concepto de agujeros perforados de Jacquard y Hollerith. IBM lo ayudó en el equipo y en 1944 la Calculadora de Secuencia Automática Controlada o Mark 1 estaba terminada y fue presentada a la Universidad de Harvard. La Mark 1 pesaba 5 T. y constaba de un comlpejo de 78 máquinas sumadoras y calculadoras conectads por 800 Km de cable. Las instrucciones se perforaban en cinta de papel y una vez que la máquina ejecutaba la primera instrucción no requería de la intervención humana, a partir de ese momento. La Mark 1 fue una computadora elctromecánica en la cual las operaciones se llevaban a cabo mediante de interruptores y reveladores eléctricos. Apesar de que la tecnología había avanzado, estas máquinas todavía tenían restricciones a causa de su lentitud y de dificultades en su operación mecánica. 

Después de esta máquina, se construyeron otras digitales en gran escala, como por ejemplo la llamada Mark II, también diseñada por Aiken.

1947 La primera computadora totalmente electrónica fue la E.N.I.A.C. construída en 1943; y fue terminada en 1945. E.N.I.A.C. , una computadora de Primera Generación, económica, científico-académico y funcionaba a válvulas de vacío, las que efectuaban las funciones de transferencia de control que en Mark I, realizaban los relevadores; ésto, posibilitó que las operaciones se realizaran a mayor velocidad, así podía multiplicar mil veces más rápido que la máquina de Aiken.

Esta se construyó en la Universidad de Pennsylvania, la ENIAC fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. 

Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer apuntes que describían los principios de la computadora ABC y verla en persona, el Dr. John W. Mauchly colaboró con J.Presper Eckert, Jr. para desarrollar una máquina que calculara tablas de trayectoria para el ejército estadounidense.

El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.

Era una computadora electrónica completamente operacional a gran escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer), ó Integrador numérico o y calculador electrónico. La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. 

Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo. Pesaba 30 toneladas y ocupaba un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x 12 m y con tenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con un sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9) La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba. La imponente escala y las numerosas aplicaciones generales de la ENIAC señalaron el comienzo de la primera generación de computadoras. 

El control de la computadora se realizaba mediante el alambrado de cables removibles o cinta de papel y, una vez que el procesamiento de los datos había sido iniciado, ninguna modificación podía efectuarse a pesar de que surgiera la necesidad de hacerlo. Con la EDSAC fue posible tener las instrucciones y lo datos almacenados en la unidad de amacenamiento de la computadora.

1945 En 1945, John von Neumann, que había trabajado con Eckert y Mauchly en la Universidad de Pensilvania, publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria de la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la la llamada EDVAC (Eletronic Discrete-Variable Automatic Computer, es decir computadora automática electrónica de variable discreta), desarrollada por Von Neumann, Eckert y Mauchly. 

Los programas almacenados dieron a las computadoras una flexibilidad y confiabilidad tremendas, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos. Una computadora con capacidad de programa almacenado podría ser utilizada para varias aplicaciones cargando y ejecutando el programa apropiado. 

Hasta este punto, los programas y datos podría ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras "entienden". El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las computadoras utilizando medios distintos a los números binarios. 

1949 En 1949 se construyó la E.D.S.A.C. (Computadora Automática Electrónica de Almacenamiento Diferido); con ella los transistores sustituyeron a las válvulas y entonces aparecieron las computadoras de Segunda Generación. 

Utilizando el mismo principio de almacenamiento se construyeron otras máquinas en utilizar cinta magnética como dispositivo de entrada y salida. Disponía de gran velocidad, confiabilidad, capacidad de memoria y la posibilidad de manejar igualmente números y materias descriptivas. 

1949 John Mauchly desarrolla el Shot Code, el primer lenguaje mundial de alto nivel.
1951 Conforme la tecnología avanzó en todas las áreas la investigación en el campo de las computadoras se extendió y los resultados se hicieron comercialmente más practicos en tamaño y costo. La UNIVAC 1 (Universal Automatical Computer), instalada en el Departamento de Censos de E.U.A. en 1951 fue la primera computadora que se produjo en forma comercial y contenía varias de las características de las computadoras actuales. Remington Rand comercializó esta máquina. El uso comercial de la computadora UNIVAC comenzó en 1954 y apartir de esa fecha la industria del procesamieno de datos comenzó a crecer hasta alcanzar su magnitúd actuál. La mayoría de las mejoras en las computadras, desde esa fecha, han sido en la reducción de su tamaño, hasta el punto de miniaturizar las partes o componentes lo cual produjo un incremento en la velocidad de operación. Hoy en día las computadoras se diseñan y se construyen en diversos países del mundo, entre ellos: Rusia, Japón, E.U.A., Inglaterra Alemania y China.
1952 Hasta este punto, los programas y datos podría ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras "entienden". El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las computadoras utilizando medios distintos a los números binarios. En 1952 Grace Murray Hoper una oficial de la Marina de E.U., desarrolló el primer compilador, un programa que puede traducir enunciados parecidos al inglés en un código binario comprensible para la maquina llamado COBOL (COmmon Business-Oriented Languaje). 

IBM construye su modelo 650, la primera computadora producida en masa, la compañía vendió 1500 antes de que llegaran al mercado.

1955 Naridender Kapany desarrolla la fibra óptica.
1956 IBM desarrolla el primer disco duro llamado RAMAC.
1957 Texas Instruments construye el primer circuito integrado. Bell Telephone introduce los primeros módems. Investigadores en Bell Labs inventan el láser.
1958 Utilizando el ábaco Lee Kaichen, un profesor chino, realizó cálculos mas rápido que una computadora en Seattle, New York y Taipei. 

Grace Murria Hopper y Charles Phillips inventan COBOL. 

Xerox introduce la primera copiadora comercial.

1959 Digital Equipment Corporation desarrolla la PDP-1, la primera computadora comercial equipada con teclado y monitor.
1962 El Peoples National Bank en Gouster, Virginia, instala la primera ATM del mundo, no es muy exitosa y eventualmente la retiran.

Programadores en MIT crean el primer juego de video.

1963 Douglas Engelbart construye el primer "mouse" en el Stanford Research Institute, dos décadas más tarde, la Macintosh lo convertirá en un componente estándar.
1964 Hace años atrás, las agencias encargadas de la seguridad de la Nación Americana confrontaban una preocupación muy genuina: Cómo las autoridades se comunicarían efectivamente luego de un ataque nuclear. Las comunicaciones juegan un papel importante en las seguridad de las naciones. Cualquier autoridad central sería el blanco principal de un ataque. 

En 1964 se da a conocer la primera propuesta para dicho problema. En primer lugar la red de comunicaciones sería diseñada desde sus orígenes sin ninguna autoridad central. El principio era sencillo: todos los nodos en la red tendrían igual estatus con la misma capacidad de transmitir, pasar y recibir mensajes. El mensaje por su parte sería dividido en paquetes, cada uno con la información suficiente para llegar a su destino, por lo que el viaje a tarvés de la red sería independiente. La ruta que cada paquete tomase no tendría importancia, siempre y cuando llegase a su destino. A este concepto se le conoce como packet switching networking.

1965 Digital Equipment Corporation construye la primera mini-computadora, su costo es de $18,000. El lenguaje simple de computadoras BASIC esdesarrollado, más tarde se convertirá en un lenguaje estándar para las computadoras personales.
1968 Se crea Intel.
1969 Debuta la ARPANET, precursora de la Internet. 

La primera red grande y ambiciosa basada en dicho concepto (1964) en Estados Unidos fue realizada por la Advanced Reseach Projects Agency (ARPA). Para diciembre de 1969 se encontraban ya conectadas cuatro computadoras, tres en California y una en Utah, en la red que se conoció como ARPANET. Gracias a esta red, científicos e investigadores podían intercambiar información y hacer uso de facilidades de forma remota.

Se crea la "Bubble memory", esta permite a las computadoras retener información en dicha memoria aun cuando se apagan.

1970 Se introduce el Floppy disc. 

Intel desarrolla el primer chip de memoria, la cual almacena 1024 bits de data. 

Xerox establece su Palo Alto Research Center. 

Bell Labs desarrolla Uníx.

Aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.

1971 Texas Instrument introduce la calculadora de bolsillo. 

Aparece la primera impresora dot matrix.

Rápidamente otras facilidades con recursos computacionales comenzaron a hacer uso de esta inovadora tecnología de packet-switching para interconectar sus propios sistemas y eventualmente conectarse con ARPANET. Ya se encontraban alrededor de 20 nodos en ARPANET.

1972 Atari lanza su primera máquina de juegos, Pong. 

Programadores en Bell Labs desarrollan el lenguaje C.

Ray Tomlinson inventa el correo electrónico. 

Para este segundo año de operación se había descubierto algo inesperado. La mayoría del tráfico en ARPANET no era precisamente computación a distancia sino noticias y mensajes personales. Se desarrolla para entonces lo que se conoce como mailing-lists, técnica para distribuir mensajes automáticamente a un número grande de "suscriptores". ARPANET ya había aumentado a 40 nodos.

15 de Noviembre 

El primer procesador el 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 KHz, disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.
1973 En los años 70 la red continuó creciendo. Incluyendo la primera conexión internacional (Inglaterra y Noruega - 1973). La estructura descentralizada de la red hacía fácil su expansión. El tipo de computadora que se conectara no era importante; sólo debía ser capaz de "hablar el mismo lenguaje" basado en packet-switching.

1 de Abril 

Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón al primer ordenador personal

1974 1 de Abril 

Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador. Esta computadora tenía un costo de al rededor de 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades, en lo que suponía la aparición de la primer computadora que la gente podía comprar, y no ya simplemente utilizar. La computadora contabana con un CPU 8080 como cerebro.

1975 Debuta Altair 8800, primera computadora personal mercadeada a gran escala.

También se mercadea por primera vez el Liquid cristal display. 

Bob Metcalfe de Xerox desarrolla la Ethernet. Se desarrolla el primer procesador de palabras, Electric Pencil. 

IBM introduce la impresora láser. 

Para esa misma fecha el gobierno los demanda por tener un monopolio. En el 1982 el gobierno deja el caso pero no antes de procesar 30 millones de páginas de documentación sobre el caso.

1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.

Data General revela su chip de computadora en el ombligo de una “belly dancer” en el National Computer Conference en Nueva York.

IBM desarrolla la impresora de chorros de tinta o ink jet. 

1977 Bill Gates y Paul Allen oficialmente fundan Microsoft.

Apple introduce la Apple II, la primera computadora pre-ensamblada; Apple II estara al mando del mercado de computadoras personales hasta que las IBM aparezcan en el mercado en el 1981. 

Tandy y Commodore lanzan sus computadoras con monitor integrado.

1978 Wordstar es lanzada y prontamente se convierte en el procesador de palabras más popular.

8 de Junio 

La computadora personal no pasó a ser tal hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere.

1980 dBASEII aparece en el mercado.

Había ya más de 200 nodos, en ARPANET.

Originalmente el "lenguaje" utilizado por ARPANET fue NCP (Network Control Protocol). Luego fue sustituido por un estándar más sofisticado conocido como TCP/IP. TCP (Transmission Control Protocol) es el responsable de convertir el mensaje en paquetes y luego reconstruir este en el destino. IP (Internet Protocol) es el que maneja el viaje de los paquetes a través de distintos nodos y redes dada la dirección de su destino. Dado que el software que implementaba los protocolos de TCP/IP en las computadoras era de fácil acceso -y sobre todo gratis- unido a la descentralización de la red, no impedía que más y más computadoras se conectasen.

1981 IBM introduce la IBM PC con MS-DOS como sistema operativo.
1982 Dr. Barney Clark recibe el primer corazón artificial, un microprocesador controla sus funciones. Se introducen los discos compactos. 

Se propociona el primer clon de IBM. Time Magazine nombra la computadora como "man of the year". 

Apple introduce Lisa, la primera computadora con interfase gráfica y con un “mouse” con un costo de $9,995

1 de Febrero En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, basta mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de ordenadores en todo el mundo
1983 En 1983 ARPANET separa su parte militar en lo que se conoce como MILNET. Otras grandes redes se organizan en los 80's tales como BITNET (Because it's Time Network), CSNET (Computer Science Network), NSFNET (National Science Fundation Network), así como agencias gubernamentales tales como NASA, The National Institute of Health y The Department of Energy.
1984 Debuta el CD-rom. 

Apple lanza la Macintosh. 

También se introducen al mercado los módems 2,400kb/s. 

El novelista William Gibson utiliza el termino cyberspace.

1985 America Online es fundada. 

Microsoft desarrolla Windows 1.0 para la IBM. 

Bill Gates y John Sculley CEO de Apple, firma un arreglo confidencial concediéndole a Microsoft el derecho de utilizar la interfase gráfica de Apple en sus programas. 

Nintendo llega a los Estados Unidos.

17 de Octubre

El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía mayor velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico. 

1986 Microsoft se vuelve público. 

El National Science Fundation aprueba los fondos para el Internet backbone.

Para finales de 1986 más de 5,000 nodos se encontraban conectados. En 1989 NSFNET remplaza su backbone de 56Kbps por líneas T1 de 1,544Mbps. La atención de NSF, así como su gran contribución en el establecimiento de la infraestructura en las comunicaciones, hizo que se le considerara el "backbone del Internet". Para este momento más de 100,000 nodos estaban conectados.

Por razones de organización se establece un sistemas de "dominios" para distinguir a que grupo o localización pertenece cada nodo. Computadoras internacionales fueron nombradas por su localización geográfica (.us, .uk, .au, .pr, etc.). Las demás fueron agrupadas en seis distintos dominios (.edu, .gov, .mil, .com, .org y .net). Los dominios .edu, .gov y .mil pertenecen a instituciones educativas, gubernamentales y militares respectivamente. Estas fueron las pioneras en ARPANET. Por otra parte el dominio .com pertenece a instituciones comerciales, .org a organizaciones sin fines de lucro y .net a redes que sirven de enlace o apoyo a otras redes.

1988 Microsoft lanza Windows 2.03, muy parecido a la interfase de la Macintosh y Apple les demanda; seis años y diez millones después la corte falla a favor de Microsoft.

16 de Junio 

En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador. 

1989 Tim Berners-Lee inventa el World Wide Web. 

Xerox demanda a Apple por robar la interfase gráfica utilizada con Lisa y Macintosh; después de vender alrededor de 60,000 Lisas, Apple descontinuó el modelo y enterró en un vertedero de Utha las computadoras restantes. 

El HDTV hace su aparición en Japón.

10 de Abril 

El 10 de abril de 1989 aparece el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el mill&

Publicado por arslupin @ 14:59
Comentarios (0)  | Enviar
Comentarios