2700 a. C.: se utiliza el ábaco
en antiguas civilizaciones como la china o la sumeria, la primera herramienta
para realizar sumas y restas.
Hacia 830: el matemático e
ingeniero persa Musa al-Juarismi inventó el algoritmo, es decir, la resolución
metódica de problemas de álgebra y cálculo numérico mediante una lista bien
definida, ordenada y finita de operaciones.
XVII: italiano Tito Livio
Burattini creado una máquina calculadora, que donó al Gran Duque Fernando II de
Médici; la calculadora está formada por una máquina de Blaise Pascal y un ábaco
neperiano.
1614: el escocés John Napier
inventa el logaritmo neperiano, que consiguió simplificar el cálculo de
multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
1620: el inglés Edmund Gunter
inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta
la aparición de la calculadora electrónica para hacer operaciones aritméticas.
1623: el alemán Wilhelm Schickard
inventa la primera máquina de calcular, cuyo prototipo desapareció poco
después.
1642: el científico y filósofo
francés Blaise Pascal inventa una máquina de sumar (la pascalina), que
utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares
originales.
1671: el filósofo y matemático
alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y
dividir.
1801: el francés Joseph Jacquard
inventa para su máquina de tejer brocados una tarjeta perforada que controla el
patrón de funcionamiento de la máquina, una idea que sería empleada más
adelante por los primeros ordenadores.
1833: el matemático e inventor
británico Charles Babbage diseña e intenta construir la primera computadora, de
funcionamiento mecánico, a la que llamó la "máquina analítica". Sin
embargo, la tecnología de su época no estaba lo suficientemente avanzada para
hacer realidad su idea.
1890: el norteamericano Herman
Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de
Babbage, que se utilizó para elaborar el censo de Estados Unidos. Hollerith fundó
posteriormente la compañía que después se convertiría en IBM.
1893: el científico suizo Otto
Steiger desarrolla la primera calculadora automática que se fabricó y empleó a
escala industrial, conocida como la Millonaria.
1936: el matemático y computólogo
inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing,
que serían claves en el desarrollo de la computación moderna.
1938: El ingeniero alemán Konrad
Zuse completa la Z1, la primera computadora que se puede considerar como tal. De
funcionamiento electromecánico y utilizando relés, era programable (mediante
cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían
los modelos mejorados Z2, Z3 y Z4.
1944: En Estados Unidos la
empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada
por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada
en Estados Unidos.
1944: En Inglaterra se construyen
los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo
de descifrar las comunicaciones de los alemanes durante la Segunda Guerra
Mundial.
1947: En la Universidad de
Pensilvania se construye la ENIAC (Electronic Numerical Integrator And
Calculator), que funcionaba a válvulas y fue la primera computadora electrónica
de propósito general.
1947: en los Laboratorios Bell,
John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
1951: comienza a operar la EDVAC,
concebida por John von Neumann, que a diferencia de la ENIAC no era decimal,
sino binaria, y tuvo el primer programa diseñado para ser almacenado.
1953: IBM fabrica su primera
computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje
ensamblador para la programación de las computadoras. Los ordenadores con
transistores reemplazan a los de válvulas, marcando el comienzo de la segunda generación
de computadoras.
1957: Jack S. Kilby construye el
primer circuito integrado.
1964: La aparición del IBM 360
marca el comienzo de la tercera generación de computadoras, en la que las
placas de circuito impreso con múltiples componentes elementales pasan a ser
reemplazadas con placas de circuitos integrados.
1971: Nicolette Instruments Corp.
lanza al mercado la Nicolette 1080, una computadora de uso científico basada en
registros de 20 bits, cuya versatilidad para el cálculo de la Transformada Rápida
de Fourier le brinda gran aceptación en el campo de la Resonancia magnética
nuclear.
1971: Intel presenta el primer
procesador comercial, el primer chip: el microprocesador Intel 4004.
1975: Bill Gates y Paul Allen fundan Microsoft.
1976: Steve Jobs, Steve Wozniak, Mike Markkula
fundan Apple.
1977: Apple presenta el primer
computador personal que se vende a gran escala, el Apple II, desarrollado por
Steve Jobs y Steve Wozniak.
1981: se lanza al mercado el IBM
PC, que se convertiría en un éxito comercial, marcaría una revolución en el
campo de la computación personal y definiría nuevos estándares.
1982: Microsoft presenta su
sistema operativo MS-DOS, por encargo de IBM.
1983: ARPANET se separa de la red
militar que la originó, pasando a un uso civil y convirtiéndose así en el
origen de Internet.
1983: Richard Stallman anuncia
públicamente el proyecto GNU.
1985: Microsoft presenta el
sistema operativo Windows 1.0.
1990: Tim Berners-Lee idea el
hipertexto para crear el World Wide Web (www), una nueva manera de interactuar
con Internet.
1991: Linus Torvalds comenzó a
desarrollar Linux, un sistema operativo compatible con Unix.
2000: aparecen a comienzos del
siglo XXI los ordenadores de bolsillo, primeras PDAs
2007: Presentación del primer
iPhone, por la empresa Apple, un teléfono inteligente o smartphone.
https://es.wikipedia.org/wiki/Computadora
No hay comentarios.:
Publicar un comentario