lunes, 12 de noviembre de 2018
sábado, 10 de noviembre de 2018
COMICS SOBRE LA DEPENDENCIA EN LA EDUCACION
El cómic fue desarrollado en la plataforma PIXTON. El comic creado lo podemos observar en el siguiente enlace.
Una muestra de la tira cómica creada.
LINEA DE TIEMPO DE LA COMPUTADORA
2700 a. C.: se utiliza el ábaco
en antiguas civilizaciones como la china o la sumeria, la primera herramienta
para realizar sumas y restas.
Hacia 830: el matemático e
ingeniero persa Musa al-Juarismi inventó el algoritmo, es decir, la resolución
metódica de problemas de álgebra y cálculo numérico mediante una lista bien
definida, ordenada y finita de operaciones.
XVII: italiano Tito Livio
Burattini creado una máquina calculadora, que donó al Gran Duque Fernando II de
Médici; la calculadora está formada por una máquina de Blaise Pascal y un ábaco
neperiano.
1614: el escocés John Napier
inventa el logaritmo neperiano, que consiguió simplificar el cálculo de
multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
1620: el inglés Edmund Gunter
inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta
la aparición de la calculadora electrónica para hacer operaciones aritméticas.
1623: el alemán Wilhelm Schickard
inventa la primera máquina de calcular, cuyo prototipo desapareció poco
después.
1642: el científico y filósofo
francés Blaise Pascal inventa una máquina de sumar (la pascalina), que
utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares
originales.
1671: el filósofo y matemático
alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y
dividir.
1801: el francés Joseph Jacquard
inventa para su máquina de tejer brocados una tarjeta perforada que controla el
patrón de funcionamiento de la máquina, una idea que sería empleada más
adelante por los primeros ordenadores.
1833: el matemático e inventor
británico Charles Babbage diseña e intenta construir la primera computadora, de
funcionamiento mecánico, a la que llamó la "máquina analítica". Sin
embargo, la tecnología de su época no estaba lo suficientemente avanzada para
hacer realidad su idea.
1890: el norteamericano Herman
Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de
Babbage, que se utilizó para elaborar el censo de Estados Unidos. Hollerith fundó
posteriormente la compañía que después se convertiría en IBM.
1893: el científico suizo Otto
Steiger desarrolla la primera calculadora automática que se fabricó y empleó a
escala industrial, conocida como la Millonaria.
1936: el matemático y computólogo
inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing,
que serían claves en el desarrollo de la computación moderna.
1938: El ingeniero alemán Konrad
Zuse completa la Z1, la primera computadora que se puede considerar como tal. De
funcionamiento electromecánico y utilizando relés, era programable (mediante
cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían
los modelos mejorados Z2, Z3 y Z4.
1944: En Estados Unidos la
empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada
por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada
en Estados Unidos.
1944: En Inglaterra se construyen
los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo
de descifrar las comunicaciones de los alemanes durante la Segunda Guerra
Mundial.
1947: En la Universidad de
Pensilvania se construye la ENIAC (Electronic Numerical Integrator And
Calculator), que funcionaba a válvulas y fue la primera computadora electrónica
de propósito general.
1947: en los Laboratorios Bell,
John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
1951: comienza a operar la EDVAC,
concebida por John von Neumann, que a diferencia de la ENIAC no era decimal,
sino binaria, y tuvo el primer programa diseñado para ser almacenado.
1953: IBM fabrica su primera
computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje
ensamblador para la programación de las computadoras. Los ordenadores con
transistores reemplazan a los de válvulas, marcando el comienzo de la segunda generación
de computadoras.
1957: Jack S. Kilby construye el
primer circuito integrado.
1964: La aparición del IBM 360
marca el comienzo de la tercera generación de computadoras, en la que las
placas de circuito impreso con múltiples componentes elementales pasan a ser
reemplazadas con placas de circuitos integrados.
1971: Nicolette Instruments Corp.
lanza al mercado la Nicolette 1080, una computadora de uso científico basada en
registros de 20 bits, cuya versatilidad para el cálculo de la Transformada Rápida
de Fourier le brinda gran aceptación en el campo de la Resonancia magnética
nuclear.
1971: Intel presenta el primer
procesador comercial, el primer chip: el microprocesador Intel 4004.
1975: Bill Gates y Paul Allen fundan Microsoft.
1976: Steve Jobs, Steve Wozniak, Mike Markkula
fundan Apple.
1977: Apple presenta el primer
computador personal que se vende a gran escala, el Apple II, desarrollado por
Steve Jobs y Steve Wozniak.
1981: se lanza al mercado el IBM
PC, que se convertiría en un éxito comercial, marcaría una revolución en el
campo de la computación personal y definiría nuevos estándares.
1982: Microsoft presenta su
sistema operativo MS-DOS, por encargo de IBM.
1983: ARPANET se separa de la red
militar que la originó, pasando a un uso civil y convirtiéndose así en el
origen de Internet.
1983: Richard Stallman anuncia
públicamente el proyecto GNU.
1985: Microsoft presenta el
sistema operativo Windows 1.0.
1990: Tim Berners-Lee idea el
hipertexto para crear el World Wide Web (www), una nueva manera de interactuar
con Internet.
1991: Linus Torvalds comenzó a
desarrollar Linux, un sistema operativo compatible con Unix.
2000: aparecen a comienzos del
siglo XXI los ordenadores de bolsillo, primeras PDAs
2007: Presentación del primer
iPhone, por la empresa Apple, un teléfono inteligente o smartphone.
https://es.wikipedia.org/wiki/Computadora
LA COMPUTADORA
Una computadora es un dispositivo
informático que es capaz de recibir, almacenar y procesar información de una
forma útil. Una computadora está programada para realizar operaciones lógicas o
aritméticas de forma automática.
Esta palabra se utiliza en la
mayoría de países de Hispanoamérica, aunque en Chile y en Colombia es más común
en masculino ('computador'). En España se usa más el término 'ordenador' (del
francés ordinateur). 'Computadora' procede del inglés computer y a su vez de
latín computare ('calcular').
Partes de una computadora:
Los elementos básicos de una
computadora son la memoria (RAM y ROM), la tarjeta madre, el procesador,
microprocesador o CPU (siglas en inglés para el concepto de 'unidad central de
procesamiento', compuesta a su vez por la unidad de control y la unidad
aritmético lógica) y los dispositivos de entrada y salida. Estos dispositivos
auxiliares o periféricos son variados. Algunos de ellos son: el disco duro, el
monitor, el ratón, el teclado, la impresora o los altavoces.
Historia de la computadora:
La computadora tiene su origen en
dispositivos que permiten realizar cálculos de forma mecánica como el ábaco y
la pascalina. Charles Babbage inventa en 1882
la llamada 'máquina diferencial' y posteriormente diseña la 'máquina analítica'
cuyos elementos como la memoria, el flujo de entrada y el procesador influyeron
en posteriores computadoras más avanzadas. La MARK I, basada en dispositivos
electromagnéticos, supuso también un hito en este campo.
Durante la segunda mitad del
siglo XX se produjeron grandes avances en el desarrollo de las computadoras llegando
a un público masivo y con la capacidad de realizar múltiples operaciones.
Computadora de escritorio:
Una computadora de escritorio es
un tipo de computadora personal que por sus dimensiones y características se
utiliza en una ubicación fija, habitualmente sobre una mesa de trabajo (para
uso doméstico o laboral). Este término se utiliza especialmente en
Hispanoamérica y en España se conoce en ocasiones como 'ordenador de
sobremesa'. Procede del inglés desktop que se podría traducir como 'encima o
sobre el escritorio'. Se diferencia así del término 'laptop' o computadora
portátil.
Computadora cuántica:
Una computadora cuántica es un
sistema de circuitos cuánticos que es capaz de realizar cálculos complejos y
que actúa en un espacio de estados. Se basa en una secuencia de
transformaciones unitarias (o compuertas cuánticas) y una medición. Utiliza el
qubit (bit cuántico) como unidad de información cuántica. Este tipo de
computadoras puede realizar cálculos de forma rápida en comparación con los
computadores habituales.
Computadora personal:
Una computadora personal es una
microcomputadora que permite ser utilizada por un único usuario de forma
simultánea (o varios, dependiendo del sistema operativo). Este concepto procede
del ingés personal computer (PC). De forma habitual, se suele hablar de
'computadora personal' o PC para referirse a los ordenadores comercializados a
nivel usuario y que funcionan con un sistema operativo Windows de Microsoft.
Suscribirse a:
Entradas (Atom)