clase 1
Historia de la computadora


La historia de la computadora es el recuento de los eventos, innovaciones y desarrollos tecnológicos del campo de la informática y la automatización, que dieron origen a las máquinas que conocemos como computadoras, computadores u ordenadores. Registra además su mejoramiento y actualización hasta alcanzar las versiones miniaturizadas y veloces del siglo XXI.















Las computadoras, como todos sabemos, son las máquinas de cálculo más avanzadas y eficientes inventadas por el ser humano. Están dotadas del suficiente poder de operaciones, la suficiente autonomía y velocidad como para reemplazarlo en muchas tareas, o permitirle dinámicas de trabajo virtuales y digitales que nunca antes en la historia habían sido posibles.


La invención de este tipo de aparatos en el siglo XX revolucionó para siempre la manera en que entendemos los procesos industriales, el trabajo, la sociedad y un sinfín de otras áreas de nuestra vida. Afecta desde el modo mismo de relacionarnos, hasta el tipo de operaciones de intercambio de información a escala mundial que somos capaces de realizar.
Antecedentes de la computadora


La historia de la computadora tiene largos antecedentes, que se remontan a las primeras reglas de cálculo y a las primeras máquinas diseñadas para facilitarle al ser humano la tarea de la aritmética. El ábaco, por ejemplo, fue un importante adelanto en la materia, creado alrededor de 4.000 a. C.


También hubo inventos muy posteriores, como la máquina de Blaise Pascal, conocida como Máquina de Pascal o Pascalina, creada en 1642. Consistía en una serie de engranajes que permitían realizar operaciones aritméticas. Esta máquina fue mejorada por Gottfried Leibinitz en 1671 y se dio inicio a la historia de las calculadoras.


Los intentos del ser humano por automatizar continuaron desde entonces: Joseph Marie Jacquard inventó en 1802 un sistema de tarjetas perforadas para intentar automatizar sus telares, y en 1822 el inglés Charles Babbage empleó dichas tarjetas para crear una máquina de cálculo diferencial.


Solamente doce años después (1834), logró innovar su máquina y obtener una máquina analítica capaz de las cuatro operaciones aritméticas y de almacenar números en una memoria (hasta 1.000 números de 50 dígitos). Por este motivo, a Babbage se le considera el padre de la computación, ya que esta máquina representa un salto hacia el mundo de la informática como lo conocemos.
Invención de la computadora


La invención de la computadora no puede atribuirse a una sola persona. Se considera a Babbage como el padre de la rama de saberes que luego será la computación, pero no será sino hasta mucho más adelante que se hará la primera computadora como tal.


Otro importante fundador en este proceso fue Alan Turing, creador de una máquina capaz de calcular cualquier cosa, y que llamó “máquina universal” o “máquina de Turing”. Las ideas que sirvieron para construirla fueron las mismas que luego dieron nacimiento al primer computador.


Otro importante caso fue el de ENIAC (Electronic Numeral Integrator and Calculator, o sea, Integrador y Calculador Electrónico Numeral), creado por dos profesores de la universidad de Pensilvania en 1943, considerado el abuelo de los computadores propiamente dicho. Consistía en 18.000 tubos al vacío que llenaban un cuarto entero.
Invención de los transistores


La historia de los computadores no habría tenido el curso que tuvo sin la invención en 1947 de los transistores, fruto de los esfuerzos de los laboratorios Bell en Estados Unidos. Estos aparatos son interruptores eléctricos fabricados con materiales sólidos y sin necesidad del vacío.


Este descubrimiento fue fundamental para la fabricación de los primeros microchips, y permitieron el paso de los aparatos eléctricos a los electrónicos. Los primeros circuitos integrados (o sea, chips) aparecieron en 1958, fruto de los esfuerzos de Jack Kilby y Robert Noyce. El primero recibió el Premio Nobel de Física en 2000 por el hallazgo.
El primer computador




Z3 fue la primera computadora electrónica alemana.




Los primeros computadores surgieron como máquinas de cálculo lógico, debido a las necesidades de los aliados durante la Segunda Guerra Mundial. Para decodificar las transmisiones de los bandos en guerra debían hacerse cálculos rápido y constantemente.


Por eso, la Universidad de Harvard diseñó en 1944 la primera computadora electromecánica, con ayuda de IBM, bautizada Mark I. Ocupaba unos 15 metros de largo y 2,5 de alto, envuelta en una caja de vidrio y acero inoxidable. Contaba con 760.000 piezas, 800 kilómetros de cables y 420 interruptores de control. Prestó servicios durante 16 años.


Al mismo tiempo, en Alemania, se había desarrollado la Z1 y Z2, modelos de prueba de computadores similares construidos por Konrad Zuse, quien completó su modelo Z3 totalmente operacional, basado en el sistema binario. Era más pequeño y de más barata construcción que su competidor estadounidense.
La primera computadora de uso comercial


En febrero de 1951 apareció la Ferranti Mark 1, una versión moderna de la computadora norteamericana del mismo nombre que estaba disponible comercialmente. Fue sumamente importante en la historia del computador, pues contaba con un índice de registros, que permitía la lectura más fácil de un conjunto de palabras en la memoria.


Por esa razón surgieron hasta treinta y cuatro patentes distintas de su desarrollo. En los años posteriores sirvió de base para la construcción de las computadoras IBM, muy exitosas industrial y comercialmente.
El primer lenguaje de programación


En 1953 apareció FORTRAN, acrónimo de The IBM Mathematical Formula Translation (“Traducción de fórmulas matemáticas de IBM”), desarrollado como el primer lenguaje formal de programación, o sea, el primer programa diseñado para fabricar programas computacionales, por los programadores de IBM, liderados por John Backus.


Inicialmente se desarrolló para el computador IBM 704, y para una variada gama de aplicaciones científicas y de ingeniería, razón por la cual tuvo una amplia serie de versiones a lo largo de medio siglo de implementación. Es todavía uno de los dos lenguajes de programación más populares, especialmente para los supercomputadores del mundo.
La primera computadora moderna




Engelbart inventó el ratón (mouse) y la interfaz gráfica de usuario.




La primera computadora moderna apareció en otoño de 1968, como un prototipo presentado por Douglas Engelbart. Tenía por primera vez un ratón o puntero, y una interfaz gráfica de usuario (GUI), cambiando para siempre el modo en que los usuarios y los sistemas computarizados interactuarían en adelante.


La presentación del prototipo de Engelbart duró 90 minutos e incluyó una conexión en pantalla con su centro de investigación, constituyendo así la primera videoconferencia de la historia. Los modelos de Apple y luego de Windows fueron versiones posteriores de este primer prototipo.
Dispositivos de almacenamiento secundario


El primer dispositivo de intercambio de información entre un computador y otro fueron los disquetes Floppy, creados en 1971 por IBM. Se trataba de cuadrados negros de plástico flexible, en el medio de los cuales había un material magnetizable que permitía grabar y recuperar información. Hubo varios tipos de disquetes:
8 pulgadas. Los primeros en aparecer, voluminosos y con capacidad entre 79 y 512 kbytes.
5 ¼ pulgadas. Semejantes a los de 8 pulgadas pero más pequeños, almacenaban entre 89 y 360 kbytes.
3 ½ pulgadas. Introducidos en la década de los 80, eran rígidos, de colores y mucho más pequeños, con una capacidad de entre 720 y 1440 kbytes.


También hubo versiones de alta y baja densidad, y numerosas variantes de casetes. A finales de los 80, la aparición y masificación del disco compacto (CD) reemplazó totalmente el formato, aumentando la velocidad y capacidad de recuperación de datos.


Finalmente, en el cambio de siglo, todos estos formados de dispositivo se hicieron obsoletos y fueron reemplazados por el pendrive o memoria flash removible, de capacidad variada (pero muy superior), alta velocidad y portatilidad extrema.
Las primeras redes informáticas


La primera red de computadores del mundo fue ARPANET, creada en 1968 por el Departamento de Defensa de los Estados Unidos. Sirvió de plataforma rápida de intercambio de información entre instituciones educativas y estatales, con fines probablemente militares.


Esta red se desarrolló, actualizó y eventualmente se convirtió en la columna vertebral de Internet, abierta ya al público en general, al menos hasta 1990.
Computadoras del siglo XXI


Las computadoras hoy son parte de la vida cotidiana, a punto tal que para muchos es inconcebible ya un mundo sin ellas. Se las encuentra en nuestras oficinas, en nuestros teléfonos celulares, en diversos electrodomésticos, a cargo de instalaciones automatizadas, y desempeñando un sinfín de operaciones de manera automática e independiente.





















PRIMERA GENERACIÓN (1951 A 1958)










Las computadoras de la primera Generación emplearon bulbos para procesar información.










La programación se realizaba a través del lenguaje de máquina. Las memorias estaban construidas con finos tubos de mercurio líquido y tambores magnéticos. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas.


























Estos computadores utilizaban la válvula de vacío. Por lo que eran equipos sumamente grandes, pesados y generaban mucho calor.


























La Primera Generación se inicia con la instalación comercial del UNIVAC construida por Eckert y Mauchly. El procesador de la UNIVAC pesaba 30 toneladas y requería el espacio completo de un salón de 20 por 40 pies.


























SEGUNDA GENERACIÓN (1959-1964)










El Transistor Compatibilidad Limitada sustituye la válvula de vacío utilizada en la primera generación. Los computadores de la segunda generación erán más rápidas, más pequeñas y con menores necesidades de ventilación. Estas computadoras también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.


























Los programas de computadoras también mejoraron. COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.


























TERCERA GENERACIÓN (1964-1971)










Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora


























Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.


























Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.


























La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).


























CUARTA GENERACIÓN (1971 A 1981)










Microprocesador, Chips de memoria, Microminiaturización


























Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesadory de chips hizo posible la creación de las computadoras personales (PC)


























En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductoresubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.


























Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producciónde silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.


























Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuraso arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.


























Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).


























QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)










































Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.


























Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.


























Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.


























Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.


























El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.


























También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.


























Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.


























El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital VideoDisk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).


























Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.


























El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.


























El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.


























SEXTA GENERACIÓN (1990 HASTA LA FECHA)










































Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventa, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.

Comentarios

Entradas populares de este blog

¿Qué diferencia hay entre una aplicación y un programa?

MANTENIMIENTO PREVENTIVO DEL HADWARE II