HISTORIA DE LA INFORMATICA
DEFINICIÓN DE INFORMÁTICA
A la ciencia que estudia los sistemas inteligentes se información se le denomina informática. En otras palabras, la informática es la ciencia enfocada al estudio de las necesidades de información, de los mecanismos y sistemas requeridos para producirla y aplicarla, de la existencia de insumos y de la integración coherente de los diversos elementos informativos que se necesitan para comprender una situación.
GENERACIONES Y TECNOLOGÍAS
El avance de la tecnología de las computadoras, a partir de los primeros años del siglo XX ha sido sorprendente. El descubrimiento de los nuevos dispositivos electrónicos, los grandes avances de la programación y el acelerado desarrollo de los nuevos sistemas operativos, han marcado fechas que permiten clasificar a las computadoras de acuerdo a sus componente y a su capacidad de procesamiento, agrupándolas por generaciones.
Primera generación
Las computadoras de esta generación se caracterizaron por estar constituidas de relevadores (relés) electromecánicos. Eran de un tamaño tan grande que ocupaban espaciosos salones en las universidades donde fueron desarrolladas.
Su capacidad de almacenamiento en la memoria era muy reducida, que almacenaba 1kB. La cantidad de condensadores, resistencias y válvulas de vació propiciaba un consumo excesivo de energía eléctrica, por lo que se calentaban demasiado.
Segunda generación
En la segunda generación de computadoras la característica principal en cuanto a los equipos (hardware) es la inclusión de transistores. Respecto a la programación o software, siguen dominando los sistemas de tarjeta o cinta perforada para la entrada de datos.
Tercera generación
Lo siguiente fue la integración a gran escala de transistores en microcircuitos llamados procesadores o circuitos integrados monolíticos LSI (Large Scale Integration), así como la proliferación de lenguajes de alto nivel y la introducción de sistemas operativos (comunicación entre el usuario y la computadora).
Se empieza a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.
Cuarta generación
Una fecha en la cual de manera inobjetable todos están de acuerdo, e el final de la tercera generación marcado claramente por la aparición del primer microprocesador. En 1971, Intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bit, que en un espacio de aproximadamente 4 x 5 mm contenía 2250 transistores. Este primer microprocesador fue bautizado como el 4004.
Quinta generación
Hay quienes consideran que la cuarta y quinta generaciones han terminado , y las ubican entre los años 1971-1984 la cuarta y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
El almacenamiento de información de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de vídeo y sonido.
Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Scale Integration) y ULSI (Ultra Large Scale Integration).
Sexta generaciòn
Supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventa. Esta generación cuenta con arquitecturas combinadas Paralelo/Vectorial, con ciento s de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes.