La era electrónica de la tecnología de la información comprende el periodo entre los planes de las primeras computadoras digitales electrónicas, en 1940, y el presente.
El ingeniero Presper Eckert y el físico John Mauchly diseñaron ENIAC, la primera computadora digital, a principios de la década de los 40. ENIAC (Integrador y computadora numérica electrónica) fue terminada en 1946, era Turing completa, tuvo un costo de medio millón de dólares (a cargo del ejército de los Estados Unidos), contenía alrededor de 17500 válvulas de vacío y pesaba casi 30 toneladas. Su velocidad de cálculo era mil veces mejor que las máquinas análogas anteriores. ENIAC funcionaría hasta 1953 pero fue la única computadora de su tipo, ya que no podía almacenar programas y aún utilizaba tarjetas perforadas IBM. Cabe mencionar que la entrada de datos, millones de tarjetas, corrió a cargo de un equipo de seis mujeres universitarias que se mantuvo en secreto durante años, siendo ellas mismas calculadoras humanas. La detección y corrección de errores requería que se introdujeran físicamente dentro de la máquina y detectaran las válvulas defectuosas. Estas “operadoras”, como se les llamaba, llegaron a diagnosticar y entender mejor el funcionamiento de la computadora mejor que los mismos ingenieros.
La primera computadora de uso general con la capacidad de almacenar sus programas fue EDVAC (Computadora electrónica de variables discretas), también diseñada por Eckert y Mauchly, junto con el matemático John von Neumann. Su lector-grabador era cinta magnética, requería de mantenimiento continuo, pesaba alrededor de 8 toneladas y funcionó hasta 1961. Tanto ENIAC como EDVAC fueron ampliamente utilizadas para realizar cálculos de balística y otras operaciones de interés al sector militar, como el desarrollo de la bomba de hidrógeno. A finales de la década de los 40 se desarrollaron otras computadoras digitales en Inglaterra: Manchester Mark I (que la prensa llamó “el cerebro electrónico”) y EDSAC. Sus sucesoras fueron las primeras computadoras comerciales que se vendieron en los 50: la UNIVAC I (Computadora automática universal) y la Manchester Ferranti. Aunque sólo se comercializaron unas seis docenas, pues eran demasiado caras hasta para las universidades.
Se habla de cuatro generaciones de computadoras digitales, desde ENIAC hasta el presente:
- La primera generación (1946-1958): Válvulas de vacío son sus elementos lógicos principales; tarjetas perforadas eran el método común de almacenar datos y programas.
- La segunda generación (1959-1963): Las válvulas o tubos de vacío fueron reemplazados por transistores; se comenzaron a usar semiconductores; discos y cintas magnéticas reemplazaron las tarjetas IBM; se introdujeron lenguajes avanzados de programación, como COBOL.
- La tercera generación (1964-1979): Los transistores fueron sustituidos por circuitos integrados y se comenzó a usar memoria de semiconductor de metal óxido en silicón.
- La cuarta generación (1979-presente): Se desarrollaron sistemas de circuitos integrados a muy gran escala (VSLI) y microprocesadores que contienen la memoria, los sistemas lógicos y los circuitos de control en un solo chip: el CPU o unidad central de procesamiento.
La invención del CPU, a manos de Ted Hoff y Federico Faggin, hizo posible la introducción de la PC (computadora personal) en los hogares, como la popular Apple II, que en 1977 incluía 16 kilobytes de memoria, cien mil veces menos que las computadoras actuales. También en los 70s, se dio un paso enorme en la historia de la tecnología de la información: la creación del protocolo y las tecnologías de Ethernet, es decir, la interconectividad informática. En 1973, Robert Metcalfe y David Boggs inventaron tanto la palabra Ethernet como el sistema para conectar dos computadoras mediante cable coaxial. El Ethernet hizo posible la existencia del internet y, aunque ha evolucionado para dar cabida a mayores anchos de banda, muchas de sus variantes originales todavía son de uso común.
Otros eventos importantes: Después de varios años de haber sido presentada, la familia de protocolos de Internet fue aplicada por primera vez en la ARPANET (red operada por el Departamento de Defensa de EEUU) en 1982. Pero este Internet era tan sólo un grupo de protocolos técnicos para la interconectividad TCP/IP, sin contenido alguno. En marzo de 1989, Tim Berners-Lee, físico inglés que entonces trabajaba en el CERN, escribió su célebre propuesta para la administración de la información, que explica el sistema de hipertexto global que conduciría al desarrollo de la WWW o la red informática mundial que es el internet moderno.
Desde el inicio de esta era, la evolución de los interfaces ha sido evidente. Al principio, las operadoras realizaban cálculos parciales ellas mismas, perforaban tarjetas y su trabajo les exigía que se introdujeran a la máquina para realizar reparaciones o “debugging”. Más tarde, los ingenieros controlaban la computadora mediante una multitud de paneles rebosantes de perillas y palancas. La aparición de las computadoras personales hizo necesario dominar el uso del teclado y el ratón. Por fin, los jóvenes de hoy se desenvuelven con más naturalidad con el toque directo de la pantalla. La siguiente generación, de la que ya se ven los primeros rastros, permitirá la entrada de datos sin ningún contacto, en todos los niveles. Pero ese es el tema de la siguiente, y última, entrega de esta serie: las tendencias actuales que nos permiten ver el futuro de la tecnología de la información.
Autor: IIEH
Fuentes:
Una historia de la tecnología de la información y los sistemas