El recorrido que ha tenido la informática, desde que se descubrió la primera máquina hasta nuestros días ha sido muy rápido y sus avances han dado, sin duda, un cambio vertiginoso en nuestras vidas. A continuación repasamos los orígenes de dicho recorrido.
Todo comenzó con la llegada del ábaco, considerado como el primer dispositivo capaz de efectuar operaciones como son la suma, resta, multiplicación y división. Este instrumento de cálculo estaba formado por unas bolitas atravesadas en varillas. El origen del ábaco tiene muchas variantes pero todo apunta a que fue en China donde tuvo sus primeros comienzos . El siguiente descubrimiento importante fue el logaritmo, definido entre 1614 y 1617 por John Napier, matemático escocés. Llamó al logaritmo números artificiales. Pocos años después, en el 1620, la regla de cálculo se convirtió en un nuevo instrumento que efectuaba multiplicaciones, divisiones y potencias, en base a las propiedades de los logaritmos. Sobre el 1624 se hace famoso Wilhelm Schickard, matemático alemán, por haber construido la primera calculadora automática. Una reconstrucción de ella se encuentra en el museo de la ciencia de Munich.

Una segunda calculadora mecánica fue creada en 1639 por el francés Blaise Pascal, a la que denominó Pascalina y curiosamente fue creada para ayudar a su padre en su trabajo, siendo éste un alto funcionario de las finanzas nacionales. La Pascalina sólo podía efectuar sumas y restas. El cálculo diferencial y el cálculo infinitesimal, dos descubrimientos llevados acabo por el alemán Leibniz entre el 1673 y el 1676, poco después se le atribuye a él la utilización del término función.
A continuación las tarjetas perforadas, fueron el primer medio para almacenar las instrucciones en una computadora. Eran una especie de cartulinas agujereadas, representado así la información en código binario. Fueron creadas por Joseph Marie Jacquard, para la fabricación de telares de seda y posteriormente fueron utilizadas en informática.
En 1821, apareció por primera vez en la mente de Charles Babbage la idea de ordenador con su presentación de máquina diferencial. Este aparato fue diseñado para la evaluación de funciones polinómicas, sustituyendo las funciones de multiplicación y división por otras más simples, funciones sumatorias.

Este instrumento era muy pesado (aproximadamente 15 toneladas) y aunque económicamente tuvo apoyo del gobierno no pudo ser terminada. Más tarde presentó una segunda versión, la máquina analítica, que tampoco llegó a ser terminada. Ésta era más ligera y más sencilla, pero sin perder funcionalidad. El diseño de esta máquina analítica tenía lo esencial para poder ser calificado como el primer ordenador: dispositivos de entrada, dispositivos de salida, procesador aritmético, una unidad de control que decidía la operación a realizar y una memoria donde almacenaba los resultados.
Cuando hablamos de George Boole llega rápidamente a nuestra mente el concepto de álgebra de Boole, base de las ciencias de la computación. En 1854, publicó un estudio sobre las teorías matemáticas de la lógica y probabilidad.
No podemos olvidar a Herman Hollerith (1860-1929). Podemos definirlo como el primer informático de la historia. Logró automatizar el tratamiento de la información . Este señor trabajaba en la oficina del censo de los Estados Unidos y por aquellos entonces los censos se realizaban de forma manual y se tardaba más de 10 años en realizarlos. Herman pensó que ese trabajo se podía reducir, inventando la máquina tabuladora o censora compuesta por tarjetas perforadas, de tal forma que según donde estuvieran agujereadas se interpretaba como un Sí o un No.
Entre el siglo XIX y el siglo XX, Leonardo Torres Quevedo, español y natural de Cantabria, presentó ante la real academia de la ciencia una máquina algebraica, que actualmente se conserva en la E.T.S. de Ingenieros de Caminos en Madrid donde obtuvo su título de ingeniero. Al ser una máquina analógica, las variables de las funciones podían recorrer cualquier valor. Ante una ecuación polinómica, el resultado final irá dando los valores de las sumas de los términos variables. Cuando esta suma coincida con el valor del segundo miembro, la incógnita marcará una raíz.
En 1911, se fusionaron en Estados Unidos tres empresas: Tabulating Machine Corporation, Computing Scale Corporation e International Time Recording Company. Como resultado de esta unión nació Computing Tabulating Recording Corporation (CTR), que en 1924 cambió su nombre, llegando ser la famosa empresa IBM (International Business Machines Corporation) y conocida coloquialmente como El gigante azul.
Alan Mathison Turing (1912-1954), formalizó el concepto de algoritmo y computación dando así lugar a la famosa máquina de Turing, compuesta por una cinta infinita y un cabezal lector/escritor. Las operaciones que realiza dicha máquina son sólo dos: desplazamiento de la cabeza lectora/escritora a la izquierda o a la derecha. Otro de los campos de investigación de Turing fue la inteligencia artificial. Durante la segunda Guerra Mundial, descifró códigos de los alemanes, particularmente los de la máquina Enigma.
Podemos decir que éstos fueron los orígenes de este apasionante mundo. Para llegar hasta nuestros días nos hacen falta describir hasta cinco generaciones distintas:
- Primera Generación: Esta generación se caracteriza por la aparición de computadora, compuestas por válvulas o tubos de vacío, realmente reveladoras. Por ejemplo, fueron el ENIAC, MARK I o la UNIVAC. ENIAC (1943) fue un proyecto militar, formada por 17.468 tubos de vacíos y considerada la computadora más grande de su época, ocupando 167 metros cuadrados en superficie. La cantidad de resistencias y válvulas de vacío que componía llevaban a un gasto de energía excesivo, tanto que, cuando ENIAC empezaba a funcionar, la ciudad de Filadelfia, donde estaba ubicada, se quedaba sin suministro eléctrico. Capaz de realizar 5.000 sumas y 300 multiplicaciones por segundo, estuvo en funcionamiento hasta el año 1955.MARK I era una máquina con componentes electromagnéticos. Se programaba a través de una cinta de papel en las que estaban perforadas las instrucciones codificadas. La salida de datos podía ser tanto a tarjeta perforada o en papel. Fue usaba en la segunda Guerra Mundial y era más lenta que ENIAC, aún así estuvo en funcionamiento hasta el año 1959.UNIVAC fue la primera computadora diseñada (1946) sin propósitos militares y estaba compuesta por 5.000 tubos de vacío. Era capaz de realizar una suma en 120 µseg. Disponía de memorias de mercurio, teniendo así más fiabilidad que los tubos catódicos de sus antecesoras. Fue utilizada para predecir el resultado de las elecciones presidenciales de EEUU entre Eisenhower y Stevenson, acertando en su pronóstico.En el 1947 se descubre el primer transistor por John Bardeen, Walter Houser Brattain, y William Bradford Shockley, galardonados por el premio Nobel de Físca en 1956. Este nuevo descubrimiento abrió paso a las nuevas computadoras de la segunda generación.
- Segunda Generación: Con la llegada del transistor, llegan también los primeros ordenadores comerciales, siendo el avance más importante para el desarrollo hardware de las computadoras. En 1954, aparece la primera computadora TRADIC (Tansistorized Airborne Digital Computer) y seguidamente los lenguajes de alto nivel, Fortran (Formula Translator) en Noviembre 1954, Lisp (List Processor) desarrollado en 1958 por Jhon McCarthy, dando así un gran avance para el terreno de la Inteligencia Artificial. Otros lenguajes, como COBOL (Common Business Oriented Lenguaje), fue desarrollado entre el 1959 y 1960. BASIC acrónimo de Beginners All-purpose Symbolic Instruction Code (código de instrucciones simbólicas de propósito general para principiantes) se fue creado en 1964. Seis años más tarde, en 1970, Pascal se convierte en uno de los lenguajes mas usados. En 1983 se desarrolló C++, como una extensión del lenguaje C (1971).
- Tercera Generación: En 1958 tuvo lugar el primer circuito integrado (Chip), dando lugar a esta tercera generación, y consigo la integración de circuitos integrados o procesadores. Sin duda IBM fue el gran protagonista, creando los famosos IBM 360 con tecnología SLT (Solid Logia Technology). Ese mismo año, Control Data Corporation presenta la super computadora CD6600, ejecutando 3.000.000 de instrucciones por segundo, considerada como la más potente de la época. No nos podemos olvidar de los grandes medio magnéticos de almacenamiento, los primeros denominados disquetes (floppy disk), eran enormes discos rígidos. Aún así, algunas computadoras seguían con sus tarjetas perforadoras que poco a poco irían desapareciendo. Un suceso importante fue también la aparición de los sistemas operativos, llegando UNIX a manos de Kenneth Thompson y Dennos Ritchie., facilitando así la comunicación entre usuario y computadora.
- Cuarta Generación: La innovación del microprocesador hizo de esta generación una etapa de grandes avances tecnológicos en un corto espacio de tiempo. El microprocesador se presenta como la integración de todos los elementos básicos del ordenador en un sólo circuito integrado. IBM se integra en el nuevo mercado con la presentación de su Personal Computer, incluyendo el sistema operativo estandarizado MSDOS. En 1975, Bill Gates funda Microsoft (Microcomputer Software) junto con Paul Allen, convirtiéndola en una empresa diseñadora y productora del sistema operativo Microsoft Windows muy utilizado en las computadoras del todo el mundo. En 1983 aparecen las microcomputadoras fabricadas por Apple.
- Quinta Generación: En 1982 se creó la primera supercomputadora con capacidad de proceso paralelo que nos lleva a la creación de computadores con gran cantidad de microprocesadores trabajando en paralelo. El dispositivo de almacenamiento trae los dispositivos ópticos, los CD, capaz de almacenar hasta 650MB. Internet se convierte, en 1994, en la red mundial de ordenadores, interconectados entre sí gracias al protocolo TCP/IP.