- Introducción
- Las primeras máquinas:
- Los primeros ordenadores:
Se ha considerado a menudo la primera computadora de propósito general, aunque este título pertenece en realidad a la computadora alemana Z1. Además está relacionada con el Colossus, que se usó para descifrar código alemán durante la Segunda Guerra Mundial y destruido tras su uso para evitar dejar pruebas, siendo recientemente restaurada para un museo británico. Era totalmente digital, es decir, que ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas computadoras contemporáneas de procesos analógicos. Presentada en público el 15 de febrero de 1946.
La ENIAC fue construida en la Universidad de Pensilvania por John Presper Eckert y John William Mauchly, ocupaba una superficie de 167 m² y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío que a su vez permitían realizar cerca de 5000 sumas y 300 multiplicaciones por segundo. Físicamente, la ENIAC tenía 17.468 tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras. Pesaba 27 Toneladas, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, demoraba semanas de instalación manual.
La ENIAC elevaba la temperatura del local a 50 °C. Para efectuar las diferentes operaciones era preciso cambiar, conectar y reconectar los cables como se hacía, en esa época, en las centrales telefónicas, de allí el concepto. Este trabajo podía demorar varios días dependiendo del cálculo a realizar.
Uno de los mitos que rodea a este aparato es que la ciudad de Filadelfia, donde se encontraba instalada, sufría de apagones cuando la ENIAC entraba en funcionamiento, pues su consumo era de 160 kW.
A las 23.45 del 2 de octubre de 1955.
la ENIAC fue desactivada para siempre.
La máquina de Von Neumann es un concepto teórico formulado por el matemático húngaro - estadounidense John Von Neumann.
Supóngase a un determinado problema simple, repetitivo y prolongado en el tiempo: por ejemplo, la extracción de mineral de hierro en la superficie de Marte.
Una solución posible es enviar máquinas robotizadas que, de forma autónoma, extraigan el mineral y lo conviertan en lingotes de hierro, bien para su envío a la Tierra, bien para su uso por colonias locales. Si una máquina extrae n toneladas en un determinado período de tiempo (ciclo), en m ciclos se tendrá m x n toneladas.
Supóngase ahora un segundo tipo de máquina: una máquina que, además de producir lingotes de hierro, los trabaja para autorreplicarse, construyendo una máquina igual a ella misma. El rendimiento será menor que el de la primera máquina, pues parte del hierro lo utiliza en producir la segunda máquina, pero al cabo de un tiempo (generación), no se tendrá una sino dos máquinas trabajando. Tras dos generaciones se tendrá cuatro máquinas, tras tres generaciones ocho máquinas, etcétera. Se trata de una población que crece de forma exponencial.
Así, aunque el rendimiento sea menor, la producción tenderá a crecer hasta superar la de la primera máquina. Como ejemplo, tras diez generaciones habrá más de mil máquinas de Von Neumann (exactamente 1.024 = 210), de manera que, aunque su rendimiento fuera del 5% de la primera máquina, la producción total sería más de 50 veces mayor.
Este concepto no es solamente teórico: los virus informáticos son máquinas de Von Neumann. Ante el ingente trabajo de infectar el mayor número posible de ordenadores, los virus se autorreplican pasando de ordenador a ordenador, aumentando su población de forma exponencial e infectando así millones de ordenadores en pocas horas.
Sin embargo, no sólo hay aplicaciones negativas de este concepto. Los autómatas celulares tienen alto rango de aplicaciones en la ciencia, modelando y simulando gran cantidad de sistemas físicos, como fluidos, flujo de tráfico, etc.
- Los circuitos integrados:
Muchos de los primeros compatibles IBM PC utilizan el mismo bus que los IBM PC e IBM AT originales. El bus compatible IBM AT es posteriormente llamado Bus ISA por los fabricantes de ordenadores compatibles.
Los descendientes de los compatibles IBM PC constituyen la mayoría de las computadoras personales del mercado actual, pese a que la interoperabilidad con la estructura de bus y periféricos de la arquitectura PC original sea limitada o inexistente.
- La miniaturización de los procesadores:
Intel Pentium siguen existiendo, por supuesto. Lo último que conocemos son algunos rumores que indican que Intel lanzará nuevos ‘Pentium’ antes de verano, más o menos junto con el lanzamiento de ‘Haswell’ y con la misma filosofía que en estos últimos años: procesadores de dos núcleos sin hyperthreading y con una GPU integrada muy básica que posiblemente ni siquiera ofrezca una potencia decente para videojuegos. Tareas de escritorio, ofimática y poco más.
En total son cuatro modelos los que se barajan
modelo | Núcleos/hilos | Frecuencia | Caché L3 | Frecuencia GPU | RAM | TDP |
---|---|---|---|---|---|---|
Pentium G2030 | 2 | 3 GHz | 3 MB | 650-1050 MHz | DDR3-1333 | 55w |
Pentium G2030T | 2 | 2.6 GHz | 3 MB | 650-1050 MHz | DDR3-1333 | 35w |
Pentium G2120T | 2 | 2.7 GHz | 3 MB | 650-1050 MHz | DDR3-1600 | 35w |
Pentium G2140 | 2 | 3.3 GHz | 3 MB | 650-1050 MHz | DDR3-1600 | 55w |
delo | Núcleos/hilos | Frecuencia | Caché L3 | Frecuencia GPU | RAM | TDP |
---|---|---|---|---|---|---|
Pentium G2030 | 2 | 3 GHz | 3 MB | 650-1050 MHz | DDR3-1333 | 55w |
Pentium G2030T | 2 | 2.6 GHz | 3 MB | 650-1050 MHz | DDR3-1333 | 35w |
Pentium G2120T | 2 | 2.7 GHz | 3 MB | 650-1050 MHz | DDR3-1600 | 35w |
Pentium G2140 | 2 | 3.3 GHz | 3 MB | 650-1050 MHz | DDR3-1600 | 55w |
No estaremos ante procesadores punteros ni modelos rompedores o muy innovadores, pero serán una interesante opción para ordenadores muy básicos. En esta categoría de producto Intel tiene a un gran rival en AMD, quien en los últimos años ha posicionado unos muy buenos AMD Fusion en lo que a calidad y rendimiento/precio se refiere.
- El futuro
Los ordenadores cuánticos
Los ordenadores utilizan bits para codificar la información de modo
que un bit puede tomar el valor cero o uno. Por contra, los ordenadores
cuánticos utilizan los qubits (bit cuánticos) para realizar esta tarea.
Un qubit almacena la información en el estado de un átomo, pero por las
propiedades de los átomos hacen que el estado no tenga porque ser cero o
uno, sino que puede ser una mezcla de los dos a la vez. Así, al poder
almacenar una mezcla de ambos valores a la vez en cada qubit podemos
tratar toda la información de una sola vez.
Gracias a esta propiedades los ordenadores cuánticos tienen una
especial capacidad para resolver problemas que necesitan un elevado
número de cálculos en un tiempo muy pequeño. Además, como estarán
construidos con átomos, su tamaño será microscópico consiguiendo un
nivel de miniaturización impensable en los microporcesadores de silicio.
Por desgracia, en la actualidad aún no se ha llegado a construir
ordenadores cuánticos que utilicen más de dos o tres qubits. Aún así,
hay un gran número de centros de investigación trabajando tanto a nivel
teórico como a nivel práctico en la construcción de ordenadores de este
tipo y los avances son continuos. Entre los principales centros destacan
los laboratorios del centro de investigación de Almaden de IBM
(http://www.almaden.ibm.com/st/disciplines/quantuminfo), AT&T,
Hewlett Packard en Palo Alto (California), el Instituto Tecnológico de
Massachusetts (MIT) y universidades de todo el mundo como la de Oxford
(http://www.qubit.org/) Standford, Berkeley, etcétera.
Computadoras de ADN
La computación molecular consiste en representar la información a
procesar con moléculas orgánicas y hacerlas reaccionar dentro de un tubo
de ensayo para resolver un problema.
La primera experiencia en laboratorio se realizó en 1994 cuando se
resolvió un problema matemático medianamente complejo. Para ello se
utilizó la estructura de moléculas de ADN para almacenar la información
de partida y se estudio las moléculas resultantes de las reacciones
químicas para obtener la solución.
Por una parte, esta técnica aprovecha la facultad de las moléculas de
reaccionar simultáneamente dentro de un mismo tubo de ensayo tratando
una cantidad de datos muy grande al mismo tiempo. Por otro lado, el
tamaño de las moléculas los sitúa a un tamaño equiparable al que se
puede conseguir con los ordenadores cuánticos. Otra ventaja importante
es que la cantidad de información que se puede almacenar es
sorprendente, por ejemplo, en un centímetro cúbico se puede almacenar la
información equivalente a un billón de CDs.
Si comparamos un hipotético computador molecular con un
supercomputador actual vemos que el tamaño, la velocidad de cálculo y la
cantidad de información que se puede almacenar son en extremo
mejoradas. La velocidad de cálculo alcanzada por un computador molecular
puede ser un millón de veces más rápida y la cantidad de información
que puede almacenar en el mismo espacio es un billón de veces
(1.000.000.000.000) superior.
Aunque aún no se pueden construir ordenadores de este tipo, desde la
primera experiencia práctica este área ha pasado a formar parte de los
proyectos más serios como alternativa al silicio. Buena prueba de ello
son las investigaciones llevadas a cabo en el marco del DIMACS o "Centro
de Matemática Discreta y Computación Teórica"
(http://dimacs.rutgers.edu/) del cual forman parte la universidades
Princeton (http://www.neci.nj.nec.com/), los laboratorios de AT&T,
Bell entre otros. Otros focos de investigación son el Departamento de
Defensa de los Estados Unidos y el Consorcio Europeo de Computación
Molecular (http://www.tucs.fi/EMCC/) formado por un importante número de
universidades.
No hay comentarios:
Publicar un comentario