TENDENCIA

La pérdida de energía de los chips y su gran consumo de calor parecen ser las barreras a cruzar. La velocidad de los futuros procesadores se medirá en terahertz, lo que equivale a mil gigahertz.

 

Los científicos de los gigantes de la industria informática arrojaron sus cartas sobre la mesa. Presentaron tres nuevas tecnologías que, en conjunto, harán correr a los chips de las computadoras de hogar unas mil veces más rápido que los actuales.

El chip o microprocesador es el alma de la computadora. De la velocidad que logre al procesar datos, depende buena parte de lo que puede hacer una PC. Con los que se venden en la actualidad, que han comenzado a superar la velocidad de un gigahertz, las computadoras pueden navegar por miles de sitios web, bajan música compactada desde Internet y abren cada vez más rápido el procesador de textos Word. Pero ya les cuesta con lo que viene.

Uno, dos o tres gigahertz se quedan cortos para manejar la computadora mediante la voz. Y también para correr los futuros softwares de reconocimiento de rostro, ideales para el control de acceso en grandes compañías, aeropuertos y sofisticados edificios de departamentos. Además, en breve, las palmtops (computadoras de bolsillo) y los teléfonos celulares estarán capacitados para lograr mucho más de lo que hoy consigue una PC de escritorio. Pero los chips de hoy no las acompañan.

Todas estas aplicaciones se podrán correr, en tiempo real, en cualquier computadora hogareña a partir del año 2010, cuando se empiece a comercializar en forma masiva la nueva familia de súper procesadores, necesarios porque la estructura de los actuales hacen que no puedan avanzar mucho más en la carrera por llegar a una mayor velocidad de procesamiento de datos. La velocidad de los futuros procesadores se medirá en terahertz, lo que equivale a mil gigahertz.

En la última Reunión Internacional de Dispositivos Electrónicos, celebrada en la ciudad de Washington hace tres semanas, científicos de Intel, AMD e IBM expusieron sus desarrollos para llegar a los súper procesadores. Y todos van por caminos similares, lo que refuerza la idea de que las novedades se traducirán en una norma. La pérdida innecesaria de energía de los chips y su gran consumo de calor parecen ser las barreras a cruzar. El derroche de energía hace que los chips pierdan potencia y, por ello, velocidad. Pero esto se está por solucionar gracias a SOI, un nuevo material que corrige este defecto.

SOI es un material que funciona como aislante entre la base de silicio del chip y la próxima capa del dispositivo donde se ubican los transistores. Los transistores funcionan encendiéndose y apagándose constantemente, a velocidades imperceptibles para el ojo humano. Y es al momento de apagarse cuando se consume mucha energía no deseada, defecto que se corregirá con SOI. "De esta manera se va a ganar mucho en velocidad", dijo a Clarín Fabio Gandour, director de tecnologías emergentes para IBM Latinoamérica. Su empresa ya presentó un chip de 2 teraherzios basado en SOI. Otra empresa que trabaja en el desarrollo de esta tecnología es AMD.

"Nosotros empezaremos a comercializar microprocesadores con tecnología SOI a partir del año que viene, arriesga David Kyser, director del grupo de investigaciones tecnológicas de AMD.

En Intel también desarrollan este material, pero lo llaman Transistor de sustrato agotado. "Nuestra meta es superar los obstáculos de perdida de energía y calor, para producir chips que tengan 25 veces el número de transistores que los chips actuales, afirma Gerald Marcyk, director de investigaciones de Intel. Otra nueva tecnología de Intel se llama dieléctrico de puerta de alto k.

Todos los transistores tienen un dieléctrico de puerta, material que separa la puerta de un transistor de su región activa (la puerta controla el estado encendido-apagado del transistor). Los dieléctricos de puerta más avanzados de la actualidad, hechos con dióxido de silicio, logran contener algo de fuga de energía, pero no lo necesario para construir chips extremadamente rápidos.

Según Intel, la novedad "de alto k reducirá la fuga por la puerta más de 10 mil veces, comparado con el dióxido de silicio. El dieléctrico de puerta de alto k se construye con una tecnología revolucionaria llamada deposición de capas atómicas, en la que el nuevo material se puede desarrollar en capas de tan sólo una molécula de espesor a la vez. Este material es ideal para las computadoras portátiles, porque la escasa fuga de energía del chip hace que la batería que la hace funcionar dure muchísimo más.

Pero el asunto de la puerta no termina aquí. En IBM también señalan el problema, pero apuestan a que el flujo eléctrico que circula por los transistores no esté controlado por una sola puerta sino por dos. La tecnología que presentan --que también suena en AMD-- duplica la efectividad del control y permite circuitos mucho más pequeños, rápidos y de menor consumo.

Todo indica que esta doble puerta se viene con todo. Al menos IBM declara oficialmente que ya han llevado a este tipo de transistor de una fase teórica a otra de investigación concreta y real.

En AMD aventuran llegar al 2010 con un microprocesador con tecnología de alto k y de doble puerta. Todo en uno, cuya velocidad se mida en terahertz. "La industria busca más transistores en el mismo espacio. Y todos estos nuevos materiales contribuirán a que lo logremos, se ilusiona Kyser, de AMD.

 

Epitaxia

 

Para producir las generaciones futuras de microchips se necesitarán técnicas como la epitaxia por haz molecular, en la que los semiconductores se depositan átomo a átomo en una cámara de vacío ultraelevado, o la microscopía de barrido de efecto túnel, que permite ver e incluso desplazar átomos individuales con precisión.

Método para producir materiales cristalinos con una determinada estructura, como capas de silicio semiconductor de alta calidad para chips de ordenadores o computadoras. Las moléculas del material que se va a producir se depositan sobre un sustrato sólido de forma que imitan la estructura del mismo; estas moléculas pueden depositarse como líquido o como vapor. En la epitaxia de haz molecular, se dirigen haces de moléculas del material deseado contra la superficie para que interaccionen con ella.

Fibra óptica

Formada por grupos de hilos de plástico o vidrio, el cable de fibra óptica utiliza la luz para transmitir los datos. A pesar de que es más caro de instalar y más frágil y difícil de dividir que las líneas de comunicación con metales tradicionales (normalmente el cobre), el uso de la fibra óptica ofrece distintas ventajas. En primer lugar, pueden transmitir más datos gracias a su mayor ancho de banda. Asimismo, son más delgadas, ligeras y menos propensas a sufrir interferencias que los cables de metal. Por último, la transferencia de datos se realiza de forma digital en vez de analógica.  

De la misma forma que el número de transistores en chip continúa duplicándose cada dos años, aumenta de forma exponencial el tráfico de Internet, creciendo en ocasiones a un ritmo aún más rápido.

En los últimos años, la fibra óptica se ha convertido en la tecnología alternativa que sustituirá a las redes de banda ancha o a las comunicaciones basadas en cobre. A través de la luz, estas redes ofrecen mayores prestaciones y la capacidad de para poder realizar transmisiones multimedia ricas en contenido y otras que necesiten un gran ancho de banda.

Como cabía esperar, las redes de fibra óptica conllevan un coste de implementación y mantenimiento mucho mayor que las redes actuales basadas en hilo de cobre. Por este motivo, se utilizan principalmente para el tráfico de la estructura central de la red o de larga distancia. Para conseguir que el rendimiento óptico de las redes principales y los centros de datos llegue a las oficinas y hogares del mañana, se deberán reducir considerablemente los costes.

Al aplicar los conocimientos que ha adquirido durante su continuo compromiso de extender y ampliar el efecto que auguraba la ley de Moore , Intel se propone dar el pistoletazo de salida a la revolución de la banda ancha mediante la fabricación de dispositivos
optoelectrónicos basados en silicio para el sector de las telecomunicaciones. El objetivo es mejorar la capacidad de la red al tiempo que se reducen los costes para crear y mantener sólidas redes ópticas de alta velocidad. Esta tecnología que está siendo investigada y desarrollada por Intel se conoce con el nombre de "fotónica de silicio".


Tecnología fotónica de silicio procesado por IntelIncorporacion de la fotonica alsilicio

Gracias al uso del silicio y a sus técnicas de procesado estándar, los investigadores de Intel están creando dispositivos ópticos microscópicos, llamados fotónicos, que proporcionen una activa funcionalidad en lugar de una simple guía de ondas pasiva. En el futuro, estos diminutos módulos se insertarán de forma selectiva en módulos ópticos, reduciendo su coste y tamaño.

En las instalaciones de Intel Fab 8 de Israel se están llevando a cabo las tareas de desarrollo del proceso de fabricación de silicio para seguir con la investigación de esta tecnología. Asimismo, este centro también se utiliza para desarrollar sistemas mecánicos microeléctricos (MEMS) .

 

Ventajas apreciables


Las tecnologías de fabricación de circuitos integrados estándar se pueden utilizar para incorporar capacidades optoelectrónicas en el silicio. Esta técnica de fabricación reducirá significativamente el coste de los componentes fundamentales para el despliegue de la red óptica como, por ejemplo, conmutadores ópticos, moduladores y filtros regulables.

Pat Gelsinger, director de tecnología de Intel, probó hace poco un filtro regulable basado en silicio en la Conferencia del Foro de Desarrolladores (IDF) celebrada en San Francisco (EE.UU.). Su microscópico tamaño y sus costes de fabricación relativamente bajos dejan entrever que estos dispositivos basados en silicio llegarán a ofrecer con el tiempo un mejor rendimiento a un coste significativamente menor que el hardware arcaico y altamente costoso de hoy en día.

Como resultado de todo lo anterior, se incrementará la disponibilidad de las redes de alta velocidad y capacidad, propiciando la transmisión de datos dinámicos y ricos en contenido. Y lo que es más importante, igual que con en los dispositivos lógicos de la actualidad, la fotónica continuará mejorando la eficaz aplicación que ha hecho Intel de los principios de la ley de Moore, posibilitando la creación de redes menos costosas y más rápidas en el futuro.

 

Optoelectrónica

La optoelectrónica se refiere a la fabricación de los dispositivos de hardware que convierten las señales electrónicas en fotones (o luz) y viceversa. Ejemplos de tecnologías optoelectrónicas podrían ser las comunicaciones de fibra óptica, los sistemas láser, los sistemas de control remoto y detección visual, los sistemas de diagnóstico médico y los sistemas de información óptica.  

Compucuantica

Si alguien dice que puede pensar en problemas cuánticos sin sentirse mareado, sólo demuestra que no ha entendido ni la primera palabra de esto”.

Niels Bohr, descubridor de la mecánica cuántica (1885-1962) Las computadoras actuales funcionan a base de la lógica clásica, que es similar en muchos aspectos a la que usamos en nuestras actividades diarias. Pero a nivel de las partículas atómicas, rige la mecánica cuántica que no se sujeta a la lógica ordinaria. Ahora se comienza hablar de computadoras cuánticas, un tema complicado, pero que se predice que será la mayor revolución en la historia de la informática desde la invención de la computadora.

Para la lógica formal y para la manera que tenemos de entender el mundo, podemos saber con gran precisión, la velocidad y el lugar de los objetos. Podemos así establecer el curso que siguen la Luna o el Sol y el observarlos no influye en los resultados. Pero, cuando observamos objetos del tamaño de átomos o menores, es imposible hacer observaciones objetivas, porque éstas perturban el sistema observado. Hay un límite en la precisión para las observaciones que hagamos del mundo atómico o subatómico. Podemos saber con precisión la posición de una partícula, pero perderemos precisión en el conocimiento, por ejemplo, de su velocidad. Esto es porque nuestra observación afecta el equilibrio atómico e incluso una observación demasiado precisa podría destruirlo.

Según la lógica cuántica, un sistema atómico puede estar en varios estados a la vez mientras no se lo observa. Al ser observado el átomo se manifiesta en determinado estado. Esto se ilustra con la llamada “paradoja de Schrödinger” que dice que si tenemos un gato dentro de una caja, cuya vida está ligada al comportamiento de un núcleo atómico, el gato está vivo y muerto a la vez, mientras no se abra la caja y se vea qué sucedió. Ojo, no es que el animal está vivo o muerto, sino vivo y muerto a la vez.

Del bit al qubit

Una nueva y más poderosa forma de computación es necesaria, porque la miniaturización de los actuales sistemas ya está alcanzando su límite máximo. De no lograrse algo así, nos veremos en el caso de que, por primera vez en la historia de la computación, el desarrollo se detendrá. Los más optimistas hablan de unos veinte años por delante, antes de llegar a la computadora cuántica. No faltan los que niegan de frente la posibilidad de construir una computadora cuántica utilizable.

Las computadoras actuales almacenan y procesan datos que se miden en bits. Un bit puede tomar los valores 0 ó 1, un foco puede estar apagado (0) o encendido (1), el espacio de una tarjeta puede no estar perforado (0) o estar perforado (1). En cambio, en una computadora cuántica, que trabaja directamente con átomos, el bit cuántico (qubit) puede estar en 0 y en 1 al mismo tiempo.


Los qubits pueden servir simultáneamente de procesador y de memoria en la computadora. Esto permite que una computadora cuántica realice ciertos cálculos en forma exponencialmente más rápida que las computadoras convencionales. Además, las combinaciones entre qubits son geométricamente mayores que las de los bits ordinarios.

Las dificultades son enormes. Cuando un sistema cuántico se relaciona con el exterior, lo cual es inevitable, a nivel macroscópico todo efecto cuántico se disuelve en un tiempo extremadamente corto, es lo que llaman descoherencia cuántica. Una computadora cuántica debe funcionar en un tiempo menor al de la descoherencia. No es posible que el gato de Schrödinger esté, en el mundo real, vivo y muerto a la vez. Pero eso es lo que sabemos por el momento, la lógica cuántica es tan distinta de la convencional.

Se pueden utilizar ciertas propiedades cuánticas que no tienen paralelo con ninguna tecnología actual. Como por ejemplo cierta forma de relacionarse que tienen las partículas cuánticas, sin tocarse ni conectarse. De manera un poco tosca, se pude decir que actuamos con una computadora cuántica aquí, y los resultados pueden obtenerse en otra en la Luna, sin necesidad de que las dos máquinas estén conectadas por ningún tipo de onda ni fibra.

Los primeros éxitos

En el año de 1982, Richard Feynmann, del California Institute of Technology, observó que ciertos efectos de la mecánica cuántica no pueden ser simulados por una computadora digital. Insinuó entonces que la computación en general puede ser mejorada aprovechando los efectos de la mecánica cuántica. En 1985, David Deutsch, de la Universidad de Oxford en Inglaterra, describió un modelo de una computadora cuántica, una máquina que usa los principios de la mecánica cuántica para realizar sus operaciones básicas. Paul Benioff, de Argonne National Laboratory, en Illinois, y Charles Bennett, del T.J. Watson Research Center de IBM, propusieron por primera vez el concepto de las computadoras cuánticas.

Isaac Chuang dirigió el grupo que logró la primera computadora cuántica de un qubit, en 1998 en la Universidad de Berkeley. En IBM Almaden, Chuang y sus colegas fueron los primeros en demostrar los importantes algoritmos, con ayuda de una computadora cuántica de 3 qubits y luego con una de 5 qubits.

Hace pocas semanas, científicos del Almaden Research Center de IBM llevaron a cabo el cálculo más complicado que se haya completado a la fecha en una computadora cuántica. En el experimento, los científicos hicieron que un trillón (1018) de moléculas diseñadas a la medida y contenidas en una probeta se transformaran en una computadora cuántica de siete qubits para resolver una versión sencilla de un problema matemático. “Este resultado refuerza la conciencia creciente de que las computadoras cuánticas pueden resolver algún día problemas tan complejos que incluso las supercomputadoras más poderosas son incapaces de responder, así trabajaran durante millones de años”, manifestó Nabil Amer, Gerente y estratega del grupo de física de la información en IBM Research.

Científicos de IBM y estudiantes de la Universidad de Stanford encontraron con una computadora cuántica los factores de un número, es decir, los números que multiplicados entre sí dan el número original. Hoy, descomponer en factores un número grande es un problema tan difícil para las computadoras convencionales (aunque sea algo fácil de verificar), que la descomposición en factores es un elemento utilizado en muchos métodos criptográficos para proteger los datos. Cuando en una computadora convencional se factorizan números grandes, cada dígito añadido duplica aproximadamente el tiempo requerido para encontrar los factores. En una computadora cuántica, en cambio, el tiempo de factorización es un incremento constante con cada dígito adicional.

Los químicos de IBM diseñaron y elaboraron una nueva molécula que tiene siete spins nucleares –los núcleos de cinco átomos de flúor y de dos de carbono– que pueden interactuar como qubits, programarse mediante pulsos de radiofrecuencias y detectarse con instrumentos de resonancia magnética nuclear (Nuclear Magnetic Resonance-NMR) similares a los actualmente usados en hospitales y laboratorios químicos.

En una ampolleta, los científicos de IBM controlaron un trillón (1018) de esas moléculas para ejecutar un algoritmo, e identificaron correctamente 3 y 5 como los factores de 15. "Aunque la respuesta puede parecer trivial, el control sin precedentes de los siete spins durante el cálculo hizo de éste el cómputo cuántico más complejo realizado a la fecha", señaló Amer.

"Ahora tenemos el desafío de convertir la computación cuántica en una realidad de la ingeniería", indicó Isaac Chuang, líder del grupo de investigación y ahora profesor adjunto en MIT.

Aun cuando el potencial de la computación cuántica es enorme y los progresos alcanzados son alentadores, las computadoras cuánticas son todavía experimentos de laboratorio. En IBM también se demostró el valor del uso de la resonancia magnética en la computación cuántica, que permite minimizar los errores de “descoherencia” propios de la mecánica cuántica.

Será difícil desarrollar y sintetizar moléculas dotadas de más de siete qubits. En consecuencia, nuevos experimentos de IBM y otros se proponen desarrollar nuevos sistemas de cómputo cuántico, capaces de aumentar de escala más fácilmente para alcanzar el número grande de qubits requerido en las aplicaciones prácticas.

Los investigadores de Intel han desarrollado los transistores más rápidos del mundo, casi un 1.000% más rápidos que los del procesador más rápido actual, el procesador Pentium® 4, lo que demuestra que no hay obstáculos importantes que se opongan a la ampliación de la Ley de Moore hasta el final de la década.

Con un tamaño de sólo 20 nanómetros, estos transistores darán lugar a procesadores con mil millones de transistores que alcancen velocidades de hasta 20 gigahercios y funcionen con menos de un voltio para el año 2007, aproximadamente. Además, a pesar de la creencia de que la nanotecnología sustituirá al silicio, estos transistores se basan en este material. Al utilizar estructuras de transistores y materiales actuales para alcanzar este nivel, Intel ha demostrado que la innovación puede continuar a su ritmo actual.

 

Uno como dos

Los procesadores de Intel son superescalares y, por lo tanto, pueden ejecutar más de una instrucción por ciclo de reloj. La tecnología de múltiples subprocesos "Hyper-Threading" amplía esta capacidad haciendo que un único procesador físico actúe como dos procesadores lógicos capaces de ejecutar dos subprocesos en paralelo. Desde la perspectiva del software, los programas y sistemas operativos pueden programar procesos o subprocesos como si se estuvieran ejecutando en dos procesadores físicos. Desde el punto de vista de una microarquitectura, las instrucciones de dos procesadores lógicos se ejecutan simultáneamente en los recursos compartidos de un procesador físico, con lo que se incrementa la utilización general de los recursos.

Los entornos operativos pueden beneficiarse de la tecnología de múltiples subprocesos "Hyper-Threading" de dos formas distintas. En primer lugar, las aplicaciones pueden repartirse en subprocesos múltiples, lo que permite ejecutar cada aplicación en subprocesos paralelos del procesador al mismo tiempo. Los sistemas operativos como Windows .Net* y XP*, junto con aplicaciones de gran rendimiento como motores de bases de datos, programas de computación científica y software de diseño multimedia, disponen de subprocesos múltiples y se ejecutan normalmente en entornos de dos o varios procesadores.

En segundo lugar, los subprocesos múltiples se pueden emplear en un entorno multitarea en el que el sistema ejecuta más de una aplicación en paralelo. En este caso concreto, cada aplicación se ejecuta como un subproceso independiente en el mismo procesador, incrementando la utilización de las unidades de ejecución y el rendimiento general de la plataforma.

 

Ventajas para las empresas


A principios de este año Intel introdujo el procesador Intel® Xeon™ para sistemas de dos o más procesadores, que incorpora la tecnología de múltiples subprocesos "Hyper-Threading". Con estos procesadores, los servicios empresariales y de investigación pueden incrementar significativamente el número de transacciones que pueden procesar, admitir un mayor número de usuarios simultáneos, mejorar el rendimiento general de sus sistemas y ofrecer una respuesta más rápida en sitios web y aplicaciones de negocios electrónicos.

 

Ventajas para los equipos de sobremesa del futuro


Intel comenzará a incorporar la tecnología de múltiples subprocesos "Hyper-Threading" a las nuevas plataformas de equipos de sobremesa a partir de la segunda mitad de 2003. Esta tecnología mejorará el rendimiento del procesador cuando se utilicen las aplicaciones con subprocesos múltiples o se trabaje en entornos multitarea.



PAGINA PRINCIPAL