Computación e Informática XXI

AVANCE INFORMATICO CIENTIFICO Y COMERCIAL


IBM REY DE LA SUPERCOMPUTACION

Por décima vez consecutiva, un sistema de la compañía lidera la lista oficial de superordenadores TOP 500. Se trata del equipo construido para el proyecto Roadrunner, instalado en el Laboratorio Nacional de Los Álamos del departamento de Energía de Estados Unidos. Este superordenador es el más rápido del mundo, al operar a velocidad de más de mil billones de cálculos por segundo (petaflop).

El sistema de IBM del Laboratorio Nacional de los Álamos ofrece velocidades superiores a un petaflop (en concreto, 1,105 petaflops, es decir, por encima de los mil billones de operaciones por segundo). Además, triplica casi en eficiencia energética al segundo superordenador de la lista, con niveles similares de potencia en computación en "petaescala". El sistema de IBM número uno en el mundo utiliza 444,9 petaflops por vatio de energía, comparado con los 154,2 megaflops por vatio del sistema que ocupa el número dos de la lista.

Además de esto, la compañía ha declarado su intención de romper la barrera del exaflop (que equivale a mil petaflops). Para ello, ha creado un centro de investigación y colaboración en Dublín, junto con la Agencia de Desarrollo Industrial (IDA) de Irlanda. Este centro tiene como objetivo lograr computación a "exaescala" que pueda beneficiar a las empresas. Un exaflop equivale a un trillón de cálculos por segundo, es decir multiplica por mil los petaflops de los sistemas actuales.


LABORATORIO NACIONAL DE LOS ALAMOS


Los sistemas de IBM superaron a todos los competidores y reúnen el 39,38% de toda la potencia de cálculo de la lista (con casi 9 petaflops). De hecho, lideran los 10 primeros puestos con cinco superordenadores, los 50 primeros puestos con 17 superordenadores, y los cien primeros puestos con un total de 35 superordenadores. Además, 19 de los 20 superordenadores más eficientes son de IBM.

"Exaescala" para un planeta más inteligente

Tras sobrepasar la era del petaflop hace un año, IBM intentará lograr la escala del exaflop en computación, en el laboratorio de investigación y colaboración de Dublín. Gracias a estas velocidades de cálculo, las empresas podrán sacar todo el partido a tecnologías como el stream computing (basado en el uso masivo de procesadores en paralelo), que permite analizar grandes cantidades de datos en tiempo real.

Además de este laboratorio de Dublín, IBM quiere crear más centros de colaboración en el mundo, donde los investigadores de la compañía compartan aptitudes y recursos con universidades, gobiernos o socios comerciales para conseguir un objetivo común.

Mientras que la supercomputación de hoy en día se centra principalmente en aplicaciones científicas para áreas como la medicina o la física, la investigación de la "exaescala" se centrará también en cómo estos nuevos sistemas pueden ayudar a resolver problemas complejos en el mundo de los negocios, por ejemplo, para el sector financiero.



SUPERCOMPUTACION MAS POTENTE

Aunque algunas de las supercomputadoras más potentes del mundo ya han superado la barrera del petaFLOPS, ya se está empezando a concebir el siguiente salto generacional en este tipo de soluciones, que en el futuro llegarán al exaFLOPS, o lo que es lo mismo: serán 1.000 veces más rápidas que el más veloz de los supercomputadores actuales. Aunque parezca que es algo exagerado, ni siquiera con los clusters actuales se pueden realizar algunos cálculos demasiado complejos. La solución: más potencia.

Hoy en día el supercomputador más rápido en todo el mundo es Roadrunner, un gigantesco cluster de IBM instalado en Los Álamos, Nuevo México. Este sistema es capaz de superar un petaFLOPS de rendimiento, es decir, 10 elevado a 15 operaciones de coma flotante por segundo. Y aunque parezca mentira, no es suficiente.

Ese supercomputador se utiliza en simulaciones de modelado celular, y en los próximos seis meses se usará para simulación nuclear, pero no es posible ejecutar otras simulaciones complejas, por ejemplo las relativas a las de los modelos del océano o la atmósfera y sus interacciones: los datos son demasiado enormes como para poder computarlos con la potencia actual.


SUPERCOMPUTADOR IBM


Ese problema lo resolvería un cluster con rendimiento a escala de exaFLOPS, que llegaría a 10 elevado a 18 operaciones de coma flotante por segundo, y que ofrecería una potencia suficiente para este tipo de cálculos.

Sin embargo y tal y como indican en TechRadar, el salto a la "exoescala" no está exenta de problemas: la memoria debe ser capaz de almacenar la ingente cantidad de datos que se generan, y también es necesari oque existan vías de comunicación capaces de no limitar ese flujo de información.

La tecnología fotónica podría ser una de las soluciones en ese caso, mientras que en el caso del almacenamiento aparecen soluciones basadas en tarjetas de almacenamiento como las que fabrica Fusion-io.

Obviamente, otro de los problemas sería la eficiencia -la tolerancia a fallos, requisito fundamental- y el propio coste energético de estos sistemas, que también se presentan como verdaderos devoradores de energía. Está claro que la evolución hacia sistemas exaFLOPS es posible, pero desde luego será un camino complejo y del que no veremos frutos a corto plazo.



EL ORDENADOR-CEREBRO DE IBM

Los laboratorios de investigación de IBM van a desarrollar ordenadores capaces de emular procesos del cerebro como sentido, percepción, interacción, acción y conocimiento. Serán sistemas de tamaño y consumo reducidos. El objetivo es el de reproducir la eficiencia del cerebro para procesar gran cantidad de datos en tiempo real y usarlo para procesos como aplicaciones bancarias y en general sistemas de toma de decisión.

Según ha anunciado IBM el proyecto, desarrollado por su departamento de investigación conjuntamente con cinco universidades norteamericanas, se enmarca en la iniciativa de la agencia de investigación avanzada del departamento de defensa de los Estados Unidos llamada SyNAPSE que dota con 4,9 millones de dólares esta primera fase. El objetivo es nada menos que construir un ordenador que tenga como modelo el comportamiento del cerebro y así conseguir procesar una gran cantidad de datos de forma más rápida y eficiente. Se pretenden imitar procesos del intelecto como la percepción, la interacción y el sentido mediante aplicaciones o dispositivos que permitan completar los procesos cerebrales.

La capacidad de analizar grandes cantidades de información al momento permitirá el desarrollo de aplicaciones como el control del tráfico, previsiones del tiempo, conrol de redes energéticas y de distribución de todo tipo o sistemas de toma de decisión financieros. En este tipo de aplicaciones se maneja una gran cantidad de datos de entrada que cambian constantemente y los ordenadores tradicionales tienen muchas dificultades para procesarlos a tiempo, por lo que las decisiones que derivan de este procesamiento se retrasan y muchos de los datos acaban por perderse.


SUPERORDENADOR DE INVESTIGACION


Según se puede leer en el blog del director del proyecto, Dharmendra S. Modha, la clave está en dar la vuelta a los sistemas tradicionales que se centran en identificar el objetivo y resolverlo mediante un algoritmo. En el caso de los sistemas congnitivos, como el que se pretende desarrollar, utilizan la estrategia inversa al obtener el algoritmo directamente tras la recogida de datos a través de conexiones coherentes dependientes del contexto que pueden aplicarse a diversos tipos de problemas. De esta forma se imita el funcionamiento del cerebro, que integra una gran cantidad de información de los sentidos y percepción y está preparado para responder a situaciones y cambios inesperados de forma inmediata. Más que imitar la forma de trabajar del cerebro mediante programación tradicional, la idea es la de reproducir los procesos computacionales del cerebro mediante la imitación del funcionamiento de sus elementos. En este sentido, según Modha, lo más importante es la reproducción del funcionamiento de las sinápsis más que la de las propias neuronas.

El año pasado el equipo de Modha ya mostró que este tipo de modelos era posible reproduciendo un modelo de funcionamiento del cerebro de una rata con 442.000 millones de sinápsis y 55 millones de neuronas en el supercomputador Blue Gene. Esta simulación ayudará a comprender los principios computacionales de alto nivel del cerebro y reproducirlos en un sistema a gran escala. Si el proyecto consigue acercarse a un modelo de funcionamiento del cerebro, estaremos ante una verdadera revolución en la arquitectura de los ordenadores, que podría dar lugar a procesadores mucho más potentes y eficientes capaces de procesar una cantidad de datos mucho más grande que los actuales capaces de adaptarse a entornos reales.

Sin embargo no se trata de un proyecto a corto plazo y no existe fecha prevista para su finalización. Sin embargo Modha se marca un plazo de nueve meses para realizar una demostración de nano dispositivos de bajo consumo que imiten el funcionamiento de las sinapsis cerebrales. También en ese plazo empezarán a plantear modelos de funcionamiento de microcircuitos funcionales del cerebro. Aunque se podría caer en la tentación de pensar que estamos ante los primeros pasos de conseguir ordenadores pensantes e independientes, en realidad se trata de aplicar la eficiencia de la arquitectura del cerebro para construir ordenadores. Queda a mucha distancia el reproducir el funcionamiento real del cerebro humano , del “software” que hace que sea capaz de pensar.