Red de información TI para profesionales ITMedia NetWork

Búsqueda avanzada

Publicidad

Publicidad

Horizontes de la ciencia y de la supercomputación

31 Julio 2007por Isidro Cano, director de Supercomputación de HP Española

El mundo de la informática, al igual que el estadístico, se basa en métodos de prueba y error que permiten aumentar la fiabilidad y precisión de los resultados. Para ello, la supercomputación juega un papel fundamental en entornos que exigen una fiabilidad extrema

Isidro Cano

Isidro Cano

La base de la supercomputación es el cálculo científico, el cual requiere las mayores prestaciones informáticas. Como su origen bien indica, la ciencia es el pilar de su existencia tanto en el sector público como en el privado. En la actualidad encontramos los supercomputadores en casi todas las áreas de investigación científica, en meteorología, exploración de hidrocarburos, defensa, universidades, industrias automovilística y aeroespacial...

Este segmento de la informática ha servido siempre como banco de pruebas. El empleo masivo de las arquitecturas de servidores y redes, así como del fenómeno Internet tuvieron su origin en en la supercomputación, y de ahí proviene su éxito actual. De esta manera, se crea un ciclo continuo de innovación que permite la evolución de las Tecnologías de la Información. La influencia de la supercomputación en empresas públicas y privadas, se ve reflejada en la creación de subsectores empresariales como la Biotecnología, base de la Genética y Proteomica, la cual requiere procesos de supercomputación o redes internacionales de cálculo bioinformático. Aún queda mucho por mejorar, aunque los ordenadores actuales sean muy rápidos y potentes y logren gestionar grandes volúmenes de datos a través de redes de comunicación de última generación, nos queda pendiente el "grand challenge application", que supone el desafío que afrontan los científicos al desarrollar software para el que no se ha construido aún un superordenador capaz de soportarlos.

La colaboración entre grandes fabricantes como HP y entidades científicas se hace presente en todo el mundo abordando retos de gran relevancia, tanto para la comunidad científica como para la informática. A nivel nacional, encontramos ejemplos de acuerdos llevados a cabo con centros de investigación públicos en colaboración con científicos e ingenieros, proyectos como ORIGENES, destinado a desvelar el origen de la vida, o iniciativas BioInformáticas y Proteomicas, además de medioambientales.

La tendencia en arquitecturas de supercomputación va hacia clusters o granjas de servidores sobre sistema operativo LINUX. De esta manera se afrontan los retos de crecimiento continuo o escalabilidad, así como la flexibilidad y manejabilidad que se requiere para adaptarse a los proyectos de investigación. Sin embargo, sigue existiendo hueco para grandes servidores de muchos procesadores en memoria compartida, ya que ciertas aplicaciones no permiten la paralelización en granjas y sí en CPUs, íntimamente acopladas.

Además de la tarea de cálculo ya tradicional, los centros de supercomputación tienen ahora otros nuevos retos, como son la masiva profusión de datos, la visualización de los resultados, la gestión del software y la eficiencia energética. Para afrontarlos hay ya soluciones muy elaboradas en sistemas de almacenamiento compartido, arrays de visualización en tiempo real, gestores y virtualizadores de recursos y sofisticados sistemas de optimización de la refrigeración.

La interconexión de los CPDs entre sí en las denominadas GRID o redes de intercambio de servicios de computación, surge como respuesta a las infraestructuras necesarias, que suponen una elevada inversión. Por ello, la tendencia tecnológica en este sector se centra en la compartición de recursos informáticos que, además, permite la colaboración en proyectos de investigación. La sinergia entre distintos tipos de centros especializados en aplicaciones diferentes es, por lo tanto, la clave del futuro desarrollo.

La situación en España ha evolucionado en lo que al súper cálculo se refiere, teniendo ahora una infraestructura que impulsa proyectos de carácter privado y público. Se abre ahora un horizonte hacia el I+D que nos permitiría dar un paso adelante y situarnos dentro de los rankings mundiales de supercomputación y, por tanto, de la ciencia.

ShareThis

Publicidad

Publicidad

Destacamos

  • Claves de la IA: hiperpersonalización, edge computing, datos en tiempo real y aprendizaje automático federado

    Durante el pasado año, los retos económicos han obligado a empresas y gobiernos a reevaluar sus prioridades. Pese a ello, la inversión en transformación digital sigue siendo alta y no muestra signos de caer: la tecnología cumple una función estratégica cada vez más esencial para afrontar el reto de controlar los costes, mejorar la eficiencia, la agilidad y la capacidad de recuperación para prepararse para el reto que su pone el rápido crecimiento de la IA generativa. Es una de las principales conclusiones a las que llegan los expertos de Couchbase, reunidos para concretar oportunidades y evolución en 2024

Envío de artículos por email de IT CIO.es

Por favor, introduzca la siguiente información











Cerrar

Envío de artículos por email de IT CIO.es

Procesando envíos...

Envío de artículos por email de IT CIO.es

Email enviado. Cerrar

Envío de artículos por email de IT CIO.es

Error en el envio. Pulse aqui para cerrar.Cerrar