martes, 10 de septiembre de 2024

CNEA desarrolla sistemas informáticos veloces que sirven como laboratorios virtuales

  

La CNEA desarrolla sistemas informáticos veloces que sirven como laboratorios virtuales

La Gerencia de Tecnología de la Información y las Telecomunicaciones (GTIC) ofrece el servicio de computación de alto desempeño denominado Clúster Neurus, que puede resolver aproximadamente 29 billones de operaciones de punto flotante por segundo. 

Se utiliza para realizar simulaciones que preceden a pruebas experimentales costosas y complejas.

Los proyectos de investigación y desarrollo que lleva adelante la Comisión Nacional de Energía Atómica (CNEA) requieren el apoyo de sistemas informáticos extremadamente veloces, capaces de realizar simulaciones que preceden a pruebas experimentales costosas, complejas y muchas veces imposibles de reproducir en la realidad.

El Departamento Computación de Alta Prestación de la Gerencia de Tecnología de la Información y las Telecomunicaciones (GTIC) ofrece soluciones a medida para las necesidades computacionales de los investigadores. 

En la actualidad, cuenta con el servicio de computación de alto desempeño denominado Clúster Neurus. 

Además, avanza con un proyecto para la creación de un nuevo clúster con tecnologías de punta, para ofrecer nuevos y mejores servicios y recursos de procesamiento gráfico a los que se podrá acceder a través de una interfaz web.

“Un clúster de High Performance Computing (HPC, Alto Desempeño Computacional) es un conjunto de computadoras o nodos que cooperan para resolver un problema. 

Cada uno de esos nodos toma una parte de ese problema y lo resuelve”, define la Dra. Verónica Venturini, subgerente de Vinculación y Desarrollo de Nuevas Tecnologías de la Información de la CNEA.

Teóricamente la capacidad de procesamiento de un clúster equivale a la suma de las potencias de sus nodos. 

“Al dividir el problema en partes que los nodos van resolviendo simultáneamente y de manera concurrente, se llega a la solución mucho más rápido”, explica Gastón Aguilera, el jefe del Departamento Computación Alta Prestación.

Entre otras aplicaciones, los clústers de HPC sirven para estudiar las propiedades estructurales, de transporte y dinámicas de distintos sistemas; simular reacciones químicas, biológicas y catalíticas; diseñar nuevos materiales, y también recopilar y procesar grandes volúmenes de datos relacionados con la astrofísica y la física de la atmósfera.

“Los clústers de HPC son una herramienta para los científicos, que los utilizan como laboratorios virtuales para realizar simulaciones y estudiar, por ejemplo, cómo se comportaría determinado sistema o cierto material. 

Por ejemplo, si se diseña una pieza para un reactor, se puede hacer una simulación sobre cómo se va a comportar en la realidad y recién fabricar el prototipo sobre un diseño evaluado en el ambiente virtual, donde se explicitaron las leyes matemáticas que rigen su comportamiento”, detalla Aguilera. 

“Las simulaciones requieren demasiados recursos físicos y, por ese motivo, pueden resolverse con mayor rapidez en un clúster”, resalta Venturini.

El clúster de HPC que administra el grupo que pertenece a la GTIC se llama Neurus y cuenta con 25 nodos que reúnen 700 cores o núcleos de procesamiento. 

Hace diez años que se encuentra en funcionamiento, pero no fue el primero que construyó, puso en mantenimiento y administró su grupo de trabajo.

Mucho antes de soñar con la supercomputación o los clústers de HPC, en 1977, en la CNEA se creó el Centro de Cómputos que después se convertiría en GTIC

Su herramienta era una computadora IBM 370 de 1 MB de memoria RAM y discos IBM 3350 de 300 MB cada uno. 

El sistema contaba con 20 terminales que dependían totalmente del procesador central. 

Era de lo más avanzado para la época. 

Desde entonces, se encaró el desafío de dotar al organismo con sistemas de vanguardia para ir acompañando los requerimientos de sus investigadores. 

Así también se adquirió un supercomputador SUN Enterprise 6000, denominado Fénix, de 16 procesadores y 8GB de memoria RAM que cubrió los requerimientos computacionales de los usuarios por varios años desde 1997.

La revolución de las supercomputadoras llegó a la CNEA en 2003, cuando comenzó el proceso para desarrollar su primer clúster. 

Así, en 2007 comenzó a funcionar el clúster de HPC Sheldon

Tenía un rendimiento operativo promedio de 290 GigaFLOPS, es decir que podía realizar 290 mil millones de Operaciones de Punto Flotante por Segundo. 

Su sucesor, en septiembre de 2010, fue ISAAC (Information Systems and Advance Computer), en referencia a Newton y en honor a Asimov, con un rendimiento pico de 5,5 TeraFLOPS (5,5 billones de operaciones de punto flotante por segundo).

Actualmente, Neurus tiene 29 TeraFLOPS de rendimiento máximo teórico del sistema. 

Eso significa que tiene la capacidad de resolver aproximadamente 29 billones de operaciones de punto flotante por segundo, con un almacenamiento para archivos de usuario de 24 TeraBytes sobre ZFS (Zettabyte File System).

El próximo proyecto se llama “CNEA Dynamic Cloud Computing” y consiste en desarrollar una plataforma que permita la utilización de diferentes softwares específicos, algunos de ellos con licencias. 

Además, se busca que brinde la flexibilidad para soportar los cambios en los sistemas, como ocurre con la demanda de cálculo para Inteligencia Artificial

Los grupos de la CNEA que requieran el uso de esta plataforma podrán acceder en forma remota, tal como lo ofrecen algunas soluciones de cloud computing del mercado. 

El punto destacable de este proyecto es que la plataforma será interna para la CNEA, manteniendo la privacidad y confidencialidad de los datos.

“La idea es armar configuraciones de cómputo especiales para cubrir las necesidades de cada grupo, que podrá trabajar vía web tanto para la preparación como para la ejecución y la visualización de los resultados”, dice Aguilera. 

Esta nueva plataforma permitirá no sólo la ejecución de simulaciones con posibilidad de elegir recursos físicos, sino que además proporcionará al usuario herramientas para hacer uso de algoritmos de Inteligencia Artificial y Machine Learning pre definidos.

El grupo de Computación de Alta Prestación de la CNEA fue renovándose con los años y hoy está conformado por Andrés Alonso, Leonardo Domínguez, Roque Iozzo, Leandro Clemente y Gastón Aguilera. 

Se trata de personal altamente calificado, con más de 20 años de experiencia en el ciclo de vida y soporte a usuarios de clústers y de servicios relacionados.

CNEA

inngeniar


No hay comentarios: