Por Patricia Tissera
Nota publicada en El Mercurio, Chile. Algunos datos fueron actualizados.
Profesora Titular, Instituto de Astrofísica
Pontificia Universidad Católica de Chile
evolgal4d.com
La Astrofísica viene preparándose sistemáticamente para el tsunami cósmico que se avecina, y que será generado por los nuevos telescopios terrestres y espaciales en los próximos años. Como ejemplo tomemos al Observatorio Vera Rubin, el que se encuentra en plena construcción en el norte de Chile, con fecha probable de comienzo de actividades en el 2023. Uno su proyectos recopilará 20 Terabytes de datos (1 Terabyte equivale a 1000 Gigabytes, la capacidad de almacenamiento de un celular de última generación) por noche que, sumados durante 10 años de funcionamiento, llegarán a aproximadamente 500 Petabytes de información (1 Petabytes equivale a 1000 Terabytes o 1.000.000 Gb).
Cabe preguntarse si es posible realizar el análisis de estos datos en un computador de escritorio o en una laptop? La respuesta es no. Este cometido requiere de supercomputadores. Si bien hay un esfuerzo en apoyar el desarrollo de la supercomputación en Latinoamérica, aún estamos muy lejos de otros países que cuentan con equipos de varios miles de núcleos -como veremos- necesarios para esta tarea. Para ello se requiere contar con una importante infraestructura computacional, que permita abordar una serie de desafíos científicos y tecnológicos, cuyos impactos serán fundamentales en diversas áreas del conocimiento: desde la astronomía hasta el medio ambiente.
La explotación de los datos
Estos grandes volúmenes datos deben ser estudiados e interpretados utilizando modelos físicos de la formación y evolución de estructura y los objetos cósmicos a diferentes escalas, desde planetas hasta galaxias, y su distribución en el universo, si buscamos extraer de ellos información fundamental de nuestro universo. Con este fin, se recurrirá a simulaciones numéricas, las cuales permiten describir la evolución de los sistemas cósmicos y el impacto que diversos procesos físicos producirían sobre ellos. Para este segundo cometido, también se requiere de supercomputadores.
Posteriormente, dichos experimentos virtuales serán confrontados con el universo real. Este último paso es, en sí mismo, complejo. ¿Cómo comparamos eficientemente el producto de las simulaciones numéricas con el de las observaciones cuando ambas involucran millones de datos? El desarrollo de nuevas técnicas numéricas especialmente diseñadas para este fin, muchas de ellas basadas en inteligencia artificial, es el camino a seguir. Pero este tercer cometido también requiere poder de cómputo adecuado, al que sólo es posible acceder a través de infraestructura de computación de alto desempeño, o sea, supercomputadores.
La supercomputación de alto desempeño permite realizar experimentos que son muy costosos, peligrosos o imposibles de llevar a cabo en el mundo real, a través del modelado numérico y las simulaciones numéricas. Estos experimentos abarcan diversos campos de estudio, como la astrofísica, la genómica, el cambio climático, la utilización eficiente de la energía renovable, el desarrollo de vacunas, la optimización del uso transporte público y el desarrollo de la minería, entre muchos otros. Las simulaciones numéricas permiten explorar y entender cómo interactúan diferentes procesos físicos, biológicos, químicos o sociales, entre otros, de forma acoplada mediante experimentos virtuales.
Los supercomputadores
La supercomputación requiere de supercomputadoras, valga la redundancia. Estas son diseñadas para que cientos, y hasta millones, de núcleos trabajen mancomunadamente en pos de un mismo objetivo. Los núcleos actúan como las neuronas de una supercomputadora. El problema a resolver se reparte entre las neuronas, o los núcleos, de tal forma que estas reciben una fracción del trabajo a realizar. Los núcleos realizan los cálculos que se les asigna y se comunican entre ellos a gran velocidad, permitiendo realizar miles de operaciones por segundos.
Por supuesto, la velocidad resultante depende de varios factores, como las características de los núcleos y de las conexiones entre ellos y la complejidad del problema a resolver. Sin embargo, solo este tipo de infraestructura computacional permite alcanzar la velocidad y eficiencia en las operaciones para resolver grandes problemas. Por ejemplo, el estudio del COVID-19 y el desarrollo de vacunas, así como otros aspectos asociados a la pandemia, utilizan supercomputadoras para acelerar la obtención de resultados.
En Chile, el Laboratorio Nacional de Computación de Alto Desempeño tiene el supercomputador más poderoso en el país, con aproximadamente más 8000 núcleos. Además, existen otros equipos menores, muchos de ellos dedicados a la astrofísica (como, por ejemplo, los del Centro de Astrofísica, CATA). México, Argentina, y Brasil también poseen supercomputadores de similar envergadura. Sin embargo, sólo Brasil tiene en la actualidad un supercomputador dedicado a la academia, que se encuentra entre los 500 más poderosos del planeta (según Top500).
Latinoamérica aún está lejos de otros países que cuentan con equipos de varios miles de núcleos. Por ejemplo, la supercomputadora Fugaku en Japón tiene más de 7.6 millones de núcleos y puede realizar más de 500.000 de operaciones (en punto flotante) por segundo, mientras que la más competitiva dedicada a la academia en Latinoamérica, cuenta con cerca de 33.000 núcleos y realiza 1.849 operaciones por segundo. Claramente, nos queda aún un gran camino por recorrer, pero sabemos que es el adecuado, ya que el desarrollo científico y tecnológico de vanguardia requerirá de acceso a poder de cómputos de creciente envergadura.
Los beneficios de esta infraestructura computacional no sólo incluyen la posibilidad de encarar proyectos científicos y tecnológicos de punta, sino que también permiten la formación de jóvenes científicos y tecnólogos de nivel competitivo. Este recurso humano altamente calificado adquiere conocimientos para desarrollar modelos, simulaciones y algoritmos de inteligencia artificial innovadores enfocados a estudiar sistemas complejos en cualquier área del conocimiento. La transferencia de científicos al sector privado produce un derrame en cascada desde la academia a la sociedad, que multiplica el impacto positivo de la supercomputación. Así el tsunami cósmico de datos puede transformarse en un evento disparador de transferencia tecnológica con el potencial de mejorar la calidad de vida en este planeta.