- La plataforma de cómputo de alto rendimiento especializada en hacer cálculos concurrentes impactará positivamente los ecosistemas investigativos en tiempo récord. Es un proyecto coordinado por la Agencia Nacional de Investigación y Desarrollo (ANID), liderado por UAI y en colaboración con el Instituto Milenio de Astrofísica (MAS) y el Instituto Milenio Fundamento de los Datos (IMFD).
En 2024 se instalará en la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez (UAI), Campus Peñalolén, un súper computador tipo Cluster, con capacidades únicas para la Región Metropolitana. La innovación se hará realidad gracias a un proyecto Fondequip de la Agencia Nacional de Investigación y Desarrollo (ANID).
Danilo Bórquez, académico de la Facultad de Ingeniería y Ciencias UAI, señala que este equipamiento es el segundo en Chile, luego de uno instalado en Valdivia, lo que permitirá acelerar el I+D+i (investigación, desarrollo e innovación). El proyecto fue postulado en mayo de este año y representa 200 millones de pesos en inversión.
«Se trata de un cluster de GPU (Graphics Processing Units) que permite acelerar la capacidad de cálculo, habilitando el desarrollo paralelo de otros trabajos de investigación y así acceder a resultados simultáneos en tiempo récord», precisó Bórquez.
El facultativo aseguró que varias líneas de investigación se verán positivamente impactadas, principalmente aquellas asociadas a «reinforcement learning» o aprendizaje reforzado, que es un tipo de Inteligencia Artificial que funciona de forma autónoma. «En redes de fibra óptica, permite modelar decisiones aleatorias que afectan el ambiente; en machine learning y deep learning, permite generar experimentos en tiempos récord; en astrofísica y en energías de recursos naturales, salud y neurociencia, podrá avanzar con cálculos paralelos acelerando conclusiones», puntualizó el investigador líder del proyecto Fondequip.
El proyecto además involucra compromisos de vinculación, asegurando un verdadero impacto en los ecosistemas investigativos. El Instituto Milenio de Astrofísica (MAS) y el Instituto Milenio Fundamento de los Datos (IMFD), serán parte de este trabajo colaborativo, potenciando el desarrollo de investigaciones con diversas áreas de aplicación. Asimismo, ANID será el coordinador responsable del proyecto.
Miguel Romero, representante del IMFD, académico de la Facultad de Ingeniería UAI, destacó: «el objetivo es crear una plataforma de cómputo de alto rendimiento. Se trata de tecnología especializada en tareas asociadas a aprendizaje automático, lo que permite que el súper computador vaya aprendiendo de sus propios datos y contribuya generando sistemas súper inteligentes. Este avance permitirá que los investigadores aceleren el procesamiento de datos y existe un compromiso de ofrecer horas de apoyo a científicos chilenos en la región».
Romero explica que en su caso, que trabaja sobre redes neurales de grafos, que son modelos que se entregan y que son capaces de obtener valor de datos mucho más complejos como redes sociales y otras redes, conectando a personas, entidades, objetos y ciudades, por ejemplo; serán altamente beneficiadas con la incorporación de este tipo de tecnología, con la cual nunca ha trabajado en su trayectoria profesional.
Diego Muñoz, representante del Instituto Milenio de Astrofísica, sostiene que: «Equipamiento como este cluster GPU permitirá el modelamiento de vanguardia de sistemas de fluidos astrofísicos como discos protoplanetarios. Estos discos son los directos progenitores de sistemas planetarios como el Sistema Solar, y es donde coexisten gases supersónicos y granos de polvo de diversos tamaños y propiedades. Gracias al algoritmo FARGO3D –CUDA-enabled software para las ecuaciones de Navier-Stokes— será posible calcular de forma directa la interacción de gas y polvo con jóvenes “protoplanetas”, realizando predicciones sin precedentes de las propiedades observables de planetas a medida que éstos adquieren masa».
Finalmente, Cristian Martínez-Villalobos, investigador de la Facultad de Ingeniería y Ciencias UAI, especialista en ODS y cambio climático, subraya la relevancia de acceder a un gran volumen de datos en cuanto al monitoreo de diversas variables. «A modo de ejemplo, la cantidad de datos asociados a data horaria en modelos de alta resolución no es posible trabajarlos en un computador estándar. Necesitamos clusters y otras formas más eficientes. El monitoreo y la modelación de ecosistemas o la teledetección, requieren de algoritmos más eficientes que nos permitan simular escenarios futuros y este tipo de máquinas nos ayudan a procesar esos datos de forma rápida y eficiente».
Equipo Prensa
Portal Innova