sábado, 3 de diciembre de 2011

Supercómputo

El mes pasado se me ofreció la oportunidad de asistir a la reunión en México de RISC (Red Iberoamericana de Súper Cómputo) que tiene su sitio en http://www.risc-project.eu y aunque nunca se me dio la oportunidad de poner en operación un cluster de computadoras en mi universidad, fue una experiencia muy agradable y profundamente reflexiva, me pude percatar de que se perdió una enorme oportunidad al no iniciar los trabajos en supercómputo hace más de 12 años cuando trate de echar a nadar un cluster basado en Linux, si alguien hubiera valorado lo que propuse en ese tiempo, tendríamos ya al menos 10 años de experiencia en este terreno que por los trabajos que vi se están desarrollando, ahora la tarea de ponerse al día se me antoja casi titánica.

La reunión se llevó a cabo en CONACYT y asistieron notables incestigadores del  Barcelona Supercomputing Center http://www.bsc.es como el Dr. Mateo Valero Cortés, http://personals.ac.upc.edu/mateo/  y el Prof. J.M. Cela, del Oil Exploration Simulation and Modelling, BSC. , no deja de sorprenderme el Dr. Valero, aparte de conocer uy bien el tema y estar a cargo de una importante supercomputadora, mantiene el humor que lo ha caracterizado.

Los proyectos fueron desde análisis de la calidad del aíre, exploración del lecho marino para buscar petróleo, hasta un trabajo con del FermiLab http://www.fnal.gov/,lo que en verdad me puso a trabajar las neuronas, lástima que no tengamos algunos proyectos así en mi universidad pero la reunión me motivo a montar mi cluster en el equipo que tengo a la mano, cosa que haré el semestre que entra.

Las platicas principales fueron las siguientes:

Lastest Development and trends in Supercomputing: Dr. Mateo Valero Cortés, 

El Dr. Valero planteo los futuros desarrollo del supercómputo, siendo uno de los principales problemas a atacar la energía consumida por las supercomputadoras, que si bien han aumentado en eficiencia de manera notable, su consumo también se ha visto incrementado de manera notable lo que impone severas restricciones por el costo de la energía, se habló por ejemplo que 10 supercomputadoras como la que en la actualidad ocupa el primer lugar dentro de las 500 mejores, consumiría prácticamente lo que produce una planta nuclear. Habló también de área de desarrollo como:
  • Modelado y simulación de alas en aviones que permite reducir el tiempo de uso de túneles de viento, que además les genera ingresos y proyectos. 
  •  ITER, un proyecto de gran complejidad ideado en 1986, para demostrar la factibilidad científica y tecnológica de la fusión nuclear. 
  • Biología Computacional para modelar el cerebro por ejemplo y para análisis del genoma, modelado de epidemias, etc.
  •  Modelado avanzado de temas relacionados con la exploración petrolera,  métodos avanzados computacionales y técnicas para exploración petrolera. 
  • Modelado de desastres naturales pero principalmente de Calidad del Aire. 
  • Nuevas arquitecturas, exa-computadoras, necesidades en el Software para suplir lo que el Hardware no puede llevar a cabo, supercomputadoras con NVidia, etc.
Latest development and trends in Supercomputing: Ron Perrot, Queen's University Belfast, Inglaterra  r.perrott@qub.ac.uk, http://www.cs.qub.ac.uk/~R.Perrott/   
  El Dr. Perrot habló también de las tendencias en supercómputo, haciendo nuevamente énfasis en el consumo de energía, este tema se ve que tiene prioridad por el costo de la energía, mencionó por ejemplo que a veces lo que falla es la colaboración y que el ancho de banda muchas veces no es el problema para proyectos de colaboración 
Nuevamente se trató lo de las nuevas arquitecturas (que en realidad son conceptos ya tratados pero modernizados por el hardware),  de que se va a requerir desarrollar con software lo que el hardware no puede ya que por ejemplo:
  • Mover los datos en la memoria es caro (consumo de energía) y será necesario ver cómo solucionar esto por software
  • Como atacar un problema en hardware heterogéneo que se debería solucionar por software
  • El incremento en poder de procesamiento cada década pero de la mano con el consumo de energía, que a lo mejor por software se puede solucionar
  • El Dr. Perrot habló también de HPC (High-performance computing) y sus perspectivas, que complementó la ponencia del Dr. Valero, haciendo mención a las arquitecturas que vienen como por ejemplo las supercomputadoras chinas con su procesador chino, la integración de ARM con NVidia para optimización de supercomputadoras, los desarrollos de IBM, etc.
 Le siguieron una serie de platicas de diversos temas que sería demasiado extenso para tratar en este blog por lo que solo dplatico una pequeña sinopsis de ellos.

Prof. Celso Garrido, HPC as Driver for Innovation, UAM. El profesor Garrido hablo de los problemas para justificar la inversión en este campo, buscar una serie de pasos que logren que las empresas al ver lo que pueden obtener del supercómputo, se decidan invertir en este terreno, buscar una especie de círculo virtuoso para generar la inversión.
También hablo de cómo la tendencia nos está llevando a la computación en la nube, y que deberíamos ver el supercómputo o el HPC como un servicio más de la nube hasta llegar a un ecosis-tema.

  • Mencionó que se necesita una política nacional o sistema nacional de investigación en este campo y de ver al HPC como una herramienta de innovación, para simular y para competir, quedando una unión virtuosa entre Universidades-Empresas.
Prof. Jose Augustin Reynoso, Air Quality Modeling: from Forecasting to Climate Change and the need of HPC and Supercomputing in this area. UNAM. El Profesor Reynoso hablo de los trabajos que desarrollan en calidad del aire, donde modelan el comportamiento de los contaminantes, principalmente del ozono, para tratar de dar una información de la calidad del aire en la ciudad de México, que se ve afectado por muchos efectos indirectos como 
  • volcanes, contaminación de otras áreas que incide en la ciudad.
  • Hablo de modelar los contaminantes producidos por un automóvil y tratar de hacer estudios del efecto de los autos en la ciudad, pero las limitantes en poder de cómputo hacen complicado estos trabajos, además falta desarrollo de software y el resultado si esto se supera podría ser un sistema de alerta en tiempo real, un modelo para predicción de contaminantes, una mejor toma de decisiones, etc.
Prof. J.M. Cela, Oil Exploration Simulation and Modelling, BSC. El profesor Cela es parte del Centro de Supercómputo de Barceelona, fue una extraordinaria presentación de los trabajos que desarrollan en la exploración para búsqueda de mantos petroleros en el mar, generando una imagen sísmica del subsuelo marino, un modelado de yacimientos y a futuro, un medio para determinar con precisión donde perforar en el mar.     Este centro desarrolla el Software lo que habla del adelanto tecnológico que tienen, además están trabajando en muchas áreas de importancia:
  • Simulación para evitar el uso de túneles de viento en alas de aviones
  • Simulación de corazón, ya tienen casi lista la simulación de un corazón de un conejo, con unas imágenes de muy buena calidad, ahí si se usa Elemento Finito en serio
  • Modelado de contaminación
  • A futuro piensan usar pulsos electromagnéticos para la búsqueda de yacimientos de petróleo, actualmente lo hacen con ondas mecánicas pero para avanzar requieren solucionar ecuaciones mucho más complicadas y los limita el poder de cómputo
Dr. Leonid Sheremetov, High Performance Computing in Petroleum Exploration and Production: IMP experience, IMP.

Esta parte fue más bien de los trabajos que desarrolla el Instituto Mexicano del Petróleo, dando una buena panorámica de que hacen en 3 rubros:

  • Simulación de suelo (Minería)
  • Sistemas de Información por el volumen de datos y porque buscan Pozos Inteligentes
  • Medición mediante SCADA
Prof. Hector Limon, Natural Disaster Mitigation: The LA Grid Inictative, University of Guadalajara. Hablaron del modelado para mitigar desastres naturales, modelando por ejemplo:
  •  Huracanes
  • Sismos
  • Calidad del aire
Se habló de la Iniciativa LA GRID de la Universidad de Guadalajara, en HPC.
Dr. Gerardo Zavala Guzmán, de la Universidad de Guanajuato, que trabaja en el Proyecto MINERvA http://minerva.fnal.gov/, proyecto de FERMILAB http://www.fnal.gov/ en un estudio de detección de Nutrinos, en Física de Altas Energías (en realidad Medias Energías), un proyecto en verdad impresionante en donde la supercomputación es básica. De hecho ya tienen una pequeña supercomutadora para trabajar en México con lo que obtienen en FERMILAB.

Prof. Mauricio Carrillo Tripp, CINVESTAV,Computational Biophysics: Current trends, needs and challenges in terms og High Perfomance Computing. Habló de la Biofísica Computacional (aplicaciones de las leyes físicas para entender la vida), por ejemplo modelando las células, que ha ido poco a poco avanzando a medida que el poder de cómputo avanza, hablan de poder modelar ya casi una célula completa.

Dr. Andrei Tchernyck, HPC in Mexico: Looking to the Future based on solid foundations, CICESE.  El Dr. Tchernyck hablo de los proyectos que tiene el CICESE, uno de ellos financiado por PE-MES en el Golfo de México, donde también evidenció el desastre de las universidades y centros en la adquisición de equipo por falta de una política nacional de adquisiciones, donde en ese centro tienen algunos sectores hasta con supercomputadoras y otros con una enorme carencia de equipo.


Prof. Adolfo Guzmán Arena, Centro de Investigación en Computación, Inst. Politécnico Nal.(IPN). Hablo de los trabajos que tienen en:

  • Generación de conocimiento automático a partir de documentos
  • De sus trabajos en hacer minería de datos a partir de información
    Del uso de la inteligen-cia artificial en generación y clasificación de información
  • High Performance Computing, Artificial Intelligence, implementation in México.
  • Habló del estado de HPC en México y sus perspectivas
Que después de esas sesiones, me tome muchas horas para reflexionar sobre la enorme necesidad que tenemos de una supercomputadora. 

Saludos


Alberto

2 comentarios:

  1. Buenos días Maestro Larandi, soy Erik Enríquez, estuve un tiempo con el Mtro. Gabriel Lozano en el departamento de redes, con mucho gusto me encuentro con Usted investigando un poco sobre mi tema de tesis de maestría: "Implementación de un Cluster HPC para la simulación de ambientes de red complejos".

    ResponderEliminar
  2. Bien, hace ,ucha falta eso, la UV no tiene un solo proyecto institucional serio de crear un cluster y urge, yo lo he venido planteando a lo largo de muchos años si éxito, felicidades por agarran un tema como este

    Saludos!

    ResponderEliminar