viernes, 30 de noviembre de 2018

La transformación del Cómputo de Alto Rendimiento

Mientras la conferencia anual de Super Cómputo celebró su cumpleaños número 30 en Dallas la semana pasada, recordamos que ha llegado el Super Cómputo y lo emocionante que es la industria de Cómputo de Alto Rendimiento en este momento.

Con el auge de Big Data, esta inmensa cantidad de información representa una gran oportunidad para los investigadores que tienen nuevo combustible para sus proyectos. Pero también proporciona un nuevo conjunto de desafíos, ya que la gran cantidad de información requiere nuevas operaciones para maximizar y crear conocimiento.

Hoy no solo se están explorando nuevas formas de infundir Cómputo de Alto Rendimiento con prácticas de Inteligencia Artificial para descubrir esas nuevas ideas, sino también para crear mejores herramientas para casi todas las etapas del flujo de trabajo moderno de Cómputo de Alto Rendimiento, para capacitar a los investigadores con la capacidad de comprender lo que parece insondable, poniendo orden en el caos que ha creado el diluvio de datos.

Simulación inteligente

Los saltos que la informática de alto rendimiento ha logrado en el poder de la computación, no siempre se correlacionan con conocimientos mejorados, por lo que se están examinando formas para que los investigadores apliquen análisis avanzados para diseñar mejores experimentos. Una de esas herramientas es la metodología bayesiana, un principio comprobado de las matemáticas que analiza lo que sabe y sugiriendo lo que se debe hacer a continuación, ayudando así a eliminar las simulaciones que probablemente no den los resultados deseados de los diseños de experimentos.

Se ha trabajado con clientes en productos farmacéuticos, química y ciencia de los materiales y se han observado que la aplicación de los principios bayesianos ha reducido el número de las simulaciones hasta en un 75%, al ​​tiempo que aumenta la precisión de las respuestas. En una era en la que la Ley de Moore ya está quedando obsoleta, estas técnicas podrían ser el camino para reducir radicalmente el costo del hardware y una visión más profunda, mediante una combinación de técnicas clásicas de HPC y análisis modernos.

Actualmente se trabaja para encapsular esta capacidad en un dispositivo que se puede instalar adyacente a un clúster existente de cualquier arquitectura, para mejorar su capacidad de procesamiento. En su forma actual, el dispositivo estaría preprogramado, por lo que los investigadores solo necesitan decirle a los sistemas que intercambien datos y el dispositivo Bayesiano diseñará instrucciones de simulación más inteligentes para el grupo primario. Pero este es solo el primer paso para hacer que la simulación sea más inteligente, y ya se está viendo un fuerte respaldo de los ecosistemas en la creación de soluciones de simulación inteligentes.

-"Penguin e IBM, ambos miembros de la Fundación OpenPOWER, han estado trabajando juntos para brindar a nuestros clientes de HPC soluciones de alto valor"-, dijo Phil Pokorny, CTO de Penguin Computing. -"La simulación inteligente es algo que creemos que tiene un gran potencial para mejorar la capacidad de nuestras soluciones y esperamos trabajar con IBM para evaluar áreas de aplicación"-.

-"Cray e IBM han colaborado en varias oportunidades de HPC en los últimos años combinando tecnologías de ambas compañías para brindar a nuestros clientes el mejor valor posible"-, agrega Joseph George, Director Ejecutivo de Alianzas de Cray. -"Esperamos trabajar con IBM para evaluar oportunidades para la inclusión de herramientas de simulación inteligente en soluciones de colaboración en una variedad de dominios de aplicaciones"-.

Descubrimiento cognitivo para HPC

Si bien los métodos de análisis avanzados como la Optimización Bayesiana pueden diseñar experimentos más inteligentes, aún dependen de las técnicas tradicionales de HPC para realizar el trabajo. Además, es un hecho aceptado que la preparación y la ingestión de datos no estructurados pueden tomar hasta el 80% del tiempo de un investigador y la Optimización Bayesiana no aborda ese problema principal.

A través de colaboraciones con muchos clientes en petróleo y gas, materiales, fabricación y más, IBM está investigando nuevas herramientas para ayudarles con la ingesta de datos a gran escala. Estas herramientas integradas están siendo diseñadas para ayudar a reunir mejor un catálogo de datos científicos, convirtiéndolos  automáticamente en un "gráfico de conocimiento", una representación visual de las relaciones de los datos.

Los investigadores de IBM han documentado que han utilizado estas herramientas inéditas para construir un gráfico de conocimiento de 40 millones de documentos científicos en solo 80 horas, una tasa de 500,000 documentos por hora. Las herramientas de investigación pueden ingerir e interpretar datos en formato PDF, cuadernos escritos a mano, hojas de cálculo, imágenes y más. La herramienta se está diseñando para ayudar a poner en orden los datos caóticos y contribuir al establecimiento de una memoria corporativa para todo el trabajo de HPC que una organización haya realizado. Algo de importancia crítica cuando los empleados se jubilan o se van.

Tiene capacidades de búsqueda profunda incorporadas que permiten la exploración de consultas muy complicadas en relación con el gráfico de conocimiento, junto con los materiales de resultados de búsqueda de clasificación de relevancia para la consulta deseada.

Para ayudar a que estas herramientas se apliquen en una amplia variedad de casos de uso empresarial, se pueden usar para crear aplicaciones verticales, específicas de dominio. Por ejemplo, en el La American Chemical Society (ACS) en Boston a principios de este año, presentaron una herramienta llamada IBM RXN que predice el resultado de reacciones químicas orgánicas. Esta herramienta está disponible en la web sin costo alguno a través del sistema IBM Zurich. En el contexto de HPC, esta tecnología presenta un enfoque unificado para complementar las simulaciones existentes con análisis inspirados en datos. Y puede, en algunos casos, incluso desplazar el mod-sim clásico por completo.


Comience a explorar el HPC cognitivo con los sistemas IBM

Se está ya examinando formas de incorporar estas capacidades al conjunto existente de productos controlados por Inteligencia Artificial, incluidos el servidor IBM Power Systems AC922 y el almacenamiento IBM ESS, el componente básico de Summit y Sierra, y el kit de herramientas de aprendizaje profundo para empresas líder en la industria: PowerAI. Los usuarios interesados en ponerse en marcha rápidamente también pueden explorar la nueva oferta de Plataforma de Cómputo Acelerada, que combina el cómputo, el almacenamiento y las redes con el software precargado en un rack plug-and-play.

En conclusión, ya no es necesario esperar mucho para ver y obtener los beneficios de todo lo que ya está aquí con el Cómputo de Alto Rendimiento, acelerado gracias a la Transformación Digital, la Convergencia Informática, la Tercera Plataforma y la Cuarta Revolución Industrial.

¿En qué puede apoyarle el Cómputo de Alto Rendimiento?

No hay comentarios:

Publicar un comentario

Todos los derechos reservados.
Copyright © 2025.