HPC e IA: una potente combinación

El aprendizaje automático y el aprendizaje profundo mejoran la HPC para extraer nueva información más rápido.

Más datos y análisis más profundos con la IA para HPC

  • Las implementaciones de IA tienen similitudes con la arquitectura informática de la HPC, y ambas se benefician de configuraciones parecidas basadas en hardware Intel® de alto rendimiento.

  • Los investigadores del CERN están empleando redes neuronales convolucionales habilitadas para Intel® que integran las leyes de la física en modelos de IA con el fin de impulsar unos resultados más precisos para casos de uso en el mundo real.

  • Intel ayuda a reducir la compensación entre plataformas IA y HPC dedicadas con IA acelerada por hardware, programación unificada de plataformas con oneAPI y soluciones Intel® Select simplificadas que ayudan a reducir la fricción en el diseño y desarrollo de sistemas.

author-image

Por

HPC aumentada con IA

La arquitectura necesaria para las implementaciones de HPC tiene muchas similitudes con las implementaciones de IA. Ambas utilizan altos niveles de informática y almacenamiento, una alta capacidad de memoria y ancho de banda y tejidos de alto ancho de banda para alcanzar resultados, normalmente mediante el procesamiento de conjuntos de datos masivos de tamaño creciente. El aprendizaje profundo es un gran apoyo para los problemas que suele abordar la HPC y que implican conjuntos de datos muy grandes y multidimensionales. Por ejemplo, Quantifi utilizó IA con tecnología Intel para acelerar la valoración de derivados en mercados financieros con un factor 700 veces mayor que los métodos convencionales,1 proporcionando resultados en tiempo casi real para cargas de trabajo de valoración habituales.

La promesa la IA en la HPC es que los modelos de IA pueden aumentar los análisis de nivel experto de conjuntos de datos para producir resultados más rápidamente con el mismo nivel de precisión. Los casos de uso clave de la HPC se benefician de capacidades de IA avanzadas, como:

  • Análisis para servicios financieros (FSI), como la detección de riesgos y fraudes, la logística y la fabricación.
  • Diseño de productos industriales, dinámica computacional de fluidos (CFD), ingeniería asistida por ordenador (CAE) y diseño asistido por ordenador (CAD).
  • Visualización y simulación científica, especialmente en campos como la física de alta energía.
  • Clustering de patrones, ciencias de la vida, secuenciación genómica e investigación médica.
  • Ciencias de la Tierra exploración del sector energético.
  • Clima, meteorología y ciencia climática.
  • Astronomía y astrofísica.

Cómo han cambiado las cargas de trabajo

Muchos de los casos de uso actuales de la IA están limitados al perímetro o a implementaciones en centros de datos, como sistemas de tráfico inteligentes que recurren en gran medida a cámaras inteligentes para el reconocimiento de objetos mediante IA. Los algoritmos que subyacen a los modelos de IA se han vuelto mucho más complejos y ofrecen mayor potencial, pero también más requisitos computacionales para el descubrimiento científico, la innovación y las aplicaciones industriales y empresariales. El reto ahora es cómo escalar la inferencia con IA a niveles de HPC, o cómo pasar de reconocer patrones de tráfico en una intersección a secuenciar un genoma en horas, en lugar de semanas.

Por fortuna, la comunidad de HPC ofrece décadas de experiencia en cómo abordar los desafíos de la inteligencia artificial a escala, como la necesidad de un mayor paralelismo, E/S rápida para conjuntos de datos masivos y la navegación eficiente de entornos informáticos distribuidos. Capacidades de HPC como estas pueden ayudar a acelerar la IA para lograr resultados útiles, como la aplicación de heurística de nivel experto mediante inferencia de aprendizaje profundo a miles de transacciones, cargas de trabajo o simulaciones por segundo.

Redes neuronales basadas en la física (PINNs)

Un ejemplo de uso de HPC aumentada por IA es la integración de las leyes de la física en la inferencia de modelos para generar resultados más realistas. En estas aplicaciones, las redes neuronales deben obedecer leyes conocidas, como la conservación de la masa, la energía y la velocidad, y se les llama redes neuronales basadas en la física (PINNs). Las PINN se pueden usar para aumentar o sustituir el modelado y la simulación de HPC para casos de uso como el análisis de flujo de fluidos, la dinámica molecular, el diseño de perfiles alares y motores de aeronaves y física de alta energía.

Por ejemplo, los investigadores del CERN usaron Intel® Deep Learning Boost (Intel® DL Boost) en procesadores escalables Intel® Xeon® para sustituir las simulaciones de Montecarlo para colisiones de partículas. La cuantificación int8 de baja precisión ayudó a ofrecer un procesamiento hasta 68 000 veces más rápido que las simulaciones de software,2, además, con una ligera mejora de precisión.

La IA en la HPC se impulsa con el crecimiento de datos

El principal impulsor de las cargas de trabajo de HPC e IA es el crecimiento persistente de los datos y la necesidad de adaptar el ritmo de los análisis de escala HPC. La sofisticación de los algoritmos de IA aumenta, y estos pueden gestionar conjuntos de datos mucho mayores que en años anteriores, especialmente desde la introducción de metodologías de aprendizaje profundo. Disciplinas como la secuenciación genómica generan una enorme cantidad de datos, e instituciones como el Broad Institute del MIT y Harvard generan aproximadamente 24 terabytes de nuevos datos cada día3

La IA ayuda a acelerar las cargas de trabajo críticas, para que los descubrimientos no se queden atrás. Por ejemplo, Intel se ha asociado con el Broad Institute para desarrollar una solución Intel® Select para el Genomics Analytics Toolkit (GATK), que integra aceleración de IA habilitada con hardware con el fin de impulsar cargas de trabajo de HPC para conjuntos de herramientas de genómica clave. Con la solución Select GATK, el Broad Institute pudo lograr una aceleración 1,75 veces mayor para la aplicación Burrow-Wheeler Aligner (BWA) y una aceleración del doble para la aplicación HaplotypeCaller.4

El Centro de Supercomputación de San Diego (SDSC) alberga uno de los centros académicos de datos más grandes del mundo y ha sido reconocido como uno de los líderes internacionales en el uso, la gestión y el almacenamiento y conservación de datos. El sistema centrado en la IA permite a los científicos desarrollar nuevos enfoques para el entrenamiento y la inferencia acelerados. Caso de estudio: El SDSC construye el superordenador “Voyager” centrado en la IA.

Superando los desafíos de la IA con en la adopción de la HPC

En lo que respecta a configuraciones de IA, tradicionalmente los requisitos de la IA y la HPC dentro de la arquitectura de la CPU se compensan mutuamente. Las cargas de trabajo que demandan mucho a la IA normalmente dan más importancia al número de núcleos que a la velocidad, mientras que las cargas de trabajo de HPC normalmente prefieren mayor rendimiento de computación con un alto número de núcleos y mayor ancho de banda de núcleo a núcleo. Con mejoras generacionales continuas, Intel ofrece soluciones que incluyen aceleración integrada en los procesadores escalables Intel® Xeon®.

Las siguientes innovaciones clave en el terreno del hardware y el software están facilitando diseñar y construir soluciones de IA:

  • Los procesadores escalables Intel® Xeon® ofrecen los altos niveles requeridos de rendimiento de IA con aceleración de IA integrada. Intel® AVX-512 con Intel® DL Boost1 Vector Neural Network Instructions (VNNI), exclusivo de los procesadores Intel®, ofrece un rendimiento de IA optimizado para extraer mejor información en menos tiempo.
  • Las bibliotecas de optimización de baja precisión dentro de Intel® oneAPI AI Analytics Toolkit están facilitando la codificación para plataformas de HPC e IA, a la vez que aumentan el rendimiento y mantienen los umbrales de precisión.
  • Las FPGA Intel® para el aprendizaje automático admiten una alta paralelización y ayudan a acelerar el tiempo de obtención de resultados e información para cargas de trabajo de HPC e IA.
  • La plataforma Gaudi de Habana Labs, el equipo de centros de datos de Intel centrado en las tecnologías de procesadores de aprendizaje profundo, permite a los científicos de datos y a los ingenieros de aprendizaje automático acelerar el entrenamiento y construir nuevos modelos o migrar los existentes con solo unas pocas líneas de código para disfrutar de una mayor productividad, así como para reducir los costes operativos. Los aceleradores de Habana están diseñados específicamente para el entrenamiento de modelos de IA y para la inferencia a escala.
  • Las Soluciones Intel® Select para clústeres de IA de HPC proporcionan una ruta para implementar cargas de trabajo de IA en plataformas de HPC convergentes sin implementar GPU.
  • Los desarrolladores de IA están refinando sus técnicas y su código para que se ejecute de forma más eficaz en clústeres de HPC. Las nuevas optimizaciones están acelerando las cargas de trabajo de extremo a extremo, desde la carga de datos hasta el preprocesamiento, el entrenamiento y la inferencia.

La complejidad es también una gran fuente de fricción para la adopción de HPC e IA. Las habilidades necesarias son muy específicas de ese ámbito y las empresas tendrán que incorporar especialistas formados en HPC e IA para tener éxito. El liderazgo de Intel en este sector puede ayudar a allanar el terreno, dado que Intel colabora estrechamente con las comunidades de HPC e IA para compartir experiencias e ideas.

Conclusión: llevar inteligencia con IA a la HPC

La IA cada vez más se incorpora en aplicaciones de HPC con nuevas tecnologías y metodologías, lo que aumenta el ritmo y la escala de los análisis de IA para un rápido descubrimiento y extracción de información. Con estas innovaciones, los científicos e investigadores de datos pueden confiar en la IA para procesar más datos, crear simulaciones más realistas y hacer predicciones más precisas, a menudo en menos tiempo.