El 22 de mayo de 2023, en ISC High Performance 2023, en Hamburgo, Alemania, Intel y el Laboratorio Nacional Argonne destacaron el progreso de la instalación de la supercomputadora Aurora. (Crédito: Laboratorio Nacional Argonne)
El 22 de mayo de 2023, en ISC High Performance 2023, en Hamburgo, Alemania, Intel y el Laboratorio Nacional Argonne destacaron el progreso de la instalación de la supercomputadora Aurora. (Crédito: Laboratorio Nacional Argonne)
El 22 de mayo de 2023, en el ISC High Performance 2023 en Hamburgo, Alemania, el Laboratorio Nacional Argonne en colaboración con Intel y HPE, anunció planes para crear una serie de modelos de IA generativa para la comunidad de investigación científica. (Crédito: Intel Corporation)
El 22 de mayo de 2023, en ISC High Performance 2023, en Hamburgo, Alemania, Intel ha presentado el subsistema Intel Data Center GPU Max x8 UBB para computación de alto rendimiento (HPC) e inteligencia artificial (AI) con los principales fabricantes de equipos originales (OEM). (Crédito: Intel Corporation)
El 22 de mayo de 2023, en ISC High Performance 2023, en Hamburgo, Alemania, el lLaboratorio Nacional Argonne resaltan el progreso de la instalación, las especificaciones del sistema y los resultados iniciales de desempeño de la supercomputadora Aurora. (Crédito: Intel Corporation)
El 22 de mayo de 2023, en ISC High Performance 2023 en Hamburgo, Alemania, Intel compartió detalles de su oneAPI mejorada y herramientas de inteligencia artificial (AI) para ayudar a los desarrolladores a acelerar la computación de alto rendimiento (HPC) y las cargas de trabajo de AI al tiempo que mejora la portabilidad de código a través de múltiples arquitecturas. (Crédito: Intel Corporation)
El 22 de mayo de 2023, en la ISC High Performance 2023 celebrada en Hamburgo (Alemania), Intel compartió detalles de su rendimiento competitivo en cargas de trabajo de computación de alto rendimiento (HPC) e inteligencia artificial (IA) con la GPU Intel Data Center Serie Max. (Crédito: Intel Corporation)
El 22 de mayo de 2023, en el ISC High Performance 2023 en Hamburgo, Alemania, el Laboratorio Nacional Argonne en colaboración con Intel y HPE, anunció planes para crear una serie de modelos de IA generativa para la comunidad de investigación científica. (Crédito: Intel Corporation)
Resúmenes de las noticias
- La amplia cartera de productos de HPC e IA de Intel ofrece un desempeño competitivo, ya que la GPU intel® para centros de datos serie Max 1550 muestra una aceleración promedio del 30% con respecto a Nvidia H100 en una amplia variedad de cargas de trabajo científicas. 1
- Las actualizaciones de la hoja de ruta de productos destacan Granite Rapids, una CPU de nueva generación para hacer frente a las demandas de ancho de banda de memoria, y la GPU Falcon Shores para satisfacer un conjunto diverso y en expansión de cargas de trabajo para HPC e IA.
- El Laboratorio Nacional Argonne e Intel anuncian las especificaciones completas de Aurora, el impulso del sistema y la iniciativa internacional con Hewlett Packard Enterprise (HPE) y sus socios para llevar el poder de la IA generativa y los grandes modelos de lenguaje (LLM) a la ciencia y la sociedad.
- Las herramientas de oneAPI e IA mejoradas ayudan a los desarrolladores a acelerar las cargas de trabajo de HPC e IA, y a mejorar la portabilidad de código en varias arquitecturas.
HAMBURGO, Alemania, 22 de mayo de 2023 – En ISC High Performance Conference, Intel presentó el rendimiento de liderazgo para cargas de trabajo de informática de alto desempeño (HPC) e inteligencia artificial (IA); compartió su cartera de futuros productos de HPC e IA, unificados por el modelo de programación abierta oneAPI; y anunció un ambicioso esfuerzo internacional por utilizar la supercomputadora Aurora para desarrollar modelos de IA generativos para la ciencia y la sociedad.
Más: International Supercomputing Conference 2023 (Hoja de cotizaciones)
"Intel se ha comprometido a servir a la comunidad de HPC e IA con productos que ayuden a los clientes y a los usuarios finales a realizar descubrimientos innovadores de manera más rápida", destacó Jeff McVegh, Intel corporate vice president and general manager of the Super Compute Group. "Nuestra cartera de productos que abarcan Intel® Xeon® SERIE CPU Max, Intel® Data Center GPU Serie Max, procesadores escalables de 4ª generación Intel® Xeon® y Habana® Gaudi®2 están superando a la competencia en una variedad de cargas de trabajo, ofreciendo energía y ventajas de coste total de propiedad, democratizando la IA y ofreciendo opciones, apertura y flexibilidad".
Intel en ISC'23: sesión de Jeff McVeigh sobre HPC acelerada por IA (repetición)
ISC High Performance Conference in Hamburg, Germany, Jeff McVeigh, corporate vice president and general manager of the Super Compute Group at Intel, ofreció una presentación sobre cómo la inteligencia artificial (IA) está acelerando la computación de alto rendimiento (HPC). Como parte de su charla del 22 de mayo de 2023, McVeigh reveló datos de rendimiento de los productos de IA y HPC de Intel, anunció las últimas actualizaciones con el Laboratorio Nacional de Argonne y describió la hoja de ruta de HPC de Intel. (Crédito: Corporación Intel)
Rendimiento de hardware a escala
En la presentación especial de Intel, McVeigh destacó los últimos resultados de rendimiento competitivo en toda la gama de hardware y compartió con los clientes el fuerte impulso de la empresa.
- La GPU Intel® para centros de datos serie Max supera a la tarjeta NVIDIA H100 PCIe en un promedio del 30% en diversas cargas de trabajo1, mientras que el proveedor de software independiente Ansys muestra un aumento del 50% en la GPU de la serie max sobre H100 en aplicaciones HPC aceleradas por IA. 2
- La CPU Xeon Max Series, el único procesador x86 con memoria de alto ancho de banda, presenta una mejora del 65% con respecto al procesador Genoa de AMD en el análisis de referencia de gradientes conjugados de alto desempeño (HPCG)1, con menos potencia. El gran ancho de banda de la memoria es una de las características más deseadas por los clientes de HPC. 3
- Los procesadores Intel Xeon Scalable de 4ª generación -los más utilizados en HPC- ofrecen un 50% más de velocidad media que los Milan de AMD4, y el clúster HPC Xeon de 4ª generación más reciente de la empresa energética BP multiplica por 8 el rendimiento de sus procesadores de la generación anterior con una mayor eficiencia energética.
- El acelerador de aprendizaje profundo Gaudi2 ofrece un rendimiento competitivo en entrenamiento e inferencia de aprendizaje profundo, con un desempeño hasta 2,4 veces más rápido que Nvidia A100. 1
Los clientes han anunciado recientemente nuevas instalaciones con procesadores Intel® Xeon® de 4ª Generación y Max Series:
- La Universidad de Kioto está desplegando Xeon de 4ª generación para Laurel 3 y Cinnamon 3, y procesadores Xeon de la serie Max para Camphor 3.
- Cineca desplegó Leonardo con procesadores Intel Xeon de 4ª generación.
- University of Rochester (Universidad de Rochester) - El Laboratorio de indagados láser está implementando un clúster con procesadores Xeon de4ª generación.
- Servicio Meteorológico Nacional de Argentina implementará un sistema con CPUs y GPUs de la serie Max.
Además, el Cambridge Open Zettascale Lab de la Universidad de Cambridge ha desplegado el primer banco de pruebas de GPU Max del Reino Unido y está obteniendo resultados positivos en aplicaciones de dinámica molecular e imagen biológica. Asimismo, RIKEN anunció un memorando de entendimiento con Intel destinado a acelerar la investigación y el desarrollo conjuntos en el campo de las tecnologías informáticas avanzadas, como la IA, la HPC y la computación cuántica. Como parte del Memorando de Entendimiento, RIKEN también colaborará con Intel Foundry Services para crear prototipos de estas nuevas soluciones.
Procesadores competitivos para cada carga de trabajo
Las cargas de trabajo de HPC e IA emergentes y dinámicas requieren una cartera completa de soluciones de hardware y software. McVeigh alto ofreció una descripción general de las ofertas de centros de datos de Intel que ofrecen muchas opciones y soluciones para la comunidad de HPC, ayudando a democratizar la IA.
En su presentación, McVeigh presentó las CPU de próxima generación de Intel para satisfacer las exigencias de alto ancho de banda de memoria. Intel lideró el ecosistema para desarrollar un nuevo tipo de DIMM - Multiplexer Combined Ranks (MCR) - para Granite Rapids. MCR logra velocidades de 8800 megatransferencias por segundo basadas en DDR5 y más de 1,5 terabytes/segundo (TB/s) de capacidad de ancho de banda de memoria en un sistema de dos sockets. Este aumento en el ancho de banda de memoria es fundamental para potenciar el rápido aumento de los recuentos de núcleos de las CPU modernas y permitir la eficiencia y flexibilidad.
Intel también reveló un nuevo subsistema basado en GPU serie X8 Max optimizado para IA de Supermicro, diseñado para acelerar el entrenamiento de aprendizaje profundo. Además de acceder a través de la versión beta5 de Intel® Developer Cloud a finales de este año, varios OEM ofrecerán soluciones con subsistemas GPUs serie Max x4 y x8 OAM y tarjetas PCIe, que estarán disponibles durante el verano.
La GPU Max Series de Intel de próxima generación, Falcon Shores, ofrecerá a los clientes la flexibilidad para implementar combinaciones de CPU a nivel de sistema y GPU discreta para las nuevas y rápidas cargas de trabajo del futuro. Falcon Shores se basa en una arquitectura modular y basada en mosaicos y podrá:
- Admitir tipos de datos de HPC e IA, desde FP64 hasta BF16 hasta FP8.
- Habilitar hasta 288 GB de memoria HBM3 con hasta 9,8 TB/s de ancho de banda total y E/S de alta velocidad mucho mejor.
- Potenciar el modelo de programación CXL.
- Presentar una interfaz de programación de GPU unificada a través de oneAPI.
IA generativa para la ciencia
El Laboratorio Nacional de Argonne, en colaboración con Intel y HPE, anunció planes para crear una serie de modelos de IA generativos para la comunidad de investigación científica.
"El proyecto pretende aprovechar todo el potencial del superordenador Aurora para producir un recurso que pueda utilizarse para la ciencia descendente en los laboratorios del Departamento de Energía y en colaboración con otros", declaró Rick Stevens, director asociado del laboratorio de Argonne.
Estos modelos de IA generativos para la ciencia estarán capacitados en texto general, código, textos científicos y datos científicos estructurados de biología, química, ciencia de materiales, física, medicina y otras fuentes.
Los modelos resultantes (con hasta 1 billón de parámetros) se utilizarán en una variedad de aplicaciones científicas, desde el diseño de objetos y materiales, hasta la síntesis del conocimiento en millones de fuentes, para proponer nuevos e interesantes experimentos en biología de sistemas, química de síntesis y materiales energéticos, ciencia del clima y criptografía. El modelo también se utilizará para acelerar la identificación de procesos relacionados con el cáncer y otras adicciones, además de proponer objetivos para el diseño de objetos con fines de investigación.
Argonne encabeza una colaboración internacional para impulsar el proyecto, en la que participan Intel, HPE, laboratorios del Departamento de Energía, universidades estadounidenses e internacionales, organizaciones sin ánimo de lucro y socios internacionales como RIKEN.
Además, Intel y el Laboratorio Nacional Argonne destacaron el progreso de la instalación, las especificaciones del sistema y los primeros resultados de rendimiento de Aurora:
- Intel ha completado la entrega física de más de 10.000 blades para el superordenador Aurora.
- El sistema completo de Aurora, construido con supercomputadoras HPE Cray EX, contará con 63 744 GPU, 21 248 CPU y 1024 nodos de almacenamiento DAOS. Y utilizará la red Ethernet de alto rendimiento HPE Slingshot.
- Los primeros resultados muestran un desempeño líder en cargas de trabajo de ingeniería y ciencias del mundo real, con un desempeño hasta 2 veces superior a las GPU AMD MI250, una mejora del 20% con respecto a H100 en la aplicación mecánica cuántica de QMCPACK y una ampliación casi lineal de cientos de nodos. 2
Se espera que Aurora ofrezca más de 2 exaflops de rendimiento informático máximo de doble precisión cuando se lance este año.
Computación acelerada abierta y productiva a través de oneAPI
En todo el mundo, alrededor del 90% de todos los desarrolladores se benefician o utilizan software desarrollado para o optimizado por Intel. 6 Desde que se lanzó el modelo de programación oneAPI en 2020, los desarrolladores han demostrado oneAPI en diversos componentes de CPU, GPU, FPGA e IA de varios proveedores de hardware, abordando los desafíos de los modelos de programación acelerados de un solo proveedor. Las herramientas intel oneAPI más recientes ofrecen velocidades para aplicaciones HPC con descarga de GPU OpenMP, amplían la compatibilidad con OpenMP y Fortran, y aceleran la IA y el aprendizaje profundo a través de marcos optimizados, incluidos TensorFlow y PyTorch, y herramientas de IA, lo que permite pedidos de mejoras de desempeño de tipo 'bfle'.
oneAPI facilita a los programadores la programación multiarquitectura a través de la implementación de SYCL de oneAPI, complementos oneAPI para procesadores Nvidia y AMD desarrollados por Codeplay, y la Intel® DPC++ Compatibility Tool (basada en SYCLomatic de código abierto) que migra el código de CUDA a SYCL y C++ donde el 90-95 % del código por lo general migra automáticamente. 7 El código SYCL resultante muestra un desempeño comparable con el mismo código que se ejecuta en los idiomas de los sistemas nativos de Nvidia y AMD. Los datos muestran que el código SYCL de la aplicación astrofísica DPEcho ejecutado en la GPU de la serie Max supera al mismo código CUDA en la Nvidia H100 en un 48%. 1
El ecosistema más amplio también se está adoptando como SYCL. Eviden, una empresa de Atos, ha anunciado CEPP one+ con Intel, un servicio de modernización de código HPC/AI basado en el Centro de Excelencia en Programación de Rendimiento (CEPP) de Eviden. CEPP one+ se centrará en la adopción de SYCL y OpenMP, preparando a la comunidad para un panorama informático heterogéneo mientras proporciona la libertad de elección en hardware a través de estándares abiertos.
Descargos de responsabilidad y configuración:
1 Visite la página de la International Supercomputing Conference (ISC'23) sobre intel.com/performanceindex las cargas de trabajo y las configuraciones. Los resultados pueden variar.
2 Intel no controla ni audita los datos de terceros. Consultar otras fuentes para evaluar la exactitud.
3Actualización del mercado de HYPERION Research HPC, noviembre de 2022.
4 Intel® Xeon® 8480+ tiene un desempeño de HPC de geomea 1,5 veces mayor en 27 análisis de rendimiento y aplicaciones que AMD EPYC 7763. Los resultados pueden variar.
5 La versión beta de Intel Developer Cloud está disponible actualmente para seleccionar clientes precalificados.
6 Según estimaciones de Intel.
7 Estimaciones de Intel al mes de marzo de 2023. Basado en mediciones sobre un conjunto de 85 pruebas y muestras HPC, con ejemplos como Rodinia, SHOC, PENNANT. Los resultados pueden variar.
El rendimiento puede variar según el uso, la configuración y otros factores. Los resultados de rendimiento se basan en pruebas realizadas en las fechas indicadas en las configuraciones y puede que no reflejen todas las actualizaciones de seguridad disponibles públicamente. Ningún producto o componente es completamente seguro.
Los costes y resultados pueden variar.
Es posible que las tecnologías Intel requieran hardware habilitado, software específico u otra activación de servicios.
Las declaraciones de este documento que se refieran a planes o expectativas futuras son declaraciones a futuro. Dichas declaraciones se basan en las expectativas reales y pueden implicar muchos riesgos e incertidumbres que podrían ocasionar que los resultados difieran materialmente de aquellos esperados o implícitos en dichas declaraciones. Para más información sobre los factores que podrían hacer que los resultados reales sean materialmente distintos, consulte nuestra última divulgación de ingresos y presentación ante la SEC en www.intc.com.