Descripción general de la superinformática e informática exascala

Desbloquee todo el potencial de los datos a través del gobierno, la academia y la empresa.

Conclusiones principales:

  • La supercomputación ayuda a resolver problemas complejos y con alto volumen de datos en entornos académicos, empresas y el gobierno para mejorar la vida de todos.

  • A partir de 2022, Argonne National Lab alojará el ordenador exascala Aurora, uno de los primeros superordenadores exascala estadounidenses capaz de realizar 10¹⁸ cálculos por segundo.

  • Intel proporcionará nuevas tecnologías que habilitarán esta máquina de tres pilares para gestionar al mismo tiempo modelado y simulación, aprendizaje automático e IA, y big data y análisis.

BUILT IN - ARTICLE INTRO SECOND COMPONENT

La superinformática permite a la administración pública, al mundo académico y a las empresas afrontar una amplia gama de desafíos complejos que requieren enormes conjuntos de datos y cálculos masivos. Las soluciones tecnológicas deben optimizarse y flexibilizarse en diversas cargas de trabajo, para que los investigadores puedan transformar datos en conocimientos extraordinarios lo más fácilmente posible. La cartera de informática de alto rendimiento (HPC) de Intel® ofrece resultados en una amplia gama de cargas de trabajo del mundo real, desde el modelado y la simulación hasta la visualización y el aprendizaje profundo, tanto en las instalaciones como en la nube.

Descripción general de la superinformática e informática exascala

La superinformática ayuda a resolver problemas en ciencia, ingeniería y empresa que hacen que nuestro mundo sea un lugar mejor, desde tratamientos contra el cáncer individualizados hasta predicciones del cambio climático o comprender la química del Big Bang. Para abordar estos problemas tan complejos y con alto volumen de datos, se requiere una enorme potencia de computación. A medida que los conjuntos de datos han ido creciendo, junto con la necesidad de velocidad, la HPC ha avanzado desde superordenadores a ordenadores exascala, como el ordenador exascala Aurora que Argonne National Lab presentará en 2022. Laboratorios nacionales como Argonne, Oak Ridge y Lawrence Livermore ofrecen instalaciones de HPC a la industria y el mundo académico, lo que ofrece un profundo beneficio intelectual y económico de inversiones públicas

¿Qué es la superinformática?

La superinformática es una forma de HPC que utiliza enormes bases de datos, cálculos de alta velocidad, o ambos. Hyperion Research clasifica los superordenadores como cualquier sistema con un valor superior a quinientos mil dólares. Los superordenadores contienen de cientos a miles de nodos, similares a las estaciones de trabajo, que funcionan en paralelo. Cada nodo tiene muchos procesadores o núcleos que realizan instrucciones. Para garantizar que trabajan en sincronía, los ordenadores se comunican a través de una red. Hoy en día, los superordenadores más rápidos resuelven problemas en petascala: 1015 cálculos por segundo (o, para ser precisos, operaciones de coma flotante por segundo), pero eso cambiará con la introducción de ordenadores exaescala, que son mil veces más rápidos. Para ver los superordenadores más rápidos del mundo, vea el TOP500.

Históricamente, los problemas que la supercomputación resolvía incluían el modelado y la simulación. Algunos ejemplos de esto incluyen el estudio de colisiones galácticas, las características subatómicas de átomos, o incluso diseñar un bote de champú que no se rompe cuando se cae. Los fabricantes de automoción han utilizado la superinformática para aumentar el tiempo de diseño de un coche de cinco años a dos, ahorrando miles de millones de dólares y años de tiempo al reducir el número de simulaciones en túneles de viento necesarias. Pero la superinformática también se centra en nuevas preguntas, e incluso descubre nuevos problemas que deben resolverse.

¿Qué es la informática exascala?

Los ordenadores exascala son capaces de calcular al menos 1018 operaciones de coma flotante por segundo, el equivalente a un exaFLOP. Para hacerse una idea de lo rápido que será el ordenador exascala Aurora, imagínese cada una de las casi ocho mil millones de personas en la Tierra utilizando una calculadora para multiplicar dos números cada diez segundos (por ejemplo, 1056,26 x 784,98). A esa velocidad, tardaríamos cuarenta años en completar los cálculos que hace un ordenador exascala en un segundo. Eso es un millón de billones de cálculos por segundos, o 10 elevado a la 18, para aquellos acostumbrados a pensar en muchos ceros.

Tendencias en superinformática

Una manera que tienen los superordenadores de generar nuevos descubrimientos es procesar y analizar conjuntos de datos cada vez más enormes y valiosos. Podemos deducir que las principales tendencias actuales en superinformática abordan el tamaño máximo de esos conjuntos de datos, con la introducción de técnicas de inteligencia artificial, análisis de big data e informática perimetral.

Inteligencia artificial. Las técnicas de IA permiten que los superordenadores hagan inferencias al analizar conjuntos de datos cada vez más grandes. Pero la IA también requiere la potencia de procesamiento necesaria para analizar todos esos datos, lo que la exascala puede gestionar mucho más rápidamente. Los científicos podrán hacer preguntas que no habían hecho antes y obtener respuestas.

Análisis de Big Data. El big data se ha convertido en un motor principal de instalaciones nuevas y ampliadas de HPC. Por ahora, la mayoría de las cargas de trabajo de HPC se basan en la simulación y el modelado tradicionales. Pero a medida que avanzamos, las fuerzas técnicas y empresariales que configuran el Big data conducirán a nuevas formas de configuraciones de HPC para obtener información de conjuntos de datos de Big data.

informática perimetral. La informática perimetral se ha convertido en una fuente prolífica de nuevos conjuntos de datos. Estos conjuntos de datos se derivan de instrumentos únicos que capturan enormes cantidades de datos y de miles de millones de dispositivos conectados en todo el mundo. Por ejemplo, el telescopio lidar en los Andes y el radiotelescopio Square Kilometre Array ubicado en Australia occidental y Sudáfrica generan enormes cantidades de datos. Pero también lo hacen las ciudades inteligentes que utilizan multitud de sensores y cámaras para la gestión de tráfico y la seguridad pública. Todos esos datos alimentan problemas que requieren de la HPC para ser resueltos.

Desafíos de la superinformática

Los desafíos de la superinformática, especialmente a la hora de crear un ordenador exascala como Aurora, se dividen en tres áreas principales: potencia, escala y heterogeneidad.

Potencia. El ordenador petascala más rápido del mundo requiere 28,3 megavatios para funcionar.1 Aunque ninguna organización que haya construido un ordenador exascala ha anunciado especificaciones, los ordenadores exascala necesitarán entre 30 y 50 megavatios de potencia para operar. En perspectiva, 50 megavatios serían suficientes para satisfacer las necesidades energéticas de todo un pueblo de entre cincuenta mil y setenta mil habitantes. A lo largo de un año, un megavatio de electricidad cuesta cerca de un millón de dólares, con lo que reducir el consumo energético de los superordenadores sigue siendo el principal punto de interés. Los procesadores basados en microarquitecturas innovadoras habilitan un rendimiento y una eficiencia energética escalables.

Escala. En los últimos treinta años, los superordenadores han pasado de un único procesador con un hilo a muchos núcleos e hyperthreading a miles de nodos trabajando todos juntos. Ahora, los desarrolladores que escriban una aplicación de infromática exascala deben fragmentar el problema en múltiples partes que aprovechan plenamente la naturaleza paralela del ordenador y garantizan que los hilos se mantienen en sincronización.

Heterogeneidad. Hace tiempo, los desarrolladores escribían código para un solo componente de un ordenador: un núcleo de procesador. Pero manipular cargas de trabajo de HPC e IA hoy en día requiere miles de nodos de procesamiento con 10 veces más núcleos de procesado. Las arquitecturas diversas combinan CPU y GPU, y ahora FPGA y otros tipos de aceleradores, lo que permite al desarrollador decidir qué funcionará mejor para cada tipo de cálculo que deba realizarse. Los desarrolladores no pueden escribir código una sola vez: cada tipo de procesador requiere un código independiente que debe trabajar con los demás. Pero a medida que los algoritmos y el software se vuelven más complejos, también lo hace la integración de modelos de programación propietarios, lo que lleva a bloquear los proveedores. El modelo de programación unificado basado en estándares abiertos intersectorial oneAPI es una iniciativa de la industria para ofrecer experiencias de desarrollo comunes para un rendimiento de aplicaciones más rápido, una mayor productividad y más innovación.

El superordenador Aurora

Intel, colaborando con Argonne National Laboratory, está desarrollando uno de los primeros superordenadores exascala estadounidenses. El superordenador Aurora permitirá ciencia, innovación y descubrimientos de vanguardia para afrontar algunos de los mayores desafíos del mundo.

Aurora es una máquina de tres pilares, lo que quiere decir que se ha diseñado para habilitar en modelado y la simulación, el aprendizaje profundo e IA, y el Big data y el análisis para trabajar de forma eficiente juntos. Esto requerirá una cantidad enorme de almacenamiento en una red de alto rendimiento. Aurora también utilizará la GPU de alto rendimiento de uso general basada en Xe Ponte Vecchio, optimizada para cargas de trabajo de HPC e IA.

Aurora se centrará no solo en el modelado y la simulación estándar que los superordenadores han tenido históricamente, sino que también será una gran máquina con la que resolver problemas de IA y realizar análisis de Big data».

- Dr. Robert Wisniewski, jefe de arquitectos HPC y coordinador técnico de Aurora y PI

Argonne lleva a cabo un programa de Early Science (ESP) para ofrecer a los equipos de investigación tiempo y recursos informáticos preproducción, por lo que podrán ejecutar aplicaciones clave cuando se trasladen a la máquina Aurora exascala. El ESP incluye programas de modelado y simulación y programas de IA, asociándose a un centro de excelencia.

Además, el Departamento de Energía (DOE) patrocina el Exascale Computing Project (ECP), con el objetivo de acelerar la implementación de un ecosistema informático con capacidades exascala que incluye aplicaciones, software, hardware, arquitectura y desarrollo del flujo de trabajo. ECP tiene como objetivo abordar los desafíos críticos en 24 áreas de aplicación esenciales para el DOE, incluyendo ciencias básicas, energía aplicada y seguridad nacional.

Casos de uso de exascala

La informática exascala gestiona una gama de problemas científicos, de ingeniería y empresariales. Como ejemplo, la HPC puede ayudar a resolver tres aspectos principales del rompecabezas COVID-19 y combinar datos de las tres fuentes para formular un modelado y simulación.

Análisis de información de pruebas. Cada día, millones de personas de todo el mundo se someten a pruebas para la COVID-19. Al analizar estos datos perimetrales, los científicos pueden comprender mejor los vectores de enfermedades, como la transmisión aérea, y cómo pueden ralentizarse.

Comprenda las causas clínicas de las enfermedades. El análisis de enormes cantidades de datos complejos de pacientes suministrados por hospitales, adecuadamente anonimizados para satisfacer los requisitos de privacidad, pueden ayudar a determinar las causas clínicas y ofrecer nuevas ideas de diagnóstico y tratamiento.

Como ejemplo, los superordenadores que utilizan la tecnología Intel® están explorando la estructura atómica del virus COVID-19, investigando la propagación y la contención mediante un «gemelo digital» de la población estadounidense e identificando objetivos para nuevas terapias médicas.

Lea la historia

Descubrimiento de medicamentos. Las empresas farmacéuticas trabajan para desarrollar tratamientos, incluyendo vacunas. Esto requiere un cálculo masivo para simular cómo el virus de la COVID-19 se reproduce y se une a las células y evaluar la eficacia de inyectar varios agentes químicos y antivirales.

Por ejemplo, el Texas Advances Computing Center trabaja con investigadores de Amaro Lab de la Universidad de California en San Diego para desarrollar modelos del virus de la COVID-19 y otros sistemas para preparar y diseñar mejores terapias.

Ver el vídeo

He aquí algunos ejemplos más que muestran cómo los investigadores aplican HPC para mejorar nuestras vidas.

El futuro de la superinformática

El futuro de la superinformática abarca diversos tipos de informática y se centra en el uso de la IA para aprovechar el potencial de la creciente cantidad de datos recopilados.

Nuevos tipos de informática

Aunque al principio los superordenadores utilizaban solo CPU, ahora también utilizan GPU, FPGA y otros aceleradores que implementan funciones para realizar operaciones más rápidas o con mayor eficiencia energética. Las GPU aceleran las CPU para aplicaciones científicas y de ingeniería al gestionar algunas de las tareas informáticas que requieren un uso intensivo y lento. Las FPGA pueden configurarse según lo necesiten las diversas aplicaciones para ofrecer enormes aumentos de rendimiento. Y los nuevos procesadores de entrenamiento e inferencia de IA de Habana Labs pueden acelerar las cargas de trabajo en evolución de IA. Pero eso es solo el principio. A medida que los investigadores separan aplicaciones, otras tecnologías permiten avances continuos.

La informática neuromórfica ofrece propiedades excepcionales de cálculo por energía consumida. Utilizando hardware, la informática neuromórfica emula la forma en que las neuronas se organizan, se comunican y aprenden en el cerebro. La informática neuromórfica ayudará a la IA a abordar situaciones y abstracciones como parte de la automatización de actividades humanas normales.

La informática cuántica ofrece un extraordinario potencial de reducir el tiempo necesario para resolver problemas. La informática cuántica reimagina la codificación binaria de datos fundamentales de la informática actual, y sustituye bits por qubits que pueden manifestar simultáneamente múltiples estados. Esto podría habilitar una informática a niveles sin precedentes de paralelismo masivo.

Software

A medida que los investigadores siguen incluyendo la IA en las aplicaciones de HPC, generan más conocimientos e ideas sobre cómo pueden utilizarlo. La IA permitirá modelar y realizar simulaciones a una nueva escala para manejar problemas extremadamente complejos, como el modelado climático. La IA también puede identificar anomalías en cantidades enormes de datos y ofrecer indicaciones a los científicos sobre lo que podrían investigar. Las bibliotecas y herramientas avanzadas, como los kits de herramientas Intel® oneAPI, simplifican la programación y ayudan a los desarrolladores a mejorar la eficiencia e innovación.

Una cartera y un ecosistema inigualables impulsan la investigación y el descubrimiento innovadores

Los superordenadores (y ahora los ordenadores exascala) otorgan a los investigadores herramientas potentes para que puedan realizar avances inimaginables a través de los cuales impulsar el avance de la sociedad. Alcanzar un rendimiento excepcional en una gama diversa de cargas de trabajo HPC e IA del mundo real (fabricación, ciencias de la vida, energía y servicios financieros) requiere un partner y una tecnología que se adapten a medida que cambian las necesidades. Esto, junto a la compatibilidad con un amplio ecosistema de supercomputación, desatará todo el potencial de los datos en el gobierno, entornos académicos y la empresa.

Tecnología de superinformática Intel®

Intel tiene las herramientas y tecnologías para habilitar soluciones a problemas de la ciencia, la ingeniería y las empresas que requieren cálculos de alta velocidad o grandes bases de datos.

Tecnología Intel® HPC
Procesadores escalables Intel® Xeon® de 3ª generación Los procesadores escalables Intel® Xeon® de 3ª generación ofrecen un mayor rendimiento para las cargas de trabajo HPC a través de un mayor ancho de banda de memoria, una nueva arquitectura de núcleo, un mayor núcleo de procesador y una E/S más rápida.
Procesador Intel® Xeon® Platinum 9200 Los procesadores Intel® Xeon® Platinum 9200 ofrecen el ancho de banda de memoria DDR más alto disponible, con 12 canales DDR4 por CPU.2
Intel® FPGA Las FPGA de Intel® ayudan a los arquitectos de sistemas a mantener el rendimiento, la potencia y las restricciones de precio, así como a lograr un período de comercialización rápido. Al compartir una IP con los ASIC estructurados de Intel® más recientes, ofrecen ventajas como punto de partida para diseños que pueden migrar a un ASIC estructurado.
Dispositivos Intel® eASIC™ Estos ASIC estructurados ayudan a los arquitectos de sistemas a reducir sus costes de ingeniería no recurrentes y a comercializar más rápido. 
Intel® AVX-512 Estas extensiones ofrecen una aceleración integrada para las tareas computacionales más exigentes con capacidades de operaciones de vector ultraancho de 512 bits, el doble que las AVX2 tradicionales.
Memoria persistente Intel® Optane™, SSD Intel® Optane™, tecnología DAOS Intel® Optane™ La memoria persistente Intel® Optane™ hasta triplica la capacidad máxima por nodo, para una memoria más escalable y más próxima a la CPU. Los SSD Intel® Optane™ aceleran el acceso a datos críticos y ayudan a escalar el almacenamiento de forma rentable. La base de la pila de almacenamiento Intel® exaescala, el almacenamiento de objetos asíncrono distribuido (DAOS), es una tienda de objetos definida por software y escalable que ofrece un amplio ancho de banda, baja latencia y contendores de almacenamiento de E/S de gran cantidad de operaciones por segundo3 para flujos de trabajo que combinan simulación, análisis de datos e IA.
Stack de software optimizado para HPC Intel® Parallel Studio Suite, Intel® VTune™, Fortran y compiladores de C++, Intel® Math Kernel Library, e Intel® VTune™ Amplifier permiten la optimización del desarrollo y la orquestación de cargas de trabajo altamente paralelizadas a través de sistemas multinúcleo y multinodo, simplificando enormemente la implementación de HPC.
Kits de herramientas Intel® oneAPI El kit de herramientas Intel® oneAPI ofrece un modelo de programación unificado diseñado para simplificar el desarrollo en diversas arquitecturas, incluyendo productos CPU, GPU y FPGA.
Soluciones de selección Intel® Estas soluciones predefinidas y optimizadas para cargas de trabajo están diseñadas para minimizar los desafíos de la evaluación e implementación de infraestructura. Las soluciones están validadas por OEM/ODM, certificadas por ISV y verificadas por Intel. Incluyen Intel® Select Solutions para simulación y modelado e Intel® Select Solutions for Genomics Analytics (V2).

Avisos legales y descargos de responsabilidad

El rendimiento varía según el uso, la configuración y otros factores. Más información en www.Intel.com/PerformanceIndex.

Los resultados de rendimiento se basan en pruebas realizadas en las fechas indicadas en las configuraciones y puede que no reflejen todas las actualizaciones de seguridad disponibles públicamente. Consulte la copia de seguridad para más información sobre la configuración. Ningún producto o componente es completamente seguro.

Es posible que las tecnologías Intel® requieran la activación de hardware, software o de servicios.

Información sobre productos y rendimiento

1

Proyecto TOP500, Lista Green500, https://www.top500.org/lists/green500/list/2020/06/.

2

Para cargas de trabajo y configuraciones, visite www.Intel.com/PerformanceIndex (procesadores escalables Intel® Xeon® de 2ᵃ generación) - reclamación n.º 31. Pruebas a fecha de 10-8-2019).

3

«DAOS: Revolutionizing High-Performance Storage with Intel® Optane™ Technology», resumen de la solución Intel, https://www.intel.es/content/www/es/es/high-performance-computing/daos-high-performance-storage-brief.html?wapkw=Distributed%20Asynchronous%20Object%20Storage%20(DAOS).