Cuatro conclusiones del webinar para inversores de Intel

Los líderes de Intel se centran en la unidad de negocios del centro de datos y la inteligencia artificial de la empresa con una guía y actualizaciones de progreso.

Noticias

  • 29 de marzo de 2023

  • Contacto del equipo PR de Intel

  • Siga las noticias de Intel en las redes sociales:

    Logotipo de Twitter
    Icono de YouTube

author-image

Por

Descargar todas las imágenes (ZIP, 75 MB)

Todos los ojos, especialmente los ojos de los aficionados, están en los negocios de los centros de datos de Intel.

Sandra Rivera de Intel, Greg Lavender y Lisa Spelman, organizaron un seminario web centrado en el centro de datos y la unidad de negocios de inteligencia artificial de la empresa. Ofrecieron una gran actualización sobre los pronósticos más recientes de Intel en el mercado, los planes de hardware y la manera en que Intel está empoderando a los desarrolladores con software.

Los ejecutivos solicitaron actualizaciones sobre el negocio de los centros de datos de Intel para clientes. Esto incluyó divulgaciones acerca de generaciones futuras de chips de Intel® Xeon®, actualizaciones de progreso sobre los procesadores escalables Intel® Xeon® de 4ª generación (denominados Sapphire Rapids) y demostraciones de hardware de Intel que abordan la competencia, las pesadas cargas de trabajo de IA y mucho más.

Más: Asumir los desafíos informáticos y de sostenibilidad de la IA generativa

Pase de lista de la hoja de ruta de Xeon

Entre Sapphire Rapids, Emerald Rapids, Sierra Forest y Granite Rapids, hay mucho en el negocio de las CPU para servidores. Estas son las actualizaciones de la guía Xeon en orden de apariencia:

Hoy en día: actualización escalable (Sapphire Rapids) de 4ª generación Intel Xeon

Todos los principales fabricantes de equipos originales (OEM) y los fabricantes de diseño originales están enviando sistemas Xeon de 4ª Generación, y los 10 principales proveedores de servicios en la nube a nivel mundial están trabajando en la implementación de servicios en Xeon de 4ª Generación. Es la CPU del centro de datos de mayor calidad que Intel ha entregado, y la aceleración continúa intensamente. Lisa Spelman, vicepresidenta corporativa y gerenta general de productos Intel Xeon, ofreció una demostración de un Xeon de 48 núcleos de 4ª generación que va cabeza a cabeza con una CPU AMD Epyc de 48 núcleos de 4ª generación. ¿El resultado? Xeon de 4ª generación de Intel con Intel® Advanced Matrix Extensions (Intel® AMX) ofrece una ganancia de desempeño promedio de 4 veces la tecnología más reciente de la competencia en un amplio conjunto de cargas de trabajo de aprendizaje profundo. 2

Cuarto trimestre de 2023: Intel Xeon escalable de 5ta Generación (Emerald Rapids con nombre en código)

Emerald Rapids es el próximo producto Performance-core (P-core) de Intel. A partir de hoy, se conoce oficialmente como de 5ta Generación Intel® Xeon® escalable. A medida que se despoja de su nombre en código y se pone una marca formal en preparación para su lanzamiento, la CPU ya está siendo probanda con los clientes. Se está validando el volumen y Sandra Rivera, vicepresidenta ejecutiva y gerenta general del Grupo de Centros de Datos e IA, dijo a los asistentes que la calidad del silicio de la fábrica es muy alta.

Primera mitad de 2024: Sierra Forest

Sierra Forest, el primer procesador efficiency-core (E-core), está en vías para la primera mitad de 2024. Intel anunció hoy que Sierra Forest contará con 144 núcleos por zócalo. La primera CPU basada en el próximo proceso de Intel 3, Sierra Forest llegó al encendido a principios de este trimestre con varios OSes que arrancan en tiempo récord (menos de un día). Está a tiempo con las primeras muestras ya por la puerta. Una demostración de Sierra Forest durante la presentación de hoy incluyó una toma de tarea de gerente de tareas en la que se mostraron los 144 núcleos a lo largo del procesamiento de la carga de trabajo de demostración.

Una continuación rápida: Granite Rapids

Granite Rapids llegará pisándole los talones a Sierra Forest en 2024. Aunque todavía no se ha divulgado una fecha específica de lanzamiento, su tiempo de comercialización se aprovechará al compartir una plataforma con Sierra Forest. La PI y la tecnología compartidas minimizan el tiempo de desarrollo y diseño. Granite Rapids está alcanzando todos los hitos importantes y el primer paso está fuera de la fábrica y en buen estado. También se está probando a los clientes con comentarios positivos. Spelman presentó una primera muestra de la innovación de Granite Rapids durante una demostración.

"Estamos creando la interfaz de memoria más rápida del mundo para Granite Rapids", dijo Spelman mientras creaba una línea de comandos para mostrar su configuración de memoria. "Intel inventó y guió al ecosistema en el desarrollo de un nuevo tipo de DIMM llamado Multiplexer Combined Rank (MCR) que nos permite alcanzar velocidades de 8800 mega transfers por segundo, basadas en DDR5".

La innovación de MCR DIMM logra un aumento del ancho de banda máximo del 80% en comparación con la tecnología de memoria para servidores de la generación actual, y Lisa pudo demostrar la estabilidad de Granite Rapids y, a la vez, impulsar un saludable subsistema de memoria con lectura/escritura.

Más allá en el futuro

En su discurso ante el público por primera vez, Intel continuará ejecutando su guía E-core con los siguientes pasos a Sierra Forest: Clearwater Forest. Clearwater Forest, que llegará al mercado en 2025, será fabricado con Intel 18A, el nodo donde Intel planea alcanzar el liderazgo de los procesos: es la culminación de la estrategia de cinco nodos en cuatro años de la empresa.

Bits de bonificación

  • El acelerador de IA Habana® Gaudi®3 ha sido grabado. Todavía no se han compartido detalles de desempeño, pero Habana® Gaudi®2 se encuentra en el entorno y ofrece una ventaja de 1,8 veces en rendimiento por watt en comparación con un servidor A100 comparable cuando se ejecuta una carga de trabajo de visión computacional popular. 1
  • Hay 15 nuevos productos FPGA programados para pasar por el proceso de calificación de lanzamiento de producción (PRQ) este año, es decir, más introducciones de productos nuevos como nunca antes en las empresas FPGA de Intel.

Seminario web para inversores de Intel: centro de datos e IA (repetición)

El 29 de marzo de 2023, Sandra Rivera, Greg Lavender y Lisa Spelman de Intel organizaron un seminario web centrado en la unidad de negocios de Centro de Datos e Inteligencia Artificial de la compañía. Los ejecutivos ofrecieron actualizaciones sobre el negocio del centro de datos de Intel para los inversores. Esto incluyó divulgaciones sobre las futuras generaciones de chips Intel Xeon, actualizaciones de progreso en los procesadores escalables Intel Xeon de cuarta generación (cuyo nombre en código es Sapphire Rapids) y demostraciones del hardware de Intel que enfrenta a la competencia, cargas de trabajo pesadas de IA y más. (Crédito: Corporación Intel)

Buscar más allá de la CPU por USD $110.000 millones

Esta guía completa está en vías de ofrecer un mercado total disponible incluso mayor que el que se consideró anteriormente. Los $110.000 millones de dólares y cinco años de mercado total disponible que Rivera citó para el negocio de silicio del centro de datos es aproximadamente el doble de la oportunidad que se destacó durante el día del cliente de Intel del año pasado. ¿El motivo? Un panorama de centros de datos cambiante que va más allá de la CPU.

"Cuando hablamos de demanda de cómputo, a menudo vemos el mercado total disponible a través del lente de las unidades de CPU", explicó Rivera. "Sin embargo, contar los zócalos no refleja plenamente la manera en que las innovaciones de silicio ofrecen valor al mercado. En la actualidad, las innovaciones se ofrecen de varias maneras, entre ellas, el aumento de la densidad de núcleos de la CPU, el uso de aceleradores incorporados en el silicio y el uso de aceleradores discretos".

Sobre la base de lo anterior, Rivera citó un par de razones específicas para el aumento del mercado total disponible: Con la integración de cómputo de aceleradores y ofertas avanzadas de GPU en su negocio de centros de datos, Intel está mejor posicionada para atender a una mayor cantidad de clientes. Además, el desempeño de Xeon en cargas de trabajo de alto perfil (como la IA, el análisis, la seguridad, las redes y la HPC) está impulsando la demanda de procesos tradicionales, así como aceleradores discretos adaptados para la tarea en cuestión.

La IA está en todas partes, es para todos y se está ejecutando en Intel

Actualizaciones de silicio a un lado, la IA fue una pieza persistente en el seminario web de hoy.

Intel ya es fundamental en el hardware de IA, desde la preparación y administración de datos hasta el entrenamiento y la inferencia de pequeñas y medianas escalas en Xeon, y el entrenamiento y la inferencia de modelos cada vez más grandes utilizando Intel GPUs y aceleradores.

Hoy, Rivera definió el compromiso de Intel con la verdadera democratización de la IA desde la nube hasta la red y hacia el perímetro mediante la habilitación de un acceso más amplio a soluciones e implementaciones más rentables a través de un enfoque de ecosistema abierto.

"Los clientes quieren portabilidad en sus cargas de trabajo de IA. Quieren armar una vez e implementar en cualquier lugar", dijo Rivera. "A medida que continuamos ofreciendo arquitecturas heterogéneas para cargas de trabajo de IA, su implementación a escala requerirá software que facilite a los desarrolladores la programación y que florezca un vibrante ecosistema abierto y seguro".

Greg Lavender, director de tecnología y líder del Grupo de software y tecnología de Intel, estuvo a su disposición para hablar sobre el software avanzado de Intel, así como su inversión en un enfoque holístico a nivel de sistemas integrales del software de IA, que incluye el trabajo para estandarizar los lenguajes de programación para la portabilidad que mencionó Rivera.

"El deseo de una alternativa abierta y multiarquitectura multivendor alternativa a CUDA (de Nvidia) no está disminuyendo", dijo Lavender. "Creemos que la industria se beneficiará de un lenguaje de programación estandarizado para el cual todos pueden contribuir, colaborar, no estar bloqueados en un proveedor en particular y poder evolucionar de manera orgánica según sus miembros y requisitos públicos".

Intel ha realizado contribuciones a SYCL, un modelo de programación abierto basado en C++, y ha adquirido Codeplay Software (un líder en la comunidad y el lenguaje SYCL). SYCL ahora se incluye en oneAPI para que los clientes puedan programar y compilar en CPU, GPU y aceleradores de varios proveedores. Otro trabajo en las optimizaciones de software iniciales incluye optimizaciones para PyTorch 2.0 y TensorFlow 2.9, así como una colaboración con Hugging Face para entrenar, ajustar y predecir con la ayuda de Intel Xeon y Gaudi 2.

Impulsar el progreso en la IA generativa

La filosofía abierta de Intel se extiende al campo de la IA generativa, donde herramientas potentes como ChatGPT y el modelo de texto a imagen DALL·E 2 están aprovechando los algoritmos de IA y grandes conjuntos de datos para producir contenido nuevo basado en indicaciones humanas cada vez más complejas.

La IA generativa está evolucionando a la velocidad de la luz (parece que hay titulares casi diarios sobre los avances) e Intel está trabajando activamente para apoyar un ecosistema abierto de IA generativa, a la vez que se abordan las crecientes demandas de desempeño.

A principios de esta semana, Hugging Face, un gran jugador en el desarrollo de aplicaciones de aprendizaje automático, anunció que había habilitado el modelo BLOOMZ de 176.000 millones de parámetros en Gaudi 2 de Habana. El modelo BLOOM es un modelo de IA de gran lenguaje de código abierto análogo al modelo GPT-3 de parámetro 175B utilizado por ChatGPT. La compañía también confirmó que está ejecutando el modelo de aprendizaje profundo de texto a imagen Stable Diffusion en Xeon de 4ta generación con Intel AMX integrado para aceleración de cargas de trabajo de IA (Stable Diffusion es una alternativa de acceso abierto a DALL·E).

Más allá de los esfuerzos de Intel por reforzar un ecosistema abierto y ético, Xeon también está presente y contabilizado en otro lugar en el panorama de la IA generativa. Rivera señaló hoy que Nvidia está utilizando Xeon de 4ª Generación como nodo principal para ejecutar junto a sus GPUs H100para potenciar las máquinas virtuales que aceleran los modelos de IA generativos en Microsoft Azure, incluyendo ChatGPT.

Nota del editor:

  • Esta historia se actualizó el 30 de marzo de 2023 con detalles específicos sobre el kit de herramientas de código abierto SYCLomatic.
  • Este artículo se editó el 5 de abril de 2023 para eliminar una foto que identificaba incorrectamente el nombre en código del procesador Intel Xeon Sierra Forest.

 

1 Informe de validación de Supermicro L12 de Gaudi2 HL-225H SYS-820GH-THR2, 20 de octubre de 2022.

2 Procesadores escalables Intel® Xeon® de 2ª generación - 1 | Índice de desempeño