La continua evolución de la Ley de Moore

Después de más de medio siglo, la Ley de Moore continúa dándole forma al panorama tecnológico. Pedimos a Mike Mayberry, CTO de Intel, que comparta su punto de vista.

Por Mike Mayberry, Jefe de Tecnología de Intel

La Ley de Moore ha muerto. ¡Larga vida a la Ley de Moore! Esta es la esencia del debate de la cumbre Electronics Resurgence Initiative (ERI) de la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) de este año.

Sin embargo, para comprender el debate, tenemos que estar de acuerdo en lo que significa la Ley de Moore.

“Moore no hizo una observación sobre el rendimiento. Para eso, nos dirigimos a Robert Dennard y Fred Pollack”.

La observación inicial de Gordon Moore en 1965 fue que, a medida que se agrupaban más funciones en un circuito integrado, el coste por función descendía. La primera parte de esta observación trata de la economía y su esencia que ha permanecido constante incluso después de que la tecnología subyacente y el nivel de mejoras hayan evolucionado.

Moore no hizo una observación sobre el rendimiento. Para eso, nos dirigimos a Robert Dennard y Fred Pollack. En 1974, Dennard observó que a medida que un transistor se vuelve más pequeño, el tamaño, la frecuencia y la potencia mejoraban, si se escalaban las características y el voltaje al nivel adecuado. Por otro lado, Pollack de Intel observó que duplicar la complejidad de un microprocesador generó un incremento en el rendimiento de la raíz cuadrada de dos.

Con todo esto podemos elaborar un triángulo de valor de usuario que relacione el precio, la integración y el rendimiento.

Entonces, ¿qué quieren decir los que afirman que la Ley de Moore está muerta? Se suelen referir a uno o más lados del triángulo y no específicamente al aspecto económico que decía Moore.

En primer lugar, cuando los usuarios se lamentan de que las frecuencias de los núcleos de la CPU ya no se escalan como lo hacían en los años 90, se refieren implícitamente a la escalación de Dennard. Nunca seguimos perfectamente a Dennard, pero nos acercamos en los años 90.

En segundo lugar, los usuarios se quejan de que los ordenadores no parecen más rápidos. Esto se relaciona con la observación de Pollack, que se refiere específicamente a la CPU y no considera los problemas de limitación que presentan la red o la memoria. La mayoría de las arquitecturas de hoy en día están limitadas por la memoria y muchas de sus tareas cotidianas están limitadas por la red. Desarrollar únicamente una CPU más rápida, sin afrontar las limitaciones de la red, solo genera ganancias progresivas.

Aunque el tercer motivo del debate no se incluye en el triángulo, es la economía: los crecientes costes del diseño de vanguardia. Hay personas que no pueden permitirse un nuevo nodo porque es demasiado caro, lo que puede llevar a que afirmen que no lo necesitaban.

Se han escuchado partes de este debate desde principios de la década de los 2000. Mientras tanto, los tecnólogos ignoran el debate y continúan haciendo avances. Aquí mostramos un ejemplo de 10 años de avances: reducir un sistema del tamaño de un microondas personalizado al tamaño de un libro de bolsillo grande. ¡Y el nuevo sistema supera al antiguo! Esto crea valor económico mediante la integración, la esencia de la Ley de Moore, junto con una escalación continua en rendimiento energético a pesar del final de la escalación de Dennard.

La escalación del semiconductor complementario de óxido metálico (CMOS por sus siglas en inglés) aún no se ha realizado y podemos observar un avance continuo a medida que mejoramos nuestra capacidad de controlar la fabricación. No estamos tan limitados por la física como por nuestra capacidad de fabricar en grandes volúmenes con alta precisión. Es difícil, pero esperamos seguir haciéndolo.

Pasamos al 3D comenzando con Trigate (FinFET) con un nodo de 22 nm, pero un ejemplo aún mejor es la presentación que realizamos en mayo de una memoria flash NAND de 4 bits por celda y 96 capas que cuenta con hasta 1 terabit de información por chip. Este es un verdadero ejemplo posterior a Dennard de agrupar cada vez más funciones en un chip sin escalar las características. Con el paso del tiempo, también esperamos que la lógica se acerque más al 3D.

Contamos con algunos prometedores dispositivos de investigación, como por ejemplo TFET (transistores de efecto de campo de túnel) y ferroelectricidad, que pueden mejorar radicalmente el rendimiento energético. Por desgracia, no son simples sustitutos para un CMOS. Por lo tanto, esperamos integrarlos de un modo heterogéneo, probablemente como capas, combinando todo lo bueno de los CMOS escalados con las novedosas funciones que proporcionan estos nuevos dispositivos.

Escalación de CMOS + Procesamiento en 3D + Nuevas funciones = El futuro de la Ley de Moore
Sistemas heterogéneos + Nuevo procesamiento de datos = La evolución de los productos del futuro

Además, queremos integrar rápidamente arquitecturas novedosas diseñadas específicamente para el nuevo mundo de los datos, a medida que la cantidad y el tipo de datos aumentan. Llevarlo a cabo de un modo tan heterogéneo no solo es más rápido, sino que se pueden combinar chiplets de varios equipos.

Las nuevas arquitecturas que combinan memoria e informática son un ejemplo del procesamiento de datos posterior a Pollack. Un ejemplo de esto es Loihi, el chip de investigación neuromórfico de Intel. En general, las cargas de trabajo de la inteligencia artificial presentan diferentes patrones de acceso a la memoria, por lo que pueden aprovechar diferentes arquitecturas de procesamiento de datos en comparación con las cargas de trabajo de software tradicionales.

Combinando todo esto, esperamos que continúen las ventajas económicas de la Ley de Moore, aunque los elementos parezcan diferentes de cuando Moore hizo su observación original. No debemos distraernos con el debate, sino continuar ofreciendo productos cada vez mejores durante los próximos 50 años.

*Puede haber otras marcas y nombres que pertenezcan a terceros.