Durante décadas, la potencia informática ha seguido sistemáticamente la Ley de Moore, que estipula que la potencia de procesamiento de la computadora se duplica aproximadamente cada dos años. Últimamente, sin embargo, parece que el crecimiento en energía se ha estado desacelerando: los procesadores simplemente no pueden estar más densamente empaquetados de lo que están ahora. Quizás la computación cuántica acelere las cosas nuevamente en el futuro, pero, hasta entonces, la capacidad de soportar aplicaciones cada vez más sofisticadas puede estar en riesgo.

Neil Thompson, científico investigador del MIT en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y la Escuela de Administración Sloan, recientemente hizo una advertencia sobre la disminución de la Ley de Moore y cómo puede frenar la innovación en áreas críticas. “Ya estamos viendo un creciente interés en el diseño de chips informáticos especializados como forma de compensar el fin de la Ley de Moore”, afirma. “Pero el problema es la magnitud de estos efectos. Los beneficios de la Ley de Moore fueron tan grandes que, en muchas áreas de aplicación, otras fuentes de innovación no podrán compensar”. Las áreas que pueden sentir la crisis más inmediatamente incluyen aplicaciones de alta computación como el pronóstico del tiempo, la exploración petrolera y el plegamiento de proteínas para el descubrimiento de fármacos, afirma.

Si bien los grandes sistemas de procesamiento de números son los primeros en sentir los efectos del crecimiento decreciente en el poder de procesamiento, los efectos pueden eventualmente filtrarse a los sistemas más utilizados, que también están ávidos de un mayor poder de procesamiento para un creciente grupo de aplicaciones analíticas intensivas. , como la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo. Estos pueden depender de servicios masivos basados ​​en la nube o de dispositivos periféricos de alta potencia.

En la economía digital actual, toda la atención está puesta en las aplicaciones que pueden ofrecer conocimientos y capacidades a velocidades vertiginosas a usuarios o clientes de todo el mundo. Pero lo que a menudo se olvida es el hardware que lo hace posible.

Los líderes de la industria han estado anticipando con inquietud la posible desaceleración de la Ley de Moore. “Mantenerse al día con la ley de Moore se ha vuelto mucho más difícil que nunca”, señaló Lieven Eeckhout en el Computer Journal del IEEE hace unos años. “Y tal vez en algún momento las empresas tendrán que empezar a hacer retroceder las tecnologías de transistores de próxima generación”. Si bien el impacto no se sentirá tan agudamente en el extremo inferior de la escala informática, como con las aplicaciones de consumo, está teniendo un impacto profundo en las capacidades informáticas y de los centros de datos de alto nivel, dijo Eeckhout.

Las implicaciones de la desaceleración del crecimiento del poder de procesamiento “son bastante preocupantes”, dice Thompson. “A medida que la informática mejora, impulsa mejores predicciones meteorológicas y otras áreas que estudiamos, pero también mejora innumerables otras áreas que no medimos pero que, sin embargo, son partes críticas de nuestra economía y sociedad. Si ese motor de mejora se desacelera, significa que todos esos efectos posteriores también se ralentizan”.

Los innovadores de software se han acostumbrado al rápido y continuo crecimiento de la potencia de procesamiento a lo largo de los años y han diseñado aplicaciones en torno a dichos aumentos de potencia. La investigación de Thompson muestra que las mejoras en las aplicaciones se deben principalmente a la capacidad de aprovechar los nuevos procesadores, estimando que entre el 49 y el 94 por ciento de las mejoras en las áreas de informática de alta gama son directamente atribuibles al crecimiento de la potencia informática.

“No se trata de alguien que simplemente toma un programa antiguo y lo coloca en una computadora más rápida; en cambio, los usuarios deben rediseñar constantemente sus algoritmos para aprovechar 10 o 100 veces más potencia de la computadora”, afirma. “Todavía hay mucho ingenio humano que necesita para mejorar el rendimiento, pero lo que nuestros resultados muestran es que gran parte de ese ingenio se centra en cómo aprovechar motores informáticos cada vez más potentes”.

Por ejemplo, “con la predicción del tiempo, descubrimos que se ha multiplicado por un billón la cantidad de potencia informática utilizada para estos modelos”, señala Thompson. “Esto pone en perspectiva cuánto ha aumentado la potencia informática y también cómo la hemos aprovechado”.