BLOG

Buscar
  • José Antonio Ces Franjo

¿El fin de la Ley de Moore?

Actualizado: 3 de sep de 2018

Escribiendo la última parte del libro me encontré con un tema que llamó poderosamente mi atención. Tiene que ver con las barreras físicas que la computación tradicional se empieza a encontrar a día de hoy. Estamos posiblemente ante un cambio de paradigma en todo lo que tiene que ver con la computación. Acompáñame y te lo cuento.



Gordon Earl Moore fundó Intel en julio de 1968 junto a Robert Noyce. Tres años antes, en 1965, Moore había publicado un artículo en la revista “Electronics” en el que afirmaba que el número de transistores por unidad de superficie en circuitos integrados se duplicaría cada año y que la tendencia continuaría durante las siguientes dos décadas. De hecho, la Ley de Moore se mantiene hasta la fecha de hoy, más de 50 años después. Bueno. Con una modificación que hizo el propio Moore en 1975, cuando alargó el ciclo de uno a dos años. La consecuencia directa de la ley de Moore es que los precios bajan al mismo tiempo que suben las prestaciones. La computadora que hoy vale 2.000 euros costará la mitad al año siguiente y estará obsoleta en dos años. En 26 años el número de transistores en un chip se ha incrementado 3.200 veces. Nada más y nada menos.

Aunque se ha mantenido vigente más de 50 años, la Ley de Moore empieza a dar signos de agotamiento.

Pero, pese a la evolución que hemos vivido hasta la fecha, la Ley de Moore empieza a dar signos de agotamiento. Caducará pronto si no cambia algo. La física impone su ley al acercarnos a tamaños tan pequeños para la fabricación de transistores. Cuando se llega a la escala de nanómetros en este proceso, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Y su aparición abre nuevos caminos a explorar.


La computación cuántica

El más conocido de estos caminos, quizás por lo imponente de su nombre, es la computación cuántica. La sustitución de los bits por los "qubits" multiplicaría por varios órdenes de magnitud las capacidades actuales. Sin embargo, este tipo de computación no sirve para cualquier cosa y difícilmente sustituirá todos los escenarios actuales. Quédate con que es apropiada en algoritmos que exigen la prospección de múltiples alternativas ante un problema. Aquí es donde es fuerte este tipo de computación: desarrollo de fármacos, predicciones meteorológicas u optimización de sistemas de transporte y logística.

La computación cuántica no está llamada a sustituir todos los escenarios actuales sino aquéllos en los que se requiere analizar multitud de alternativas al tiempo.

La computación cuántica se enfrenta todavía a muchos problemas de infancia, lo que la limita a la experimentación de los laboratorios de las principales Universidades tecnológicas del mundo y de empresas tecnológicas punteras como IBM, Microsoft o Google.


Las matrices de puerta programables en campo

Sin embargo, una de las tendencias que están emergiendo como viables en el corto-medio plazo es la computación espacial. Un tipo de computación que, en vez de trabajar con sentencias secuenciales (la base de la computación tradicional) permite trabajar con distintos flujos al tiempo, que irían ejecutando conjuntos de sentencias en paralelo. Ello provoca que se multipliquen los tiempos de manera proporcional al número de flujos que se vayan abriendo en cada ejecución, sin necesidad de hacer más pequeños los transistores, sino aprovechando al máximo los que están dentro del procesador.

Las matrices de puerta programables en campo son una alternativa real a la computación tradicional aunque cambia bastante el enfoque de la programación software.

Pero esta tecnología no utiliza las CPUs tradicionales, ya que éstas se diseñan en fábrica para una ejecución secuencial del software. Los transistores y los circuitos que los contienen se grabarán “a fuego” en la pastilla de silicio siguiendo las lógicas de la programación secuencial. No sirven para soportar una computación diferente. Y aquí es donde aparecen las FPGA (Field Programmable Gate Arrays). Las FPGA o matrices de puerta programables en campo también contendrán gran cantidad de transistores, puestas lógicas, biestables, etc. La gran diferencia es que todos esos componentes no estarán conectados unos con otros. Esa interconexión deberá programarse a posteriori al igual que se construye el software. Una programación conjunta que permitirá que la ejecución del software no sea ya secuencial, sentencia tras sentencia, sino espacial ejecutándose distintos flujos de código en paralelo. Y además no es algo que una vez programado permanezca hasta la muerte del chip, sino que se podrá reprogramar tantas veces como queramos. Igual que hoy hacemos con el software.


Para programar las FPGAs se utiliza un lenguaje de programación específico (los dos más comunes son VHDL y Verilog) que creará físicamente el circuito en un chip. En la programación tradicional nos movíamos en un único eje temporal. Con las FPGAs esos ejes temporales podrán multiplicarse tanto como sea posible dentro de las capacidades espaciales del dispositivo físico. Una tecnología como ésta provoca que los tiempos y las capacidades de un procesador se multipliquen hasta por treinta en un espacio equivalente.


En los albores del cambio comercial

Veremos el cambio a este tipo de computación muy pronto, porque los grandes ya lo están introduciendo y, como siempre pasa ante un acontecimiento de esta profundidad, emergerán nuevos actores. Nos gusta mucho la aproximación que hace Maxeler que podría ser el nuevo Intel. Empresas ya posicionadas como Microsoft también empiezan a desarrollar este paradigma. Y AWS ha puesto en el mercado, a través de su plataforma cloud, un tipo de instancia (F1) para desarrollar esta computación. Eso significa que estamos muy cerca de un cambio de ciclo.


Moore mediante ;)


29 vistas
  • LinkedIn - Círculo Negro
  • Twitter - Círculo Negro
  • Facebook - Círculo Negro

Room714 © 2019

Madrid | Spain