Principal Innovar El fin de la ley de Moore cambiará la forma en que debemos pensar en la innovación

El fin de la ley de Moore cambiará la forma en que debemos pensar en la innovación

Tu Horóscopo Para Mañana

En 1965, el cofundador de Intel Gordon Moore publicó un papel notablemente profético que predijo que la potencia informática se duplicaría aproximadamente cada dos años. Durante medio siglo, este proceso de duplicación ha demostrado ser tan notablemente consistente que hoy en día se lo conoce comúnmente como Ley de Moore y ha impulsado la revolución digital.

De hecho, nos hemos acostumbrado tanto a la idea de que nuestra tecnología se vuelve más poderosa y barata que apenas nos detenemos a pensar en lo sin precedentes que es. Ciertamente, no esperábamos que los caballos o los arados, ni siquiera las máquinas de vapor, los automóviles o los aviones, duplicaran su eficiencia a un ritmo continuo.

cuanto mide tamra juez

Sin embargo, las organizaciones modernas han llegado a depender de la mejora continua hasta tal punto que la gente rara vez piensa en lo que significa y, con La ley de Moore está a punto de terminar , eso va a ser un problema. En las próximas décadas, vamos a tener que aprender a vivir sin la certeza de la ley de Moore y operar en un nueva era de innovación eso será profundamente diferente.

El cuello de botella de Von Neumann

Debido al poder y la consistencia de la Ley de Moore, hemos llegado a asociar el avance tecnológico con las velocidades del procesador. Sin embargo, esa es solo una dimensión del rendimiento y hay muchas cosas que podemos hacer para que nuestras máquinas hagan más a un costo menor que simplemente acelerarlas.

Un ejemplo principal de esto se llama del cuello de botella de Neumann , llamado así por el genio matemático responsable de la forma en que nuestras computadoras almacenan programas y datos en un lugar y realizan cálculos en otro. En la década de 1940, cuando surgió esta idea, fue un gran avance, pero hoy se está convirtiendo en un problema.

El problema es que, debido a la Ley de Moore, nuestros chips corren tan rápido que en el tiempo que tarda la información en viajar de un lado a otro, a la velocidad de la luz nada menos, perdemos mucho tiempo de cálculo valioso. Irónicamente, a medida que la velocidad de los chips continúe mejorando, el problema solo empeorará.

La solución es simple en concepto pero difícil de alcanzar en la práctica. Así como integramos transistores en una sola oblea de silicio para crear chips modernos, podemos integrar diferentes chips con un método llamado Apilamiento 3D . Si podemos hacer que esto funcione, podemos aumentar el rendimiento durante algunas generaciones más.

Computación optimizada

Hoy usamos nuestras computadoras para una variedad de tareas. Escribimos documentos, miramos videos, preparamos análisis, jugamos y hacemos muchas otras cosas, todo en el mismo dispositivo usando la misma arquitectura de chip. Podemos hacer esto porque los chips que utilizan nuestras computadoras están diseñados como una tecnología de propósito general.

Eso hace que las computadoras sean convenientes y útiles, pero es terriblemente ineficiente para tareas computacionalmente intensivas. Hace tiempo que existen tecnologías, como ASIC y FPGA, que están diseñados para tareas más específicas y, más recientemente, GPU se han vuelto populares para las funciones de gráficos e inteligencia artificial.

A medida que la inteligencia artificial ha pasado a primer plano, algunas empresas, como Google y Microsoft han comenzado a diseñar chips que están diseñados específicamente para ejecutar sus propias herramientas de aprendizaje profundo. Esto mejora enormemente el rendimiento, pero es necesario fabricar muchos chips para que la economía funcione, por lo que está fuera del alcance de la mayoría de las empresas.

La verdad es que todas estas estrategias son meras provisiones. Nos ayudarán a seguir avanzando durante la próxima década, pero con el final de la Ley de Moore, el verdadero desafío es proponer algunas ideas fundamentalmente nuevas para la informática.

cuanto mide mia hamm

Arquitecturas profundamente nuevas

Durante el último medio siglo, la Ley de Moore se ha convertido en sinónimo de informática, pero hicimos máquinas de calcular mucho antes de que se inventara el primer microchip. A principios del siglo XX, IBM fue pionera en los tabuladores electromecánicos, luego vinieron los tubos de vacío y los transistores antes de que se inventaran los circuitos integrados a fines de la década de 1950.

En la actualidad, están surgiendo dos nuevas arquitecturas que se comercializarán en los próximos cinco años. El primero es computadoras cuánticas , que tienen el potencial de ser miles, si no millones, de veces más potentes que la tecnología actual. Tanto IBM como Google han construido prototipos funcionales e Intel, Microsoft y otros tienen programas de desarrollo activos.

El segundo enfoque principal es computación neuromórfica o chips basados ​​en el diseño del cerebro humano. Estos sobresalen en tareas de reconocimiento de patrones con las que los chips convencionales tienen problemas. También son miles de veces más eficientes que la tecnología actual y se pueden escalar a un solo núcleo diminuto con solo unos pocos cientos de 'neuronas' y hasta enormes matrices con millones.

Sin embargo, ambas arquitecturas tienen sus inconvenientes. Las computadoras cuánticas deben enfriarse hasta cerca del cero absoluto, lo que limita su uso. Ambos requieren una lógica profundamente diferente a la de las computadoras convencionales y necesitan nuevos lenguajes de programación. La transición no será perfecta.

Una nueva era de innovación

Durante los últimos 20 o 30 años, la innovación, especialmente en el espacio digital, ha sido bastante sencilla. Podíamos confiar en la tecnología para mejorar a un ritmo previsible y eso nos permitió predecir, con un alto grado de certeza, lo que sería posible en los próximos años.

Eso llevó a que la mayoría de los esfuerzos de innovación se centraran en las aplicaciones, con un gran énfasis en el usuario final. Las empresas emergentes que pudieron diseñar una experiencia, probarla, adaptarse e iterar rápidamente podrían superar a las grandes empresas que tenían muchos más recursos y sofisticación tecnológica. Eso hizo de la agilidad un atributo competitivo definitorio.

valor neto de chuck norris 2015

En los próximos años, es probable que el péndulo pase de las aplicaciones a las tecnologías fundamentales que las hacen posibles. En lugar de poder confiar en viejos paradigmas confiables, operaremos en gran medida en el reino de lo desconocido. En muchos sentidos, comenzaremos de nuevo y la innovación se parecerá más a lo que era en las décadas de 1950 y 1960.

La informática es solo un área que alcanza sus límites teóricos. También necesitamos baterías de próxima generación para alimentar nuestros dispositivos, coches eléctricos y la red. Al mismo tiempo, las nuevas tecnologías, como genómica, nanotecnología y robótica se están volviendo ascendentes e incluso los el método científico está siendo cuestionado .

Así que ahora estamos entrando en una nueva era de innovación y las organizaciones que competirán de manera más efectiva no serán las que tengan la capacidad de generar disrupción, sino las que estén dispuestas a hacerlo. abordar grandes desafíos y explorar nuevos horizontes.