banner
Centro de Noticias
Amplia experiencia en ventas y producción.

El increíble regreso zombi de la computación analógica

Sep 18, 2023

Carlos Platt

Cómo volver a amar la tecnología

Vi a Dios en una fábrica de chips

La lucha interminable para reparar

El futuro es analógico

ahora leyendo

¿Quién está vigilando a los vigilantes?

Armas de interrupción de gas

Cuando la vieja tecnología muere, por lo general permanece muerta. Nadie espera que los teléfonos de disco o las máquinas de sumar regresen del olvido. Disquetes, cintas VHS, tubos de rayos catódicos, descansarán en paz. Del mismo modo, no veremos computadoras analógicas antiguas en los centros de datos en el corto plazo. Eran bestias monstruosas: difíciles de programar, caras de mantener y de precisión limitada.

O eso pensé. Entonces me encontré con esta declaración confusa:

Traer de vuelta las computadoras analógicas en formas mucho más avanzadas que sus ancestros históricos cambiará el mundo de la computación drásticamente y para siempre.

¿En serio?

Encontré la predicción en el prefacio de un hermoso libro ilustrado titulado, simplemente, Computación analógica. Reeditado en 2022, fue escrito por el matemático alemán Bernd Ulmann, que parecía muy serio.

He estado escribiendo sobre tecnología del futuro desde antes de que existiera WIRED y he escrito seis libros que explican la electrónica. Solía ​​desarrollar mi propio software y algunos de mis amigos diseñan hardware. Nunca escuché a nadie decir nada sobre lo analógico, entonces, ¿por qué Ulmann se imagina que este paradigma tan muerto podría resucitar? ¿Y con consecuencias tan trascendentales y permanentes?

Me sentí obligado a investigar más.

Para ver un ejemplo de cómo lo digital ha desplazado a lo analógico, mire la fotografía. En una cámara predigital, las variaciones continuas de la luz creaban reacciones químicas en una película, donde aparecía una imagen como una representación, un análogo, de la realidad. En una cámara moderna, por el contrario, las variaciones de luz se convierten en valores digitales. Estos son procesados ​​por la CPU de la cámara antes de ser guardados como una secuencia de 1 y 0, con compresión digital, si lo desea.

Los ingenieros comenzaron a usar la palabra analógico en la década de 1940 (abreviado de analógico; les gusta la compresión) para referirse a computadoras que simulaban condiciones del mundo real. Pero los dispositivos mecánicos habían estado haciendo lo mismo durante siglos.

El mecanismo de Antikythera fue una pieza de maquinaria asombrosamente compleja utilizada hace miles de años en la antigua Grecia. Con al menos 30 engranajes de bronce, mostraba los movimientos cotidianos de la luna, el sol y cinco planetas, al mismo tiempo que predecía eclipses solares y lunares. Debido a que su funcionamiento mecánico simulaba eventos celestiales del mundo real, se considera una de las primeras computadoras analógicas.

Con el paso de los siglos, se fabricaron dispositivos analógicos mecánicos para propósitos más terrenales. En la década de 1800, un invento llamado planímetro consistía en una pequeña rueda, un eje y un enlace. Trazó un puntero alrededor del borde de una forma en una hoja de papel y el área de la forma se mostró en una escala. La herramienta se convirtió en un elemento indispensable en las oficinas de bienes raíces cuando los compradores querían saber la superficie en acres de un terreno de forma irregular.

Otros artilugios servían necesidades militares. Si estaba en un barco de guerra tratando de apuntar con un cañón de 16 pulgadas a un objetivo más allá del horizonte, necesitaba evaluar la orientación de su barco, su movimiento, su posición y la dirección y velocidad del viento; Los componentes mecánicos inteligentes permitieron al operador ingresar estos factores y ajustar el arma apropiadamente. Engranajes, conexiones, poleas y palancas también podían predecir mareas o calcular distancias en un mapa.

lauren goode

lauren goode

julian chokkattu

Will caballero

En la década de 1940, se agregaron componentes electrónicos como tubos de vacío y resistencias, porque una corriente fluctuante que fluye a través de ellos podría ser análoga al comportamiento de fluidos, gases y otros fenómenos en el mundo físico. Un voltaje variable podría representar la velocidad de un misil nazi V2 disparado contra Londres, por ejemplo, o la orientación de una cápsula espacial Gemini en un simulador de vuelo de 1963.

Pero para entonces, lo analógico se había convertido en un arte moribundo. En lugar de usar un voltaje para representar la velocidad de un misil y la resistencia eléctrica para representar la resistencia del aire que lo frena, una computadora digital podría convertir las variables en código binario: secuencias de 1 y 0 que eran adecuadas para el procesamiento. Las primeras computadoras digitales eran mainframes masivos llenos de tubos de vacío, pero luego los chips de circuitos integrados hicieron que el procesamiento digital fuera más barato, más confiable y más versátil. Para la década de 1970, la diferencia analógico-digital podría resumirse así:

El último factor fue un gran problema, ya que la precisión de las computadoras analógicas siempre estuvo limitada por sus componentes. Ya sea que usara ruedas dentadas, tubos de vacío o película química, la precisión estaba limitada por las tolerancias de fabricación y se deterioraba con el tiempo. Lo analógico siempre se inspiró en el mundo real, y el mundo nunca fue absolutamente preciso.

Cuando era un colegial británico nerd con un caso leve de TOC, la inexactitud me molestaba mucho. Veneré a Pitágoras, quien me dijo que un triángulo con lados de 3 centímetros y 4 centímetros adyacentes a un ángulo de 90 grados tendría un lado diagonal de 5 centímetros, precisamente. Por desgracia, mi placer disminuyó cuando me di cuenta de que su prueba solo se aplicaba en un ámbito teórico donde las líneas tenían un grosor cero.

En mi ámbito cotidiano, la precisión estaba limitada por mi habilidad para afilar un lápiz, y cuando traté de tomar medidas, me topé con otra característica molesta de la realidad. Usando una lupa, comparé la regla que había comprado en una papelería con una regla en el laboratorio de física de nuestra escuela y descubrí que no tenían exactamente la misma longitud.

¿Cómo podría ser esto? Buscando iluminación, revisé la historia del sistema métrico. El metro era la unidad fundamental, pero había nacido de una extraña combinación de nacionalismo y fantasía. Tras la Revolución Francesa, el nuevo gobierno instituyó el metro para alejarse de la imprecisión del Antiguo Régimen. La Academia de Ciencias de Francia lo definió como la distancia longitudinal desde el ecuador, pasando por París, hasta el Polo Norte, dividida por 10 millones. En 1799, el metro se solemnizó como un tótem religioso en forma de barra de platino en los Archivos Nacionales de Francia. Se hicieron y distribuyeron copias por toda Europa y las Américas, y luego se hicieron copias de las copias de las copias. Este proceso introdujo errores de transcripción, lo que eventualmente me llevó a mi traumático descubrimiento de que los gobernantes de diferentes fuentes podrían ser visiblemente desiguales.

Problemas similares impidieron cualquier medida definitiva de tiempo, temperatura y masa. La conclusión era ineludible para mi mente adolescente: si esperabas una precisión absoluta en el ámbito físico, no podrías tenerla.

lauren goode

lauren goode

julian chokkattu

Will caballero

Mi término personal para la naturaleza inexacta del mundo desordenado y borroso era borroso. Pero luego, en 1980, adquirí una computadora de escritorio de Ohio Scientific y encontré un alivio rápido y duradero. Todas sus operaciones se construyeron sobre una base de aritmética binaria, en la que un 1 siempre era exactamente un 1 y un 0 era un 0 genuino, sin sutilezas fraccionarias. ¡El 1 de la existencia y el 0 de la nada! Me enamoré de la pureza de lo digital y aprendí a escribir código, que se convirtió en un refugio de por vida de las matemáticas confusas.

Por supuesto, los valores digitales aún tenían que almacenarse en componentes físicos falibles, pero los márgenes de error se encargaron de eso. En un chip digital moderno de 5 voltios, 1,5 voltios o menos representarían el número 0, mientras que 3,5 voltios o más representarían el número 1. Los componentes de una placa base con un diseño decente se mantendrían dentro de esos límites, por lo que no debería haber habido malentendidos. .

En consecuencia, cuando Bernd Ulmann predijo que las computadoras analógicas regresarían como zombis, no solo me mostré escéptico. Encontré la idea un poco... inquietante.

Esperando una verificación de la realidad, consulté a Lyle Bickley, miembro fundador del Museo de Historia de la Computación en Mountain View, California. Después de haber servido durante años como testigo experto en juicios de patentes, Bickley mantiene un conocimiento enciclopédico de todo lo que se ha hecho y se sigue haciendo en el procesamiento de datos.

"Muchas empresas de Silicon Valley tienen proyectos secretos que fabrican chips analógicos", me dijo.

¿En realidad? ¿Pero por qué?

"Porque consumen muy poca energía".

Bickley explicó que cuando, por ejemplo, los sistemas de IA de lenguaje natural de fuerza bruta destilan millones de palabras de Internet, el proceso es increíblemente hambriento de poder. El cerebro humano funciona con una pequeña cantidad de electricidad, dijo, unos 20 vatios. (Es lo mismo que una bombilla). "Sin embargo, si tratamos de hacer lo mismo con las computadoras digitales, se necesitan megavatios". Para ese tipo de aplicación, lo digital "no va a funcionar. No es una forma inteligente de hacerlo".

Bickley dijo que violaría la confidencialidad si me diera detalles, así que fui a buscar nuevas empresas. Rápidamente encontré una empresa del Área de la Bahía de San Francisco llamada Mythic, que afirmaba estar comercializando el "primer procesador de matriz analógica AI de la industria".

Mike Henry cofundó Mythic en la Universidad de Michigan en 2013. Es un tipo enérgico con un corte de pelo prolijo y una camisa bien planchada, como un vendedor de IBM de los viejos tiempos. Amplió el punto de Bickley, citando la red neuronal similar al cerebro que alimenta a GPT-3. "Tiene 175 mil millones de sinapsis", dijo Henry, comparando elementos de procesamiento con conexiones entre neuronas en el cerebro. "Entonces, cada vez que ejecuta ese modelo para hacer una cosa, tiene que cargar 175 mil millones de valores. Los sistemas de centros de datos muy grandes apenas pueden mantenerse al día".

Eso es porque, dijo Henry, son digitales. Los sistemas modernos de IA utilizan un tipo de memoria llamada RAM estática o SRAM, que requiere energía constante para almacenar datos. Su circuito debe permanecer encendido incluso cuando no está realizando una tarea. Los ingenieros han hecho mucho para mejorar la eficiencia de SRAM, pero hay un límite. "Los trucos como bajar el voltaje de suministro se están agotando", dijo Henry.

lauren goode

lauren goode

julian chokkattu

Will caballero

El chip analógico de Mythic utiliza menos energía al almacenar los pesos neuronales no en SRAM sino en la memoria flash, que no consume energía para conservar su estado. Y la memoria flash está integrada en un chip de procesamiento, una configuración que Mythic llama "computación en memoria". En lugar de consumir mucha energía moviendo millones de bytes entre la memoria y la CPU (como lo hace una computadora digital), parte del procesamiento se realiza localmente.

Lo que me molestó fue que Mythic parecía estar reintroduciendo los problemas de precisión de lo analógico. La memoria flash no almacenaba un 1 o un 0 con cómodos márgenes de error, como los chips lógicos de la vieja escuela. Mantenía voltajes intermedios (¡hasta 256 de ellos!) para simular los diferentes estados de las neuronas en el cerebro, y tenía que preguntarme si esos voltajes cambiarían con el tiempo. Henry no parecía pensar que lo harían.

Tuve otro problema con su chip: la forma en que funcionaba era difícil de explicar. Enrique se rió. "Bienvenido a mi vida", dijo. "Intenta explicárselo a los capitalistas de riesgo". El éxito de Mythic en ese frente ha sido variable: poco después de hablar con Henry, la empresa se quedó sin efectivo. (Más recientemente, recaudó $ 13 millones en nuevos fondos y nombró un nuevo director ejecutivo).

Luego fui a IBM. Su departamento de relaciones públicas corporativas me puso en contacto con Vijay Narayanan, investigador del departamento de física de la IA de la empresa. Prefería interactuar a través de declaraciones de correo electrónico autorizadas por la empresa.

Por el momento, escribió Narayanan, "nuestra investigación analógica se trata de personalizar el hardware de IA, particularmente para la eficiencia energética". Entonces, el mismo objetivo que Mythic. Sin embargo, Narayanan parecía bastante circunspecto en los detalles, así que leí un poco más y encontré un artículo de IBM que se refería a "ninguna pérdida de precisión apreciable" en sus sistemas de memoria. ¿Ninguna pérdida apreciable? ¿Eso significaba que había alguna pérdida? Luego estaba el tema de la durabilidad. Otro documento mencionó "una precisión superior al 93,5 por ciento retenida durante un período de un día". ¿Entonces había perdido un 6,5 por ciento en un solo día? ¿Eso fue malo? ¿Con qué debería compararse?

Tantas preguntas sin respuesta, pero la mayor decepción fue esta: tanto Mythic como IBM parecían interesados ​​en la computación analógica solo en la medida en que los procesos analógicos específicos pudieran reducir los requisitos de energía y almacenamiento de la IA, no realizar los cálculos fundamentales basados ​​en bits. (Los componentes digitales todavía harían eso). Por lo que pude ver, esto no se parecía en nada a la segunda venida de lo analógico como lo predijo Ulmann. Las computadoras de antaño pueden haber sido gigantes del tamaño de una habitación, pero podían simular todo, desde líquido que fluye a través de una tubería hasta reacciones nucleares. Sus aplicaciones compartían un atributo. Eran dinámicos. Implicaban el concepto de cambio.

Los ingenieros comenzaron a usar la palabra analógico en la década de 1940 para referirse a las computadoras que simulaban las condiciones del mundo real.

lauren goode

lauren goode

julian chokkattu

Will caballero

Otro enigma de la infancia: si sostenía una pelota y la dejaba caer, la fuerza de la gravedad hacía que se moviera a una velocidad cada vez mayor. ¿Cómo podrías calcular la distancia total que recorrió la pelota si la velocidad cambiara continuamente con el tiempo? Podría dividir su viaje en segundos, milisegundos o microsegundos, calcular la velocidad en cada paso y sumar las distancias. Pero si el tiempo realmente fluyera en pequeños pasos, la velocidad tendría que saltar instantáneamente entre un paso y el siguiente. ¿Cómo podría ser eso cierto?

Más tarde supe que estas preguntas habían sido abordadas por Isaac Newton y Gottfried Leibniz hace siglos. Dijeron que la velocidad cambia en incrementos, pero los incrementos son infinitamente pequeños.

¿Así que había pasos, pero en realidad no eran pasos? A mí me sonó como una evasión, pero sobre esta premisa dudosa, Newton y Leibniz desarrollaron el cálculo, lo que permitió a todos calcular el comportamiento de innumerables aspectos del mundo que cambian naturalmente. El cálculo es una forma de modelar matemáticamente algo que cambia continuamente, como la distancia recorrida por una pelota que cae, como una secuencia de diferencias infinitamente pequeñas: una ecuación diferencial.

Esa matemática podría usarse como entrada para las computadoras electrónicas analógicas de la vieja escuela, a menudo llamadas, por esta razón, analizadores diferenciales. Podría conectar componentes para representar operaciones en una ecuación, establecer algunos valores usando potenciómetros y la respuesta podría mostrarse casi inmediatamente como un trazo en la pantalla de un osciloscopio. Puede que no haya sido idealmente exacto, pero en el confuso mundo, como había aprendido para mi descontento, nada era idealmente exacto.

Para ser competitiva, una verdadera computadora analógica que pudiera emular un comportamiento tan versátil tendría que ser adecuada para la producción en masa de bajo costo, en la escala de un chip de silicio. ¿Se había desarrollado tal cosa? Volví al libro de Ulmann y encontré la respuesta en la penúltima página. Un investigador llamado Glenn Cowan había creado un chip analógico VLSI (circuito integrado a muy gran escala) genuino en 2003. Ulmann se quejó de que tenía "capacidades limitadas", pero parecía auténtico.

Glenn Cowan es un hombre estudioso, metódico, amable y profesor de ingeniería eléctrica en la Universidad Concordia de Montreal. Como estudiante de posgrado en Columbia en 1999, tuvo que elegir entre dos temas de investigación: uno implicaría optimizar un solo transistor, mientras que el otro sería desarrollar una computadora analógica completamente nueva. Este último fue el proyecto favorito de un asesor llamado Yannis Tsividis. "Yannis me convenció", me dijo Cowan, sonando como si no estuviera muy seguro de cómo sucedió.

Inicialmente, no había especificaciones, porque nadie había construido nunca una computadora analógica en un chip. Cowan no sabía cuán preciso podría ser y básicamente lo estaba inventando sobre la marcha. Tuvo que tomar otros cursos en Columbia para llenar los vacíos en su conocimiento. Dos años más tarde, tenía un chip de prueba que, me dijo con modestia, estaba "lleno de la ingenuidad de los estudiantes de posgrado. Parecía una pesadilla". Aún así, funcionó, así que decidió quedarse y hacer una mejor versión. Eso tomó otros dos años.

lauren goode

lauren goode

julian chokkattu

Will caballero

Una innovación clave de Cowan fue hacer que el chip fuera reconfigurable o programable. Las computadoras analógicas de la vieja escuela habían usado cables de conexión torpes en los tableros de conexiones. Cowan hizo lo mismo en miniatura, entre áreas del propio chip, utilizando una tecnología preexistente conocida como puertas de transmisión. Estos pueden funcionar como interruptores de estado sólido para conectar la salida del bloque de procesamiento A a la entrada del bloque B, del bloque C o de cualquier otro bloque que elija.

Su segunda innovación fue hacer que su chip analógico fuera compatible con una computadora digital comercial, lo que podría ayudar a eludir los límites de precisión. "Se podría obtener una solución analógica aproximada como punto de partida", explicó Cowan, "e introducirla en la computadora digital como una suposición, porque las rutinas iterativas convergen más rápido a partir de una buena suposición". El resultado final de su gran trabajo fue grabado en una oblea de silicio que medía unos muy respetables 10 milímetros por 10 milímetros. "Sorprendentemente", me dijo, "funcionó".

Cuando le pregunté a Cowan sobre los usos en el mundo real, inevitablemente mencionó la IA. Pero había tenido algo de tiempo para pensar en las redes neuronales y comenzaba a sentirme escéptico. En una configuración de red neuronal estándar, conocida como configuración de barra transversal, cada celda de la red se conecta con otras cuatro celdas. Pueden estar en capas para permitir conexiones adicionales, pero aun así, son mucho menos complejas que la corteza frontal del cerebro, en la que cada neurona individual puede conectarse con otras 10.000. Además, el cerebro no es una red estática. Durante el primer año de vida, se forman nuevas conexiones neuronales a un ritmo de 1 millón por segundo. No vi forma de que una red neuronal emulara procesos como ese.

El segundo chip analógico de Glenn Cowan no fue el final de la historia en Columbia. Fueron necesarios refinamientos adicionales, pero Yannis Tsividis tuvo que esperar a otro estudiante de posgrado que continuaría con el trabajo.

En 2011, un joven de voz suave llamado Ning Guo resultó estar dispuesto. Al igual que Cowan, nunca antes había diseñado un chip. "Lo encontré, um, bastante desafiante", me dijo. Se rió del recuerdo y sacudió la cabeza. "Éramos demasiado optimistas", recordó con tristeza. Se rió de nuevo. "Como si pensáramos que podríamos terminarlo para el verano".

De hecho, llevó más de un año completar el diseño del chip. Guo dijo que Tsividis había requerido un "nivel de confianza del 90 por ciento" de que el chip funcionaría antes de continuar con el costoso proceso de fabricación. Guo se arriesgó, y el resultado lo llamó HCDC, que significa computadora híbrida continua discreta. Luego, el prototipo de Guo se incorporó en una placa que podía interactuar con una computadora digital estándar. Desde el exterior, parecía una placa de circuito accesoria para una PC.

Cuando le pregunté a Guo sobre posibles aplicaciones, tuvo que pensar un poco. En lugar de mencionar la IA, sugirió tareas como simular muchas articulaciones mecánicas en movimiento que estarían conectadas rígidamente entre sí en robótica. Luego, a diferencia de muchos ingenieros, se permitió especular.

lauren goode

lauren goode

julian chokkattu

Will caballero

Hay rendimientos decrecientes en el modelo digital, dijo, pero todavía domina la industria. "Si aplicáramos la misma cantidad de personas y dinero al dominio analógico, creo que podríamos tener algún tipo de coprocesamiento analógico para acelerar los algoritmos existentes. Las computadoras digitales son muy buenas en escalabilidad. Las analógicas son muy buenas en interacciones complejas entre variables En el futuro, podemos combinar estas ventajas".

El HCDC era completamente funcional, pero tenía un problema: no era fácil de usar. Afortunadamente, una talentosa programadora del MIT llamada Sara Achour leyó sobre el proyecto y lo vio como un objetivo ideal para sus habilidades. Era especialista en compiladores, programas que convierten un lenguaje de programación de alto nivel en lenguaje de máquina, y podía agregar una interfaz más fácil de usar en Python para ayudar a las personas a programar el chip. Se acercó a Tsividis y él le envió una de las pocas tablas preciosas que se habían fabricado.

Cuando hablé con Achour, ella fue entretenida y atractiva, entregando terminología a un ritmo frenético. Me dijo que originalmente tenía la intención de ser doctora, pero se cambió a la informática después de dedicarse a la programación como pasatiempo desde la secundaria. "Me había especializado en modelos matemáticos de sistemas biológicos", dijo. "Hicimos modelos macroscópicos de la dinámica hormonal de proteínas genéticas". Al ver mi mirada en blanco, agregó: "Estábamos tratando de predecir cosas como cambios hormonales cuando inyectas a alguien con una droga en particular".

Cambios era la palabra clave. Estaba completamente familiarizada con las matemáticas para describir el cambio, y después de dos años terminó su compilador para el chip analógico. "No construí, como, un producto de nivel de entrada", dijo. "Pero facilité la búsqueda de implementaciones resistentes de la computación que desea ejecutar. Verá, incluso las personas que diseñan este tipo de hardware tienen dificultades para programarlo. Todavía es extremadamente doloroso".

Me gustó la idea de un ex estudiante de medicina que aliviaba el dolor de los diseñadores de chips que tenían dificultades para usar su propio hardware. Pero, ¿cuál fue su opinión sobre las aplicaciones? ¿Hay alguno?

"Sí, siempre que estés sintiendo el entorno", dijo. "Y la reconfigurabilidad le permite reutilizar la misma pieza de hardware para múltiples cálculos. Por lo tanto, no creo que esto se relegue a un modelo de nicho. El cálculo analógico tiene mucho sentido cuando interactúa con algo que es inherentemente analógico". ." Como el mundo real, con toda su confusión.

Volviendo al concepto de dejar caer una pelota y mi interés en averiguar qué distancia recorre durante un período de tiempo: el cálculo resuelve ese problema fácilmente, con una ecuación diferencial, si ignora la resistencia del aire. El término adecuado para esto es "velocidad de integración con respecto al tiempo".

Pero, ¿y si no ignoras la resistencia del aire? Cuanto más rápido cae la pelota, más resistencia del aire encuentra. Pero la gravedad permanece constante, por lo que la velocidad de la pelota no aumenta a un ritmo constante, sino que disminuye hasta que alcanza la velocidad terminal. También puede expresar esto en una ecuación diferencial, pero agrega otra capa de complejidad. No entraré en la notación matemática (prefiero evitar el dolor, para usar el término memorable de Sara Achour), porque el mensaje final es todo lo que importa. Cada vez que introduces otro factor, el escenario se vuelve más complicado. Si hay viento cruzado, o la bola choca con otras bolas, o cae por un agujero en el centro de la Tierra, donde la gravedad es cero, la situación puede volverse desalentadoramente complicada.

lauren goode

lauren goode

julian chokkattu

Will caballero

Ahora suponga que desea simular el escenario usando una computadora digital. Necesitará muchos puntos de datos para generar una curva suave y tendrá que recalcular continuamente todos los valores para cada punto. Esos cálculos se sumarán, especialmente si se involucran varios objetos. Si tiene miles de millones de objetos, como en una reacción nuclear en cadena o estados de sinapsis en un motor de IA, necesitará un procesador digital que contenga quizás 100 mil millones de transistores para procesar los datos a miles de millones de ciclos por segundo. Y en cada ciclo, la operación de conmutación de cada transistor generará calor. El calor residual se convierte en un problema grave.

Usando un chip analógico de la nueva era, simplemente expresa todos los factores en una ecuación diferencial y la escribe en el compilador de Achour, que convierte la ecuación en un lenguaje de máquina que el chip entiende. La fuerza bruta del código binario se minimiza, al igual que el consumo de energía y el calor. El HCDC es como un pequeño ayudante eficiente que reside en secreto en medio del hardware moderno, y tiene el tamaño de un chip, a diferencia de los gigantes del tamaño de una habitación de antaño.

Ahora debería actualizar los atributos analógicos básicos:

Puede ver cómo los diseños de Tsividis y sus estudiantes de posgrado han abordado las desventajas históricas en mi lista anterior. Y, sin embargo, a pesar de todo esto, Tsividis, el profeta de la informática analógica moderna, todavía tiene dificultades para que la gente lo tome en serio.

Nacido en Grecia en 1946, Tsividis desarrolló una temprana aversión por la geografía, la historia y la química. "Sentí como si hubiera más hechos para memorizar que sinapsis en mi cerebro", me dijo. Le encantaban las matemáticas y la física, pero se encontró con un problema diferente cuando un maestro le aseguró que el perímetro de cualquier círculo era tres veces el diámetro más 14 centímetros. Por supuesto, debería ser (aproximadamente) 3,14 veces el diámetro del círculo, pero cuando Tsividis lo dijo, el maestro le dijo que se callara. Esto, ha dicho, "sugiere con bastante fuerza que las figuras de autoridad no siempre tienen razón".

Aprendió inglés por sí mismo, comenzó a aprender electrónica, diseñó y construyó dispositivos como transmisores de radio y finalmente huyó del sistema universitario griego que lo había obligado a aprender química orgánica. En 1972 comenzó sus estudios de posgrado en los Estados Unidos y, con los años, se hizo conocido por desafiar la ortodoxia en el campo de la informática. Un conocido diseñador de circuitos se refirió a él como "el fanático de los MOS analógicos", después de que diseñó y fabricó un chip amplificador en 1975 utilizando tecnología de semiconductores de óxido de metal, que absolutamente nadie creía que fuera adecuado para la tarea.

En estos días, Tsividis es educado y con los pies en la tierra, sin interés en desperdiciar palabras. Su intento de recuperar lo analógico en forma de chips integrados comenzó a finales de los 90. Cuando hablé con él, me dijo que tenía 18 placas con chips analógicos montados en ellas, y que un par más se las había prestado a investigadores como Achour. "Pero el proyecto está en suspenso ahora", dijo, "porque terminó la financiación de la Fundación Nacional de Ciencias. Y luego tuvimos dos años de covid".

lauren goode

lauren goode

julian chokkattu

Will caballero

Le pregunté qué haría si consiguiera nuevos fondos.

"Necesitaría saber, si junta muchos chips para modelar un sistema grande, ¿qué sucede entonces? Así que trataremos de juntar muchos de esos chips y eventualmente, con la ayuda de las fundiciones de silicio, fabricaremos una computadora grande en un una ficha."

Señalé que el desarrollo hasta ahora ya ha llevado casi 20 años.

"Sí, pero hubo varios años de pausas en el medio. Siempre que hay financiación adecuada, revivo el proceso".

Le pregunté si el estado actual de la computación analógica podría compararse con el de la computación cuántica hace 25 años. ¿Podría seguir un camino similar de desarrollo, desde la consideración marginal hasta la aceptación común (y bien financiada)?

Tomaría una fracción del tiempo, dijo. "Tenemos nuestros resultados experimentales. Se ha probado. Si hay un grupo que quiere que sea fácil de usar, dentro de un año podríamos tenerlo". Y en este punto, está dispuesto a proporcionar placas de computadora analógicas a los investigadores interesados, que pueden usarlas con el compilador de Achour.

¿Qué tipo de personas calificarían?

"La formación que necesita no es solo computadoras. Realmente necesita la formación en matemáticas para saber qué son las ecuaciones diferenciales".

Le pregunté si sentía que su idea era, en cierto modo, obvia. ¿Por qué no había resonado aún con más personas?

"La gente se pregunta por qué estamos haciendo esto cuando todo es digital. Dicen que lo digital es el futuro, lo digital es el futuro y, por supuesto, es el futuro. Pero el mundo físico es analógico, y en el medio tienes una gran interfaz. Eso es donde encaja esto".

En un procesador digital que procesa datos a miles de millones de ciclos por segundo, la operación de conmutación de cada transistor genera calor.

Cuando Tsividis mencionó de improviso que las personas que aplicaran computación analógica necesitarían una formación matemática adecuada, comencé a preguntarme. El desarrollo de algoritmos para computadoras digitales puede ser un ejercicio mental extenuante, pero rara vez se requiere cálculo. Cuando le mencioné esto a Achour, se rió y dijo que cuando envía artículos a los revisores, "Algunos de ellos dicen que no han visto ecuaciones diferenciales en años. Algunos de ellos nunca han visto ecuaciones diferenciales".

lauren goode

lauren goode

julian chokkattu

Will caballero

Y sin duda muchos de ellos no querrán hacerlo. Pero los incentivos financieros tienen una forma de vencer la resistencia al cambio. Imagine un futuro en el que los ingenieros de software puedan obtener $100 000 adicionales al año agregando una nueva viñeta a un currículum: "Fluido en ecuaciones diferenciales". Si eso sucede, creo que los desarrolladores de Python pronto se inscribirán en clases de cálculo en línea de recuperación.

Asimismo, en los negocios, el factor determinante será el financiero. Va a haber mucho dinero en IA, y en moléculas de fármacos más inteligentes, y en robots ágiles, y en una docena de otras aplicaciones que modelan la confusa complejidad del mundo físico. Si el consumo de energía y la disipación de calor se convierten en problemas realmente costosos, y derivar parte de la carga digital a coprocesadores analógicos miniaturizados es significativamente más barato, entonces a nadie le importará que el cálculo analógico lo hiciera su abuelo genio de las matemáticas usando una gran caja de acero llena. de tubos de vacío.

La realidad es realmente imprecisa, por mucho que prefiera lo contrario, y cuando se quiere modelarla con una fidelidad verdaderamente exquisita, digitalizarla puede no ser el método más sensato. Por lo tanto, debo concluir:

El analógico está muerto.

Larga vida al analógico.

Este artículo aparece en la edición de mayo. Suscríbase ahora.

Háganos saber lo que piensa acerca de este artículo. Envíe una carta al editor a [email protected].

Leer siguiente

Leer siguiente