LA LECTURA
Ciencia

Cómo la mecánica cuántica cambió nuestras vidas para hace un siglo: "Ningún avance ha afectado tan profundamente a la vida presente y futura de la humanidad"

Los grandes hallazgos de la ‘revolución cuántica’, que cumplen un siglo, aún alimentan las tecnologías más avanzadas. El académico José Manuel Sánchez Ron, publica la primera entrega de la trilogía que saldrá a la luz este año sobre las teorías cuánticas

El físico austriaco Erwin Schrödinger, Premio Nobel en 1933, en una imagen tomada en 1956.
El físico austriaco Erwin Schrödinger, Premio Nobel en 1933, en una imagen tomada en 1956.UNIVERSAL HISTORY ARCHIVEGETTY IMAGES
Actualizado

En 1925 un joven físico alemán, Werner Heisenberg, publicó la primera teoría satisfactoria del mundo del microcosmos: la mecánica cuántica. Unos meses más tarde, ya en 1926, un austriaco, Erwin Schrödinger producía una versión diferente, más "visualizable", aunque pronto se demostró que ambas eran equivalentes. Fue la culminación de lo que debe considerar como uno de los momentos singulares de la historia de la humanidad, y de la ciencia en concreto, porque ninguno de los grandes avances científicos anteriores ha afectado tan profundamente a la vida, a la presente y a la futura de la humanidad. Ni la física de Newton, ni la teoría de la evolución de las especies de Darwin, ni las teorías especial y general de la relatividad de Einstein; únicamente se acerca a las consecuencias de la "revolución cuántica" el electromagnetismo de James Clerk Maxwell, con el que, de hecho, la física cuántica está emparentada, a través de una sus secuelas, la electrodinámica cuántica.

Son muchas las celebraciones que se seleccionan para recordar un hecho del pasado, pero pocas, si es que alguna, están protagonizadas por la creación, hace ahora un siglo, de la mecánica cuántica. Es por ello razonable que en este 2025 se celebre el Año Internacional de la Ciencia y Tecnología Cuánticas. Y para contribuir a él decidí escribir una historia de la física cuántica, en tres volúmenes, el primero de los cuales acaba de publicarse (Crítica) mientras que los dos restantes lo harán este mismo año.

El origen de la física cuántica suele datarse en 1900 cuando para explicar una fórmula relacionada con un tipo de radiación electromagnética, la denominada "de un cuerpo negro", un no demasiado distinguido catedrático de la Universidad de Berlín, Max Planck, se vio obligado a introducir una discontinuidad –lo que se denominaría "cuantos"– que parecía afectar a esa radiación. Ahora bien, Planck fue deudor de los trabajos que realizaron en 1860 el químico Robert Bunsen y el físico Gustav Kirchhoff dando una base sólida a la espectroscopía.

Fue un joven físico, empleado en la Oficina de Patentes de Berna, Albert Einstein, quien se tomó en serio esos paquetes de energía, pues Planck no creía en ellos. Lo hizo en uno de los artículos de su annus mirabilis de 1905 (otro de esos artículos fue el de la teoría especial de la relatividad), en el que explicaba que existían fenómenos de las radiaciones que sólo se podían explicar si se suponía "que la energía de la luz está distribuida espacialmente de forma discontinua", aunque reconocía que para muchos otros fenómenos la teoría ondulatoria de la luz servía perfectamente. Fue la primera manifestación de una de las grandes características de la física cuántica, la "dualidad onda-corpúsculo". Por una de las aplicaciones de los principios que sentó en ese artículo, y que aparece al final del mismo, apenas hoja y media, el efecto fotoeléctrico, recibió el Premio Nobel de Física de 1921.

"Ni la física de Newton, ni la teoría de la evolución de Darwin, o la de la relatividad de Einstein se acercan a la importancia de la física cuántica"

El desarrollo de las investigaciones de Bunsen y Kirchhoff, y los descubrimientos de los rayos X (1895) y de la radiactividad (1896) revitalizó otro de los grandes problemas de la ciencia, el de qué es la materia. Si continua o discontinua (formada por "átomos") ¿Cómo era posible que las radiaciones emitidas por los cuerpos mostraran cientos de rayas en sus espectros de radiación? Y una pregunta parecida suscitaba la radiactividad: ¿de dónde salía esa aparentemente inagotable energía que, en forma de radiaciones emitían elementos como el uranio y el torio?

El primer paso para encontrar soluciones a estos dos problemas fundamentales llegó de la mano de un neozelandés, Ernest Rutherford, que después de estudiar física en su patria, marchó al Laboratorio Cavendish de Cambridge, dirigido por J. J. Thomson, quien en 1897 había identificado la primera partícula elemental, el electrón. En 1911, Rutherford explicó el resultado unos experimentos que habían realizado dos colaboradores suyos, Geiger y Marsden, en el laboratorio que dirigía en la Universidad de Manchester, suponiendo que la materia estaba constituida por átomos, formados por un núcleo en el que se concentraba la mayor parte de la masa, en torno al que orbitaban electrones. El problema era que según la física de que entonces se disponía, ese modelo era inestable: los electrones radiarían energía y caerían rápidamente al núcleo. La solución llegó dos años más tarde, siendo el responsable un joven danés, Niels Bohr, que después de doctorarse en Copenhague había pasado algún tiempo con Rutherford en Manchester. Lo que hizo Bohr fue introducir los cuantos de Planck-Einstein en la estructura del átomo de Rutherford, y romper con la física clásica suponiendo que los electrones no obedecían a las leyes de Maxwell; que se mantenían en ellas, salvo cuando emitían o recibían cuantos de energía saltando entonces de nivel orbital a otro. Saltos de electrones entre diferentes órbitas producían radiación de diferentes frecuencias (esto es, líneas espectrales). Espectroscopia y física cuántica unían sus caminos, al explicar ésta el origen de aquella.

Se trataba de una hipótesis ad hoc, pero resultó que con ella Bohr pudo explicar la distribución de las líneas en el espectro del hidrógeno. Iba, por consiguiente, en la buena dirección. Sin embargo, aún quedaba mucho que hacer. Transcurriría una docena de años antes de que se encontrase esa teoría. Entre todos los episodios de la historia de la ciencia en los que la gestación de una síntesis teórica aparece como un proceso largo y complejo, el de la génesis de la mecánica cuántica destaca como el más arduo y en el que participaron más científicos.

La solución de Heisenberg y Schrödinger

Esa mecánica cuántica solucionaba muchos problemas –no todos, de hecho, la historia de la física cuántica continúa hasta la fecha–, pero a costa de sacrificar ideas firmemente instaladas en nuestras maneras de entender la realidad. Prominente en este sentido es la interpretación probabilista realizada por Max Born, catedrático en Gotinga, en 1926 de que el elemento básico que representa la realidad cuántica es una función que únicamente puede dar la medida de la probabilidad de que el sistema que se considera se encuentre en el estado representado por esa función. El viejo determinismo newtoniano sufría un ataque del que, en su esencia, nunca se recuperaría, aunque en la escala de nuestras percepciones funcione normalmente. Bien conocido es lo que pensaba Albert Einstein sobre esto. En una carta que envió a Born el 4 de diciembre de 1926 decía: "La mecánica sin duda impone. Pero una voz interior me dice que todavía no es la cosa verdadera. La teoría nos aporta muchas cosas, pero apenas nos acerca al secreto del ‘viejo’. De todas maneras, estoy convencido de que Él, al menos, no juega a los dados."

Y todavía quedaba algo peor para el mundo clásico newtoniano: el principio (o relaciones) de indeterminación que Heisenberg introdujo en 1927. Las relaciones de indeterminación afirman que magnitudes como la posición y el momento sólo se pueden determinar simultáneamente con una cierta indeterminación. A partir de este resultado, al final de su artículo Heisenberg extraía una conclusión con implicaciones filosóficas de largo alcance: "En la formulación fuerte de la ley causal 'Si conocemos exactamente el presente, podemos predecir el futuro', no es la conclusión, sino más bien la premisa la que es falsa. No podemos conocer, por cuestiones de principio, el presente en todos sus detalles". Con estos y otros elementos se elaboró lo que se denominó –por el papel destacado que desempeñó en su formulación y, acaso aún más, en su divulgación, Niels Bohr– "interpretación de Copenhague" de la mecánica cuántica. Expresado brevemente, había que partir del hecho de que la mencionada función de onda está constituida por la suma de una serie de funciones, asociadas a las diferentes situaciones físicas posibles. En principio, si no se produce ninguna "interferencia" con el exterior, el sistema dado por la función de onda principal evoluciona de manera continua, regida por la mecánica cuántica de Schrödinger. Pero esta situación dominada por la continuidad no se mantiene cuando se realizan medidas. Y en este punto hacía su entrada "el observador", que en la física cuántica es, según la interpretación de Copenhague, especialmente importante. Lo que se tiene es que cuando se realiza una medida (una observación), se produce un "colapso de la función de onda"; esto es, que –no sabemos cómo– el sistema, en principio una suma de todas las situaciones físicas posibles, elige una, se concreta en una situación determinada. Y lo único que la mecánica cuántica nos dice es la probabilidad de que se produzca una u otra de esas situaciones.

"La era de la información fue posible gracias a los desarrollos que se produjeron a partir de la invención del transistor"

De todo esto se sigue que, por decirlo de alguna manera, la realidad se difumina, al menos a escala atómica. Es como si la sólida base sobre la que caminamos y de la formamos parte, se terminase diluyendo, disgregándose en átomos, que obedecen a leyes probabilísticas y en los que predomina el vacío, la distancia entre el núcleo atómico y las órbitas electrónicas. Y sin embargo, la mecánica cuántica funciona. Y nada lo ejemplifica mejor que un dispositivo inventado gracias a esa física: el transistor.

El transistor es un dispositivo electrónico hecho de material semiconductor, como el silicio o el germanio, que puede regular una corriente que pasa a través de él y también actuar como amplificador y, que comparado con los tubos de vacío que le precedieron necesita cantidades muy pequeñas de energía para funcionar. Fue inventado –no es algo que exista en el mundo natural– en 1947 por tres físicos estadounidenses, John Bardeen, William Shockley y Walter Brattain, mientras trabajaban en el Departamento de Física del Estado Sólido de un centro de investigación industrial, pero que acogía a numerosos científicos "puros": los Laboratorios Bell, asociados a la American Telephone and Telegraph (ATT) y a Western Electric (más tarde pasarían a depender de Lucent Technologies). Por ese descubrimiento recibieron el Premio Nobel de Física de 1957.

La invención del transistor constituye un magnífico ejemplo de artilugio cuántico en el que física y sociedad interaccionan. Inicialmente, los transistores no representaron un gran negocio: eran caros y no funcionaban demasiado bien, pero gradualmente se fueron introduciendo en aparatos como radios portátiles (a las que muchos todavía llamamos, impropiamente, "transistores"). Hasta su aparición, instrumentos como las máquinas de calcular utilizadas eran gigantescos amasijos de componentes electrónicos. Durante la Segunda Guerra Mundial se construyó uno de las primeras computadoras, el Electronic Numerical Integrator and Computer, Computador Integrador Numérico Electrónico, también conocido por sus siglas inglesas, ENIAC. Tenía 17.000 tubos electrónicos, unidos por miles de cables, pesaba 30 toneladas y consumía 174 kilovatios. Con los transistores llegó, en la década de 1950, la segunda generación: el TRADIC (de Transistorized Digital Computer), construido en 1954 por los Laboratorios Bell para la Fuerza Aérea estadounidense; utilizaba 700 transistores y podía competir en velocidad con ENIAC. Hoy llevamos en nuestros bolsillos mucha más potencia calculadora que aquel gigante electrónico.

No es sorprendente, que conscientes de las posibilidades del transistor, algunos científicos decidieran convertirse ellos mismos en empresarios. Tal fue el caso de uno de sus inventores, William Shockley, que en 1955 abandonó los Laboratorios Bell para fundar su propia compañía en el área de la bahía de San Francisco. El "Shockley Semiconductor Laboratory" abrió sus puertas en febrero de 1956. Aunque no tuvo demasiado éxito constituyó el germen que condujo al crecimiento de una zona de California en la que se agruparon diversas compañías de altas tecnología que terminó siendo conocida como "Silicon Valley", el "Valle del Silicio". No es necesario explicar lo que este lugar ha significado y significa.

Una de las características asociadas a la introducción de nuevas tecnologías es su carácter disruptivo, que da lugar a escenarios en el que aparecen protagonistas diferentes a los ya establecidos, o también que éstos se renuevan. Así ocurrió con Texas Instruments, una compañía que hasta entonces se había centrado en la geofísica, pero que en 1952 decidió que el futuro estaba en los transistores y en la miniaturización de componentes electrónicos.

Los circuitos integrados

En mayo de 1958, Jack Kilby entró a trabajar en Texas Instruments, y pronto se preguntó qué pasaría si en lugar de tomar diferentes componentes y transistores, y luego unirlos para formar un circuito, éste estuviese hecho del mismo material; de hecho, de un material semiconductor, como el germanio o el silicio (el segundo elemento químico más abundante en la Tierra: se encuentra en muchas rocas y en la arena), que puede comportarse, según las condiciones a las que esté sometido, como conductor o como casi aislante, lo que significa que puede desempeñar funciones electrónicas diferentes. No sólo se preguntó, sino que construyó uno. Se trataba del circuito integrado, microchip o, simplemente, chip (chip es una antigua palabra inglesa, que quiere decir "un pequeño, y especialmente delgado, trozo de madera, piedra u otro material, separado al labrarlo, cortarlo o romperlo"). A finales de la década de 1950 se habían desarrollado técnicas con las que se formaban (se crecían) láminas de diversos materiales sobre el semiconductor de silicio (de unos pocos milímetros cuadrados de tamaño) formando de manera más sencilla los circuitos electrónicos completos, los microchips. En 2000, Kilby recibió el Premio Nobel de Física "por su contribución a la invención del circuito integrado".

Otro gran protagonista de esta historia fue Robert Noyce, conocido a veces como el "alcalde de Silicon Valley", que trabajaba para Fairchild Semiconductor, empresa de la que él mismo había sido uno de sus fundadores en 1957 y en la que, ese mismo año, Jean Hoerni desarrolló las técnicas fundamentales para la fabricación de un microchip parecido al de Kilby: un circuito integrado basado en una lámina de silicio con una capa protectora de dióxido de silicio sobre ella, interconectando los diversos componentes mediante la deposición de hilos de aluminio sobre ella y que era bastante más robusto que el de Kilby. En 1961, Fairchild Semiconductor producía comercialmente los primeros chips.

En 1968 Noyce dejó Fairchild para fundar Intel, junto a Gordon Moore, donde lideró con Ted Hoff la invención del microprocesador, que generó la Revolución Microelectrónica. Moore, por cierto, es quien enunció la conocida "ley de Moore" en un artículo publicado el 19 de abril de 1965 en la revista Electronics y en el que predecía que cada 18-24 meses, el número de transistores de un circuito integrado se duplicaría, predicción que, básicamente, resultó cierta hasta 2000.

"Los circuitos integrados cambiaron las formas en las que nos comunicamos, escuchamos música, vemos televisión, conducimos o cocinamos"

A comienzos de la década de 1960 las peticiones de los militares permitieron que empresas ya establecidas en el mundo de la electrónica como Texas Instruments, Fairchild y nuevas como Intel refinaran la tecnología, incrementando la densidad de circuitos y, sobre todo reduciendo los costes de fabricación. En 1962 los diseñadores del "Minuteman II", la segunda generación de misiles balísticos intercontinentales, decidieron utilizar chips, una decisión que condujo durante los siguientes tres años a contratos con empresas del campo de la electrónica por valor de 24 millones de dólares. La Marina no se quedó atrás, incorporando circuitos integrados en los primeros misiles intercontinentales lanzados desde submarinos. La NASA tampoco se quedó al margen: el 27 de noviembre de 1963 lanzó desde Cabo Cañaveral el primer satélite de la serie Interplanetary Monitoring Platform, destinado a estudiar el plasma y el campo magnético interplanetario. Fue el primer vehículo espacial que utilizó electrónica integrada.

En 1964, Fairchild, que era entonces el principal suministrador de circuitos integrados al Programa "Apolo", anunció la primera línea de productos de circuitos integrados dirigidos ofrecer productos comerciales. Es poco probable que hubiera tomado esta iniciativa si no hubiese contado con el apoyo de la NASA, que compraba los circuitos integrados más caros que fabricaba. En otras palabras, el Programa "Apolo" aceleró el que los circuitos integrados se convirtieran en un producto comercial. En 1968 se fabricaban cincuenta veces más circuitos integrados que cinco años antes.

Si la humanidad entró, en algún momento del último tercio del siglo XX, en lo que se denomina la "Era de la Información", o de la "Globalización", fue gracias a los desarrollos que se produjeron a partir de la invención del transistor y de la revolución microelectrónica que propició. Integrados a millones en circuitos integrados, los transistores pasaron a desempeñar funciones básicas en los billones de microprocesadores que controlan, por ejemplo, motores de coche, satélites, redes de gas, hornos microondas, computadores personales (PC), teléfonos inteligentes. Cambiaron, literalmente, las formas en las que nos comunicamos, relacionamos con el dinero, escuchamos música, vemos televisión, conducimos coches, cocinamos o trabajamos.

*José Manuel Sánchez Ron es miembro de la Real Academia Española. Su libro, Historia de la física cuántica, volumen 1 ("El período fundacional: origen y desarrollo de la cuantización de Planck, 1860- 1924") sea publicado el 19 de marzo (Editorial Crítica).