martes, 1 de enero de 2013


Para una teoría del todo

Referencia: NewScientist.com .
Por Vlatko Vedral, 15 octubre 2012

Olvídese de la física cuántica, de la relatividad. Indaguemos sobre una teoría definitiva que podría surgir de un lugar inesperado.

Como otras revoluciones, sus orígenes fueron fortuitos. Era, según su cabecilla Planck Max, un "acto de desesperación". En 1900, se propuso la idea de que la energía viene en partes separadas, o cuantos, simplemente porque los perfiles lisos de la física clásica no podían explicar el espectro de energía re-irradiada por un cuerpo absorbente.

Sin embargo, rara vez una revolución ha sido absoluta. En el espacio de una década, las leyes del hierro en las que se había sustentado la física desde los tiempos de Newton fueron barridas. La certeza clásica cedió su gestión de la realidad a una regla probabilística de la mecánica cuántica, igual que la revolución paralela de la relatividad de Einstein desplazó nuestras queridas nociones de términos absolutos del espacio y tiempo. Este fue un cambio total de régimen.

Excepto una cosa. Se ha mantenido una vieja reliquia única del viejo orden, una que ni Planck ni Einstein, ni ninguno de sus contemporáneos pudieron ni quisieron eliminar. El astrofísico británico Arthur Eddington resumió esta situación en 1915. "Si tu teoría se descubre que está en contra de la segunda ley de la termodinámica no se puede hacer más que esperar que colapse en la más profunda humillación", escribió.

En este artículo, voy a explorar esta fascinante cuestión y el por qué, desde sus orígenes en el siglo XIX, las leyes de la termodinámica han demostrado ser tan formidablemente robustas. El viaje recorre las profundas conexiones que fueron descubiertas en el siglo XX entre la termodinámica y la teoría de la información, conexiones que nos permiten trazar íntimas relaciones entre la termodinámica y la teoría cuántica, y además, algo más especulativamente, con la relatividad. Por último, argumentaré que, esos enlaces nos muestran cómo la termodinámica en el siglo XXI nos pueden guiar hacia una teoría que sustituya a ambas.

En sus orígenes, la termodinámica es una teoría sobre el calor: de cómo fluye y lo que se puede hacer con ello (ver diagrama). El ingeniero francés, Sadi Carnot, formuló la segunda ley en 1824, para caracterizar el prosaico hecho de que las máquinas de vapor, en aquel entonces, el motor de la revolución industrial, nunca podrían ser enteramente eficientes. Una parte del calor que se bombea en las máquinas siempre se escapa a un entorno más fresco, en lugar de quedarse en el motor para realizar trabajo útil. Esto es la expresión de una regla más general: a menos que se pueda impedir, el calor fluirá más caliente de forma natural hasta los lugares más fríos a fin de igualar las diferencias de temperatura. El mismo principio explica por qué el mantener el refrigerador de tu cocina frío significa bombear energía dentro de él, a no ser que se ponga a calor ambiente.



Unas décadas después de Carnot, el físico alemán Rudolf Clausius, explicaba estos fenómenos en términos de un desorden de cantidad característico que llamó entropía. Bajo esta imagen, el universo funciona desde un previo proceso que aumenta la entropía, por ejemplo, el calor se disipa de los sitios donde está concentrado, y se va trasladando hacia las zonas más frías, donde no lo está.

Esto predice un destino sombrío para el propio universo. Una vez que todo el calor se disipa al máximo, ningún proceso útil puede suceder de ninguna manera: se produce la "muerte térmica". A su vez, emerge una cuestión desconcertante en el otro confín de la historia cósmica. Si la naturaleza siempre favorece los estados de alta entropía, ¿cómo y por qué el universo comenzó en un estado que parece haber sido de relativamente baja entropía? En la actualidad no tenemos ninguna respuesta, aunque luego mencionaré una visión alternativa interesante.

Tal vez debido a estas consecuencias no deseadas, la legitimidad de la segunda ley ha sido durante mucho tiempo puesta en duda. Dicho cargo fue formulado con claridad más que sorprendente por el físico británico, James Clerk Maxwell, en 1867. Él estaba convencido de que la materia inanimada no presentaba ninguna dificultad para esta segunda ley. En un sistema aislado, el calor siempre pasa desde lo más caliente a lo más frío, y un grupo ordenado de moléculas coloreadas se disuelve fácilmente en el agua y se dispersa aleatoriamente, nunca a la inversa. El desorden concretado por la entropía siempre aumenta.

El problema de Maxwell se mantuvo en vigor. Los seres animados tienen "intencionalidad", y ellos deliberadamente hacen cosas para que la vida sea más fácil para ellos mismos. Es normal que traten de reducir la entropía de su entorno y con ello violar la segunda ley.

La información es poder

Tal posibilidad es muy preocupante para los físicos. O una cosa es una ley universal o no es más que una tapadera de algo más profundo. Sin embargo, sería a finales de los años de 1970 que el "demonio" de la entropía de Maxwell fue sepultado. Su asesino fue el físico estadounidense, Charles Bennett, quien construyó un trabajo junto a su colega Rolf Landauer, de IBM, usando la teoría de la información, desarrollada unas décadas antes por Claude Shannon. Un ser inteligente, sin duda, puede reorganizar las cosas para disminuir la entropía de su entorno. Pero al hacer esto, primero debe llenar su memoria, obtener la información así como saber, en primer lugar, cómo disponer las cosas.

Esta información adquirida debe ser codificada en algún sitio, probablemente en la memoria del demonio. Cuando esta memoria está finalmente llena o está expirando de alguna otra manera, debe ser restablecida. Dumping almacenó todo esto, reordenó la información de nuevo en un entorno de incremento de la entropía, y este aumento de entropía, demostró Bennett, en última instancia, será siempre al menos tan grande como la reducción de la entropía del demonio obtenido originalmente. De esta forma, el estado de la segunda ley estaba asegurado, aunque anclado en un mantra de Landauer que habría sido incomprensible para los progenitores de la termodinámica del siglo XIX: que "la información es física".

Pero, ¿cómo se explica que la termodinámica haya sobrevivido a la revolución cuántica? Los objetos clásicos se comportan de manera muy diferente a los cuánticos, por lo que puede presumirse igualmente ciertas la información clásica y la cuántica. Después de todo, los ordenadores cuánticos son notablemente más poderosos que los clásicos (o acaso lo serían si se dieran a gran escala).

La razón es sutil, y descansa en una relación entre la entropía y la probabilidad, tal vez contenida en la fórmula más bella y profunda de toda la ciencia. Inscrita en la tumba del físico austriaco Ludwig Boltzmann, en el cementerio central de Viena, se lee simplemente S = k log W . Donde S es la entropía (la macroscópica y mensurable entropía de un gas, por ejemplo), y k es la constante natural que hoy lleva el nombre de Boltzmann. Log W es el logaritmo matemático de la microscópica y probabilística cantidadW en un gas, éste daría la disposición del número de las posiciones y velocidades de sus muchos átomos individuales.

A nivel filosófico, la fórmula de Boltzmann encarna el espíritu de reduccionismo, la idea de que podemos, al menos en principio, reducir nuestro conocimiento del exterior de las actividades de un sistema a unas básicas y microscópicas leyes físicas. A un nivel práctico y físico, lo que nos dice es que todo lo que necesitamos para entender el desorden y su incremento son las probabilidades. Totalizar la cantidad de configuraciones de los átomos de un sistema puede ser resolver sus probabilidades, y lo que surge es otra cosa, que es que la entropía determina su comportamiento termodinámico. La ecuación plantea más preguntas acerca de la naturaleza de las leyes fundamentales, no nos importa si los procesos dinámicos que crean las probabilidades son, en origen, clásicos o cuánticos.

Hay un punto adicional importante que se debe hacer aquí. Las probabilidades son cosas fundamentalmente diferentes en la física clásica y la cuántica. En la física clásica son cantidades "subjetivas"  que cambian constantemente como nuestro estado de cambios de conocimientos. La probabilidad de que una moneda al aire dé lugar a cara o cruz, por ejemplo, salta de ½ a 1 cuando el resultado es observado. Si hubiese alguien que supiera todas las posiciones y cantidades de movimiento de todas las partículas del universo, conocido como un "demonio de Laplace", debido al matemático francés Pierre-Simon Laplace, que fue el primero en aceptar esa posibilidad, sería capaz de determinar el curso de todos los acontecimientos consecuentes en un universo clásico, y no tendría necesidad de las probabilidades para describirlos.

En la física cuántica, sin embargo, las probabilidades surgen de una genuina incertidumbre acerca de cómo funciona el mundo. Los estados de los sistemas físicos de la teoría cuántica son representados en lo que el pionero de los cuantos, Erwin Schrödinger, llamó, catálogos de información, pero son unos catálogos en los que la adición de información sobre una página borrosa o descartada sale hacia otra. Conocer la posición de una partícula de forma más precisa significa saber menos de cómo se está moviendo, por ejemplo. Probabilidades cuánticas son "objetivas", en el sentido de que no pueden ser eliminadas totalmente mediante la obtención de más información.

Esto proyecta una intrigante luz a la termodinámica tal y como fue original y clásicamente formulada. La segunda ley era poco más que una impotencia escrita con forma de ecuación. No tenía en si misma un origen profundo físico, sino más bien, una cuestión empírica cerrada que expresaba de una manera inexplicable los hechos que no conocíamos, predecíamos o llevabámos a cabo de todo aquello que podría ocurrir, como las leyes clásicas dinámicas sugerían que podíamos. Pero esto cambió tan pronto como la física cuántica entró en escena, con su noción de que la incertidumbre está aparentemente conectada con el tejido de la realidad. Arraigada en las probabilidades, la entropía y la termodinámica adquieren una nuevo soporte físico más fundamental.

Cabe señalar, también, que esta relación profundamente arraigada, parece ser mucho más general. Recientemente, junto con mis colegas, Markus Müller del Instituto Perimeter de Física Teórica en Waterloo, Ontario, en Canadá, y Oscar Dahlsten, en el Centre for Quantum Technologies en Singapur, he visto lo que sucede con las relaciones termodinámicas en una clase generalizada de teorías probabilísticas que abraza la teoría cuántica y otras mucho más. También ahí, la relación fundamental entre la información y el desorden, tal como está cuantificada por la entropía, sobrevive (arxiv.org/1107.6029).

Una teoría que lo gobierna todo

En cuanto a la gravedad, la única de las cuatro fuerzas fundamentales de la naturaleza que no están cubiertas por la teoría cuántica, un cuerpo más especulativo de la investigación sugiere que podría ser poco más que la entropía del encubrimiento (ver Anexo: "La caída en el desorden"). Si esto es así, se traería la teoría general de la relatividad de Einstein, con la que actualmente se describe la gravedad, firmemente dentro de la esfera de la termodinámica.

Tomadas en conjunto, empezamos a tener una idea del éxito de la termodinámica. Los principios de termodinámica se encuentran enraizados en la teoría de la información. La teoría de la información es simplemente la encarnación de cómo interactuamos con el universo, entre otras cosas, para construir teorías que mejoran nuestra comprensión del mismo. La termodinámica es, en términos de Einstein, una "meta-teoría": un constructo de principios de la estructura de cualesquiera leyes dinámicas que podamos concebir para describir el funcionamiento de la realidad. En ese sentido, se puede argumentar que es más fundamental que la física cuántica o la relatividad general.

Si podemos aceptar esto y, tal como Eddington y otros ponen toda la confianza en las leyes de la termodinámica, creo que incluso nos puede deparar un vistazo más allá del orden físico actual. Parece poco probable que la física cuántica y la relatividad representen las últimas revoluciones de la física. Las nuevas evidencias podrían en cualquier momento fomentar su derrocamiento. La termodinámica puede ayudarnos a discernir cualquier parecida teoría usurpadora.

Por ejemplo, a principios de este año, dos de mis colegas en Singapur, Esther Hänggi Stephanie Wehner, mostraban que una violación del principio de incertidumbre cuántico, (la idea de que nunca te puedes deshacer de las probabilidades en un contexto cuántico), implicaría la violación de la segunda ley de la termodinámica. Ganar la batalla al límite de incertidumbre significa extraer información adicional sobre el sistema, lo que requiere que el sistema trabaje más de lo que permite hacer la termodinámica en un estado relevante de desorden. Así que, si la termodinámica es una guía, cualquier mundo post-cuántico podría ser así, y ahí estamos, adheridos al grado de incertidumbre (arxiv.org/abs/1205.6894).

Mi colega, el físico David Deutsch, de la Universidad de Oxford, piensa que hay que llevar las cosas mucho más lejos. No sólo que cualquier física futura se ajustara a la termodinámica, sino que toda la física se debe construir en base a ella. La idea es generalizar la lógica de la segunda ley tal como fue formulada rigurosamente por el matemático Constantin Carathéodory en 1909: que en las proximidades de cualquier estado de un sistema físico, hay otros estados que físicamente no pueden ser alcanzados si prohibimos cualquier cambio de calor en el medio ambiente.

Los experimentos en el siglo XIX de James Joule con la cerveza pueden ilustrar esta idea. El cervecero Inglés, cuyo nombre perdura en la unidad estándar de energía, selló la cerveza en una tina térmicamente aislada que contenía una rueda de paletas, que estaban conectadas a unos pesos que caían bajo la gravedad externa. La rotación de la rueda calentaba la cerveza, aumentando el desorden de sus moléculas ,y por lo tanto su entropía. Pero más duros que lo intentemos, simplemente no podemos utilizar la configuración de Joule para disminuir la temperatura de la cerveza, ni siquiera en una fracción de un millikelvin. Un enfriador de cerveza, en este ejemplo, es un lamentablemente estado más allá del alcance de la física.

La termodinámica

La cuestión es si podemos expresar la totalidad de la física simplemente enumerando los posibles e imposibles procesos de una situación dada. Esto es muy diferente de cómo se enucia la física normalmente, tanto en los regímenes clásico como cuántico, en términos de estados de los sistemas y de las ecuaciones que describen cómo tales estados cambian en el tiempo. Los callejones sin salida a los que nos puede conducir el enfoque estándar son los más fáciles de entender para la física clásica, donde las ecuaciones dinámicas que derivamos nos permiten toda una serie de procesos que obviamente no ocurren, son aquellos que tenemos que conjurar y que las leyes de la termodinámica expresamente prohíben, como las moléculas pintadas reagrupadas espontáneamente en agua.

Invirtiendo la lógica, nuestras observaciones del mundo natural puede volver a tomar la iniciativa en la derivación de nuestras teorías. Observamos las prohibiciones que la naturaleza pone, ya sea en la disminución de la entropía, obtener energía de la nada, viajar más rápido que la luz, o lo que sea. En última instancia, la teoría "correcta" de la física —por lógica, la más ajustada—, es aquella cuya más pequeña desviación nos da algo que rompe los tabúes.

Hay otras ventajas que en este sentido nos da esta refundición de la física. El tiempo es un concepto perpetuamente problemático en las teorías físicas. En la teoría cuántica, por ejemplo, entra como un parámetro extraño de origen desconocido que no puede ser cuantificado. En termodinámica, por su parte, el paso del tiempo es el aumento de la entropía de cualquier manera. Un proceso como el de las moléculas de colorante disueltas que puedan reunirse en un grupo ofende nuestra sensibilidad, ya que parece el equivalente a correr el tiempo hacia atrás, si le ocurriera a cualquier otra cosa, aunque la verdadera objeción es que disminuye la entropía.

Si se aplica esta lógica de modo más general, y el tiempo deja de existir como una entidad fundamental independiente, sería un fluir determinado únicamente por los procesos permitidos y rechazados. Junto a él van problemas como el que antes he aludido, de por qué el universo empezó en un estado de baja entropía. Si los estados y su evolución dinámica en el tiempo dejaran de ser la cuestión, entonces cualquier cosa que no rompa cualquiera de las reglas de transformación se convierte en una respuesta válida.

Un enfoque así favorecería probablemente a Einstein, quien dijo una vez, "lo que realmente me interesa es si Dios tuvo alguna elección en la creación del mundo". Una formulación de la física inspirada en la termodinámica no puede responder a esta pregunta directamente, pero deja a Dios sin otra opción que ser un termodinámicista. Esto sería un premio singular para aquellos maestros del siglo XIX, los que se toparon con la esencia del universo totalmente por accidente. El triunfo de la termodinámica sería entonces una revolución tardía, a 200 años en su gestación.


ANEXO: La caída en el desorden

Si bien la termodinámica parece flotar sobre el contenido preciso del mundo físico que describe, ya sea clásico, cuántico o post-cuántico, su conexión con el otro pilar de la física moderna, la relatividad general, puede ser más directa. La relatividad general describe la fuerza de la gravedad. En 1995, Ted Jacobson, de la Universidad de Maryland en College Park, afirmó que la gravedad podría ser una consecuencia del desorden cuantificado de entropía.

Su argumento matemático es sorprendentemente simple, pero se apoya en dos relaciones teóricas en disputa. La primera, sostenida por Jacob Bekenstein en la década de 1970, examinaba el destino de la información en un cuerpo tragado por un agujero negro. Esto es un crudo desafío para la validez universal de la termodinámica: cualquier incremento del desorden en el cosmos podría revertirse al lanzar el sistema afectado en un agujero negro.

Bekenstein mostró que esto sería contrarrestado si el agujero negro simplemente crecía en un área, en proporción a la entropía del cuerpo que se tragara. Luego, cada pequeña parte de su superficie se correspondería con un bit de información que todavía contaría en el libro mayor del universo. Esta relación ha sido elevada a la categoría de principio, el principio holográfico, que se apoya en una serie de otras ideas teóricas, pero aún no avaladas por ningún experimento.

La segunda relación es la sugerencia de Paul Davies y William Unruh, también por primera vez en la década de 1970, que un cuerpo acelerando irradia pequeñas cantidades de calor. Un termómetro ondulado en torno a un vacío perfecto, donde no se mueven los átomos que puedan proporcionar una concepción normal de su temperatura, registraría una temperatura distinta de cero. Esta idea es atractiva, pero contraria al sentido común, sin embargo, serían necesarias aceleraciones más allá de lo que actualmente se pueden lograr, para generar una radiación suficiente para probarlo experimentalmente.

Se ponen estas dos relaciones especulativas junto con las conexiones indiscutidas y estándar entre la entropía, la temperatura, la energía cinética y la velocidad, y es posible construir una cantidad que matemáticamente se parece a la gravedad, aunque se define en términos de entropía. Ya han sido tentados otros por esta misma ruta, el más reciente es Erik Verlinde, de la Universidad de Amsterdam en los Países Bajos.

Estas teorías, que no son universalmente aceptadas, sugieren que cuando los cuerpos caen juntos no es el efecto de una fuerza separada fundamental, llamada gravedad, sino que es debido al calentamiento resultante que mejor cumple con los dictados termodinámicos de que la entropía del universo siempre aumenta.


- Autor: Vlatko Vedral es profesor de teoría de información cuántica en la Universidad de Oxford y Del Centro de Tecnologías Cuánticas en Singapur. Es autor de “Decoding Reality” (Oxford University Press, 2010)
- Image 1) Yosuke/Imagezoo/Getty .
- Imagen 2) Incremento de entropía. NewScientist.com

.
Comparte esto:
Meneame0 0 0
 
||