miércoles, 31 de julio de 2013

Libre albedrío, determinismo, teoría cuántica y fluctuaciones estadísticas

Cualquier intento de vincular el debate sobre el libre albedrío a las cuestiones morales, éticas o legales, como a menudo se viene haciendo, es un puro sinsentido.


Referencia: EDGE.org .
por Carlo Rovelli, 8 julio 2013

Cualquier intento de vincular el debate sobre el libre albedrío a las cuestiones morales, éticas o legales, como a menudo se viene haciendo, es un puro sinsentido.

El libre albedrío no tiene nada que ver con la mecánica cuántica. Somos seres profundamente impredecibles, como la mayoría de los sistemas macroscópicos. No hay incompatibilidad entre el libre albedrío y el determinismo microscópico. La importancia del libre albedrío es que la conducta no está determinada por las restricciones externas ni por la descripción psicológica de los estados neuronales a los que tenemos acceso. La idea de que el libre albedrío puede tener que ver con la capacidad de tomar distintas decisiones sobre estados internos iguales es un absurdo. Es asunto no tiene nada que ver con cuestiones de carácter moral o legal. Nuestra idea de ser libres es correcta, aunque sólo sea una manera de señalar lo ignorantes que somos acerca del por qué tomamos decisiones.

*******
Desde que Demócrito planteara que el mundo podía ser visto como el resultado del choque accidental de los átomos, la cuestión del libre albedrío ha perturbado el sueño del naturalista: ¿cómo conciliar la dinámica determinista de los átomos con la libertad del hombre para elegir? La física moderna ha alterado un poco los datos, y la confusión requiere una aclaración.

Demócrito suponía que el movimiento de los átomos es determinista: un futuro diferente no sucede sin un presente diferente. Pero Epicuro, que en cuestiones físicas era un seguidor cercano a Demócrito, ya se percató de una dificultad entre este determinismo estricto y la libertad humana, y modificó la física de Demócrito, introdujo un elemento de indeterminación en el nivel atómico.

El nuevo elemento se llamaba "clinamen". El "clinamen" es la desviación mínima de un átomo de su natural trayectoria rectilínea, que se producía de una manera completamente aleatoria. Lucrecio, que presentó la teoría de Demócrito-Epicuro en su poema, "De Rerum Natura", señala con palabras poéticas: la desviación del movimiento recto pasa "incerto tempore ... incertisque loci", en un tiempo incierto y en un incierto lugar [Liber II, 218].

Una oscilación muy similar, entre el determinismo y el indeterminismo, ha vuelto a repetirse en la física moderna. El atomismo de Newton es determinista de forma parecida a la de Demócrito. Pero a principios del siglo XX, las ecuaciones de Newton lo sustituyeron por las de la teoría cuántica, que traían un elemento de indeterminación muy similar, de hecho, a la corrección de Epicuro al determinismo de Demócrito. A escala atómica, el movimiento de las partículas elementales no es estrictamente determinista.

¿Puede haber una relación entre este indeterminismo cuántico a escala atómica y la libertad humana para elegir?

La idea ha sido propuesta, y reaparece a menudo, pero no es creíble por dos razones. La primera es que el indeterminismo de la mecánica cuántica se rige por una rigurosa dinámica probabilística. Las ecuaciones de la mecánica cuántica no determinan lo que va a suceder, sino que determinan estrictamente la probabilidad de aquello que va a suceder. En otras palabras, que certifican que la violación del determinismo es estrictamente aleatorio. Esto va exactamente en la dirección opuesta a la libertad humana de elección. Si la libertad humana para elegir era reducible al indeterminismo cuántico, entonces deberíamos concluir que las decisiones humanas están estrictamente reguladas por la oportunidad. Lo cual es justo lo contrario de la idea de la libertad de elección. El indeterminismo de la mecánica cuántica es como tirar una moneda al aire para ver si cae cara o cruz, y actuar en consecuencia. Esto no es todo lo que entendemos como libertad de elección.

Pero hay una segunda, y más importante consideración. Si un elemento de aleatoriedad es suficiente para explicar la libre voluntad, no hay necesidad de buscarlo en la incertidumbre cuántica, ya que en un sistema abierto complejo como es el ser humano hay muchas fuentes de incertidumbre, y totalmente independientes de la mecánica cuántica. La dinámica microscópica atómica dentro de un hombre está influenciada por un sinnúmero de eventos aleatorios: basta con considerar el hecho de lo que ocurre a temperatura ambiente, donde el movimiento térmico de las moléculas es completamente al azar. El agua que llena las moléculas de nuestro cuerpo y de nuestro cerebro es una fuente de indeterminismo, por el simple hecho de estar caliente, y esta indeterminación es mucho mayor que la cuántica. Si a esto le sumamos el hecho de que el indeterminismo cuántico tiene una tendencia bien conocida a desaparecer rápidamente tan pronto como tengas en cuenta los objetos macroscópicos (debido a la "decoherencia"), parece claro que, el intento de unir la libertad humana con el indeterminismo cuántico es una esperanza  muy improbable.

Esto nos lleva de nuevo al punto de partida. El problema de la aparente tensión entre el libre albedrío y el determinismo no se alivia con la física cuántica. El argumento, no obstante, pone de manifiesto un defecto en la intuición desde la que se origina el problema en sí. Si la dinámica macroscópica se somete a las consecuencias del indeterminismo microscópico, como en el ejemplo térmico, ¿cuál es la naturaleza exacta del problema del libre albedrío?

Es evidente que el problema necesita de aclarar lo que significa ser libre para elegir. Vamos a acercarnos al núcleo del problema desde otro lado: no desde la física, sino desde nuestra libertad. Yo puedo decidir si declaro o no algunos ingresos al IRS. Se trata de una elección libre. ¿Qué significa esto? En primer lugar, significa que no estoy obligado a hacer una elección por las restricciones externas. Por ejemplo, no hay ninguna ley que declare que voy a obtener el dinero sólo después de haber declarado. Si fuese así no tendría elección. En segundo lugar, no hay un inspector de IRS mirándome, en cuyo caso tampoco tendría opción. Yo soy libre de elegir ser honesto o deshonesto. Tenemos un sinnúmero de elecciones de este tipo, no sólo éticas, sino también en la gestión diaria de nuestra vida.

¿Qué sucede cuando elijo? Sucede que evalúo los pros y los contras de una elección con mis pensamientos, todos los factores que pueden determinarlo. Estos pueden ser externos (si me cogen tendré problemas), internos (quiero ser un tipo honesto), accidental (ahora tengo problemas con el dinero y cincuenta dólares más ...), emocional (Acabo de ver un programa de televisión sobre los que no pagan impuestos y estoy disgustado por esas personas), y así sucesivamente.

Existe por lo tanto un primer sentido de la expresión "libre elección", que se refiere simplemente al hecho de que los factores determinantes son internos y no externos. Esto no entra en conflicto con el determinismo. He aquí un ejemplo, de Daniel Dennett, para clarificar este punto. El Rover (la máquina con ruedas) enviada a Marte hace unos meses está programada para moverse de forma autónoma en Marte, y tiene un sistema de navegación compleja que analiza su entorno y decide por dónde se mueve de acuerdo a un conjunto de prioridades asignadas. Hacer viajes largos, con el fin de explorar las diferentes regiones y enviar las imágenes a la Tierra. Sin embargo, el Rover puede terminar en una situación en la que ya no se puede mover, por ejemplo, porque se quedó atrapado entre dos rocas. Los científicos del centro de control de la Tierra deberán decidir no dejar que el programa del Rover decida por sí mismo, o intervenir y obligar al Rover a volver, dado que tienen observaciones independientes de una tormenta de polvo que se aproxima. En cualquier caso, podemos decir que el Rover "no es libre" para ir a donde quiera porque está atrapado entre dos rocas, o porque los ingenieros de la NASA han enviado un radio control que bloquea la libertad de decisión del programa de a bordo. Después de la tormenta de arena y liberado de los dos bloques, el Rover recupera su "libertad de decidir" y comienza a funcionar sólo en sus propias "decisiones" de hacia dónde ir.

Se trata de un particular sentido de la expresión "ser libre de decidir." Solemos usar esta expresión en este sentido. Por ejemplo: yo no soy libre de decidir ir a dar un paseo si estoy en prisión. Este sentido de "ser libre" es el más común, y no está en conflicto con el determinismo físico. Después de todo, el Rover, una vez liberado de las rocas y liberado de los mandos de radio de la NASA, es libre de decidir por sí mismo adónde ir, pero el programa que se ejecuta está impulsado por una física estrictamente determinista. En este caso, "ser libre" sólo se refiere a la distinción entre las determinaciones de comportamiento que son externas (las rocas, los mandos de la radio de la NASA, la prisión) y las determinaciones de comportamiento que son internas (el software del Rover, mi intenso deseo de dar un paseo). Desde este punto de vista, el problema del conflicto entre el libre albedrío y el determinismo físico se disuelve completamente, y esta es la solución del problema propuesto hoy por muchos intelectuales, como, por ejemplo, Daniel Dennett.

Pero, ¿es esta una solución completa y satisfactoria del problema? Puede que no, porque hay cuestiones que permanecen abiertas. La primera es que la analogía entre el Rover y un ser humano no se sostiene plenamente. Un ser humano parece ser, y probablemente sea, más "libre" que el Rover en el siguiente sentido. Ambos, el Rover y el ser humano, pueden ser libres en el sentido de que la decisión sobre su comportamiento está determinado por factores internos y no externos, pero en el caso del Rover sabemos que hay un software preciso que determina este comportamiento. Este software fue construido (por ingenieros) con el fin de ser lo más "determinista" como fuese posible. Claro que, se puede romper o funcionar mal, pero esto hace que el comportamiento del Rover se considere anormal. Siempre y cuando no se produzcan problemas, y el Rover funcione bien, su comportamiento está determinado de una manera rigurosa, por factores dentro del mismo Rover, aunque haya factores que lo hacen de una estricta estructura determinista. Ahora bien, ¿podemos decir lo mismo del hombre?

Hasta cierto punto, también el comportamiento humano está determinado por algo similar a un software biológico. No hay duda de que la estructura neuronal tiene muchos aspectos similares a los del software del Rover, con subsistemas que gestionan comportamientos específicos (pasear) y otros sistemas que determinan decisiones complejas arbitrarias entre las más o menos apremiantes demandas de otras partes del cerebro ("Tengo hambre, me quiero comer un bocadillo, pero también quiero escribir este trabajo"). Pero concedidas las similitudes, todavía permanece una diferencia clave en la función y la organización de ambos: la gestión de la aleatoriedad, es decir, la indeterminación. Incluso los ingenieros que diseñaron el Rover tuvieron que hacer frente a los peligros. La edad de los equipos electrónicos y el deterioro en el tiempo. No puedes predecir cuando una conexión dejará de funcionar bien. Pero los ingenieros que diseñaron el Rover han hecho todo lo posible para minimizar este efecto para el Rover. El Rover funciona bien cuando la aleatoriedad de eventos se mantiene en el más óptimo bajo control.

No parece que el funcionamiento de los sistemas vivos sigan el mismo principio. Desde la bioquímica, los sistemas vivos están inmersos en un ambiente de aleatoriedad. Los procesos bioquímicos básicos explotan plenamente la alta aleatoriedad del movimiento térmico de las moléculas. Por ejemplo, nuestras células construyen proteínas con unos mecanismos moleculares que combinan moléculas siguiendo instrucciones genéticas. Sin embargo, estos mecanismos son alimentados por el movimiento térmico aleatorio de las moléculas de las proximidades. En el extremo opuesto de la escala, todo el mecanismo de la evolución de Darwin se basa, tal como Darwin discute en detalle en los primeros capítulos de el "Origen de las Especies", en la enorme variabilidad de los individuos y especies. Este elemento aleatorio, presenta desde un nivel bioquímico al nivel de la evolución de las especies un ingrediente primordial (a veces un tanto descuidado) para la vida en la Tierra. La vida es el resultado de unas estructuras que se encuentran en equilibrio entre la rigidez obtenida mediante el blindaje de acontecimientos casuales, y la flexibilidad alcanzada por el espacio dejado a los efectos de esta misma aleatoriedad. Los individuos sobreviven porque tienen una estructura bastante similar a la de sus padres, y los padres han desarrollado esa estructura como resultado de un número suficiente de cambios repetidos de sus padres, lo que nos ha permitido explorar el posible espacio de las estructuras. La variabilidad en el corazón del mecanismo darwiniano es nuestra mejor clave para entender la vida.

El mismo equilibrio entre la rigidez y el azar juega un importante papel en nuestro cerebro, que funciona, a pesar de las similitudes con un buen software, debido a la ubicuidad de las estadísticas de su trabajo. En realidad, hay también un software que explota eficazmente la generación de números aleatorios. Ejemplos de ello son las técnicas de tipo Montcarlo usados en los cálculos numéricos (por ejemplo, en la física de partículas) y en las llamadas técnicas de redes neuronales, las cuales han terminado en el software de nuestras lavadoras. Pero éste es un uso episódico de aleatoriedad. Nuestro cerebro es una máquina, pero se trata de una máquina que funciona de una manera donde los elementos estadísticos funcionan continua y persistentemente junto a las funciones deterministas.

Todo esto nos lleva de nuevo a la pregunta original, la relación entre el determinismo físico y la libertad para decidir, pero a la luz de una nueva observación: la existencia del azar compatible con el determinismo. ¿Cómo es posible esto? No es difícil de entender. No cabe duda de que la dinámica de un globo lleno de aire no tiene nada indeterminista. Pero nadie es capaz de predecir el movimiento de una sola molécula de aire. Si se desata el nudo que cierra el globo y se deja libre, se vaciará ruidosamente revoloteando de aquí para allá, de una manera que nadie puede predecir. ¿Cómo es posible entonces, reconciliar el determinismo físico y el comportamiento impredecible del globo? La respuesta es simple y bien conocida. En principio, podemos dar dos descripciones alternativas del globo, ambas correctas. La primera consiste en dar la posición de cada una de sus moléculas de aire, la segunda en dar simplemente el radio del globo y, por ejemplo, la presión con la que está inflado. Estas dos descripciones no están en contradicción entre sí. Son, simplemente, dos descripciones, una más precisa y la otra menos, del mismo objeto. Hay un punto clave que une las dos descripciones, que se pueden resumir en un concepto que tiene un papel importante en la filosofía contemporánea: la de "superveniencia". Si sabemos el radio y la presión del globo, hay muchas y diferentes  configuraciones en las que las moléculas pueden estar, así que, dos globos que parecen idénticos, en el sentido de que tienen el mismo radio y la misma presión, pueden, de hecho, diferir en la posición; pero (este es el punto clave de la definición de superveniencia), a la inversa no es posible: es decir, no es posible que dos globos con diferentes radios o diferentes presiones tengan la misma configuración de sus moléculas. En este caso, se dice que el radio y la presión son propiedades del globo que "supervienen" a las propiedades elementales de las moléculas. Armado con esta observación y esta definición, podemos volver a considerar el problema del libre albedrío.

Es posible interpretar el "libre albedrío" como la ausencia de determinaciones externas, pero nos lleva a decir que el Rover en Marte tiene libre albedrío, y esto no parece capturar lo que muchos proponen como libre albedrío. El comportamiento del Rover está determinado por un software que, al menos en tanto que funcione, actúa de una manera predecible. El comportamiento de nuestro cerebro, en cambio, compuesto por miles de millones de neuronas que trabajan de una manera en gran parte probabilística, fluctúa ampliamente, incluso cuando las mismas entradas externas como las de su propia memoria están cerca. En otras palabras, la máquinaria cerebral parece funcionar más como una máquina probabilística que como una máquina determinista. Esto no está en contradicción con un posible determinismo físico subyacente, o el hecho de que el indeterminismo cuántico no juegue ningún papel. Simplemente, no podemos dar la descripción del estado molecular de las neuronas capaces de determinar de manera única las futuras decisiones.

En este punto, creo que algunos aspectos del problema son de pura aclaración, y volvemos a la pregunta original: digamos que un ser humano tiene libre elección. ¿Qué significa esto? Si nos referimos a que dos seres humanos pueden comportarse de manera distinta si se colocan ante las mismas condiciones "externas" y teniendo el mismo estado "interno", entonces también debemos especificar  aquí lo que significa para nosotros el estado interno. Si entendemos el conjunto de recuerdos, educación, emociones, pensamientos, y cosas así, estaremos dando una descripción del sistema que no es la posición de los átomos individuales, y por tanto, aun con estos factores iguales, el hecho de que dos seres humanos puedan decidir de manera diferente no está en contradicción con la existencia de un determinismo físico subyacente. No es de extrañar que el que dos globos que parecen idénticos, con la misma presión, el mismo radio, el mismo color, el mismo plástico ... se muevan de una manera completamente diferente cuando se liberan sus nudos.

Pero, ¿es esta una respuesta satisfactoria? ¿Es cierto que todas las propiedades mentales ‘supervienen’ en una descripción física? Imaginemos un caso extremo, un poco artificial, tal vez, pero significativo. Imagínemos una página con caracteres de imprenta. Por una extraña coincidencia, estos caracteres se parecen mucho a los caracteres chinos, pero también se pueden ver como caracteres latinos. De hecho, un chino vería una línea del gran poeta Li Po, mientras que un hablante inglés podría leer en inglés un verso de Shakespeare. La posición de los átomos de la página es una y sólo una, pero el contenido del poema se percibe de manera diferente. Dos contenidos diferentes corresponden a la misma configuración microscópica. El ejemplo muestra que no necesariamente el contenido del texto ‘superviene’ a su configuración física.

Sin embargo, el mismo ejemplo proporciona también la solución. Es posible decir que la página no contiene ni la poesía de Li Po ni la de Shakespeare. El significado no está determinado sólo por el medio (la página de muestra), sino también por el contexto externo, el contexto cultural, un marco que implica otros sistemas externos. Pero esto no impide que la conclusión sea la misma que antes, sólo que se ha ampliado: el significado no ‘superviene’ al papel y la tinta, sino a la tinta, el papel y al estado físico de los que leen el periódico.

En cualquier caso, el punto principal sigue siendo los estados mentales, y lo que queremos decir con eso y la posible cantidad de información que ello implica, contiene muchísima menos información que la información necesaria para determinar el estado físico global del cerebro, el cual, no olvidemos, tiene alrededor de mil billones de sinapsis, pero está compuesto de un número de moléculas todavía mucho más grande. Puesto así y según se mire, al mismo estado mental le corresponde a un gran número de estados moleculares. Y, en cualquier caso, la relación entre el primero y el último es mera estadística. No hay, por tanto,  ninguna razón para que un determinismo físico pueda determinar un determinismo psíquico. El determinismo físico es perfectamente compatible con el indeterminismo psíquico.

Queda una última pregunta fundamental, y la principal razón por la que escribo este artículo. Tratar de forzar el significado de "libre albedrío" más allá del simple significado de libertad de las restricciones "exteriores", es una empresa condenada al fracaso de todos modos. ¿Está nuestra decisión "libre" completamente determinada por factores internos? Asumamos por un momento que no lo está, y vemos que nos metemos en problemas. Supongamos un experimento en el que ponemos a una persona exactamente en la misma situación mental (con los mismos recuerdos, valores, carácter, estado de ánimo, etc.), y supongamos que repetimos el experimento muchas veces, siempre con las mismas condiciones iniciales. ¿Qué observaremos? Hay dos posibilidades extremas: lo primero que vemos es que la persona decidirá enteramente al azar. En este caso, los resultados se rigen sólo por la casualidad. La mitad de las veces tomará una decisión, la otra mitad creará otra elección. La segunda posibilidad extrema es que la persona tome siempre la misma elección.


¿En cuál de estos dos casos existe el libre albedrío?

Ambas respuestas tienen sentido. Si con la respuesta en el primer caso, estamos diciendo que el libre albedrío se manifiesta cuando decidimos completamente al azar, lanzando una moneda al aire. No creo que sea esto lo que la gente cree que significa el libre albedrío. Si es así, deberíamos concluir que vamos al cielo o al infierno por pura casualidad. Pero con la segunda respuesta aún es peor: en este caso, el libre albedrío estará determinado por nuestros propios estados mentales internos. Es decir, que significa la ausencia de libre albedrío. En cualquiera de los casos, nos metemos en problemas, y esto demuestra que la idea de que el libre albedrío tiene que ver con la capacidad de tomar diferentes decisiones sobre los estados internos iguales, es absurda.

Todo esto nos lleva de nuevo a la única solución posible del problema del libre albedrío, y es una solución clásica, la que fue presentada en la “Ética” de Spinoza. Los seres humanos somos sistemas complejos y desarrollamos una imagen del mundo y de nosotros mismos. Buscamos relaciones causales en el mundo y construimos una serie de declaraciones interpretativas que nos permiten predecir en cierta medida el comportamiento del mundo. También los hacemos en referencia a nosotros mismos. Tenemos una representación de nosotros mismos y esto nos permite saber cómo vamos a actuar, o cómo otra persona va a actuar ante tal o cual situación. Pero esta representación que tenemos de nosotros mismos es muy cruda y aproximada, en comparación con los complejos detalles de nuestro propio ser real, y por lo tanto nos encontramos actuando continuamente de forma que no tenemos capacidad para predecir, ni para los demás ni para nosotros mismos. Cuando observamos un comportamiento impredecible en nosotros o en los demás, a esto lo llamamos "libre elección" y "libre albedrío". No hay nada malo o ilusorio en este uso del término, sino que es un nombre razonable, adecuado para una descripción aproximada. No hay ninguna contradicción entre el uso de este concepto y el hecho de que nuestro comportamiento surja a partir del movimiento de las moléculas de nuestro cuerpo, y que esto puede ser, a nivel molecular, perfectamente determinista. Esta es la única solución razonable a la aparente tensión entre el determinismo y el libre albedrío, para la teoría cuántica, la física estadística, la biología neuronal, las ciencias cognitivas, y el resto de los conocimientos que tenemos

Cualquier intento de vincular este debate a las cuestiones morales, éticas o legales, como a menudo se ha hecho, es un puro sinsentido. El hecho de que podamos decir que un delincuente ha sido impulsado a matar a debido a la forma en que las leyes de Newton han actuado sobre las moléculas de su cuerpo no tiene nada que ver ni con la posibilidad de castigo, ni con la condena moral. Se está respetando igualmente las mismas leyes de Newton cuando se pone a los criminales en la cárcel, y se está respetando las mismas leyes de Newton para que la sociedad en su conjunto funcione, incluyendo su estructura moral, que a su vez determina el comportamiento. No hay contradicción entre decir que una piedra voló hacia el cielo porque una fuerza lo empujó, o porque un volcán explotó. De la misma manera, no hay contradicción alguna al decir que no cometemos asesinato porque algo esté codificado en la estructura de la toma de decisiones de nuestro cerebro o debido a que estamos obligados por una creencia moral.

El libre albedrío no tiene nada que ver con la mecánica cuántica. Somos seres profundamente impredecibles, como la mayoría de los sistemas macroscópicos. No hay incompatibilidad entre el libre albedrío y el determinismo microscópico. La importancia del libre albedrío es que la conducta no está determinada por condicionantes externos, ni por la descripción psicológica de nuestros estados neuronales a los que tengamos acceso. La idea de que el libre albedrío pueda tener que ver con la capacidad de tomar decisiones diferentes sobre estados internos iguales es un absurdo, como muestra el experimento ideal que he descrito arriba. Este asunto nada tiene que ver con cuestiones de carácter moral o legal. Nuestra idea de ser libre es correcta, aunque en el fondo sólo sea una manera de decir lo ignorantes que somos acerca del por qué tomamos decisiones.


- Autor: Carlo Rovelli es físico teórico, trabaja en la gravedad cuántica y en los fundamentos de la física del espacio-tiempo. Es profesor de Física en el Centro de Física théorique De Luminy en la Universidad de Aix-Marseille. Miembro de la Intitut Universitaire de France. Es autor de “The First Scientist: Anaximander and His Legacy; and Quantum Gravity”.
- Imagen 1) Carlo Rovelli.

- Imagen 2) Libre albedrío.
- See more at: http://bitnavegante.blogspot.com/2013/07/libre-albedrio-determinismo-y-la-fisica.html#more

Fuente: Pedro Donaire, BITNAVEGANTES

lunes, 29 de julio de 2013

De cómo los químicos cerebrales afectan a la memoria


Posted: 29 Jul 2013 08:03 AM PDT
Referencia: Red.Orbit.com
por April Flowers, 25 Jul 2013

Nuevos conocimientos sobre el mecanismo por el cual el cerebro utiliza mensajeros químicos, pueden conducir a una mejor comprensión de la preservación de la memoria. Un equipo de investigadores, dirigidos por Trevor Hamilton de la Grant MacEwan University y Bill Colmers, de la Universidad de Alberta, cree que los hallazgos pueden contribuir a la investigación sobre el Alzheimer.




Sus resultados fueron publicados en el Journal of Neuroscience, y el mensajero químico al que se refieren es el llamadoneuropéptido Y (NPY). NPY se ha relacionado con trastornos neurológicos y del ánimo tan diversos como la obesidad, la epilepsia y la ansiedad.

Utilizando las señales eléctricas y químicas, las diferentes regiones del cerebro se comunican entre sí con mensajes largos y cortos. El cerebro reacciona a los mensajes más largos con iones de calcio.

Cuando las células del cerebro reciben mensajes largos y cortos en cuestión de milisegundos entre unos y otros, empiezan a comportarse de manera diferente. Esta reacción se conoce como neuroplasticidad y es el nivel celular básico para el aprendizaje. Tras unos repetidos mensajes entrantes, la unión que los permite pasar de una célula a otra se convertirá en más o menos eficaz en el envío de señales. Hamilton y Colmers, que trabajan en el Centro de Neurociencias de la Universidad de Arizona, descubrieron que el NPY disminuía la eficacia de la transmisión de señales en las células nerviosas del neocórtex del cerebro después de un número de repeticiones. En ausencia del NPY, la célula cerebral dispara automáticamente un mensaje más largo en respuesta a las señales originales que ha recibido.

"Si combinas un mensaje corto con una afluencia de calcio de estas células, lo que realmente está causando es el olvido. Cuando se libera el NPY, se evita que las neuronas olviden esa parte de la memoria durante más tiempo", señalaba Colmers, profesor de farmacología y neurociencia.

"Este trabajo ayudará a la comprensión general de la formación de la memoria y contribuirá a la investigación sobre la enfermedad de Alzheimer", añadió Hamilton.

Los investigadores se sorprendieron por la interacción entre el NPY y el neocórtex. En un estudio de 2010, Hamilton y Colmers investigaron la interacción de NPY y el hipocampo, donde se forman los recuerdos. Las acciones de ambas regiones cerebrales eran idénticas, pero no así las consecuencias. En el hipocampo, la repetición de los mensajes de NPY en realidad mejoraron la eficacia de la unión de las células cerebrales.

"Si usted no comprende cómo funciona algo, ¿cómo va a arreglarlo?" Colmers resaltó el futuro potencial médico de esta investigación, y ambos hicieron hincapié en que se necesita más investigación antes de que estos resultados pueden traducirse en herramientas preventivas y terapéuticas.


- Imagen: Crédito: Alena Hovorkova / Shutterstock.
.
Nuevos conocimientos sobre el mecanismo por el cual el cerebro utiliza mensajeros químicos, pueden conducir a una mejor comprensión de la preservación de la memoria. Un equipo de investigadores, dirigidos por Trevor Hamilton de la Grant MacEwan University y Bill Colmers, de la Universidad de Alberta, cree que los hallazgos pueden contribuir a la investigación sobre el Alzheimer

Posted: 29 Jul 2013 08:03 AM PDT
Referencia: Red.Orbit.com
por April Flowers, 25 Jul 2013

viernes, 26 de julio de 2013

The Weakest Solar Cycle in 100 Years

Scientists are struggling to explain the Sun’s bizarre recent behavior. Is it a fluke, or a sign of a deeper trend?




Monica Young
NEWS BLOG by Monica Young




The Sun is acting weird. It typically puts on a pageant of magnetic activity every 11 years for aurora watchers and sungazers alike, but this time it overslept. When it finally woke up (a year late), it gave the weakest performance in 100 years.

What’s even weirder is that scientists, who aren’t usually shy about tossing hypotheses about, are at a loss for a good explanation. Three scientists, David Hathaway (NASA / Marshall Space Flight Center), Giuliana de Toma (High Altitude Observatory), and Matthew Penn (National Solar Observatory) presented possible explanations at this month’s meeting of the American Astronomical Society’s Solar Physics Division, but their results sparked a lively debate rather than a scientific consensus.

A Weak and Weird Cycle

A well-behaved Sun flips its north and south magnetic poles every 11 years. A cycle starts when the field is weak and dipolar—basically, a giant bar magnet. But the Sun’s rotation is faster at its equator than at its poles, and this difference soon stretches the field lines like distended rubber bands around the solar surface. Frenetic activity ensues, with magnetic tangles producing sunspots, prominences, and sometimes flares and plasma explosions. All of that dies down when the Sun-wide magnetic field lines finally snap into simpler configurations, re-establishing the dipole field and beginning the next cycle.

The Sun has been doing all of that, just to a lesser degree. “Not only is this the smallest cycle we’ve seen in the space age, it’s the smallest cycle in 100 years,” says Hathaway, who took part in the Solar Cycle 24 Prediction Panel back in 2007.

The panel members were split at the time on whether the next solar activity cycle would be strong or weak, but their middle-of-the-road estimate anticipated 90 sunspots as a peak value near August 2012. Instead, the peak sunspot number seems to be less than 70, and the maximum arrived later than expected. Cycle 24 should have peaked in 2012, 11 years after its last minimum in 2001, but the Sun overslept by a full year, waking up in 2013 instead.

And its waking has been asymmetric: the north pole has led the cycle since 2006, with the south pole lagging behind. “It’s not uncommon to see hemispheres going out of phase . . . Usually this [asymmetry] lasts a year or so and then the hemispheres synchronize,” de Toma explains. “We don’t know why this is lasting for so long.”

Explaining Weirdness

It’s possible that, weak and weird as it is, Cycle 24 is still part of the Sun’s normal variation, even if it’s one of the weakest cycles yet recorded.

In fact, both Hathaway and de Toma think the 11-year cycle might be part of a larger one. Historical records show weak cycles at the turn of the 19th and 20th centuries, so it could be that the solar cycle tapers every 100 years or so in what’s known as the Gleissberg Cycle. It’s not easy to establish the existence of a cycle that turns over on such a long timescale, and even Hathaway admitted, “Certainly I don’t understand how it works.”

Doug Biesecker (NOAA), chair of the most recent prediction panel, says, “I remain highly skeptical . . . [Even] if you believe there is a 100-year cycle, then that still doesn't tell us why. Just that it is.”

Penn offered another, more catastrophic option: the sunspot cycle might die altogether. His team uses sunspot spectra to measure their magnetic fields, and his data show a clear trend: the magnetic field strength in sunspots is waning.

“If this trend continues, there will be almost no spots in Cycle 25, and we might be going into another Maunder Minimum,” Penn states. The first Maunder Minimum occurred during the second half of the 17th century. Almost no spots were seen on the Sun during this time, which coincided with Europe’s Little Ice Age.

But Penn acknowledges that magnetic field measurements from other studies don’t always see the same trend he sees. Some observations show that sunspots’ magnetic field strength varies with the solar cycle, and others (including de Toma’s) show that sunspots’ magnetic fieldsaren’t changing with time. De Toma was even able to reproduce Penn’s results by excluding small sunspots, suggesting Penn’s trend might result from the way his team selects the sunspots they measure.

Another word of caution came from Hathaway, who notes that the Maunder Minimum might have been a catastrophic event rather than a gradual trend. “Many of my colleagues are poring over historical records to find out . . . what did lead up to the Maunder Minimum?” he says. “New observations suggestion that the cycle before the Maunder Minimum wasn’t particularly small.”

Regardless of what’s causing the Sun’s strange behavior, Hathaway and Penn, who are both in the solar prediction business, anticipate that Cycle 25, expected to peak in 2024, will be the weakest yet.

Penn’s prediction is based on the weakening magnetic field he sees within sunspots; Hathaway’s are instead based on measurements of the Sun’s polar field and the meridional flow, the flow of magnetic flux from the Sun’s equator to the poles. A stronger flow would help strengthen weak fields, but meridional flows have been completely absent in Cycle 24 so far. We might have a long wait ahead of us to see if and when the Sun recovers.

Posted By Monica Young, July 24, 2013

martes, 23 de julio de 2013

Where Are the Anti-People?

 [Excerpt]

Physicist Dave Goldberg breaks down the mysteries of the cosmos in his new book The Universe in the Rearview Mirror. In an excerpt, Goldberg explores the matter-antimatter divide

The Universe in the Rearview Mirror: How Hidden Symmetries Shape Reality, by Dave Goldberg

Image: Courtesy Dutton Books

It is generally a bad idea to watch science fiction in the hopes of bolstering your understanding of science. Doing so would give you a very distorted impression of, among other things, how explosions sound in deep space (they don’t), how easy it is to blast past the speed of light (you can’t), and the prevalence of English-speaking, vaguely humanoid, but still sexy, aliens (they’re all married). But if we’ve learned one good lesson from Star Warses and Treks, it’s that no one should ever mess with antimatter.
Antimatter is not only no more exotic than ordinary matter but in almost every way that matters, it looks and acts the same. Were every particle in the universe to suddenly be replaced by its antimatter ver­sion, you wouldn’t even be able to tell the difference. To put it bluntly, there is a symmetry between how the laws of physics treat matter and antimatter, and yet they must be at least a little bit different; you and everyone you know are made of matter and not antimatter.
We like to think accidents don’t happen, that there is some ulti­mate cause to explain why, for instance, you’re not standing around in a room full of anti-people. To understand why that is, we’re going to delve into the past.
Origin stories are tough. Not everything can be explained as neatly as being bitten by a radioactive spider, having your home planet explode, or even by the reanimation of dead tissue (you know, for science). Our own origin story is complicated, but you’ll be pleased to know that, much like The Incredible Hulk we’re also ultimately the result of expo­sure to gamma radiation. It’s a long story.
Based on everything that we’ve ever seen in a lab, you should not exist. It’s nothing personal. I shouldn’t exist, either, nor should the sun, the Milky Way Galaxy, or (for many, many reasons) the Twilight movies. Let me try to put that another way.
First a summary: You are made of fundamental particles, which are almost entirely empty space, and the tiny bits that aren’t empty space aren’t all that massive. Ephemeral energy just makes them ap­pear that way. Particles can be created from whole cloth and energy and destroyed just as quickly. You are not just much more than the sum of your parts; strictly speaking, your parts add up to a small pile of matchsticks in a tornado of pulsing, screaming energetic interactions. Yippee‑ki‑yay!
Energy can be used to make matter from whole cloth, but as a side ef­fect, antimatter gets made as well. I’ve referred to antimatter by its effect, but haven’t really said what it is. Prepare to be underwhelmed!
Every type of particle has an antimatter version that behaves al­most exactly the same—the same mass, for instance—but has the op­posite charge. A positron behaves just like an electron, but has a positive charge rather than a negative one. An anti-proton has a negative charge, contrary to a proton’s positive one, and so on.
One of the craziest things about antimatter is that if you are smart enough—and apparently only the English physicist P.A.M. Dirac was—you could have actuallypredicted antimatter before it was ever discovered. In 1928, Dirac derived the equations of relativistic quan­tum mechanics. Yes, that’s exactly as difficult as it sounds. Plugging through the equations, he noticed that there were missing solutions. He found, for example, that electrons should pop out of the theory naturally, but other particles with the same mass and opposite charge should also be allowed.



Dirac’s equation predicted that for every particle like an electron, there was going to be an antiparticle. At first, he didn’t have it quite right. He thought of the positron as:
An electron with negative energy [that] moves in an external field as though it carries a positive charge.
Dirac didn’t know quite what his equations were saying. If his orig­inal gut reaction were correct then you’d essentially be able to generate nearly infinite energy just by producing positrons. It would be the equivalent of running a business by running up literally infinite interest-free debt.
But ultimately, Dirac hit on the truth: Positrons are just the flip side of electrons. In other words, there seemed to be a deep symmetry between matter and the then as-yet undiscovered antimatter.
And the reality of a particle’s antimatter evil twin is that while op­posites may attract, it’s not always such a good idea for particles and antiparticles to act on those urges. When an electron and a positron come into contact with one another, the resulting conflagration com­pletely annihilates them both, and in the process, the magic of E =mcturns their mass into a huge amount of energy.
There’s nothing special about which particle we choose to call the “antiparticle” and which one is “normal.” In a parallel universe made entirely of what we call antimatter, those anti-people would no doubt call their atoms ordinary and we’d be the anti-ones. And this is really one of those cases where both the anti-people and us are right. It’s all just a matter of semantics.
That isn’t to say that there’s no antimatter in our universe. Antimat­ter is made all the time in the sun, which produces positrons as a side effect of fusing hydrogen into helium. Closer to home, we’re able to make all sorts of exotic antiparticles in huge accelerators like the Large Hadron Collider in France and Switzerland.
Why is there a difference between matter and antimatter? What were the reactions that allowed the creation of more of one than the other? That, after all, is the ultimate answer to the question of where we came from and why there are no anti-people.
No one has yet figured out exactly how things played out in the early moments of the universe. All we know is that we exist because of some sort of symmetry violation in the universe from very near the beginning. The conditions in the early universe wereextremely hot—maybe that had something to do with it.
Every now and again, you’ll hear accelerators described as “re-cre­ating the conditions of the Big Bang.” This is more or less right. The universe was hotter, and more energetic, in the past. The closer to the Big Bang that you want to explore, the hotter it is. Nothing we’ve seen so far in particle accelerators has given even the slightest inkling of producing a net matter over antimatter. The current thinking is that the small matter–antimatter accounting error occurred very, very early on, around 10−35 second after the Big Bang during which the tempera­tures were more than a quintillion times those at the center of the sun. Suffice it to say, we’re not able to produce those energies in a lab.


Even at those astounding energies, the asymmetry between matter and antimatter is extremely small. For every billion antiparticles that were created, there were a billion and one particles. One. Just one. We know that because there are currently about a billion times as many photons in the universe as there are protons. When the billion antipro­tons annihilated with the billion protons, they left behind the billions of photons that we observe today, though greatly weakened by the ex­pansion of the universe.

Eventually, all of antiparticles annihilated with almost all of the particles, leaving the one part in a billion to make all of the “stuff” that we now see. As Einstein put it:
I used to wonder how it comes about that the electron is negative. Negative-positive—these are perfectly symmetric in physics. There is no reason whatever to prefer one to the other. Then why is the electron negative? I thought about this for a long time and at last all I could think was “It won the fight!”
To put it another way, you’re essentially a rounding error from around 10−35 second after the Big Bang. Doesn’t make you feel very important, does it?
Of course that’s just as much a bummer for the anti-people too.
Excerpt from THE UNIVERSE IN THE REARVIEW MIRROR © 2013 by Dave Goldberg.  Published by Dutton, A Member of Penguin Group (USA) Inc. Excerpted with permission from the publisher. All Rights Reserved.

ABOUT THE AUTHOR(S)

Dave Goldberg is a professor of astrophysics at Drexel University. He has a Ph.D. in astrophysics from Princeton University. Goldberg's research centers on cosmology and gravity's distorting effects on the appearance of the universe. He also writes the Ask a Physicist column at the Web site io9.

Source: Scientific American Space & Physics 

The Surprising Origins of Evolutionary Complexity


Scientists are exploring how organisms can evolve elaborate structures without Darwinian selection



LAB-RAISED fruit flies are more complex than wild ones because their sheltered environment allows even disadvantageous mutations to spread. This artist's conception contrasts typical wild fly anatomy (left) with representative mutations that arise in lab flies (right).Image: Cherie Sinnen

In Brief

  • Conventional wisdom holds that complex structures evolve from simpler ones, step-by-step, through a gradual evolutionary process, with Darwinian selection favoring intermediate forms along the way.
  • But recently some scholars have proposed that complexity can arise by other means—as a side effect, for instance—even without natural selection to promote it.
  • Studies suggest that random mutations that individually have no effect on an organism can fuel the emergence of complexity in a process known as constructive neutral evolution.
Charles Darwin was not yet 30 when he got the basic idea for the theory of evolution. But it wasn't until he turned 50 that he presented his argument to the world. He spent those two decades methodically compiling evidence for his theory and coming up with responses to every skeptical counterargument he could think of. And the counterargument he anticipated most of all was that the gradual evolutionary process he envisioned could not produce certain complex structures.
Consider the human eye. It is made up of many parts—a retina, a lens, muscles, jelly, and so on—all of which must interact for sight to occur. Damage one part—detach the retina, for instance—and blindness can follow. In fact, the eye functions only if the parts are of the right size and shape to work with one another. If Darwin was right, then the complex eye had evolved from simple precursors. In On the Origin of Species, Darwin wrote that this idea “seems, I freely confess, absurd in the highest possible degree.”
But Darwin could nonetheless see a path to the evolution of complexity. In each generation, individuals varied in their traits. Some variations increased their survival and allowed them to have more offspring. Over generations those advantageous variations would become more common—would, in a word, be “selected.” As new variations emerged and spread, they could gradually tinker with anatomy, producing complex structures.
The human eye, Darwin argued, could have evolved from a simple light-catching patch of tissue of the kind that animals such as flatworms grow today. Natural selection could have turned the patch into a cup that could detect the direction of the light. Then, some added feature would work with the cup to further improve vision, better adapting an organism to its surroundings, and so this intermediate precursor of an eye would be passed down to future generations. And, step-by-step, natural selection could drive this transformation to increased complexity because each intermediate form would provide an advantage over what came before.
Darwin's musings on the origin of complexity have found support in modern biology. Today biologists can probe the eye and other organs in detail at the molecular level, where they find immensely complex proteins joining together to make structures that bear a striking resemblance to portals, conveyor belts and motors. Such intricate systems of proteins can evolve from simpler ones, with natural selection favoring the intermediates along the way.
But recently some scientists and philosophers have suggested that complexity can arise through other routes. Some argue that life has a built-in tendency to become more complex over time. Others maintain that as random mutations arise, complexity emerges as a side effect, even without natural selection to help it along. Complexity, they say, is not purely the result of millions of years of fine-tuning through natural selection—the process that Richard Dawkins famously dubbed “the blind watchmaker.” To some extent, it just happens.
A Sum of Varied Parts
Biologists and philosophers have pondered the evolution of complexity for decades, but according to Daniel W. McShea, a paleobiologist at Duke University, they have been hobbled by vague definitions. “It's not just that they don't know how to put a number on it. They don't know what they mean by the word,” McShea says.
McShea has been contemplating this question for years, working closely with Robert N. Brandon, also at Duke. McShea and Brandon suggest that we look not only at the sheer number of parts making up living things but at the types of parts. Our bodies are made of 10 trillion cells. If they were all of one type, we would be featureless heaps of protoplasm. Instead we have muscle cells, red blood cells, skin cells, and so on. Even a single organ can have many different cell types. The retina, for example, has about 60 different kinds of neurons, each with a distinct task. By this measure, we can say that we humans are, indeed, more complex than an animal such as a sponge, which has perhaps only six cell types.
One advantage of this definition is that you can measure complexity in many ways. Our skeletons have different types of bones, for example, each with a distinctive shape. Even the spine is made up of different types of parts, from the vertebrae in the neck that hold up our head to the ones that support our rib cage.
In their 2010 book Biology's First Law, McShea and Brandon outlined a way that complexity defined in this way could arise. They argued that a bunch of parts that start out more or less the same should differentiate over time. Whenever organisms reproduce, one or more of their genes may mutate. And sometimes these mutations give rise to more types of parts. Once an organism has more parts, those units have an opportunity to become different. After a gene is accidentally copied, the duplicate may pick up mutations that the original does not share. Thus, if you start with a set of identical parts, according to McShea and Brandon, they will tend to become increasingly different from one another. In other words, the organism's complexity will increase.
As complexity arises, it may help an organism survive better or have more offspring. If so, it will be favored by natural selection and spread through the population. Mammals, for example, smell by binding odor molecules to receptors on nerve endings in their nose. These receptor genes have repeatedly duplicated over millions of years. The new copies mutate, allowing mammals to smell a wider range of aromas.Animals that rely heavily on their nose, such as mice and dogs, have more than 1,000 of these receptor genes. On the other hand, complexity can be a burden. Mutations can change the shape of a neck vertebra, for instance, making it hard for the head to turn. Natural selection will keep these mutations from spreading through populations. That is, organisms born with those traits will tend to die before reproducing, thus taking the deleterious traits out of circulation when they go. In these cases, natural selection works against complexity.
Unlike standard evolutionary theory, McShea and Brandon see complexity increasing even in the absence of natural selection. This statement is, they maintain, a fundamental law of biology—perhaps its only one. They have dubbed it the zero-force evolutionary law.
The Fruit-Fly Test
Recently McShea and Leonore Fleming, a graduate student at Duke, put the zero-force evolutionary law to the test. The subjects were Drosophila flies. For more than a century scientists have reared stocks of the flies to use in experiments. In their laboratory homes, the flies have led a pampered life, provided with a constant supply of food and a steady, warm climate. Their wild relatives, meanwhile, have to contend with starvation, predators, cold and heat. Natural selection is strong among the wild flies, eliminating mutations that make flies unable to cope with their many challenges. In the sheltered environment of the labs, in contrast, natural selection is feeble.
The zero-force evolutionary law makes a clear prediction: over the past century the lab flies should have been less subject to the elimination of disadvantageous mutations and thus should have become more complex than the wild ones.
Fleming and McShea examined the scientific literature for 916 laboratory lines of flies. They made many different measures of complexity in each population. In the journalEvolution & Development, they recently reported that the lab flies were indeed more complex than wild ones. Some of the insects had irregular legs. Others acquired complicated patterns of colors on their wings. The segments of their antennae took on different shapes. Freed from natural selection, flies have reveled in complexity, just as the law predicts.
Although some biologists have endorsed the zero-force evolutionary law, Douglas Erwin, a leading paleontologist at the Smithsonian National Museum of Natural History, thinks it has some serious flaws. “One of its basic assumptions fails,” he argues. According to the law, complexity may increase in the absence of selection. But that would be true only if organisms could actually exist beyond the influence of selection. In the real world, even when they are pampered by the most doting of scientists, Erwin contends, selection still exerts a force. For an animal such as a fly to develop properly, hundreds of genes have to interact in an elaborate choreography, turning one cell into many, giving rise to different organs, and so on. Mutations may disrupt that choreography, preventing the flies from becoming viable adults.
An organism can exist without external selection—without the environment determining who wins and loses in the evolutionary race—but it will still be subject to internal selection, which takes place within organisms. In their new study, McShea and Fleming do not provide evidence for the zero-force evolutionary law, according to Erwin, “because they only consider adult variants.” The researchers did not look at the mutants that died from developmental disorders before reaching maturity, despite being cared for by scientists.
Another objection Erwin and other critics have raised is that McShea and Brandon's version of complexity does not jibe with how most people define the term. After all, an eye does not just have many different parts. Those parts also carry out a task together, and each one has a particular job to do. But McShea and Brandon argue that the kind of complexity that they are examining could lead to complexity of other sorts. “The kind of complexity that we're seeing in this Drosophila population is the foundation for really interesting stuff that selection could get hold of” to build complex structures that function to aid survival, McShea says.
Molecular Complexity
As a paleobiologist, McShea is accustomed to thinking about the kind of complexity he can see in fossils—bones fitting together into a skeleton, for example. But in recent years a number of molecular biologists have independently begun to think much as he does about how complexity emerges.
In the 1990s a group of Canadian biologists started to ponder the fact that mutations often have no effect on an organism at all. These mutations are, in the jargon of evolutionary biology, neutral. The scientists, including Michael Gray of Dalhousie University in Halifax, proposed that the mutations could give rise to complex structures without going through a series of intermediates that are each selected for their help in adapting an organism to its environment. They dubbed this process “constructive neutral evolution.”
Gray has been encouraged by some recent studies that provide compelling evidence for constructive neutral evolution. One of the leaders in this research is Joe Thornton of the University of Oregon. He and his colleagues have found what appears to be an example in the cells of fungi. In fungi, such as a portobello mushroom, cells have to move atoms from one place to another to stay alive. One of the ways they do so is with molecular pumps called vacuolar ATPase complexes. A spinning ring of proteins shuttles atoms from one side of a membrane in the fungus to another. This ring is clearly a complex structure. It contains six protein molecules. Four of the molecules consist of the protein known as Vma3. The fifth is Vma11 and the sixth Vma16. All three types of protein are essential for the ring to spin.
To find out how this complex structure evolved, Thornton and his colleagues compared the proteins with related versions in other organisms, such as animals. (Fungi and animals share a common ancestor that lived around a billion years ago.)
In animals, the vacuolar ATPase complexes also have spinning rings made of six proteins. But those rings are different in one crucial way: instead of having three types of proteins in their rings, they have only two. Each animal ring is made up of five copies of Vma3 and one of Vma16. They have no Vma11. By McShea and Brandon's definition of complexity, fungi are more complex than animals—at least when it comes to their vacuolar ATPase complexes.
The scientists looked closely at the genes encoding the ring proteins. Vma11, the ring protein unique to fungi, turns out to be a close relative of the Vma3 in both animals and fungi. The genes for Vma3 and Vma11 must therefore share a common ancestry. Thornton and his colleagues concluded that early in the evolution of fungi, an ancestral gene for ring proteins was accidentally duplicated. Those two copies then evolved into Vma3 and Vma11.
By comparing the differences in the genes for Vma3 and Vma11, Thornton and his colleagues reconstructed the ancestral gene from which they both evolved. They then used that DNA sequence to create a corresponding protein—in effect, resurrecting an 800-million-year-old protein. The scientists called this protein Anc.3-11—short forancestor of Vma3 and Vma11. They wondered how the protein ring functioned with this ancestral protein. To find out, they inserted the gene for Anc.3-11 into the DNA of yeast. They also shut down its descendant genes, Vma3 and Vma11. Normally, shutting down the genes for the Vma3 and Vma11 proteins would be fatal because the yeast could no longer make their rings. But Thornton and his co-workers found that the yeast could survive with Anc.3-11 instead. It combined Anc.3-11 with Vma16 to make fully functional rings.
Experiments such as this one allowed the scientists to formulate a hypothesis for how the fungal ring became more complex. Fungi started out with rings made from only two proteins—the same ones found in animals like us. The proteins were versatile, able to bind to themselves or to their partners, joining up to proteins either on their right or on their left. Later the gene for Anc.3-11 duplicated into Vma3 and Vma11. These new proteins kept doing what the old ones had done: they assembled into rings for pumps. But over millions of generations of fungi, they began to mutate. Some of those mutations took away some of their versatility. Vma11, for example, lost the ability to bind to Vma3 on its clockwise side. Vma3 lost the ability to bind to Vma16 on its clockwise side. These mutations did not kill the yeast, because the proteins could still link together into a ring. They were neutral mutations, in other words. But now the ring had to be more complex because it could form successfully only if all three proteins were present and only if they arranged themselves in one pattern.
Thornton and his colleagues have uncovered precisely the kind of evolutionary episode predicted by the zero-force evolutionary law. Over time, life produced more parts—that is, more ring proteins. And then those extra parts began to diverge from one another. The fungi ended up with a more complex structure than their ancestors had. But it did not happen the way Darwin had imagined, with natural selection favoring a series of intermediate forms. Instead the fungal ring degenerated its way into complexity.
Fixing Mistakes
Gray has found another example of constructive neutral evolution in the way many species edit their genes. When cells need to make a given protein, they transcribe the DNA of its gene into RNA, the single-stranded counterpart of DNA, and then use special enzymes to replace certain RNA building blocks (called nucleotides) with other ones. RNA editing is essential to many species, including us—the unedited RNA molecules produce proteins that do not work. But there is also something decidedly odd about it. Why don't we just have genes with the correct original sequence, making RNA editing unnecessary?
The scenario that Gray proposes for the evolution of RNA editing goes like this: an enzyme mutates so that it can latch onto RNA and change certain nucleotides. This enzyme does not harm the cell, nor does it help it—at least not at first. Doing no harm, it persists. Later a harmful mutation occurs in a gene. Fortunately, the cell already has the RNA-binding enzyme, which can compensate for this mutation by editing the RNA. It shields the cell from the harm of the mutation, allowing the mutation to get passed down to the next generation and spread throughout the population. The evolution of this RNA-editing enzyme and the mutation it fixed was not driven by natural selection, Gray argues. Instead this extra layer of complexity evolved on its own—“neutrally.” Then, once it became widespread, there was no way to get rid of it.
David Speijer, a biochemist at the University of Amsterdam, thinks that Gray and his colleagues have done biology a service with the idea of constructive neutral evolution, especially by challenging the notion that all complexity must be adaptive.But Speijer worries they may be pushing their argument too hard in some cases. On one hand, he thinks that the fungus pumps are a good example of constructive neutral evolution. “Everybody in their right mind would totally agree with it,” he says. In other cases, such as RNA editing, scientists should not, in his view, dismiss the possibility that natural selection was at work, even if the complexity seems useless.
Gray, McShea and Brandon acknowledge the important role of natural selection in the rise of the complexity that surrounds us, from the biochemistry that builds a feather to the photosynthetic factories inside the leaves of trees. Yet they hope their research will coax other biologists to think beyond natural selection and to see the possibility that random mutation can fuel the evolution of complexity on its own. “We don't dismiss adaptation at all as part of that,” Gray says. “We just don't think it explains everything.”
This article was produced in collaboration with Quanta Magazinean editorially independent division of SimonsFoundation.org.


This article was originally published with the title The Surprising Origins of Life's Complexity.



ABOUT THE AUTHOR(S)

Carl Zimmer is a New York Times columnist and has written numerous books, including Evolution: Making Sense of Life, co-authored with Douglas J. Emlen.

MORE TO EXPLORE
Biology's First Law: The Tendency for Diversity and Complexity to Increase in Evolutionary Systems. Daniel W. McShea and Robert N. Brandon. University of Chicago Press, 2010.
 
How a Neutral Evolutionary Ratchet Can Build Cellular Complexity. Julius Lukeš et al. in IUBMB Life, Vol. 63, No. 7, pages 528-537; July 2011.
 
This article and more information about Quanta Magazine are available atwww.simonsfoundation.org/quanta