jueves, 31 de enero de 2013


Midiendo agujeros negros

El del centro de la galaxia NGC 4526 tiene una masa de 450 millones de veces la del Sol, según los resultados de un nuevo método de estimación

Ilustración de un agujero negro en el centro de una galaxia de disco. / NASA
“Las masas de los agujeros negros de los centros galácticos están correlacionadas con multitud de propiedades de la propia galaxia, lo que sugiere que unos y otras evolucionan juntos”, afirman unos científicos europeos y estadounidenses que, aprovechando precisamente esta relación, han desarrollado un nuevo método para medir la masa del agujero negro. Según sus cálculos, el que está en la galaxia NGC 4526 tiene una masa equivalente a 450 millones de veces el Sol. Timothy A. Davies (del Observatorio Europeo Austral, ESO) y sus colegas basan su técnica en la dinámica de las nubes de gas del entorno del agujero negro y la comparan con modelizaciones de cómo sería se moverían esas nubes con y sin agujero.
Las antenas del radiotelescopio ALMA, en el desierto de Atacama (Chile), con el que los científicos podrán medir la masa de cientos de agujeros negros. / ALMA /C.PADILLA
Todo lo que hay en el entorno a un agujero negro se ve afectado por su enorme gravedad, la materia acaba cayendo en él y desaparece de la vista, pero antes de ese punto de no retorno su comportamiento delata que está precipitándose hacia el pozo cósmico. Las observaciones de estos fenómenos permiten a los científicos deducir las propiedades del agujero negro protagonista.
Los investigadores explican en la revista Nature que existen ya varios métodos para medir directamente la masa de los agujeros negros, todos ellos basados en la observación del entorno del mismo, por ejemplo el movimiento de las estrellas atraídas por la potente gravedad del agujero o el comportamiento del gas ionizado a su alrededor. Cada técnica es más idónea para un tipo u otro de galaxia.
Composición fotográfica que combina la imagen de la galaxia NGC4526 captada por el telescopio 'Hubble' con las observaciones de gas molecular realizadas con el radiotelescopio Carma (en California). / TIMOTHY A.DAVIS
La ventaja del nuevo método propuesto y ensayado por Davies y sus colegas es que, según explican ellos mismos, será muy práctico con los telescopios de nueva generación que operan en la banda milimétrica de ondas radio, como el observatorio internacional ALMA (instalado en el norte de Chile) que está dando sus primeros pasos. Estos telescopios están formados por decenas de antenas que funcionan de modo sincronizado (por interferometría) y con ellos, aplicando la nueva técnica, se podrá medir la masa de un agujero negro de una galaxia muy rápidamente, en menos de cinco horas de observación. Así, con el nuevo sistema de medir basado en la dinámica del gas molecular, “se podrá estimar la masa del agujero negro en cientos de galaxias del universo cercano, muchas de las cuales son inaccesibles con las técnicas actuales”, escriben los investigadores en Nature.

miércoles, 30 de enero de 2013


Is Scientific Materialism “Almost Certainly False”?



When it comes to science, ours is a paradoxical era. On the one hand, prominent physicists proclaim that they are solving the riddle of reality and hence finally displacing religious myths of creation. That is the chest-thumping message of books such as The Grand Design by physicists Stephen Hawking and Leonard Mlodinow andA Universe from Nothing by Lawrence Krauss. A corollary of this triumphal view is that science will inevitably solve all other mysteries as well.
On the other hand, science’s limits have never been more glaringly apparent. In their desperation for a “theory of everything”—which unifies quantum mechanics and relativity and explains the origin and structure of our cosmos—physicists have embraced pseudo-scientific speculation such as multi-universe theories and the anthropic principle (which says that the universe must be as we observe it to be because otherwise we wouldn’t be here to observe it). Fields such as neuroscience, evolutionary psychology and behavioral genetics and complexity have fallen far short of their hype.
Some scholars, notably philosopher Thomas Nagel, are so unimpressed with science that they are challenging its fundamental assumptions. In his new book Mind and Cosmos: Why the Materialist Neo-Darwinian Conception of Nature Is Almost Certainly False, Nagel contends that current scientific theories and methods can’t account for the emergence of life in general and one bipedal, big-brained species in particular. To solve these problems, Nagel asserts, science needs “a major conceptual revolution,” as radical as those precipitated by heliocentrism, evolution and relativity.
Many pundits calling for such a revolution are peddling some sort of religious agenda, whether Christian or New Age. Nagel is an atheist, who cannot accept God as a final answer, and yet he echoes some theological critiques of science. “Physic-chemical reductionism,” he writes, cannot tell us how matter became animate on Earth more than three billion years ago; nor can it account for the emergence in our ancestors of consciousness, reason and morality.
Evolutionary psychologists invoke natural selection to explain humanity’s remarkable attributes, but only in a hand-wavy, retrospective fashion, according to Nagel. A genuine theory of everything, he suggests, should make sense of the extraordinary fact that the universe “is waking up and becoming aware of itself.” In other words, the theory should show that life, mind, morality and reason were not only possible but even inevitable, latent in the cosmos from its explosive inception. Nagel admits he has no idea what form such a theory would take; his goal is to point out how far current science is from achieving it.
I share Nagel’s view of science’s inadequacies. Moreover, I’m a fan of his work, especially his famous essay “What Is It Like to Be a Bat?”, a quirky take on the mind-body problem (which inspired my column “What Is it Like to Be a Cat?“). So I was a bit disappointed by the dry, abstract style of Mind and Cosmos. The book seems aimed primarily at philosophers and scientists—that is, professionals—rather than lay readers.
Nagel acknowledges that his attempt to envision a more expansive scientific paradigm is “far too unimaginative.” He might have produced a more compelling work if he had ranged more widely in his survey of alternatives to materialist dogma. For example, complexity theorist Stuart Kauffman has postulated the existence of a new force that counteracts the universal drift toward disorder decreed by the second law of thermodynamics. Kauffman suspects that this anti-entropy force might account for the emergence and evolution of life. Nagel mentions Kauffman’s theory of “self-organization” in a footnote but doesn’t elaborate on it. (I critiqued the field of complexity research in a recent column.)
According to the physicist John Wheeler, quantum mechanics implies that our observations of reality influence its unfolding. We live in a “participatory universe,” Wheeler proposed, in which mind is as fundamental as matter. Philosopher David Chalmers, Nagel’s colleague at New York University, conjectures that “information,” which emerges from certain physical configurations and processes and entails consciousness, is a fundamental component of reality, as much so as time, space, matter and energy.
I never took Chalmer’s hypothesis seriously—in part because it implies that toaster ovens might be conscious—but I would have appreciated Nagel’s take on it. (For a critique of the ideas of Wheeler and Chalmers, see my column “Why information can’t be the basis of reality.”)
Nagel touches briefly on free will, when he suggests that our moral and aesthetic choices cannot be reduced to physical processes, but I expected a deeper treatment of the topic. Many leading scientists, from Francis Crick to Hawking, have argued that free will is an illusion, as much so as God and ghosts. This perspective, it seems to me, stems from a cramped, hyper-reductive view of causality, which I wish Nagel had opposed more vigorously.
These qualms asides, I recommend Nagel’s book, which serves as a much-needed counterweight to the smug, know-it-all stance of many modern scientists. Hawking and Krauss both claim that science has rendered philosophy obsolete. Actually, now more than ever we need philosophers, especially skeptics like Socrates, Descartes,Thomas Kuhn and Nagel, who seek to prevent us from becoming trapped in the cave of our beliefs.
Lehrer alert: This review was originally published in the Canadian newspaper The Globe & Mail.

Source  Scientific American 
Posted: 29 Jan 2013 12:32 PM PST

Referencia: Science.org .
por Adrian Cho , el 25 de enero de 2013

El supuesto conflicto entre la teoría centenaria de la electrodinámica clásica y la teoría de Einstein de la relatividad especial no existe, según indican un grupo de físicos.

En abril pasado, Masud Mansuripur, un ingeniero eléctrico de la Universidad de Arizona en Tucson, declaró que la ecuación que determina la fuerza ejercida sobre una partícula cargada eléctricamente por los campos eléctricos y magnéticos —la fuerza de Lorentz—, choca con la relatividad, la teoría de que los centros, como observadores, moviéndose a una velocidad relativa constante entre sí verán los mismos acontecimientos.

Para demostrarlo, elaboró un simple "experimento mental" en el que la ley de la fuerza de Lorentz parecía conducir a una paradoja, que describió en Physical Review Letters (PRL). Ahora, cuatro físicos independientes dicen que han resuelto esta paradoja en comentarios publicados en PRL.

"Masud está completamente convencido de que tiene razón, pero no es así", discute Stephen Barnett, uno de los comentaristas, de la Universidad de Strathclyde en Glasgow, Reino Unido.

Para entender la fuerza de Lorentz, supongamos que un partícula cargada se mueve a través de unos campos eléctricos y magnéticos. La ley de la fuerza de Lorentz establece que el campo eléctrico empujará la partícula en la misma dirección que el campo, mientras que el campo magnético la empujará en una dirección perpendicular tanto al campo magnético como a la velocidad de la partícula. Esta ley se utiliza a menudo para ilustrar cómo en la relatividad, por ejemplo, una fuerza que parece ser puramente eléctrica para un observador, parecerá tanto eléctrica como magnética para el observador que se mueve a una velocidad diferente.

Pero Mansuripur ideó un ejemplo en el cual la ley parecía conducir a una contradicción lógica. Consideremos la posibilidad de una carga eléctrica puntual situada a una distancia fija de un pequeño imán (ver imagen). El imán no tiene carga, por lo que no experimenta ninguna fuerza desde el campo eléctrico cargado. De igual manera, la carga no magnetizada tampoco interactúa con el campo magnético del imán. Así que, no pasa nada.

Ahora imaginemos cómo se ven las cosas desde un "marco móvil de referencia" donde la carga y el imán se deslizan a una velocidad constante. Gracias a los extraños efectos de la relatividad, el imán parece tener más carga positiva en un lado y más carga negativa en el otro. Así pues, el punto de carga tirará de un lado del imán y empujará el otro, creando un par de torsión, según explicaba Mansuripur.

Los detalles van así. El imán puede pensarse como un pequeño bucle de alambre en el que los electrones cargados negativamente corren a través de los iones positivos estacionarios. Dentro de un marco en el cual el anillo es estacionario, los electrones y los iones están igualmente espaciados y el anillo aparece sin carga. Pero en un marco móvil, los electrones en un lado del anillo se mueven más rápido que los otros respecto al observador. Así que, gracias a la extraña "contracción de Lorentz" de la relatividad, los electrones de un lado aparecen más apretados de espacio y los del otro lado con espacio más holgado, creando el desequilibrio de la carga.

Sin embargo, según la relatividad, el imán no puede más que girar en un marco y no en el otro, apunta Mansuripur, por lo que los resultados son paradójicos. Para evitar el problema, aboga por sustituir la ley de Lorentz con una que trate el magnetismo de forma diferente.

Pero Mansuripur ha olvidado algo, según argumentan los cuatro comentaristas. Gracias a esta rareza de la relatividad especial, el imán también posee un raro "momentum angular oculto" que en el marco móvil aumenta constantemente. Por su propia definición, un torque es igual a un cambio en el momento angular. Así que, en vez de girar el imán, el torque del marco de movimiento, simplemente, alimenta el incremento del momento angular oculto. Problema resuelto.

Así es como se produce el momento angular oculto. Si si piensa en el imán como un bucle de corriente, entonces, desde un lado del bucle del campo eléctrico del punto de carga se empuja a los electrones en la dirección en la que ya están en movimiento y aumenta su energía. En el otro lado del bucle, el campo eléctrico se opone al movimiento de los electrones y mina su energía. Entonces tenemos que, hay un flujo neto de energía de un lado al otro del bucle. Gracias a la ecuación de Einstein, E=mc2, sabemos que el flujo de energía es equivalente al movimiento de la masa, lo cual a su vez es equivalente al momentum. Por lo tanto, el flujo de energía da al imán un camino secundario de momentum oculto, incluso aunque no se esté moviendo lateralmente.

En un marco de movimiento, este momentum oculto también da lugar a un aumento de momentum angular. Para ver cómo funciona esto, supongamos que giras una bola en el extremo de una cuerda sobre tu cabeza. En algún momento, la pelota tiene un momentum (impulso) que apunta perpendicular a la cuerda y le da un impulso angular alrededor de la mano, y que ese momentum angular aumenta a medida que sueltas la cuerda. De la misma manera, en el marco móvil, el retroceso secundario del momentum oculto del imán conduce a un constante aumento del momentum angular. Y esta inflación del momentum angular absoluto requiere el torque que es el que identifica Mansuripur, explican los comentaristas.

Mansuripur está apegado a su defensa. Él argumenta que el momentum oculto, que fue identificado en la década de 1960, es un concepto mal definido, que simplemente disimula el problema. "Ese ha sido siempre el problema con el momentum oculto", señala Mansuripur. "Usted sabe que le falta algo, así que postula su existencia". Él afirma que su enfoque elimina la necesidad de un momentum oculto.

Otros dicen que el momentum oculto es parte integrante de la relatividad. "Si tenemos un sistema con un movimiento interno que está sujeto a una fuerza externa, entonces el momentum oculto es una propiedad general", dice Daniel Vanzella, uno de los comentaristas, de la Universidad de São Paulo, en São Carlos, Brasil. "No es una invención ad hoc puesta para conciliar las cosas". Vanzella también apunta a que, matemáticamente, la ley de la fuerza de Lorentz se puede escribir de forma que garantice que encaje con la relatividad, por lo que es "sencillamente imposible" que contradiga la teoría.

Algunos físicos argumentan que el documento de Mansuripur nunca debió publicarse. "No podría estar más en desacuerdo", dice Barnett. "¿No es mejor publicar cosas que sean interesantes y no cosas que patean la teoría de la relatividad general enviándola a la cuneta?" Aunque añade que el argumento ha sido extremadamente civilizado: "Masud es muy apasionado de lo que ha hecho, pero es un caballero".


Imagen: Paradox perdida. Crédito: Preston Huey / Science / AAAS
.
   

martes, 22 de enero de 2013

Posted: 22 Jan 2013 05:35 AM PST
Referencia: Scientific.American.com .
Por Michael Shermer, 21 enero 2013

De cómo la política distorsiona la ciencia en ambos extremos del espectro. Lo creas o no, y sospecho que la mayoría de lectores no lo creerá, se libra una guerra sobre la ciencia.

Somos muy conscientes de la lucha republicana sobre la ciencia desde el libro de Chris Mooney en 2006 del mismo nombre (Basic Books), y yo mismo he respondido a los conservadores con mi libro de 2006 “Why Darwin Matters” (Henry Holt), por su errónea creencia de que la teoría de la evolución conduce a la ruptura de la moral.

Una encuesta de 2012 de Gallup encontró que, el 58 por ciento de los republicanos cree que Dios creó a los humanos en su forma actual hace unos 10.000 años", comparado con el 41 por ciento de los demócratas. Una encuesta de 2011 por Public Religion Research Institute encontró que el 81 por ciento de los demócratas, y sólo el 49 por ciento de los republicanos, creen que la Tierra se está calentando. Muchos conservadores parecen conceder una posición moral más alta a los embriones en etapa temprana que el que los adultos sufran potenciales enfermedades debilitantes, curables a través de las células madre. Más recientemente, el candidato senatorial republicano de Missouri, Todd Akin, metió la pata sobre la capacidad de los cuerpos de las mujeres para evitar el embarazo en el caso de una "violación legítima". Eso lo pone peor.

La guerra por la ciencia comienza con las estadísticas citadas anteriormente: el 41 por ciento de los demócratas son los creacionistas de la tierra, y el 19 por ciento duda de que la Tierra se esté calentando. Estos números no refuerzan precisamente la creencia común de que los demócratas son gente de libros de ciencia. Además, teniendo en cuenta que haya "creacionistas cognitivos", esos que yo defino como los que aceptan la teoría de la evolución para el cuerpo humano, pero no para el cerebro. Steven Pinker, psicólogo de la Universidad de Harvard, documentó en su libro de 2002 “The Blank Slate” (Viking), la creencia en la mente como una tabla rasa formada casi totalmente por la cultura, ha sido principalmente el mantra de los intelectuales demócratas, que en los años de 1980 y 1990 condujo a un asalto total contra la psicología evolutiva, a través de esos grupos de extrema izquierda, denominados orwellianos, enarbolando laCiencia para el Pueblo, y profiriendo la idea, ahora incontrovertida, de que el pensamiento y el comportamiento humano son, por lo menos parcialmente, el resultado de nuestro pasado evolutivo.

Es más, recientemente, el coste anticiencia de la extrema izquierda progresista, documentó en el libro de 2012 “Science Left Behind” (PublicAffairs), por los periodistas de ciencia Alex B. Berezow y Hank Campbell, quienes señalaban que "si bien es cierto que los conservadores han declarado la guerra a la ciencia, los progresistas han declarado el Armagedón. "En materia de energía, por ejemplo, los autores sostienen que los demócratas progresistas tienden a ser antinucleares debido al problema de eliminación de residuos, contra los combustibles fósiles debido al calentamiento global, anti-hidroeléctricas porque interrumpen el ecosistema de los ríos y anti energía eólica a causa de las muertes de aves. Lo que subyace a todo esto es que "todo lo natural es bueno" y "todo lo antinatural es malo".

Mientras que los conservadores se obsesionan por la pureza y la santidad del sexo, los valores sagrados de la izquierda parecen obsesionados con el medio ambiente, dando lugar a un fervor casi religioso por la pureza y la santidad del aire, el agua y los alimentos en particular. Trate de tener una conversación con algún demócrata progresista sobre los GMO (organismos genéticamente modificados) donde las palabras "Monsanto" y "rentabilidad" no caigan como bombas silogísticas. El caso es que hemos estado modificando genéticamente organismos durante los últimos 10.000 años mediante la cría y la selección. Y es la única manera de alimentar a miles de millones de personas.

Las encuestas muestran que los demócratas y conservadores  moderados abrazan la ciencia más o menos igual, y es por eso que los científicos como E.O. Wilson y organizaciones como el Centro Nacional de Educación científica, están procurando llegar a los moderados de ambos partidos, para poder controlar a los extremistas de la evolución y del cambio climático. Extremarse en la defensa de la libertad no es ningún vicio, sino una defensa de la ciencia, donde los hechos son más importantes que la fe, ya sea con forma religiosa o secular, y donde la moderación en la búsqueda de la verdad sea una virtud.


Michael Shermer es editor de Skeptic magazine (www.skeptic.com). Su libro: "The Believing Brain".
Artículo original “The Left's War on Science”.
Imagen: Doug Chayka
.
   

NASA confirma tendencia de calentamiento climático a largo plazo

22 de enero de 2013: Científicos de la NASA afirman que 2012 fue el noveno año más caluroso, desde 1880, lo cual continúa la tendencia de aumento de temperaturas globales a largo plazo. Con excepción de 1998, los nueve años más calurosos en este registro, el cual abarca los últimos 132 años, ocurrieron desde 2000, siendo 2010 y 2005 los años más calurosos.
El Instituto Goddard para Estudios Espaciales (Goddard Institute for Space Studies o GISS, por su acrónimo en idioma inglés), de la NASA, ubicado en Nueva York y encargado de monitorizar las temperaturas superficiales globales de manera continua, publicó el pasado martes un análisis actualizado que compara las temperaturas alrededor del mundo en 2012 con el promedio de temperaturas globales que se registró alrededor de mediados del siglo XX. La comparación muestra que la Tierra continúa experimentando temperaturas más cálidas que las que se registraron hace varias décadas.
Warming Trend (splash)
Este mapa codificado por colores muestra la evolución de anomalías en las temperaturas superficiales globales desde 1880 hasta 2012. El último cuadro representa las anomalías en las temperaturas globales promediadas desde 2008 hasta 2012. 

La temperatura promedio en el año 2012 fue de alrededor de 14,6 grados Celsius (58,3 grados Fahrenheit), lo cual es 0,6 °C (1,0 °F) más caliente que la referencia que corresponde a mediados del siglo XX. Según el nuevo análisis, la temperatura global promedio ha aumentado 0,8 °C (1,4 °F) desde el año 1880.
Los científicos hacen hincapié en que los patrones climáticos siempre causarán fluctuaciones en la temperatura promedio de un año a otro, pero el constante incremento en los niveles de gases de efecto invernadero en la atmósfera de la Tierra asegura un aumento a largo plazo en las temperaturas globales. No será cada año necesariamente más caluroso que el anterior pero, dado el patrón actual del incremento en los gases de efecto invernadero, los científicos esperan que cada década sucesiva sea más calurosa que la anterior.

"Tener un año más de datos no es en sí significativo", dice Gabin Schmidt, quien es un climatólogo del GISS. "Lo que importa es que esta década es más calurosa que la anterior y esa fue, a su vez, más calurosa que la que le precedió. El planeta se está calentando. La razón por la cual se está calentando es porque estamos inyectando en la atmósfera cantidades de dióxido de carbono cada vez mayores".
El dióxido de carbono es un gas de efecto invernadero que atrapa el calor y también es uno de los principales agentes que controlan el clima en la Tierra. Aunque se produce naturalmente, también es emitido cuando se queman combustibles fósiles con el fin de producir energía. Debido a las crecientes emisiones causadas por el hombre, los niveles de dióxido de carbono en la atmósfera de la Tierra han estado continuamente en aumento durante varias décadas.
El nivel de dióxido de carbono en la atmósfera era de 285 partes por millón, en 1880, el año en que se inició el registro de temperatura del GISS. Para 1960, la concentración de dióxido de carbono atmosférico, medida por el Observatorio Mauna Loa de la NOAA (National Oceanographic and Atmospheric Administration o Administración Nacional Oceanográfica y Atmosférica, en idioma español), era de 315 partes por millón. En la actualidad, esas mediciones superan las 390 partes por millón.
Mientras que el planeta experimentaba temperaturas relativamente más cálidas en 2012, el sector continental de Estados Unidos soportó el año más caluroso, por mucho, del cual se tenga registro, según indica la NOAA. Dicha entidad es el organismo que se ocupa oficialmente de los registros climáticos de Estados Unidos.

Warming Trend (nasavnoaa)
Los conjuntos de datos recolectados por la NASA y por la NOAA proporcionan confirmaciones independientes de la reciente tendencia de calentamiento. [Más datos]
"Las temperaturas registradas en Estados Unidos durante el verano de 2012 son un ejemplo de una nueva tendencia de extremos estacionales anormales que son más calurosos que las temperaturas estacionales más altas registradas a mediados del siglo XX", dice el director del GISS, James E. Hansen. "Los dados del clima están ahora cargados. Algunas estaciones seguirán siendo más frías que el promedio a largo plazo, pero las personas perceptivas deberían darse cuenta de que la frecuencia de extremos inusualmente calurosos está aumentando. Son los extremos los que tienen el impacto más grande sobre las personas y otras formas de vida en el planeta".
El análisis de las temperaturas producido por el GISS se realiza tomando como base los datos climáticos proporcionados por más de 1.000 estaciones meteorológicas alrededor del mundo así como por observaciones satelitales de las temperaturas superficiales de los océanos y por mediciones realizadas por estaciones de investigación ubicadas en la Antártida. Un programa que se encuentra disponible públicamente se usa entonces para calcular la diferencia entre las temperaturas superficiales de un mes específico y el promedio de temperatura en ese mismo sitio en el período desde 1951 hasta 1980. Este período, el cual abarca tres décadas, se utiliza como punto de referencia para el análisis. El último año que experimentó temperaturas más frías que el promedio desde 1951 hasta 1980 fue 1976.
El registro de temperatura del GISS es uno de varios análisis de temperaturas globales, junto con aquellos producidos por la Oficina Met del Centro Hadley, en el Reino Unido, y por el Centro Nacional de Datos Climáticos, de la Administración Nacional Oceánica y Atmosférica, en Asheville, Carolina del Norte. Aunque estos tres registros primarios emplean métodos levemente diferentes, sus tendencias muestran, en términos generales, una estrecha concordancia.
Créditos y Contactos
Funcionaria Responsable de NASA: Ruth Netting
Editor de Producción: Dr. Tony Phillips
Traducción al Español: Juan C. Toledo
Editora en Español: Angela Atadía de Borghetti
Formato: Juan C. Toledo
Más información (en inglés)
Este texto ha sido dado a conocer como la publicación No. 13–021 de la oficina central de la NASA.

lunes, 21 de enero de 2013


Star Near Our Solar System May Be the Oldest Known

The proximity of HD 140283, at 186 light-years from our solar system, made it a target of a highly precise age measurement that put it at 13.2 billion years old








 

2
Share




Image of a starThe oldest known stars (one seen here in artists impression) date back at least 13.2 billion years.Image: ESO
Astronomers have discovered the Methuselah of stars — a denizen of our Solar System's neighborhood that is at least 13.2 billion years old and formed shortly after the Big Bang.
“We believe this star is the oldest known in the universe with a well determined age,” says Howard Bond of Pennsylvania State University in University Park, who announced the finding 10 January at a meeting of the American Astronomical Society in Long Beach, California.
The venerable star, dubbed HD 140283, lies at a comparatively short distance of 186 light years from our Solar System and has been studied by astronomers for more than a century. Researchers have long known that the object consists almost entirely of hydrogen and helium, a hallmark of having formed early in the history of the universe, before successive generations of stars had a chance to forge heavier elements. But no one knew exactly how old it was.
Determining the star’s age required several steps. First, the team made a new and more accurate determination of the star’s distance, using 11 sets of observations recorded between 2003 and 2011 with the Hubble Space Telescope’s fine guidance sensors, which measure the position of target stars relative to reference stars. Having measured the distance and the brightness of the star as it appears on the sky, the astronomers were able to calculate the star’s intrinsic luminosity with unusual precision.
The team then exploited the fact that HD 140283 has advanced to a phase in which it is exhausting the hydrogen at its core. In that phase, the star's slowly dimming luminosity is a highly sensitive indicator of its age, says Bond. His team calculates that the star is 13.9 billion years old, give or take 700 million years. Within the experimental error bars, the age does not conflict with the age of the universe, 13.77 billion years.
The star's age is therefore at least 13.2 billion years — which was the age of another known Methuselah — and possibly somewhat older. Its age is also known with considerably better confidence than in that previous case, Bond says.
The discovery does, however, place constraints on early star formation, says Volker Bromm of the University of Texas in Austin, who was not part of the study. The very first generation of stars coalesced from primordial gas, which did not contain appreciable amounts of elements heavier than helium, he notes. That means that as old as HD 140283 is, its chemical composition — a low but nonzero abundance of heavy elements — shows that the star must have formed after the first stellar generation.
Conditions for making the second generation of stars, then, “must have been in place very early,” says Bromm. In the standard scenario, the very first stars coalesced a few hundred million years after the Big Bang, he notes. Massive and short lived, the first-generation stars died in supernova explosions that heated surrounding gas and seeded it with heavier elements.
But before the second generation of stars could form, that gas had to cool down. The early age of the second-generation star HD 140283 hints that the cooling time, or delay, between the first and second generations might have been extremely short, perhaps only a few tens of million years, Bromm notes.
This article is reproduced with permission from the magazine Nature. The article wasfirst published on January 10, 2013.

Source Scientific American 

Right Again, Einstein! New Study Supports "Cosmological Constant"

Recent findings back up Einstein's thinking and cast doubt on "rolling scalar fields," an alternative theory of dark energy that suggests the accelerated expansion of the universe will change over time

TechMediaNetwork







 

5
Share




Image: NASA, ESA, E. Jullo (JPL/LAM), P. Natarajan (Yale) and J-P. Kneib (LAM)
A new study of one of the universe's fundamental constants casts doubt on a popular theory of dark energy, scientists say.
Dark energy is the name given to whatever is causing the expansion of the universe to accelerate. One theory predicts that an unchanging entity pervading space called the cosmological constant, originally suggested by Albert Einstein, is behind dark energy. But a popular alternative, called rolling scalar fields, suggests that whatever's causing dark energy isn't a constant, but has changed through time.
If that were true, though, it should have caused the values of other fundamental constants of nature to change, too. And a new measurement of one such constant, the ratio between the mass of the proton and mass of the electron, shows that this constant has remained remarkably steady over time.
The proton and the electron are two fundamental particles that make up the atoms inside stars, galaxies and people. Recently, a team of astronomers used the German Effelsberg 100-meter radio telescope to observe alcohol molecules in a distant galaxy, and found that the protons and electrons in those molecules' atoms weigh about the same as the ones right here on Earth.
Because the galaxy they studied lies 7 billion light-years away, its light has taken that long (7 billion years) to travel to Earth, and thus we are seeing it as it was half the universe's lifetime ago. (The universe is thought to be about 13.7 billion years old.) The observations strongly suggest that this fundamental constant has remained mostly unchanged over the past 7 billion years. [The Big Bang to Now in 10 Easy Steps ]
Building on that finding, which was detailed in the Dec. 14 issue of the journal Science, University of Arizona astronomer Rodger Thompson calculated how much the proton-to-electron mass ratio would change over time if the rolling scalar fields theory were true. He found that the predictions did not match the data.
That result supports the idea of Einstein's cosmological constant. "Basically, it says alternatives to Einstein's theory are really running out of room here," Thompson said Jan. 9 during a press conference at the 221st meeting of the American Astronomical Society (AAS) in Long Beach, Calif., where he presented his work. "This puts some very serious constraints on these rolling scalar field cosmologies."
However, the cosmological constant theory isn't ideal, either. The expected value of the constant, based on known physics, is a number more than 10 to the power of 60 (one followed by 60 zeros), which is too large to explain the universe as we see it.
And the new findings don't drive nails into the coffins of other dark energy explanations, either.
"Rolling scalar fields are not dead," Thompson said. Rather, "they may be more complicated than those original models expected."
The new study is the second in about a week to back up Einstein. Another project, also presented at the AAS meeting, offered support for the idea that space-time is fundamentally smooth, as predicted by the early 20th-century genius, as opposed to foamy.
Copyright 2013 SPACE.com, a TechMediaNetwork company. All rights reserved. This material may not be published, broadcast, rewritten or redistributed.

TechMediaNetwork 

Source....SCIENTIFIC AMERICAN