lunes, 17 de septiembre de 2012


You Are Here: How Astronomical Surveys Are Pinpointing Our Place in the Cosmos

Upcoming telescope projects on Earth and in space will map out billions of stars and galaxies all around us


Simulated 3-d flythrough of galaxies ZOOMING IN: A still from a simulated fly-through of galaxies mapped by the Sloan Digital Sky Survey. Image: Miguel A. Aragón (Johns Hopkins University), Mark SubbaRao (Adler Planetarium), Alex Szalay (Johns Hopkins University), Yushu Yao (Lawrence Berkeley National Laboratory, NERSC), and the SDSS-III Collaboration

Like surveyors charting out a parcel of land by measuring angles, distances and elevations, astronomers have long mapped the positions of celestial objects in the sky.
Those celestial maps are about to see some major revisions. New and upcoming campaigns using ground-based telescopes or spacecraft promise to fill in many new details in astronomers’ maps of the sky. Together these projects will catalogue detailed positional information on several billion stars and galaxies near and far.
One of the most dramatic upgrades to celestial cartography should come from the European Space Agency’s Gaia spacecraft, which is scheduled to launch next year. After taking up a position in deep space, well beyond the orbit of the moon, Gaia will map the positions and distances of roughly one billion stars. The mission is the successor to the Hipparcos satellite, which launched in 1989 and whose catalogue still finds wide use. But that satellite charted just 120,000 stars or so, and only a slight minority were pinpointed with top-level precision.
Hipparcos measured precise stellar distances, to within 1 percent, for fewer than 1,000 stars. Most of the satellite’s distance measurements have much greater uncertainties of 20 percent or more. Gaia should measure the distances to about 10 million stars with a precision of 1 percent or better. “That’s about the quantum leap that we will make,” says Timo Prusti, project scientist for Gaia at the European Space Agency (ESA).
By mapping out so many stars, astronomers hope to improve their understanding of our home galaxy’s layout. “The main science goal is to address the issues of our Milky Way—the structure and the dynamics,” Prusti says. Buried as we are within the Milky Way, humankind has never had a glimpse of the galaxy in its entirety. The astronomer’s predicament is a bit like that of an artist who must sketch the Manhattan skyline from midtown, instead of from a clear vantage point across the Hudson River. Just as the artist can inspect Manhattan’s skyscrapers one by one to reconstruct the skyline in her sketch, the astronomer can fill in a map of the galaxy one star at a time.
A next-generation space telescope called Euclid ought to extend that map from the local to the global, by mapping up to two billion galaxies in three dimensions. The mission, which ESA approved in June for a 2020 launch, will scan roughly one third of the sky to measure the positions and distances of galaxies across the universe. The hope is that the distribution of cosmic structure will reveal some hidden clue to the nature of dark energy, the unknown entity driving the accelerating expansion of the universe.
“We have no idea what dark energy is, but it’s a very subtle effect,” says Richard Griffiths, the Euclid program scientist at NASA, which is a participant in the European-led mission. “The only way we can get at it is to study the whole universe, basically.”
Euclid’s design specs should allow astronomers to see galaxies so distant that their light has taken more than half the age of the universe to reach Earth. “We will literally obtain a three-dimensional image of our universe, with us in the very center, and we will be able to detect the accelerated expansion in it,” says ESA’s project scientist René Laureijs. “It will give us the opportunity to watch the universe evolving over the last 10 billion years.”
Euclid is not the only project charting galaxies to try to unravel the mystery of dark energy. A campaign called the Dark Energy Survey will soon take advantage of a new 570-megapixel camera on a four-meter telescope at the Cerro Tololo Inter-American Observatory in Chile. The survey will measure the shapes and positions of some 200 million galaxies across a quarter of the southern sky. Whereas the scope of the ground-based project pales in comparison to the billions of galaxies targeted by Euclid, the Dark Energy Survey should have a significant head start on its space-based counterpart. The project’s camera has just been installed on the telescope and could see first light as soon as this month, according to the project’s Facebook page.

Fuente 
Scientific American Physics news@email.scientificamerican.com

Common Interpretation of Heisenberg's Uncertainty Principle Is Proved False

A new experiment shows that measuring a quantum system does not necessarily introduce uncertainty

Dice five The uncertainty principle limits what we can know about a quantum system, and that fuzziness is not entirely caused by the act of measurement. Image: flickr/@Doug88888
By Geoff Brumfiel of Nature magazine
Contrary to what many students are taught, quantum uncertainty may not always be in the eye of the beholder. A new experiment shows that measuring a quantum system does not necessarily introduce uncertainty. The study overthrows a common classroom explanation of why the quantum world appears so fuzzy, but the fundamental limit to what is knowable at the smallest scales remains unchanged.
At the foundation of quantum mechanics is the Heisenberg uncertainty principle. Simply put, the principle states that there is a fundamental limit to what one can know about a quantum system. For example, the more precisely one knows a particle's position, the less one can know about its momentum, and vice versa. The limit is expressed as a simple equation that is straightforward to prove mathematically.
Heisenberg sometimes explained the uncertainty principle as a problem of making measurements. His most well-known thought experiment involved photographing an electron. To take the picture, a scientist might bounce a light particle off the electron's surface. That would reveal its position, but it would also impart energy to the electron, causing it to move. Learning about the electron's position would create uncertainty in its velocity; and the act of measurement would produce the uncertainty needed to satisfy the principle.
Physics students are still taught this measurement-disturbance version of the uncertainty principle in introductory classes, but it turns out that it's not always true. Aephraim Steinberg of the University of Toronto in Canada and his team have performed measurements on photons (particles of light) and showed that the act of measuring can introduce less uncertainty than is required by Heisenberg’s principle. The total uncertainty of what can be known about the photon's properties, however, remains above Heisenberg's limit.
Delicate measurement
Steinberg's group does not measure position and momentum, but rather two different inter-related properties of a photon: its polarization states. In this case, the polarization along one plane is intrinsically tied to the polarization along the other, and by Heisenberg’s principle, there is a limit to the certainty with which both states can be known.
The researchers made a ‘weak’ measurement of the photon’s polarization in one plane — not enough to disturb it, but enough to produce a rough sense of its orientation. Next, they measured the polarization in the second plane. Then they made an exact, or 'strong', measurement of the first polarization to see whether it had been disturbed by the second measurement.
When the researchers did the experiment multiple times, they found that measurement of one polarization did not always disturb the other state as much as the uncertainty principle predicted. In the strongest case, the induced fuzziness was as little as half of what would be predicted by the uncertainty principle.
Don't get too excited: the uncertainty principle still stands, says Steinberg: “In the end, there's no way you can know [both quantum states] accurately at the same time.” But the experiment shows that the act of measurement isn't always what causes the uncertainty. “If there's already a lot of uncertainty in the system, then there doesn't need to be any noise from the measurement at all,” he says.
The latest experiment is the second to make a measurement below the uncertainty noise limit. Earlier this year, Yuji Hasegawa, a physicist at the Vienna University of Technology in Austria, measured groups of neutron spins and derived results well below what would be predicted if measurements were inserting all the uncertainty into the system.

Fuente  Scientific American
Scientific American Physics news@email.scientificamerican.com

domingo, 16 de septiembre de 2012


The Curious Wavefunction
Musings on chemistry and the history and philosophy of science
The Curious Wavefunction HomeAboutContact

Theories, models and the future of science



Dark matter and dark energy: Models for accounting for the distribution of matter and the acceleration of the universe (Image: Edelweiss)
Last year’s Nobel Prize for physics was awarded to Saul Perlmutter, Brian Schmidt and Adam Riess for their discovery of an accelerating universe, a finding leading to the startling postulate that 75% of our universe contains a hitherto unknown entity called dark energy. This is an important discovery which is predated by brilliant minds and an exciting history. It continues a grand narrative that starts from Henrietta Swan Leavitt (who established a standard reference for calculating astronomical distances) through Albert Einstein (whose despised cosmological constant was resurrected by these findings) and Edwin Hubble, continuing through George Lemaitre and George Gamow (with their ideas about the Big Bang) and finally culminating in our current sophisticated understanding of the expanding universe.
But what is equally interesting is the ignorance that the prizewinning discovery reveals. The prize was awarded for the observation of an accelerating universe, not the explanation. Nobody really knows why the universe is accelerating. The current explanation for the acceleration consists of a set of different models incorporating entities like dark energy, none of which has been definitively proven to explain the facts well enough. And this makes me wonder if such a proliferation of models without accompanying concrete theories is going to embody science in the future.
The twentieth century saw theoretical advances in physics that agreed with experiment to an astonishing degree of accuracy. This progress culminated in the development of quantum electrodynamics, whose accuracy in Richard Feynman’s words is equivalent to calculating the distance between New York and Los Angeles within a hairsbreadth. Since then we have had some successes in quantitatively correlating theory to experiment, most notably in the work on validating the Big Bang and the development of the standard model of particle physics. But dark energy- there’s no theory for it as of now that remotely approaches the rigor of QED when it comes to comparison with experiment.
Of course it’s unfair to criticize dark energy since we are just getting started on tackling its mysteries. Maybe someday a comprehensive theory will be found, but given the complexity of what we are trying to achieve (essentially explain the nature of all the matter and energy in the universe) it seems likely that we may always be stuck with models, not actual theories. And this may be the case not just with cosmology but with other sciences. The fact is that the kinds of phenomena that science has been dealing with recently have been multifactorial, complex and emergent. The kind of mechanical, reductionist approaches that worked so well for atomic physics and molecular biology may turn out to be too impoverished for taking these phenomena apart. Take biology for instance. Do you think we could have a complete “theory” for the human brain that can quantitatively calculate all brain states leading to consciousness and our reaction to the external world? How about trying to build a “theory” for signal transduction that would allow us to not just predict but truly understand (in a holistic way) all the interactions with drugs and biomolecules that living organisms undergo? And then there’s other complex phenomena like the economy, the weather and social networks. It seems wise to say that we don’t anticipate real overarching theories for these phenomena anytime soon.
Molecular models - such as that of a ribosome depicted here - are already an integral part of chemistry and biology (Image: MRC)
On the other hand, I think it’s a sign of things to come that most of these fields are rife with explanatory models of varying accuracy and validity. Most importantly, modeling and simulation are starting to be considered as a respectable “third leg” of science, in addition to theory and experiment. One simple reason for this is the recognition that many of science’s greatest current challenges may not be amenable to rigorous theorizing, and we may have to treat models of phenomena as independent, authoritative explanatory entities in their own right. We are already seeing this happen in chemistry, biology, climate science and social science, and I have been told that even cosmologists are now extensively relying on computational models of the universe. My own field of drug discovery is a great example of the success and failure of models. Here models are used not just in computationally simulating the interactions of drugs with diseased proteins at a molecular level but in fitting pharmacological data and x-ray diffraction data, in constructing gene and protein networks and even in running and analyzing clinical trials. Models permeate drug discovery and development at every stage, and it’s hard to imagine a time when we will have an overarching “theory” encompassing the various stages of the process.
Admittedly these and other models are still far behind theory and experiment which have had head starts of about a thousand years. But there can be little doubt that such models can only become more accurate with increasing computational firepower and more comprehensive inclusion of data. How accurate remains to be seen, but it’s worth noting that there are already books that make a case for an independent, study-worthy philosophy of modeling and simulation; a recent book by the University of South Florida philosopher Eric Winsberg for instance extols philosophers of science to treat models not just as convenient applications and representations of theories (which are then the only fundamental things worth studying) but as ultimate independent explanatory devices in themselves that deserve separate philosophical consideration.
Could this then be at least part of the future of science? A future where robust experimental observations are encompassed not by beautifully rigorous and complete theories like general relativity or QED but only by different models which are patched together through a combination of rigor, empirical data, fudge factors and plain old intuition? This would be a new kind of science, as useful in its applications as its old counterpart but rooting itself only in models and not in complete theories. Given the history of theoretical science, such a future may seem dark and depressing. That is because as the statistician George Box famously quipped, although some models are useful, all models are in some sense wrong. What Box meant was that models often feature unrealistic assumptions about the details of a system, and yet allow us to reproduce the essential features of reality. They are subject to fudge factors and to the whims of their creators. Thus they can never provide the certain connection to “reality” that theories seem to. This is especially a problem when disparate models give the same answer to a question. In the absence of discriminating ideas, which model is then the “correct” one? The usual, convenient answer is “none of them”, since they all do an equally good job of explaining the facts. But this view of science, where models that can be judged only on the basis of their utility are the ultimate arbiters of reality and where there is thus no sense of a unified theoretical framework, feels deeply unsettling. In this universe the “real” theory will always remain hidden behind a facade of models, much as reality is always hidden behind the event horizon of a black hole. Such a universe can hardly warm the cockles of the heart of those who are used to crafting grand narratives for life and the cosmos. However it may be the price we pay for more comprehensive understanding. In the future, Nobel Prizes may be frequently awarded for important observations for which there are no real theories, only models. The discovery of dark matter and energy and our current attempts to understand the brain and signal transduction could well be the harbingers of this new kind of science.
Should we worry about such a world rife with models and devoid of theories? Not necessarily. If there’s one thing about science that we know, it’s that it evolves. Grand explanatory theories have traditionally been supposed to be a key part- probably the key part- of the scientific enterprise. But this is mostly because of historical precedent as well a psychological urge for seeking elegance and unification. And even historically sciences have progressed much without complete theories, as chemistry did for hundreds of years before the emergence of the atomic and structural theories. The belief that a grand theory is essential for the true development of a discipline has been resoundingly validated in the past but it’s utility may well have plateaued. I am not advocating some “end of science” scenario here – far from it – but as the recent history of string theory and theoretical physics in general demonstrates, even the most mathematically elegant and psychologically pleasing theories may have scant connection to reality. Because of the sheer scale and complexity of what we are trying to currently explain, we may have hit a roadblock in the application of the largely reductionist traditional scientific thinking which has served us so well for half a millennium
Ultimately what matters though is whether our constructs- theories, models, rules of thumb or heuristic pattern recognition- are up to the task of constructing consistent explanations of complex phenomena. The business of science is explanation, whether through unified narratives or piecemeal explanation is secondary. Although the former sounds more psychologically satisfying, science does not really care about stoking our egos. What is out there exists, and we do whatever’s necessary and sufficient to unravel it.
This is a revised version of a past post.
Ashutosh JogalekarAbout the Author: Ashutosh (Ash) Jogalekar is a chemist interested in the nature of the "central science" and its intersection with philosophy, history and culture. He is also more generally interested in the history and philosophy of science and is particularly fascinated by how science tries to mirror reality by building models. Follow on Twitter @curiouswavefn.
The views expressed are those of the author and are not necessarily those of Scientific American.

You Are Here: How Astronomical Surveys Are Pinpointing Our Place in the Cosmos

Upcoming telescope projects on Earth and in space will map out billions of stars and galaxies all around us
Simulated 3-d flythrough of galaxies ZOOMING IN: A still from a simulated fly-through of galaxies mapped by the Sloan Digital Sky Survey. Image: Miguel A. Aragón (Johns Hopkins University), Mark SubbaRao (Adler Planetarium), Alex Szalay (Johns Hopkins University), Yushu Yao (Lawrence Berkeley National Laboratory, NERSC), and the SDSS-III Collaboration
Advertisement
Like surveyors charting out a parcel of land by measuring angles, distances and elevations, astronomers have long mapped the positions of celestial objects in the sky.
Those celestial maps are about to see some major revisions. New and upcoming campaigns using ground-based telescopes or spacecraft promise to fill in many new details in astronomers’ maps of the sky. Together these projects will catalogue detailed positional information on several billion stars and galaxies near and far.
One of the most dramatic upgrades to celestial cartography should come from the European Space Agency’s Gaia spacecraft, which is scheduled to launch next year. After taking up a position in deep space, well beyond the orbit of the moon, Gaia will map the positions and distances of roughly one billion stars. The mission is the successor to the Hipparcos satellite, which launched in 1989 and whose catalogue still finds wide use. But that satellite charted just 120,000 stars or so, and only a slight minority were pinpointed with top-level precision.
Hipparcos measured precise stellar distances, to within 1 percent, for fewer than 1,000 stars. Most of the satellite’s distance measurements have much greater uncertainties of 20 percent or more. Gaia should measure the distances to about 10 million stars with a precision of 1 percent or better. “That’s about the quantum leap that we will make,” says Timo Prusti, project scientist for Gaia at the European Space Agency (ESA).
By mapping out so many stars, astronomers hope to improve their understanding of our home galaxy’s layout. “The main science goal is to address the issues of our Milky Way—the structure and the dynamics,” Prusti says. Buried as we are within the Milky Way, humankind has never had a glimpse of the galaxy in its entirety. The astronomer’s predicament is a bit like that of an artist who must sketch the Manhattan skyline from midtown, instead of from a clear vantage point across the Hudson River. Just as the artist can inspect Manhattan’s skyscrapers one by one to reconstruct the skyline in her sketch, the astronomer can fill in a map of the galaxy one star at a time.
A next-generation space telescope called Euclid ought to extend that map from the local to the global, by mapping up to two billion galaxies in three dimensions. The mission, which ESA approved in June for a 2020 launch, will scan roughly one third of the sky to measure the positions and distances of galaxies across the universe. The hope is that the distribution of cosmic structure will reveal some hidden clue to the nature of dark energy, the unknown entity driving the accelerating expansion of the universe.
“We have no idea what dark energy is, but it’s a very subtle effect,” says Richard Griffiths, the Euclid program scientist at NASA, which is a participant in the European-led mission. “The only way we can get at it is to study the whole universe, basically.”
Euclid’s design specs should allow astronomers to see galaxies so distant that their light has taken more than half the age of the universe to reach Earth. “We will literally obtain a three-dimensional image of our universe, with us in the very center, and we will be able to detect the accelerated expansion in it,” says ESA’s project scientist René Laureijs. “It will give us the opportunity to watch the universe evolving over the last 10 billion years.”
Euclid is not the only project charting galaxies to try to unravel the mystery of dark energy. A campaign called the Dark Energy Survey will soon take advantage of a new 570-megapixel camera on a four-meter telescope at the Cerro Tololo Inter-American Observatory in Chile. The survey will measure the shapes and positions of some 200 million galaxies across a quarter of the southern sky. Whereas the scope of the ground-based project pales in comparison to the billions of galaxies targeted by Euclid, the Dark Energy Survey should have a significant head start on its space-based counterpart. The project’s camera has just been installed on the telescope and could see first light as soon as this month, according to the project’s Facebook page.
Many of the leading surveys now coming online are based in the southern hemisphere, where celestial cartographers can expect to make the greatest impact. In the north, the granddaddy of all astronomical surveys—the Sloan Digital Sky Survey in New Mexico—has reigned for more than a decade and has already carefully mapped more than one million galaxies in three dimensions, in addition to many other accomplishments.
Among the new crop of southern surveys is a project at the European Southern Observatory’s VISTA telescope in Chile, which is already carrying out a broad infrared survey to complement the more targeted Dark Energy Survey. And the SkyMapper project in Australia plans to chart the entire southern sky in optical light. The SkyMapper telescope should detect roughly one billion stars and one billion galaxies, according to Stefan Keller of the Australian National University, one of the project’s lead scientists.
But the telescope most likely to rewrite the books on the southern sky is the Large Synoptic Survey Telescope, or LSST, in Chile. When it comes online around 2022, the LSST—as currently envisioned—will feature an 8.4-meter mirror (compared to the Sloan survey’s 2.5-meter telescope) and a three-gigapixel digital camera. The mammoth telescope will image the heavens every week to capture transient phenomena such as supernovae and close passages of potentially dangerous asteroids. In the process, it will also mark the three-dimensional location of some four billion galaxies.
Posted: 07 Sep 2012 05:31 AM PDT
Referencia: New Journal of Physics Volumen 14 septiembre 2012 .
vía IOP Institute of Physics, 6 septiembre 2012
Autores: Jan Ambjorn, Martin Reuter y Frank Saueressig

El programa de seguridad asintótica gravitacional resume los intentos de construir una teoría cuántica consistente y predictiva de la gravedad en el marco de renormalización generalizada de Wilson.

Su ingrediente clave es un punto fijo no gaussiana del flujo de grupo de renormalización, que controla el comportamiento en la teoría de energía trans-planckiana y sirve para poner a salvo la gravedad de las divergencias no físicas. Siempre que el punto fijo venga de un número finito de direcciones atractivas ultravioletas (relevantes), esta construcción da lugar a una teoría de campo cuántico coherente, que resulta tan predictiva como una normal y de perturbación renormalizable.

Esto nos abre la emocionante posibilidad de establecer la gravedad cuántica de Einstein como una teoría fundamental de la gravedad, sin tener que introducir la supersimetría o las dimensiones extra, y que esté basada únicamente en las técnicas de cuantificación, que se sabe que funcionan bien con las otras fuerzas fundamentales de la naturaleza.

Si bien la idea de una gravedad asintóticamente segura fue propuesta por Steven Weinberg hace más de 30 años [1], las herramientas técnicas para la investigación en este escenario solamente han surgido durante la última década. Aquí, el papel clave está desempeñado por la ecuación exacta del grupo de renormalización (RG) funcional de la gravedad, que permite la construcción de soluciones no-perturbativas aproximadas para el flujo RG de acoplamientos gravitacionales. Lo más notable es que, todas las soluciones construidas hasta la fecha exhiben el conveniente punto fijo no gaussiano, dando un fuerte apoyo a la conjetura de seguridad asintótica.

Por otra parte, el grupo de renormalización funcional también proporciona indicios que la idea central de un punto fijo no gaussiano proporciona una terminación segura ultravioleta que también se traslada a escenarios más realistas, donde la gravedad se ajusta a un sector apropiado como el modelo estándar. Estos éxitos teóricos también han provocado una gran abundancia de estudios centrados en las consecuencias de seguridad asintótica, en una amplia gama de aplicaciones fenomenológicas que cubren la física de los agujeros negros, la época primitiva cosmológica y el Big Bang, así como los modelos de gravedad a escala TeV comprobables en el Gran Hadron Collider.

Por diferentes razones, los estudios de Monte-Carlo de la función de partición gravitacional basados en diferenciadas triangulaciones dinámicas causales se acercan a proporcionar un camino a priori independiente hacia un develar las características no perturbativas de la gravedad. Como punto culminante, unas detalladas simulaciones establecieron que el diagrama de fase subyacente a las triangulaciones dinámicas contiene una fase donde éstas, de forma natural, dan lugar a universos macroscópicos de cuatro dimensiones. Además, existen indicios de una transición de fase de segundo orden, que forma naturalmente el análogo distintivo del punto fijo no gaussiano visto en los cálculos continuos. Así pues, hay una buena probabilidad de que los cálculos discontínuos y continuos puedan converger en una misma física fundamental.

Este tema de enfoque recoge una serie de documentos que describen las fronteras actuales del programa de seguridad asintótica gravitacional. Esperamos que los lectores puedan hacerse una idea de la profundidad y variedad de esta área de investigación, así como de nuestro entusiasmo y los nuevos desarrollos en curso.

Todas las contribuciones sobre esta cuestión de enfoque aparecerán y estarán disponibles aquí.


- [1] Weinberg S 1979 General Relativity, an Einstein Centenary Survey ed S W Hawking and W Israel (Cambridge: Cambridge University Press)
- Publicación: Jan Ambjorn et al 2012 nuevos J. Phys. 14 095003. doi: 10.1088/1367-2630/14/9/095003 en .pdf .
- Original artículo: "Focus on quantum Einstein gravity"
- Imagen:  El flujo de grupo de renormalización de la gravedad en el truncamiento de Einstein-Hilbert, es gobernado por la interacción gaussiana y el punto fijo no gaussiano. Lo última es una luz atractiva ultravioleta tanto para la constante de Newton como la constante cosmológica, y constituye una decuado candidato para una completa ultravioleta no-perturbativa de la gravedad. Figura es de Reuter y Saueressig Phys 2002. Rev. D 65 065016. Copyright 2002 de la Sociedad Americana de Física (APS).



Posted: 11 Sep 2012 03:28 AM PDT
Referencia: Nature.News.com .
Autor: Philip Ball, 10 septiembre 2012

El mundo de las matemáticas, por lo general tranquilo, está hecho un hervidero de declaraciones, debido a haya sido resuelto uno de los problemas más importantes de la teoría de números.

El matemático Shinichi Mochizuki, de la Universidad de Kioto, en Japón, ha publicado una prueba de la conjetura abc en 500 páginas, donde propone una relación entre los números enteros, un problema 'diofántico'.

La conjetura abc, propuesta independientemente por David Masser y Joseph Oesterle en 1985, podría no ser tan conocido para el resto del mundo como el último teorema de Fermat, pero en algunos aspectos es más significativo. "La conjetura abc, si la prueba resulta cierta, resuelve de un plumazo muchos famosos problemas diofánticos, incluido el último teorema de Fermat", afirma Dorian Goldfeld, matemático de la Universidad de Columbia, en Nueva York. "Si la prueba de Mochizuki es correcta, será uno de los logros más sorprendentes de las matemáticas del siglo XXI."

Al igual que el teorema de Fermat, la conjetura abc se refiere a las ecuaciones de la forma a+b=c. Esto implica un concepto de un número libre de cuadrados: uno que no puede ser dividido por el cuadrado de ningún número. Quince y 17 son números libre de cuadrados, pero no así 16 y 18, puesto que son divisibles por 42 y 32, respectivamente.

La parte de un número "libre de cuadrado" n, sqp (n), es el más grande que se puede formar multiplicando los factores de n que son números primos. Por ejemplo, sqp(18)=2x3=6.

Si ya tenemos eso, entonces debemos conseguir la conjetura abc. Se trata de la propiedad del producto de los tres enteros axbxc, o abc, o más concretamente, de la parte libre de cuadrado de este producto, lo cual involucra a sus distintos factores primos. Se establece que para los números enteros a+b=c, la relación de sqp(abc)r/c siempre tiene un cierto valor mínimo mayor que cero, para cualquier valor de r mayor que 1. Por ejemplo, si a=3 and b=125, de modo que c=128, entonces sqp(abc)=30 y sqp(abc)2/c = 900/128. En este caso, en el que r=2, sqp(abc)r/c es casi siempre mayor que 1, y siempre mayor que cero.

Una profunda conexión

Resulta que esta conjetura resume muchos otros problemas diofánticos, incluyendo el último teorema de Fermat (que establece que an+bn=cn no tiene soluciones enteras, si n es mayor que 2). Como muchos otros problemas diofánticos, todo gira en torno a las relaciones entre los números primos. Según Brian Conrad, de la Universidad de Stanford, en California, "eso codifica una profunda conexión entre los factores primos de a, b y a+b".

Muchos matemáticos han dedicado un gran esfuerzo para probar esta conjetura. En 2007, el matemático francés Lucien Szpiro, cuyo trabajo en 1978 dio lugar a la conjetura abc fue primero en proclamar que tenía una prueba de ello, pero pronto se encontró su deficiencia.

Igual que Szpiro, así como el matemático británico Andrew Wiles, quien demostró el último teorema de Fermat en 1994, Mochizuki ha atacado el problema usando la teoría de curvas elípticas, las suaves curvas generadas por las relaciones algebraicas de la serie y2=x3+ax+b.

Ahi es donde la relación de Mochizuki funciona, justo donde se paran los esfuerzos anteriores. Ha sabido desarrollar técnicas que muy pocos matemáticos entienden en su totalidad, y que invocan a una nueva matemática de "objetos", entidades abstractas análogas a los ejemplos más conocidos, como los objetos geométricos, conjuntos, permutaciones, topologías y matrices. "En este momento, probablemente es el único que lo sabe totalmente", apunta Goldfeld.

Conrad dice que este trabajo "utiliza una gran cantidad de conocimientos que se va llevar mucho tiempo para que pueda ser digerido por la comunidad". La prueba se extiende a los largo de cuatro largos artículos [1], y cada uno de las cuales se apoya a su vez en previos y profusos documentos. "Puede requerir una gran inversión de tiempo llegar a entender una prueba tan larga y sofisticada, así que la voluntad de los otros para hacerlo se apoya no sólo en la importancia del anuncio, sino también en la trayectoria de los autores", explica Conrad.

Seguir la pista de Mochizuki, sin duda, hace que el esfuerzo valga la pena. "Ha sido capaz de demostrar teoremas muy profundos en el pasado, y es muy concienzudo en su escritura, de manera que ofrece una gran confianza", señala Conrad. Y añade que uno puede sólo sentirse compensado simplemente verificando sus aseveración. "El aspecto interesante no es sólo que la conjetura puede estar resuelta, sino que las técnicas y los conocimientos que ha debido introducir deben ser herramientas muy poderosas para la solución de problemas en el futuro en la teoría de números".

- Nature doi: 10.1038/nature.2012.11378


- Imagen 1) Shinichi Mochizuki, imagen 2) David Masser (arriba) y Joseph Oesterle, proponentes de la conjetura abc .
Referencias:
-1  Mochizuki, S. Inter-universal teichmuller theory I: construction of Hodge Theatres (2012).
-2  Mochizuki, S. Inter-universal teichmüller theory II: Hodge–Arajekekiv-theoretic evalulation (2012).
-3  Mochizuki, S. Interuniversal teichmüller theory III: canonical splittings of the log-theta-lattice (2012).
-4  Mochizuki, S. Interuniversal teichmüller theory IV: log-volume computations and set-theoretic foundations (2012).
.

Astrónomos aseguran que la energía oscura es real

Un nuevo estudio eleva la certeza de su existencia al 99,996 por ciento, aunque todavía no se conocen sus propiedades

Día 12/09/2012 - 15.09h
Un nuevo estudio ha concluido que la energía oscura, responsable de la expansión acelerada del Universo, existe realmente. Sus datos lo aseguran con una certeza del 99,996 por ciento (algo más de 4 sigmas). Un poco por debajo del punto de consenso, que está en 5 sigmas (99.99994% de seguridad de que el resultado no se debe al azar)
Hace una década que los astrónomos observaron el brillo de las supernovas distantes y se dieron cuenta de que la expansión del universo está acelerándose. Esta aceleración se ha atribuido a la fuerza de repulsión asociada con la energía oscura que, según las teorías actuales se cree que forma 73 por ciento del cosmos.
A pesar de que los investigadores que hicieron este descubrimiento, Saul Perlmutter, Brian P. Schmidt y Adam G. Riess, recibieron el Premio Nobel de Física en 2011, la existencia de la energía oscura continúa siendo un tema de debate entre la comunidad científica.
Hasta ahora se han utilizado numerosas técnicas para confirmar la su existencia. Uno de los pocos métodos directos es el conocido como Sistema de Detección Integrado Sachs-Wolfe. Esta teoría señala que el fondo cósmico de microondas —la radiación residual del Big Bang— se volvería un poco más azul a su paso por los campos gravitatorios de cúmulos de materia, un efecto conocido como «corrimiento al rojo gravitacional».

Sachs-Wolfe

En 1996, dos investigadores canadienses llevaron esta idea al siguiente nivel. Propusieron buscar estos pequeños cambios en la energía de la luz comparando la temperatura de la radiación con mapas de galaxias en el universo local.
De no existir la energía oscura, no habría correspondencia entre los dos mapas (el de fondo de microondas cósmico distante y el de la distribución de galaxias relativamente cercano). Si esta existiera, sin embargo, se podría observar un curioso fenómeno: los fotones del fondo cósmico de microondas ganarían energía —en vez de perderla— al pasar cerca de grandes masas.
El Sistema de Detección Integrado Sachs-Wolfe, utilizado por primera vez en 2003, fue considerado como una prueba de que la energía oscura es real. Hasta fue nombrado «descubrimiento del año» por la revista 'Science'.
Sin embargo, también ha tenido sus detractores, que indicaban que la señal de energía oscura obtenida era demasiado débil, por lo que algunos científicos sugirieron que podría ser consecuencia de otras fuentes como el polvo de la Vía Láctea.
El nuevo estudio, publicado en'Monthly Notices' de la Royal Astronomical Society, ha investigado esta teoría durante los últimos dos años y ha examinado todos los argumentos en contra del Sistema de Detección Integrado Sachs-Wolfe. En este trabajo, el equipo ha mejorado los mapas utilizados en la obra original y, gracias a este análisis se ha llegado a la conclusión de que existe una probabilidad del 99,996 por ciento de que la energía oscura sea responsable de las partes más calientes de los mapas del fondo cósmico de microondas.
El autor principal del trabajo, Giannantonio Tommaso, ha apuntado que, además «este trabajo también habla de las posibles modificaciones a la teoría de la Relatividad General de Einstein».
A su juicio, «la próxima generación de fondo cósmico de microondas, y los futuros estudios de galaxias, deberían proporcionar la medición definitiva, ya sea la que confirma la relatividad general, incluyendo la energía oscura, o lo que sería aún más intrigante, una visión completamente nueva de cómo funciona la gravedad».

Fuente...El Pais , España
Posted: 13 Sep 2012 11:07 PM PDT
Referencia: APS.Daily.Observations,  12 de septiembre 2012

En lógica, un argumento puede no ser válido aunque la conclusión sea verdadera, y puede ser válido aunque la conclusión sea falsa. Son conceptos confusos, y la gente puede ser engañada fácilmente cuando la validez de un argumento y la credibilidad no coninciden, sobre todo en el caso de argumentos no válidos con conclusiones creíbles. Los psicólogos científicos llaman a este fenómeno sesgo de creencia (un tipo de sesgo cognitivo).

Por ejemplo, consideremos este argumento:

· Todos los psicólogos científicos llevan a cabo una investigación empírica.
· William James lleva a cabo una investigación empírica.
· Por lo tanto, William James es un psicólogo científico.

Todas las premisas son verdaderas, también lo es la conclusión, sin embargo, no es un argumento válido. Todos los psicólogos científicos llevan a cabo una investigación empírica y lo mismo ocurre con William James, pero eso no significa que James sea un psicólogo científico. Algunas personas que llevan a cabo una investigación empírica, Rosalind Franklin, por ejemplo, y no es, para nada, un psicólogo científico.

Para explicar el sesgo de creencia, los científicos han desarrollado un modelo de procesamiento selectivo. Según este modelo, el razonamiento humano implica un componente heurístico superficial y asociativo y otro componente analítico y rigurosamente normalizado. Cuando evaluamos un argumento, el componente heurístico del proceso de razonamiento nos anima a aceptar las conclusiones que creemos y a rechazar las conclusiones que no creemos. El componente analítico nos anima a aceptar o rechazar una conclusión basada en un modelo mental del argumento. Aun cuando el componente analítico entre en acción, no es infalible, ya que nuestras funciones de proceso de razonamiento de forma que sea "satisfactorio". Dicho de otro modo, cuando se trata de la lógica, la gente de forma natural aspira a ser "suficientemente buena" en lugar de perfecta.

Ahora, un grupo de científicos dirigido por Edward J. N. Stupple, de la Universidad de Derby, Reino Unido, sugiere que este modelo debe ser ajustado al reconocimiento del único proceso de razonamiento utilizados por los pensadores de lógica superior. Estos pensadores escudriñan los problemas a un nivel analítico que va más allá de la mera satisfacción, y en un estudio publicado en el Journal of Cognitive Psychology, Stupple y sus colaboradores señalaron que el actual modelo de procesamiento selectivo no explica lo que hace que la gente preste atención especial al análisis en algunos problemas sobre los demás.

El equipo de Stupple le pidió a un grupo de participantes que completaran un test de lógica y usaron las puntuaciones resultantes para dividir a los participantes en tres grupos: de lógica inferior, un grupo con alto sesgo de creencia; de lógica media, grupo con sesgo de creencia moderada, y lógica superior, grupo de bajo sesgo de creencia. Los grupos de lógica inferior resuelven los problemas más rápidamente y con menos precisión que los otros dos grupos, y pasaron la misma cantidad de tiempo para cada problema, con independencia de que la validez y credibilidad entren en conflicto. El grupo de lógica media resuelto el problema más lentamente que el grupo inferior, y le lleva más tiempo responder a problemas no válidos pero creíbles que a los demás problemas. Por último, el grupo de lógica superior mostraba una mayor precisión que los otros dos grupos, y les llevaba mucho más tiempo responder problemas no válidos pero creíbles que a todos los demás.

Los científicos creen que una sensibilidad para el conflicto de lógica-creencia y un único estilo (de mayor consumo de tiempo) para resolver problemas de los pensadores de lógica superior, es en gran parte lo que dirige los tiempos de respuesta a los argumentso no válidos pero creíbles para todos los grupos. Mientras que la sensibilidad al conflicto de lógica-creencia existe en cierto grado para todo el mundo, escriben los científicos, resulta más patente en los solucionadores de problemas de lógica superior.

A pesar de que Stupple y su equipo proponen revisar ligeramente el modelo de procesamiento selectivo, para que refleje las respuestas de los individuos de lógica superior, en general creen que sus datos indican que el modelo de procesamiento selectivo es empíricamente bueno, aunque tal vez el tipo de modelo que William James podría estar detrás.


- Publicación:  Edward J. N. Stupple, Linden J. Ball, Jonathan St. B. T. Evans, & Emily Kamal-, & Smith (2011). When logic and belief collide: Individual differences in reasoning times support a selective processing model Journal of Cognitive Psychology, 23 (8) DOI: 10.1080/20445911.2011.589381.
- Imagen APS.

Your Scientific Reasoning Is More Flawed Than You Think

New concepts don’t replace incorrect ones: they just learn to live together
It takes longer to accurately recall counterintuitive theories. Image: iStock / Frank Ramspott
Advertisement
In one sense, science educators have it easy. The things they describe are so intrinsically odd and interesting — invisible fields, molecular machines, principles explaining the unity of life and origins of the cosmos — that much of the pedagogical attention-getting is built right in.  Where they have it tough, though, is in having to combat an especially resilient form of higher ed’s nemesis: the aptly named (if irredeemably clichéd) ‘preconceived idea.’ Worse than simple ignorance, naïve ideas about science lead people to make bad decisions with confidence. And in a world where many high-stakes issues fundamentally boil down to science, this is clearly a problem.
Naturally, the solution to the problem lies in good schooling — emptying minds of their youthful hunches and intuitions about how the world works, and repopulating them with sound scientific principles that have been repeatedly tested and verified. Wipe out the old operating system, and install the new. According to a recent paper by Andrew Shtulman and Joshua Valcarcel, however, we may not be able to replace old ideas with new ones so cleanly. Although science as a field discards theories that are wrong or lacking, Shtulman and Valcarcel’s work suggests that individuals —even scientifically literate ones — tend to hang on to their early, unschooled, and often wrong theories about the natural world. Even long after we learn that these intuitions have no scientific support, they can still subtly persist and influence our thought process. Like old habits, old concepts seem to die hard.
Testing for the persistence of old concepts can’t be done directly. Instead, one has to set up a situation in which old concepts, if present, measurably interfere with mental performance. To do this, Shtulman and Valcarcel designed a task that tested how quickly and accurately subjects verified short scientific statements (for example: “air is composed of matter.”). In a clever twist, the authors interleaved two kinds of statements — “consistent” ones that had the same truth-value under a naive theory and a proper scientific theory, and “inconsistent” ones. For example, the statement “air is composed of matter”  is inconsistent: it’s false under a naive theory (air just seems like empty space, right?), but is scientifically true. By contrast, the statement “people turn food into energy” is consistent: anyone who’s ever eaten a meal knows it’s true, and science affirms this by filling in the details about digestion, respiration and metabolism.
Shtulman and Valcarcel tested 150 college students on a battery of 200 such statements that included an equal and random mix of consistent and inconsistent statements from several domains, including astronomy, evolution, physiology, genetics, waves, and others. The scientists measured participants’ response speed and accuracy, and looked for systematic differences in how consistent vs. inconsistent statements were evaluated.
If scientific concepts, once learned, are fully internalized and don’t conflict with our earlier naive concepts, one would expect consistent and inconsistent statements to be processed similarly. On the other hand, if naive concepts are never fully supplanted, and are quietly threaded into our thought process, it should take take longer to evaluate inconsistent statements. In other words, it should take a bit of extra mental work (and time) to go against the grain of a naive theory we once held.
This is exactly what Shtulman and Valcarcel found. While there was some variability between the different domains tested, inconsistent statements took almost a half second longer to verify, on average. Granted, there’s a significant wrinkle in interpreting this result. Specifically, it may simply be the case that scientific concepts that conflict with naive intuition are simply learned more tenuously than concepts that are consistent with our intuition. Under this view, differences in response times aren’t necessarily evidence of ongoing inner conflict between old and new concepts in our brains — it’s just a matter of some concepts being more accessible than others, depending on how well they were learned.
There are, though, a few lines of evidence arguing against this interpretation. First, the authors found that participants who had best mastered scientific concepts (determined by their overall accuracy) were especially slow to verify inconsistent statements. A learning-based explanation of performance would have predicted the opposite — that mastery and speed should go hand in hand. More convincingly, a different study has shown that even those who’ve achieved an extremely high level of competence in a specific scientific field are still prone to make classifications based on naive, early concepts from childhood. In a speeded classification task analogous to Shtulman and Valcarcel’s, university biology professors were found to take longer to classify plants as living relative to moving nonliving things, a bias toward equating motion with life that is evident in young children.
Taken together, these findings suggest that we may be innately predisposed to have certain theories about the natural world that are resilient to being drastically replaced or restructured. These naive theories provide hunches and rules of thumb that likely helped us survive long before we needed to contemplate the atom, cells, or relativity. While some theories of learning consider the unschooled mind to be a ‘bundle of misconceptions’ in need of replacement, perhaps replacement is an unattainable goal. Or, if it is attainable, we may need to rethink how science is taught.
Are you a scientist who specializes in neuroscience, cognitive science, or psychology? And have you read a recent peer-reviewed paper that you would like to write about? Please send suggestions to Mind Matters editor Gareth Cook, a Pulitzer prize-winning journalist at the Boston Globe. He can be reached at garethideas AT gmail.com or Twitter @garethideas.
Posted: 06 Sep 2012 12:19 AM PDT
Referencia: es.Sott.net, 5 septiembre 2012

Expertos vaticinan una posible inversión de los polos terrestres, lo que podría tener consecuencias desastrosas para las comunicaciones.

Científicos en EE.UU. han dado la voz de alarma: a la Tierra le aguarda un intercambio de polos magnéticos. Los investigadores llegaron a esta conclusión después de que se revelara que el núcleo de la Tierra crece de forma asimétrica debido a los procesos caóticos que tienen lugar en su interior.

El fenómeno del campo magnético terrestre se debe al movimiento de convección del hierro y del níquel fundidos en el interior del núcleo terrestre exterior (que es líquido, a diferencia del núcleo interior), combinado con la rotación del planeta.

El estudio de los científicos Peter Olson y Renaud Deguen, de la Universidad de Johns Hopkins (Maryland), publicado por la revista 'Nature Geoscience', plantea la hipótesis de un crecimiento desequilibrado del núcleo interno provocado por los distintos procesos caóticos que tienen lugar en su interior. Este hecho, explican, desequilibra a su vez el núcleo externo y hace que todo "el campo geomagnético tenga un carácter asimétrico y excéntrico".

El fenómeno, opinan, hace que los polos magnéticos de la Tierra se desplacen de forma descontrolada desde su posición, llegando incluso a intercambiarse de sitio por completo.

Durante toda la historia del planeta este raro fenómeno ya se ha producido varias veces. La última vez fue hace unos 700.000 años. Ahora los científicos creen que podría repetirse: la velocidad del desplazamiento del Polo Norte va creciendo y el eje del dipolo magnético se sitúa actualmente en el oeste del Océano Ártico de la isla Ellesmere, es decir, a unos 500 kilómetros del Polo Norte geográfico.

Los científicos afirman que, por ahora, no se puede predecir cuándo ocurrirá la siguiente inversión magnética porque la secuencia no es regular. No obstante, algunos investigadores más categóricos no descartan la opción de que el fenómono pueda producirse en cualquier momento y pintan escenarios de verdadero apocalipsis.

Posibles consecuencias

Los académicos rusos Serguéi Tsygankov y Evgeniy Shemyákin afirman que si sucediera hoy, el fenómeno podría tener consecuencias desastrosas, ya que estaríamos expuestos a los vientos solares capaces de noquear las comunicaciones globales y redes de energía.

Además, varios expertos advierten que el sistema inmunológico de los animales, especialmente las aves, se vería muy afectado, ya que son muy dependientes de la polaridad magnética del planeta. Es más, el planeta podría experimentar una ola de cambios climáticos bruscos que, de hecho, ya estamos sintiendo. La capa de ozono se debilitaría al adaptarse a la nueva polaridad, prácticamente desaparecería y comenzaría a crearse nuevamente en el nuevo ciclo.

No obstante, algunos expertos optan por huir del alarmismo. Así, los científicos de la NASA sostienen que las inversiones magnéticas de los polos son perfectamente normales y no hay motivo de preocupación, ya que durante la historia del planeta ya se produjeron varias veces.

También hay quienes piensan que la inversión no tiene por qué ocurrir, ya que un rápido movimiento del polo magnético no significa necesariamente que nuestro planeta esté pasando por un cambio a gran escala que deba dar lugar a la reversión del campo magnético de la Tierra. Según los científicos menos alarmistas, esto podría ser parte de una oscilación normal.
Posted: 02 Sep 2012 11:58 AM PDT
Autor: David Biello, 2 septiembre 2012

La carismática megafauna parece obtener toda la atención, sin embargo, las amebas, nematodos y microbios son realmente los que constituyen la mayor parte de la vida en la Tierra. Así que, ¿cuántos microbios hay en el fondo del mar? Un nuevo análisis publicado en Proceedings of the National Academies of Science sugiere que hay menos células de las que previamente se habían propuesto.

En base a los transect y las muestras de sedimentos, los científicos estiman que hay 29 trillones de células en el subsuelo de los océanos (su número está limitado por la falta de alimentos disponibles en lugares donde las tasas de sedimentación son bajas). Por supuesto que, hay microbios que viven en condiciones extremas que son muy difíciles de cuantificar, y se sabe que sobreviven durante miles de años.

Tampoco se sabe mucho acerca de lo que está pasando con los enormes biomas microbianos del suelo o los gusanos microscópicos de las profundidades de la Tierra (se han encontrado gusanos que se alimentan de bacterias prosperando a más de un kilómetro de profundidad). Las estimaciones de la biomasa microbiana, así como las estimaciones del número de especies del planeta, son sólo aproximaciones poco precisas.

La verdad es que no tenemos ni idea de cuánta vida hay en la Tierra. Y no hemos hecho más que empezar siquiera el intento de averiguarlo.


- Imagen: Comunidades Microbianas del Suelo. Fuente: “Community College Undergraduate Research Initiative”.
.
Posted: 31 Aug 2012 11:30 PM PDT
Referencia: Kurzweilai.net, 30 de agosto 2012

El reloj cerebral, el núcleo supraquiasmático (NSQ) del hipotálamo, se ve impulsado en parte por el metabolismo, la producción y el flujo de energía química de las células, según revela un nuevo estudio.

Los investigadores se centraron principalmente en un fenómeno conocido como "redox" de los tejidos neuronales del NSQ de los cerebros de ratas y ratones.

(Redox significa los cambios de energía del metabolismo celular (normalmente, a través de la transferencia de electrones). Cuando una molécula gana uno o más electrones, los científicos lo llaman reducción;. Cuando pierde electrones, lo llaman oxidación. Las reacciones redox, descubrieron los investigadores, oscilan sobre un ciclo de 24 horas del reloj cerebral, y abren o cierran los canales de comunicación de las células del cerebro).

"El descubrimiento fundamental aquí, es que hay una oscilación intrínseca del metabolismo en la región del reloj cerebral que sucede sin intervención externa", señaló Martha Gillette, profesora de biología celular y del desarrollo en la Universidad de Illinois, que dirigió el estudio. "Y este cambio del metabolismo determina el estado excitable de que la parte del cerebro. Los nuevos hallazgos alterar las suposiciones básicas sobre cómo funciona el cerebro.

"Básicamente, la idea siempre ha sido que el metabolismo está sirviendo a la función cerebral. Y lo que estamos presentando es que el metabolismo es parte de esa función cerebral ", destacaba ella. "Nuestro estudio implica que estos cambios en el estado metabólico celular podrían ser la causa, en vez de un resultado, de la actividad neuronal."

El bucle de realimentación de transcripción-traducción (TTFL) del reloj molecular y los osciladores circadianos no TTFL en las neuronas NSQ de los mamíferos. En este modelo, los osciladores se influyen entre sí durante el día y la noche. La actividad de las neuronas se realimenta de nuevo en el reloj TTFL por mecanismos desconocidos (no se muestra). Crédito: Mino D.C. Belle y Hugh D. Piggins/Science)




- Imagen 1) Modelo propuesto de la interdependencia relativa del oscilador de transcripción-traducción, el oscilador redox, y la membrana de oscilación de excitabilidad. Crédito: Mino D.C. Belle y Hugh D. Piggins/Science)
Publicaciones:
- T. A. Wang, Y. V. Yu, G. Govindaiah, X. Ye, L. Artinian, T. P. Coleman, J. V. Sweedler, C. L. Cox, M. U. Gillette, Circadian Rhythm of Redox State Regulates Excitability in Suprachiasmatic Nucleus Neurons, Science, 2012, DOI: 10.1126/science.1222826 .
- M. D. C. Belle, H. D. Piggins, Circadian Time Redoxed, Science, 2012, DOI: 10.1126/science.1227203 .

.
Posted: 31 Aug 2012 10:00 AM PDT
Referencia: Max.Planck.Geselischaft.de, 30 de agosto 2012

Investigadores del Max Planck describen el genoma Denisovan, aclarando las relaciones entre denisovanos y los humanos de hoy día.

Los análisis de un equipo internacional de investigadores dirigido por Svante Pääbo, del Instituto Max Planck de Antropología Evolutiva en Leipzig, Alemania, muestran que la variación genética de los denisovanos era extremadamente baja, lo que sugiere que a pesar de que estuvieron presentes en gran parte de Asia, su población nunca fue grande durante largos períodos de tiempo. Además, una lista completa documenta los cambios genéticos que diferencian a los seres humanos modernos de sus arcaicos parientes. Algunos de estos genes se refieren a cambios que están asociados con la función cerebral o el desarrollo del sistema nervioso.

En 2010, Svante Pääbo y sus colegas, secuenciaron el ADN que se aisló de un fragmento de hueso de un dedo, descubierto en la Cueva Denisova, al sur de Siberia. Descubrieron que pertenecía a una joven de un grupo anteriormente desconocido de humanos arcaicos que llamaron "denisovanos". Gracias a una novedosa técnica que divide la doble hélice del ADN, de manera que cada uno de los dos hilos pueden utilizarse para su secuenciación, el equipo fue capaz de secuenciar cada posición en el genoma Denisovan, aproximadamente 30 veces más. La secuencia generada del genoma de este modo, muestra una calidad similar a los genomas que han sido determinados de los humanos actuales.

En un nuevo estudio, que se publica en la edición de esta semana de la revista Science, Svante Pääbo y sus colegas compararon el genoma Denisovan con el de los neandertales y once humanos modernos de todo el mundo. Sus hallazgos confirman un estudio previo, según el cual las poblaciones modernas de las islas del sudeste de Asia comparten genes con los denisovanos. Además, los genomas de personas de Asia oriental y América del Sur incluyen un poco de más genes de neandertales que los europeos: "El resto de material arcaico del este de Asia está más estrechamente relacionado con los neandertales que con los denisovanos, por lo que estimamos que la proporción de ascendencia neandertal en Europa es menor que en el este de Asia", informaban los investigadores de Leipzig.

"Esta es la secuencia de un genoma extinto de una precisión sin precedentes", subrayó Matthias Meyer, el autor principal del estudio. "De la mayor parte del genoma podemos determinar incluso las diferencias entre los dos conjuntos de cromosomas que la chica Denisovan heredó de su madre y su padre". A partir de esto, los investigadores pueden decir que la variación genética de los denisovanos fue más pequeña que en los humanos actuales. Probablemente, esto es debido a que la población Denisovan, inicialmente pequeña, creció rápidamente, mientras se extiendía sobre una amplia área geográfica. "Si la investigación futura del genoma del Neandertal muestra que su tamaño poblacional fue cambiando con el tiempo de manera similar, es muy posible que sólo una población se expandiera fuera de África, dando lugar tanto a los denisovanos como los neandertales", señala Svante Pääbo, que dirigió el estudio.

Los investigadores, además, generaron una lista de cerca de 100.000 recientes cambios en el genoma humano, que sucedieron después de la división de los denisovanos. Algunos de estos cambios afectan a genes que están asociados con la función cerebral y del sistema nervioso. Otros pueden afectar a la piel, los ojos y la morfología dental. "Esta investigación ayudará a determinar cómo fue que las poblaciones humanas modernas llegaran a expandirse tan espectacularmente en tamaño, así como en complejidad cultural, mientras que los humanos arcaicos se vieron reducidos en número hasta extinguirse físicamente", añade Svante Pääbo. A principios de este año, los investigadores de Leipzig ya habían puesto toda la secuencia del genoma Denisovan a disposición del público en general, mediante su publicación en línea.

Este proyecto ha sido financiado por la Max Planck Society. El hueso del dedo fue descubierto por Anatoly Derevianko y Michail Shunkov de la Academia Rusa de Ciencias en 2008, durante sus excavaciones en la cueva Denisova, un sitio arqueológico único que contiene capas culturales que indican la ocupación humana en el sitio desde hace unos 280.000 años. El hueso del dedo fue encontrado en una capa que se ha datado de hace entre 50.000 y 30.000 años.
SJ/BA

- Imagen: Réplica del fragmento óseo del dedo de un homínido Denisovan sobre una mano humana. © MPI de Antropología Evolutiva .
.
Fuente de las dos entradas...Pedro Donaire Bitnavegantes