sábado, 29 de diciembre de 2012


Ciencia y fe: convivencia difícil, pero posible. Así lo cree Higgs.

  • Jueves, 27 de Diciembre de 2012 12:36
  • tamaño de la fuente disminuir el tamaño de la fuente aumentar tamaño de la fuente
Valora este artículo
(0 votes)
Ciencia y fe: convivencia difícil, pero posible. Así lo cree Higgs.
Documento importante de El Mundo que entrevistó al padre del bosón, Peter Higgs, un no creyente respetuoso con la religión y sus exigencias.  En la entrevista se habla de Dios y del futuro. 

Peter Higgs no pudo contener la emoción cuando, el pasado 4 de julio, sus colegas le ovacionaron en un abarrotado auditorio del CERN. La imagen de este sabio de 83 años, enjugándose las lágrimas con un pañuelo tras el hallazgo del bosón que lleva su nombre, quedará para siempre como uno de los momentos más inolvidables de 2012, y probablemente de toda la historia de la Ciencia. Casi medio siglo tuvo que esperar el paciente profesor Higgs para que su teoría visionaria sobre el cemento que une los ladrillos subatómicos de la materia -propuesta por primera vez en un trabajo pionero de 1964- finalmente fuera validada por el gran acelerador de partículas de Ginebra.
 
Desde aquel día, su vida se ha transformado como consecuencia de esa fiebre mundial que la revista New Scientist ha definido como higgsteria. Prácticamente todos los principales periódicos y cadenas de televisión del planeta le han solicitado una entrevista. Las peticiones para inaugurar calles, laboratorios, colegios y bibliotecas que llevan su nombre no paran de lloverle. Incluso ya existe una cerveza, elaborada en Barcelona, bautizada en su honor: el Higgs Boson Ale. De hecho, su buzón de correo electrónico es tan ingobernable que un equipo de cinco personas se ocupa de gestionarlo en la Universidad de Edimburgo.
 
Cuando era niño, nadie hubiera podido imaginar que Higgs, nacido en Newcastle (Inglaterra) en 1929, se iba a convertir en uno de los físicos teóricos más importantes del siglo XX. Aquejado de frecuentes ataques de asma, que a veces derivaban en episodios severos de neumonía, el pequeño Peter perdió muchísimos días de colegio. A su padre apenas le veía, porque era un ingeniero de sonido de la BBC que no paraba de viajar, pero fue su madre quien se convirtió en su verdadera maestra. Con el tiempo su salud mejoró, y el joven Higgs demostró poseer dotes extraordinarias para las Matemáticas.
 
Tras obtener tanto su Licenciatura como su Doctorado en Física en el King's College de Londres, con las calificaciones más altas, Higgs fue contratado en 1960 como profesor por el Instituto Tait de Física Matemática en la Universidad de Edimburgo, donde cuatro años más tarde lanzaría por primera vez su revolucionaría teoría del bosón. Muy cerca del despacho donde escribió aquel trabajo pionero se encuentra la Royal Society, la Academia de Ciencias de Escocia. Allí, en una heladora mañana de diciembre, el profesor Higgs concedió esta entrevista a EL MUNDO.
 
Pregunta.- El hallazgo del bosón ha sido sin duda una de las mejores noticias de 2012, un año por lo demás muy duro por culpa de la crisis económica. Como padre de la criatura, ¿por qué cree que es un descubrimiento tan importante?
 
Respuesta.- Ante todo, porque supone la comprobación de una teoría formulada hace casi 50 años, que en el campo de la Física de Partículas ha tenido un enorme éxito en todos los demás aspectos que se han ido verificando hasta ahora. Hemos estado buscando la partícula desde 1964 porque queríamos estar seguros de que esta teoría era plenamente válida. Y finalmente lo hemos conseguido, así que hemos llegado al final de un largo camino: la demostración definitiva del llamado Modelo Estándar. Pero ahora queremos aprender mucho más sobre esta partícula, ya que su comportamiento podría permitirnos averiguar lo que existe más allá de este modelo y descubrir otros tipos de materia cuya naturaleza desconocemos por completo ahora mismo, como la materia oscura.
 
P.- ¿Podríamos decir, entonces, que es el final de un viaje pero a la vez el principio de una nueva aventura para la Física?
 
R.- Por supuesto, porque aunque hemos verificado una teoría, sabemos que ese modelo no lo explica todo, y de hecho es sólo un capítulo dentro de una historia mucho más compleja. Sabemos, por ejemplo, que el comportamiento de los neutrinos no se puede explicar con esta teoría. Así que todavía nos queda mucho por comprender.
 
P.- ¿Cuál cree que será el próximo gran descubrimiento en el CERN?
 
R.- La mayoría de los físicos teóricos esperamos que sea el hallazgo de otras partículas del mismo tipo que el bosón que acabamos de encontrar. La supersimetría, una teoría que va más allá del Modelo Estándar y podría explicar la naturaleza de la materia oscura, predice la existencia de otras cuatro partículas del mismo tipo con una masa y una energía mayor. El problema ahora mismo es que quizás el LHC no produzca colisiones a una energía lo suficientemente alta como para detectarlas, porque su potencia es insuficiente.
 
P.- ¿Quiere eso decir que para lograr nuevos avances, necesitamos construir una máquina todavía más potente?
 
R.- No necesariamente, porque el propio LHC se va a renovar el año que viene para duplicar la energía que logra alcanzar en estos momentos, y eso podría ser suficiente para detectar esas nuevas partículas.
 
P.- ¿Cree que el hallazgo del bosón podría tener alguna aplicación, o es un avance puramente teórico?
 
R.- El problema es que esta partícula dura tan poco tiempo, que me parece extremadamente improbable que podamos controlarla. En el pasado, el hallazgo de otras partículas ha servido para desarrollar tratamientos médicos contra el cáncer, pero eso fue posible porque esas partículas tenían una duración más larga, de al menos una millonésima parte de un segundo. Sin embargo, si tenemos en cuenta que el bosón dura una millonésima de una millonésima de una millonésima parte de un segundo, o incluso menos, evidentemente es muy difícil manipularlo para desarrollar un haz de partículas controlable, por ejemplo, para tratar un tumor. Por eso soy más bien pesimista sobre su potencial tecnológico. Pero esto tampoco debería avergonzarnos cuando estamos hablando de un hallazgo fundamental para comprender la naturaleza de la materia.
 
P.- Pero entonces, ¿qué le diría a alguien que criticara la inversión multimillonaria que fue necesaria en el CERN para llevar a cabo un experimento sin ninguna utilidad práctica?
 
R.- Le diría que debería tener mucho cuidado con esa clase de afirmaciones, porque la investigación básica de este tipo, incluso cuando no permite aplicaciones directas, proporciona múltiples beneficios indirectos. En primer lugar, se pueden lograr muchos avances derivados del desafío tecnológico que supone construir máquinas como el LHC del CERN. Además, la formación de los jóvenes científicos que trabajan en estas instalaciones y la experiencia que adquieren permite forjar nuevas generaciones con una capacidad técnica extraordinaria. El ejemplo más claro de un beneficio indirecto del CERN, que mucha gente desconoce, es que la World Wide Web se desarrolló allí para establecer una red de comunicación entre científicos. Si no fuera por eso, la web no existiría tal y como la conocemos hoy. Al mismo tiempo, el desarrollo de los aceleradores de partículas ha permitido aplicaciones médicas muy importantes.
 
P.- ¿Cómo se siente en su nuevo papel de superestrella mundial de la ciencia?
 
R.- Pues me da bastante vergüenza, si quiere que le diga la verdad. Sobre todo porque si analizamos con detalle lo que ocurrió en 1964, en realidad yo sólo fui uno de los seis científicos que estuvimos desarrollando esta teoría. Ni siquiera fui yo el primero que publicó un trabajo sobre este tema, ya que antes lo hicieron los belgas Robert Brout y Francois Englert. Yo publiqué mi primer estudio poco después, aunque desconocía por completo el trabajo de mis dos colegas. Unos meses después, se publicó otro trabajo firmado por tres científicos del Imperial College de Londres: Tom Kibble, Gerry Guralnik y Carl Hagen. Todos estuvimos trabajando en el mismo terreno y propusimos ideas similares, pero yo me he llevado casi toda la publicidad.
 
P.- ¿Le parece incorrecto, entonces, que la partícula lleve su nombre? ¿Cree que es una injusticia para sus colegas que lo llamemos el bosón de Higgs?
 
R.- Bueno, ya me he acostumbrado a ese nombre, y es cierto que mi trabajo fue el primero que propuso de manera explícita la existencia de esta partícula, mientras que los demás autores sólo se refirieron a ella de manera indirecta. Curiosamente, el motivo por el que hablé de manera muy concreta sobre la partícula fue porque me rechazaron la primera versión del trabajo que envié a una revista científica. Aquel rechazo me llevó a expresarme con mayor claridad y ésa fue la clave.
 
P.- ¿Es cierto que sufrió una crisis de ansiedad la primera vez que fue a un seminario a presentar la teoría ante sus colegas?
 
R.- Bueno, más o menos. Cuando en marzo de 1966 fui a presentar mis ideas al Instituto de Ideas Avanzadas en Princeton, estaba conduciendo y al ver la señal que indicaba la dirección a la universidad, es cierto que me entró un ataque de pánico y tuve que parar el coche. Pero realmente no fue porque me sintiera inseguro sobre mis ideas. Fue más bien porque de repente el gran prestigio de esta institución y el hecho de que iba a hablar ante Freeman Dyson, uno de mis grandes héroes en el campo de la Física de Partículas, me impuso tanto respeto que me puse muy nervioso.
 
P.- ¿Cómo resistió aquellos años, cuando muchos colegas rechazaban su teoría? Supongo que ahora debe sentir una gran satisfacción y le entrará la risa al acordarse de los que despreciaban sus ideas...
 
R.- Por supuesto, es muy gratificante que los resultados de un experimento demuestren la validez de tus ideas después de tanto tiempo. Pero tampoco fue algo repentino o inesperado. En realidad la comprobación en el CERN fue un proceso que duró al menos un año, y ya se habían observado muchos indicios de que el bosón existía. Desde los años 70, cuando empezó a diseñarse el LEP, el acelerador de partículas que precedió al LHC, muchos físicos ya empezaron a tomarse en serio la existencia del bosón y propusieron la realización de experimentos para buscarlo. Así que en realidad todo el proceso de comprobación experimental había empezado hace más de tres décadas. Es cierto que he tenido que esperar muchos años, pero poco a poco muchos otros aspectos de la teoría se fueron verificando. Por lo tanto, yo estaba convencido de que antes o después llegaría la comprobación definitiva de esta pieza final que necesitábamos para completar el puzle.
 
P.- Entonces, ¿nunca tuvo dudas de que el bosón existía, a pesar de la larguísima espera?
 
R.- Siempre asumí que se tardaría mucho en demostrar su existencia, y que quizás yo no estaría vivo cuando se lograse. Así que mi duda no era si la teoría era correcta, sino más bien si yo viviría para ver su comprobación.
 
P.- ¿Cuándo se enteró de que el CERN lo había conseguido? ¿Le pilló de sorpresa o alguien ya le había soplado la noticia?
 
R.- Dos semanas antes del anuncio oficial, había estado en varias universidades donde trabajan físicos involucrados en los experimentos del LHC, y todos me decían que aún iban a necesitar entre tres y seis meses para analizar todos los datos. Así que a finales de junio, me fui a Sicilia para participar en un curso de verano, convencido de que no habría noticias hasta finales de 2012 como muy pronto. Pero poco después empezaron a llegarme rumores de que el CERN estaba a punto de conseguirlo, y me lo decían científicos involucrados en los experimentos que tenían más información que yo. Finalmente, el sábado 30 de junio, mi amigo el físico John Ellis, que trabaja en el CERN, me dejó un mensaje en el móvil diciéndome que si no viajaba a Ginebra el 4 de julio, me arrepentiría mucho. Así que decidí cambiar mis planes y compré un billete a Suiza. Después me enteré de que la confirmación del hallazgo sólo se había logrado en la última semana. En realidad, casi nadie pensaba que se iba a lograr tan pronto, pero de repente, en cuestión de días, se consiguieron todos los datos cruciales.
 
P.- ¿Qué le pasó por la cabeza en aquel inolvidable momento histórico, cuando finalmente se anunció el hallazgo en el auditorio del CERN y se le saltaron las lágrimas?
 




























R.- Lo verdaderamente emocionante para mí fue la reacción eufórica de mis colegas. Cuando el director del CERN, Rolf Heuer, dijo que lo habían encontrado, de repente aquello ya no parecía un seminario científico, sino un estadio de fútbol en el que acababa de ganar el equipo de casa. Por eso me emocioné tanto, cuando realmente me di cuenta de lo que significaba todo aquello y pensé: «Ya está, por fin ha llegado».
 
P.- ¿Y cómo lo celebró?
 
R.- La celebración más importante tuvo lugar cuando volví a Edimburgo. Hacía tiempo había comprado una botella de champán reservada para esta ocasión, y antes de coger el avión de vuelta a casa le dije a mi hijo Johnny: «Mete esa botella en la nevera». Nos la bebimos todos en familia cuando llegué a casa.
 
P.- Tras el anuncio del hallazgo en el CERN, muchos creían que usted era el claro favorito para el Nobel de Física. ¿Le decepcionó el hecho de no ganarlo este año?
 
R.- Para nada, ¡fue un gran alivio que no me lo dieran (risas)! Desde el anuncio de julio, no he parado de recibir invitaciones y solicitudes de todo tipo, y sinceramente me alegré de no tener que gestionar en ese momento todo lo que se me hubiera venido encima con el Nobel. Prefiero tener un respiro.
 
P.- En todo caso, ¿cree que el bosón merece el Nobel?
 
R.- Por supuesto, es posible. Pero la verdad es que el comité del premio podría tener dificultades para decidir quién debería llevarse el galardón, ya que, como antes he comentado, hubo seis personas que contribuyeron a la teoría. Robert Brout desafortunadamente falleció el año pasado, así que ya sólo quedamos cinco, pero no será fácil decidir los nombres de los premiados, al menos si se mantiene la norma de que sólo puede ser un máximo de tres.
 
P.- Pero teniendo en cuenta que el bosón lleva su nombre, sería muy extraño que Higgs no fuera uno de los premiados, ¿no?
 
R.- Bueno, digamos que me parecería un golpe de muy mala suerte que no me lo dieran (risas).
 
P.- Stephen Hawking fue uno de los primeros que apoyó públicamente que a usted se le concediera el Nobel tras el hallazgo del bosón, después de haber apostado 100 euros a favor de que el CERN jamás encontraría la partícula. ¿Qué tal se lleva con Hawking?
 
R.- No le veo muy a menudo, pero le conocí cuando él aún era un estudiante de posgrado en Cambridge y yo fui a dar una conferencia allí. En aquella época ya estaba en una silla de ruedas, y a mí me impresionó porque hizo las preguntas más afiladas e inteligentes, aunque era difícil entenderle porque la enfermedad estaba empezando a afectar a su capacidad para comunicarse. Después le he visto en varias ocasiones, y la verdad es que decidí no apostar contra él cuando dijo que el bosón jamás se encontraría, a pesar de que sus argumentos me parecieron erróneos.
 
P.- Tras el hallazgo del bosón, usted se ha convertido en una superestrella mediática, casi tan famosa como el propio Hawking. ¿Le parece positivo que la ciencia también tenga sus celebrities, o cree que a veces se corre el riesgo de caer en la frivolidad?
 
R.- Lo que me parece peligroso es que se dedique una atención desmedida a las celebridades, y se les pida su opinión sobre temas sobre los que no tienen ni idea. El ejemplo más claro son los propios premios Nobel, a los que se les pide que se pronuncien sobre cuestiones que desconocen por completo. Y a pesar de ello, la gente les hace caso al asumir equivocadamente que como son muy inteligentes, todo lo que dicen tiene que ser brillante.
 
P.- En todo caso, el impacto mediático del bosón de Higgs demuestra que la ciencia cada día es más popular y fascina a toda la sociedad, ¿no le parece?
 
R.- Desde luego, la atención mediática que se dedica a la ciencia ha aumentado mucho en los últimos años, y creo que la búsqueda de esta partícula ha contribuido a ello de manera muy notable. De esto me alegro muchísimo, y espero que tenga una influencia positiva sobre nuestros políticos.
 
P.- Una parte de la fama del bosón de Higgs se debe sin duda al mote de la partícula de Dios, por el que se le conoce popularmente. Tengo entendido que este apodo no le gusta nada, ¿por qué?
 
R.- En primer lugar, no soy creyente. Pero aunque lo fuera, no me gustaría, porque incita a la gente a confundir la física con la teología. Y esto me parece mal. No hay que olvidar que el origen del apodo es un libro del físico Leon Lederman cuyo titulo original iba a ser The goddam particle (La maldita partícula), en el sentido de que era muy difícil encontrarla. Pero el editor lo cambió porque el otro título le pareció más atractivo. Así que realmente era una broma, pero la gente que no conoce esta historia se toma demasiado en serio lo de la partícula de Dios.
 
P.- Desde luego. No sé si sabe que en España un portavoz de la Iglesia Católica le dio la bienvenida a la partícula de Dios al considerar muy positivo que los físicos ayudaran a cimentar la fe religiosa.
 
R.- No lo conocía, pero la verdad es que no me sorprende. También me contaron que algunos grupos evangélicos empezaron a recurrir a la partícula de Dios para intentar convertir a la gente a su credo. Todo esto me parece lamentable.
 
P.- ¿Pero es usted de los que cree que la ciencia y la religión son compatibles, o considera como Richard Dawkins que la fe religiosa es un fraude desenmascarado por el conocimiento científico?
 
R.- Estoy de acuerdo con Dawkins, pero sólo hasta cierto punto. Creo que los avances del conocimiento científico han debilitado muchos de los motivos tradicionales que tenía la gente para mantener su fe religiosa, pero eso no es lo mismo que decir que ciencia y religión son totalmente incompatibles. Creo que una persona puede ser a la vez científica y religiosa, con tal de que sus creencias no sean dogmáticas.
 
 
P.- De hecho, en una entrevista con EL MUNDO, la directora del experimento Atlas en el CERN, Fabiola Gianotti, declaró que era creyente, y que para ella no existía conflicto alguno entre su trabajo científico y su fe católica.
 
R.- No me sorprende, conozco a muchos colegas en mi campo que también son creyentes. Yo no lo soy, pero tampoco estoy en contra de la gente religiosa, salvo que se comporten como fanáticos extremistas. El problema de Dawkins es que concentra todos sus ataques contra los fundamentalistas, pero evidentemente no todos los creyentes lo son. En ese sentido, creo que a veces es el propio Dawkins quien acaba adoptando una postura fundamentalista, en el extremo opuesto.
 
P.- En España, la crisis económica ha provocado durísimos recortes a la inversión en I+D. Si tuviera delante al presidente del Gobierno español, ¿qué le diría para intentar convencerle de la importancia de apostar por la ciencia?
 
R.- España es un país que ya padeció un grave retraso científico en el pasado, sobre todo durante el régimen de Franco. Pero por eso mismo creo que sería especialmente lamentable que ahora se volviera a producir un retroceso, cuando lo que necesita el país es seguir recuperando el terreno perdido. Al fin y al cabo, la mejor fórmula para asegurar su crecimiento económico sería precisamente a través del desarrollo industrial, cimentado sobre la investigación científica. Los políticos españoles deberían tener mucho cuidado y calibrar bien las consecuencias dramáticas que podría tener un retroceso de la ciencia para el futuro del país.
 
P.- Otro problema en la sociedad española, y en muchos otros países europeos, es la pérdida de vocaciones científicas entre las nuevas generaciones. ¿Cómo animaría a los jóvenes a apostar por la ciencia?
 
R.- Bueno, creo que el hallazgo del bosón precisamente ha contribuido a revivir el interés de muchísimos jóvenes por la ciencia. Yo les animaría a mantener vivo ese entusiasmo y dedicarse a intentar encontrar respuestas a las preguntas que les fascinan. Por eso lo que más me duele cuando se producen recortes en los presupuestos de ciencia es que las primeras víctimas suelen ser los investigadores jóvenes. Cuando no hay dinero para becas y contratos, el riesgo es que se puede perder a una generación entera que no podrá dedicarse a la investigación. Y eso es muy triste.
 
 
LA FÓRMULA
 
En la Facultad de Física de la Universidad de Edimburgo, se conserva como una reliquia una pizarra en la que Peter Higgs escribió la fórmula original en la que postuló por primera vez la existencia de su bosón en un trabajo pionero publicado en 1964. El joven Higgs había sido contratado cuatro años antes como profesor del Instituto Tait de Física Matemática en la universidad de la capital escocesa, y allí desarrolló toda su carrera académica hasta su jubilación en 1996. Desde que se anunció el hallazgo del bosón, evita pisar su vieja facultad para evitar el atosigamiento de los alumnos que le rodean para pedirle autógrafos.

 
Modificado por última vez en Jueves, 27 Diciembre 2012 13:12

lunes, 17 de septiembre de 2012


You Are Here: How Astronomical Surveys Are Pinpointing Our Place in the Cosmos

Upcoming telescope projects on Earth and in space will map out billions of stars and galaxies all around us


Simulated 3-d flythrough of galaxies ZOOMING IN: A still from a simulated fly-through of galaxies mapped by the Sloan Digital Sky Survey. Image: Miguel A. Aragón (Johns Hopkins University), Mark SubbaRao (Adler Planetarium), Alex Szalay (Johns Hopkins University), Yushu Yao (Lawrence Berkeley National Laboratory, NERSC), and the SDSS-III Collaboration

Like surveyors charting out a parcel of land by measuring angles, distances and elevations, astronomers have long mapped the positions of celestial objects in the sky.
Those celestial maps are about to see some major revisions. New and upcoming campaigns using ground-based telescopes or spacecraft promise to fill in many new details in astronomers’ maps of the sky. Together these projects will catalogue detailed positional information on several billion stars and galaxies near and far.
One of the most dramatic upgrades to celestial cartography should come from the European Space Agency’s Gaia spacecraft, which is scheduled to launch next year. After taking up a position in deep space, well beyond the orbit of the moon, Gaia will map the positions and distances of roughly one billion stars. The mission is the successor to the Hipparcos satellite, which launched in 1989 and whose catalogue still finds wide use. But that satellite charted just 120,000 stars or so, and only a slight minority were pinpointed with top-level precision.
Hipparcos measured precise stellar distances, to within 1 percent, for fewer than 1,000 stars. Most of the satellite’s distance measurements have much greater uncertainties of 20 percent or more. Gaia should measure the distances to about 10 million stars with a precision of 1 percent or better. “That’s about the quantum leap that we will make,” says Timo Prusti, project scientist for Gaia at the European Space Agency (ESA).
By mapping out so many stars, astronomers hope to improve their understanding of our home galaxy’s layout. “The main science goal is to address the issues of our Milky Way—the structure and the dynamics,” Prusti says. Buried as we are within the Milky Way, humankind has never had a glimpse of the galaxy in its entirety. The astronomer’s predicament is a bit like that of an artist who must sketch the Manhattan skyline from midtown, instead of from a clear vantage point across the Hudson River. Just as the artist can inspect Manhattan’s skyscrapers one by one to reconstruct the skyline in her sketch, the astronomer can fill in a map of the galaxy one star at a time.
A next-generation space telescope called Euclid ought to extend that map from the local to the global, by mapping up to two billion galaxies in three dimensions. The mission, which ESA approved in June for a 2020 launch, will scan roughly one third of the sky to measure the positions and distances of galaxies across the universe. The hope is that the distribution of cosmic structure will reveal some hidden clue to the nature of dark energy, the unknown entity driving the accelerating expansion of the universe.
“We have no idea what dark energy is, but it’s a very subtle effect,” says Richard Griffiths, the Euclid program scientist at NASA, which is a participant in the European-led mission. “The only way we can get at it is to study the whole universe, basically.”
Euclid’s design specs should allow astronomers to see galaxies so distant that their light has taken more than half the age of the universe to reach Earth. “We will literally obtain a three-dimensional image of our universe, with us in the very center, and we will be able to detect the accelerated expansion in it,” says ESA’s project scientist René Laureijs. “It will give us the opportunity to watch the universe evolving over the last 10 billion years.”
Euclid is not the only project charting galaxies to try to unravel the mystery of dark energy. A campaign called the Dark Energy Survey will soon take advantage of a new 570-megapixel camera on a four-meter telescope at the Cerro Tololo Inter-American Observatory in Chile. The survey will measure the shapes and positions of some 200 million galaxies across a quarter of the southern sky. Whereas the scope of the ground-based project pales in comparison to the billions of galaxies targeted by Euclid, the Dark Energy Survey should have a significant head start on its space-based counterpart. The project’s camera has just been installed on the telescope and could see first light as soon as this month, according to the project’s Facebook page.

Fuente 
Scientific American Physics news@email.scientificamerican.com

Common Interpretation of Heisenberg's Uncertainty Principle Is Proved False

A new experiment shows that measuring a quantum system does not necessarily introduce uncertainty

Dice five The uncertainty principle limits what we can know about a quantum system, and that fuzziness is not entirely caused by the act of measurement. Image: flickr/@Doug88888
By Geoff Brumfiel of Nature magazine
Contrary to what many students are taught, quantum uncertainty may not always be in the eye of the beholder. A new experiment shows that measuring a quantum system does not necessarily introduce uncertainty. The study overthrows a common classroom explanation of why the quantum world appears so fuzzy, but the fundamental limit to what is knowable at the smallest scales remains unchanged.
At the foundation of quantum mechanics is the Heisenberg uncertainty principle. Simply put, the principle states that there is a fundamental limit to what one can know about a quantum system. For example, the more precisely one knows a particle's position, the less one can know about its momentum, and vice versa. The limit is expressed as a simple equation that is straightforward to prove mathematically.
Heisenberg sometimes explained the uncertainty principle as a problem of making measurements. His most well-known thought experiment involved photographing an electron. To take the picture, a scientist might bounce a light particle off the electron's surface. That would reveal its position, but it would also impart energy to the electron, causing it to move. Learning about the electron's position would create uncertainty in its velocity; and the act of measurement would produce the uncertainty needed to satisfy the principle.
Physics students are still taught this measurement-disturbance version of the uncertainty principle in introductory classes, but it turns out that it's not always true. Aephraim Steinberg of the University of Toronto in Canada and his team have performed measurements on photons (particles of light) and showed that the act of measuring can introduce less uncertainty than is required by Heisenberg’s principle. The total uncertainty of what can be known about the photon's properties, however, remains above Heisenberg's limit.
Delicate measurement
Steinberg's group does not measure position and momentum, but rather two different inter-related properties of a photon: its polarization states. In this case, the polarization along one plane is intrinsically tied to the polarization along the other, and by Heisenberg’s principle, there is a limit to the certainty with which both states can be known.
The researchers made a ‘weak’ measurement of the photon’s polarization in one plane — not enough to disturb it, but enough to produce a rough sense of its orientation. Next, they measured the polarization in the second plane. Then they made an exact, or 'strong', measurement of the first polarization to see whether it had been disturbed by the second measurement.
When the researchers did the experiment multiple times, they found that measurement of one polarization did not always disturb the other state as much as the uncertainty principle predicted. In the strongest case, the induced fuzziness was as little as half of what would be predicted by the uncertainty principle.
Don't get too excited: the uncertainty principle still stands, says Steinberg: “In the end, there's no way you can know [both quantum states] accurately at the same time.” But the experiment shows that the act of measurement isn't always what causes the uncertainty. “If there's already a lot of uncertainty in the system, then there doesn't need to be any noise from the measurement at all,” he says.
The latest experiment is the second to make a measurement below the uncertainty noise limit. Earlier this year, Yuji Hasegawa, a physicist at the Vienna University of Technology in Austria, measured groups of neutron spins and derived results well below what would be predicted if measurements were inserting all the uncertainty into the system.

Fuente  Scientific American
Scientific American Physics news@email.scientificamerican.com

domingo, 16 de septiembre de 2012


The Curious Wavefunction
Musings on chemistry and the history and philosophy of science
The Curious Wavefunction HomeAboutContact

Theories, models and the future of science



Dark matter and dark energy: Models for accounting for the distribution of matter and the acceleration of the universe (Image: Edelweiss)
Last year’s Nobel Prize for physics was awarded to Saul Perlmutter, Brian Schmidt and Adam Riess for their discovery of an accelerating universe, a finding leading to the startling postulate that 75% of our universe contains a hitherto unknown entity called dark energy. This is an important discovery which is predated by brilliant minds and an exciting history. It continues a grand narrative that starts from Henrietta Swan Leavitt (who established a standard reference for calculating astronomical distances) through Albert Einstein (whose despised cosmological constant was resurrected by these findings) and Edwin Hubble, continuing through George Lemaitre and George Gamow (with their ideas about the Big Bang) and finally culminating in our current sophisticated understanding of the expanding universe.
But what is equally interesting is the ignorance that the prizewinning discovery reveals. The prize was awarded for the observation of an accelerating universe, not the explanation. Nobody really knows why the universe is accelerating. The current explanation for the acceleration consists of a set of different models incorporating entities like dark energy, none of which has been definitively proven to explain the facts well enough. And this makes me wonder if such a proliferation of models without accompanying concrete theories is going to embody science in the future.
The twentieth century saw theoretical advances in physics that agreed with experiment to an astonishing degree of accuracy. This progress culminated in the development of quantum electrodynamics, whose accuracy in Richard Feynman’s words is equivalent to calculating the distance between New York and Los Angeles within a hairsbreadth. Since then we have had some successes in quantitatively correlating theory to experiment, most notably in the work on validating the Big Bang and the development of the standard model of particle physics. But dark energy- there’s no theory for it as of now that remotely approaches the rigor of QED when it comes to comparison with experiment.
Of course it’s unfair to criticize dark energy since we are just getting started on tackling its mysteries. Maybe someday a comprehensive theory will be found, but given the complexity of what we are trying to achieve (essentially explain the nature of all the matter and energy in the universe) it seems likely that we may always be stuck with models, not actual theories. And this may be the case not just with cosmology but with other sciences. The fact is that the kinds of phenomena that science has been dealing with recently have been multifactorial, complex and emergent. The kind of mechanical, reductionist approaches that worked so well for atomic physics and molecular biology may turn out to be too impoverished for taking these phenomena apart. Take biology for instance. Do you think we could have a complete “theory” for the human brain that can quantitatively calculate all brain states leading to consciousness and our reaction to the external world? How about trying to build a “theory” for signal transduction that would allow us to not just predict but truly understand (in a holistic way) all the interactions with drugs and biomolecules that living organisms undergo? And then there’s other complex phenomena like the economy, the weather and social networks. It seems wise to say that we don’t anticipate real overarching theories for these phenomena anytime soon.
Molecular models - such as that of a ribosome depicted here - are already an integral part of chemistry and biology (Image: MRC)
On the other hand, I think it’s a sign of things to come that most of these fields are rife with explanatory models of varying accuracy and validity. Most importantly, modeling and simulation are starting to be considered as a respectable “third leg” of science, in addition to theory and experiment. One simple reason for this is the recognition that many of science’s greatest current challenges may not be amenable to rigorous theorizing, and we may have to treat models of phenomena as independent, authoritative explanatory entities in their own right. We are already seeing this happen in chemistry, biology, climate science and social science, and I have been told that even cosmologists are now extensively relying on computational models of the universe. My own field of drug discovery is a great example of the success and failure of models. Here models are used not just in computationally simulating the interactions of drugs with diseased proteins at a molecular level but in fitting pharmacological data and x-ray diffraction data, in constructing gene and protein networks and even in running and analyzing clinical trials. Models permeate drug discovery and development at every stage, and it’s hard to imagine a time when we will have an overarching “theory” encompassing the various stages of the process.
Admittedly these and other models are still far behind theory and experiment which have had head starts of about a thousand years. But there can be little doubt that such models can only become more accurate with increasing computational firepower and more comprehensive inclusion of data. How accurate remains to be seen, but it’s worth noting that there are already books that make a case for an independent, study-worthy philosophy of modeling and simulation; a recent book by the University of South Florida philosopher Eric Winsberg for instance extols philosophers of science to treat models not just as convenient applications and representations of theories (which are then the only fundamental things worth studying) but as ultimate independent explanatory devices in themselves that deserve separate philosophical consideration.
Could this then be at least part of the future of science? A future where robust experimental observations are encompassed not by beautifully rigorous and complete theories like general relativity or QED but only by different models which are patched together through a combination of rigor, empirical data, fudge factors and plain old intuition? This would be a new kind of science, as useful in its applications as its old counterpart but rooting itself only in models and not in complete theories. Given the history of theoretical science, such a future may seem dark and depressing. That is because as the statistician George Box famously quipped, although some models are useful, all models are in some sense wrong. What Box meant was that models often feature unrealistic assumptions about the details of a system, and yet allow us to reproduce the essential features of reality. They are subject to fudge factors and to the whims of their creators. Thus they can never provide the certain connection to “reality” that theories seem to. This is especially a problem when disparate models give the same answer to a question. In the absence of discriminating ideas, which model is then the “correct” one? The usual, convenient answer is “none of them”, since they all do an equally good job of explaining the facts. But this view of science, where models that can be judged only on the basis of their utility are the ultimate arbiters of reality and where there is thus no sense of a unified theoretical framework, feels deeply unsettling. In this universe the “real” theory will always remain hidden behind a facade of models, much as reality is always hidden behind the event horizon of a black hole. Such a universe can hardly warm the cockles of the heart of those who are used to crafting grand narratives for life and the cosmos. However it may be the price we pay for more comprehensive understanding. In the future, Nobel Prizes may be frequently awarded for important observations for which there are no real theories, only models. The discovery of dark matter and energy and our current attempts to understand the brain and signal transduction could well be the harbingers of this new kind of science.
Should we worry about such a world rife with models and devoid of theories? Not necessarily. If there’s one thing about science that we know, it’s that it evolves. Grand explanatory theories have traditionally been supposed to be a key part- probably the key part- of the scientific enterprise. But this is mostly because of historical precedent as well a psychological urge for seeking elegance and unification. And even historically sciences have progressed much without complete theories, as chemistry did for hundreds of years before the emergence of the atomic and structural theories. The belief that a grand theory is essential for the true development of a discipline has been resoundingly validated in the past but it’s utility may well have plateaued. I am not advocating some “end of science” scenario here – far from it – but as the recent history of string theory and theoretical physics in general demonstrates, even the most mathematically elegant and psychologically pleasing theories may have scant connection to reality. Because of the sheer scale and complexity of what we are trying to currently explain, we may have hit a roadblock in the application of the largely reductionist traditional scientific thinking which has served us so well for half a millennium
Ultimately what matters though is whether our constructs- theories, models, rules of thumb or heuristic pattern recognition- are up to the task of constructing consistent explanations of complex phenomena. The business of science is explanation, whether through unified narratives or piecemeal explanation is secondary. Although the former sounds more psychologically satisfying, science does not really care about stoking our egos. What is out there exists, and we do whatever’s necessary and sufficient to unravel it.
This is a revised version of a past post.
Ashutosh JogalekarAbout the Author: Ashutosh (Ash) Jogalekar is a chemist interested in the nature of the "central science" and its intersection with philosophy, history and culture. He is also more generally interested in the history and philosophy of science and is particularly fascinated by how science tries to mirror reality by building models. Follow on Twitter @curiouswavefn.
The views expressed are those of the author and are not necessarily those of Scientific American.

You Are Here: How Astronomical Surveys Are Pinpointing Our Place in the Cosmos

Upcoming telescope projects on Earth and in space will map out billions of stars and galaxies all around us
Simulated 3-d flythrough of galaxies ZOOMING IN: A still from a simulated fly-through of galaxies mapped by the Sloan Digital Sky Survey. Image: Miguel A. Aragón (Johns Hopkins University), Mark SubbaRao (Adler Planetarium), Alex Szalay (Johns Hopkins University), Yushu Yao (Lawrence Berkeley National Laboratory, NERSC), and the SDSS-III Collaboration
Advertisement
Like surveyors charting out a parcel of land by measuring angles, distances and elevations, astronomers have long mapped the positions of celestial objects in the sky.
Those celestial maps are about to see some major revisions. New and upcoming campaigns using ground-based telescopes or spacecraft promise to fill in many new details in astronomers’ maps of the sky. Together these projects will catalogue detailed positional information on several billion stars and galaxies near and far.
One of the most dramatic upgrades to celestial cartography should come from the European Space Agency’s Gaia spacecraft, which is scheduled to launch next year. After taking up a position in deep space, well beyond the orbit of the moon, Gaia will map the positions and distances of roughly one billion stars. The mission is the successor to the Hipparcos satellite, which launched in 1989 and whose catalogue still finds wide use. But that satellite charted just 120,000 stars or so, and only a slight minority were pinpointed with top-level precision.
Hipparcos measured precise stellar distances, to within 1 percent, for fewer than 1,000 stars. Most of the satellite’s distance measurements have much greater uncertainties of 20 percent or more. Gaia should measure the distances to about 10 million stars with a precision of 1 percent or better. “That’s about the quantum leap that we will make,” says Timo Prusti, project scientist for Gaia at the European Space Agency (ESA).
By mapping out so many stars, astronomers hope to improve their understanding of our home galaxy’s layout. “The main science goal is to address the issues of our Milky Way—the structure and the dynamics,” Prusti says. Buried as we are within the Milky Way, humankind has never had a glimpse of the galaxy in its entirety. The astronomer’s predicament is a bit like that of an artist who must sketch the Manhattan skyline from midtown, instead of from a clear vantage point across the Hudson River. Just as the artist can inspect Manhattan’s skyscrapers one by one to reconstruct the skyline in her sketch, the astronomer can fill in a map of the galaxy one star at a time.
A next-generation space telescope called Euclid ought to extend that map from the local to the global, by mapping up to two billion galaxies in three dimensions. The mission, which ESA approved in June for a 2020 launch, will scan roughly one third of the sky to measure the positions and distances of galaxies across the universe. The hope is that the distribution of cosmic structure will reveal some hidden clue to the nature of dark energy, the unknown entity driving the accelerating expansion of the universe.
“We have no idea what dark energy is, but it’s a very subtle effect,” says Richard Griffiths, the Euclid program scientist at NASA, which is a participant in the European-led mission. “The only way we can get at it is to study the whole universe, basically.”
Euclid’s design specs should allow astronomers to see galaxies so distant that their light has taken more than half the age of the universe to reach Earth. “We will literally obtain a three-dimensional image of our universe, with us in the very center, and we will be able to detect the accelerated expansion in it,” says ESA’s project scientist René Laureijs. “It will give us the opportunity to watch the universe evolving over the last 10 billion years.”
Euclid is not the only project charting galaxies to try to unravel the mystery of dark energy. A campaign called the Dark Energy Survey will soon take advantage of a new 570-megapixel camera on a four-meter telescope at the Cerro Tololo Inter-American Observatory in Chile. The survey will measure the shapes and positions of some 200 million galaxies across a quarter of the southern sky. Whereas the scope of the ground-based project pales in comparison to the billions of galaxies targeted by Euclid, the Dark Energy Survey should have a significant head start on its space-based counterpart. The project’s camera has just been installed on the telescope and could see first light as soon as this month, according to the project’s Facebook page.
Many of the leading surveys now coming online are based in the southern hemisphere, where celestial cartographers can expect to make the greatest impact. In the north, the granddaddy of all astronomical surveys—the Sloan Digital Sky Survey in New Mexico—has reigned for more than a decade and has already carefully mapped more than one million galaxies in three dimensions, in addition to many other accomplishments.
Among the new crop of southern surveys is a project at the European Southern Observatory’s VISTA telescope in Chile, which is already carrying out a broad infrared survey to complement the more targeted Dark Energy Survey. And the SkyMapper project in Australia plans to chart the entire southern sky in optical light. The SkyMapper telescope should detect roughly one billion stars and one billion galaxies, according to Stefan Keller of the Australian National University, one of the project’s lead scientists.
But the telescope most likely to rewrite the books on the southern sky is the Large Synoptic Survey Telescope, or LSST, in Chile. When it comes online around 2022, the LSST—as currently envisioned—will feature an 8.4-meter mirror (compared to the Sloan survey’s 2.5-meter telescope) and a three-gigapixel digital camera. The mammoth telescope will image the heavens every week to capture transient phenomena such as supernovae and close passages of potentially dangerous asteroids. In the process, it will also mark the three-dimensional location of some four billion galaxies.
Posted: 07 Sep 2012 05:31 AM PDT
Referencia: New Journal of Physics Volumen 14 septiembre 2012 .
vía IOP Institute of Physics, 6 septiembre 2012
Autores: Jan Ambjorn, Martin Reuter y Frank Saueressig

El programa de seguridad asintótica gravitacional resume los intentos de construir una teoría cuántica consistente y predictiva de la gravedad en el marco de renormalización generalizada de Wilson.

Su ingrediente clave es un punto fijo no gaussiana del flujo de grupo de renormalización, que controla el comportamiento en la teoría de energía trans-planckiana y sirve para poner a salvo la gravedad de las divergencias no físicas. Siempre que el punto fijo venga de un número finito de direcciones atractivas ultravioletas (relevantes), esta construcción da lugar a una teoría de campo cuántico coherente, que resulta tan predictiva como una normal y de perturbación renormalizable.

Esto nos abre la emocionante posibilidad de establecer la gravedad cuántica de Einstein como una teoría fundamental de la gravedad, sin tener que introducir la supersimetría o las dimensiones extra, y que esté basada únicamente en las técnicas de cuantificación, que se sabe que funcionan bien con las otras fuerzas fundamentales de la naturaleza.

Si bien la idea de una gravedad asintóticamente segura fue propuesta por Steven Weinberg hace más de 30 años [1], las herramientas técnicas para la investigación en este escenario solamente han surgido durante la última década. Aquí, el papel clave está desempeñado por la ecuación exacta del grupo de renormalización (RG) funcional de la gravedad, que permite la construcción de soluciones no-perturbativas aproximadas para el flujo RG de acoplamientos gravitacionales. Lo más notable es que, todas las soluciones construidas hasta la fecha exhiben el conveniente punto fijo no gaussiano, dando un fuerte apoyo a la conjetura de seguridad asintótica.

Por otra parte, el grupo de renormalización funcional también proporciona indicios que la idea central de un punto fijo no gaussiano proporciona una terminación segura ultravioleta que también se traslada a escenarios más realistas, donde la gravedad se ajusta a un sector apropiado como el modelo estándar. Estos éxitos teóricos también han provocado una gran abundancia de estudios centrados en las consecuencias de seguridad asintótica, en una amplia gama de aplicaciones fenomenológicas que cubren la física de los agujeros negros, la época primitiva cosmológica y el Big Bang, así como los modelos de gravedad a escala TeV comprobables en el Gran Hadron Collider.

Por diferentes razones, los estudios de Monte-Carlo de la función de partición gravitacional basados en diferenciadas triangulaciones dinámicas causales se acercan a proporcionar un camino a priori independiente hacia un develar las características no perturbativas de la gravedad. Como punto culminante, unas detalladas simulaciones establecieron que el diagrama de fase subyacente a las triangulaciones dinámicas contiene una fase donde éstas, de forma natural, dan lugar a universos macroscópicos de cuatro dimensiones. Además, existen indicios de una transición de fase de segundo orden, que forma naturalmente el análogo distintivo del punto fijo no gaussiano visto en los cálculos continuos. Así pues, hay una buena probabilidad de que los cálculos discontínuos y continuos puedan converger en una misma física fundamental.

Este tema de enfoque recoge una serie de documentos que describen las fronteras actuales del programa de seguridad asintótica gravitacional. Esperamos que los lectores puedan hacerse una idea de la profundidad y variedad de esta área de investigación, así como de nuestro entusiasmo y los nuevos desarrollos en curso.

Todas las contribuciones sobre esta cuestión de enfoque aparecerán y estarán disponibles aquí.


- [1] Weinberg S 1979 General Relativity, an Einstein Centenary Survey ed S W Hawking and W Israel (Cambridge: Cambridge University Press)
- Publicación: Jan Ambjorn et al 2012 nuevos J. Phys. 14 095003. doi: 10.1088/1367-2630/14/9/095003 en .pdf .
- Original artículo: "Focus on quantum Einstein gravity"
- Imagen:  El flujo de grupo de renormalización de la gravedad en el truncamiento de Einstein-Hilbert, es gobernado por la interacción gaussiana y el punto fijo no gaussiano. Lo última es una luz atractiva ultravioleta tanto para la constante de Newton como la constante cosmológica, y constituye una decuado candidato para una completa ultravioleta no-perturbativa de la gravedad. Figura es de Reuter y Saueressig Phys 2002. Rev. D 65 065016. Copyright 2002 de la Sociedad Americana de Física (APS).



Posted: 11 Sep 2012 03:28 AM PDT
Referencia: Nature.News.com .
Autor: Philip Ball, 10 septiembre 2012

El mundo de las matemáticas, por lo general tranquilo, está hecho un hervidero de declaraciones, debido a haya sido resuelto uno de los problemas más importantes de la teoría de números.

El matemático Shinichi Mochizuki, de la Universidad de Kioto, en Japón, ha publicado una prueba de la conjetura abc en 500 páginas, donde propone una relación entre los números enteros, un problema 'diofántico'.

La conjetura abc, propuesta independientemente por David Masser y Joseph Oesterle en 1985, podría no ser tan conocido para el resto del mundo como el último teorema de Fermat, pero en algunos aspectos es más significativo. "La conjetura abc, si la prueba resulta cierta, resuelve de un plumazo muchos famosos problemas diofánticos, incluido el último teorema de Fermat", afirma Dorian Goldfeld, matemático de la Universidad de Columbia, en Nueva York. "Si la prueba de Mochizuki es correcta, será uno de los logros más sorprendentes de las matemáticas del siglo XXI."

Al igual que el teorema de Fermat, la conjetura abc se refiere a las ecuaciones de la forma a+b=c. Esto implica un concepto de un número libre de cuadrados: uno que no puede ser dividido por el cuadrado de ningún número. Quince y 17 son números libre de cuadrados, pero no así 16 y 18, puesto que son divisibles por 42 y 32, respectivamente.

La parte de un número "libre de cuadrado" n, sqp (n), es el más grande que se puede formar multiplicando los factores de n que son números primos. Por ejemplo, sqp(18)=2x3=6.

Si ya tenemos eso, entonces debemos conseguir la conjetura abc. Se trata de la propiedad del producto de los tres enteros axbxc, o abc, o más concretamente, de la parte libre de cuadrado de este producto, lo cual involucra a sus distintos factores primos. Se establece que para los números enteros a+b=c, la relación de sqp(abc)r/c siempre tiene un cierto valor mínimo mayor que cero, para cualquier valor de r mayor que 1. Por ejemplo, si a=3 and b=125, de modo que c=128, entonces sqp(abc)=30 y sqp(abc)2/c = 900/128. En este caso, en el que r=2, sqp(abc)r/c es casi siempre mayor que 1, y siempre mayor que cero.

Una profunda conexión

Resulta que esta conjetura resume muchos otros problemas diofánticos, incluyendo el último teorema de Fermat (que establece que an+bn=cn no tiene soluciones enteras, si n es mayor que 2). Como muchos otros problemas diofánticos, todo gira en torno a las relaciones entre los números primos. Según Brian Conrad, de la Universidad de Stanford, en California, "eso codifica una profunda conexión entre los factores primos de a, b y a+b".

Muchos matemáticos han dedicado un gran esfuerzo para probar esta conjetura. En 2007, el matemático francés Lucien Szpiro, cuyo trabajo en 1978 dio lugar a la conjetura abc fue primero en proclamar que tenía una prueba de ello, pero pronto se encontró su deficiencia.

Igual que Szpiro, así como el matemático británico Andrew Wiles, quien demostró el último teorema de Fermat en 1994, Mochizuki ha atacado el problema usando la teoría de curvas elípticas, las suaves curvas generadas por las relaciones algebraicas de la serie y2=x3+ax+b.

Ahi es donde la relación de Mochizuki funciona, justo donde se paran los esfuerzos anteriores. Ha sabido desarrollar técnicas que muy pocos matemáticos entienden en su totalidad, y que invocan a una nueva matemática de "objetos", entidades abstractas análogas a los ejemplos más conocidos, como los objetos geométricos, conjuntos, permutaciones, topologías y matrices. "En este momento, probablemente es el único que lo sabe totalmente", apunta Goldfeld.

Conrad dice que este trabajo "utiliza una gran cantidad de conocimientos que se va llevar mucho tiempo para que pueda ser digerido por la comunidad". La prueba se extiende a los largo de cuatro largos artículos [1], y cada uno de las cuales se apoya a su vez en previos y profusos documentos. "Puede requerir una gran inversión de tiempo llegar a entender una prueba tan larga y sofisticada, así que la voluntad de los otros para hacerlo se apoya no sólo en la importancia del anuncio, sino también en la trayectoria de los autores", explica Conrad.

Seguir la pista de Mochizuki, sin duda, hace que el esfuerzo valga la pena. "Ha sido capaz de demostrar teoremas muy profundos en el pasado, y es muy concienzudo en su escritura, de manera que ofrece una gran confianza", señala Conrad. Y añade que uno puede sólo sentirse compensado simplemente verificando sus aseveración. "El aspecto interesante no es sólo que la conjetura puede estar resuelta, sino que las técnicas y los conocimientos que ha debido introducir deben ser herramientas muy poderosas para la solución de problemas en el futuro en la teoría de números".

- Nature doi: 10.1038/nature.2012.11378


- Imagen 1) Shinichi Mochizuki, imagen 2) David Masser (arriba) y Joseph Oesterle, proponentes de la conjetura abc .
Referencias:
-1  Mochizuki, S. Inter-universal teichmuller theory I: construction of Hodge Theatres (2012).
-2  Mochizuki, S. Inter-universal teichmüller theory II: Hodge–Arajekekiv-theoretic evalulation (2012).
-3  Mochizuki, S. Interuniversal teichmüller theory III: canonical splittings of the log-theta-lattice (2012).
-4  Mochizuki, S. Interuniversal teichmüller theory IV: log-volume computations and set-theoretic foundations (2012).
.