jueves, 12 de julio de 2018

LA EXTINCION DE LOS DINOSAURIOS


A continuación puedes leer un resumen del capítulo 12 del libro de divulgación científica La Materia Oscura y los Dinosaurios escrito por Lisa Randall donde se explica cómo el impacto de un meteorito causó la extinción de los dinosaurios.


El Fin de los Dinosaurios


Aunque algunos dinosaurios evolucionaron hasta convertirse en las aves de hoy en día, los que dominaron la Tierra durante millones de años se extinguieron hace 66 millones de años en una extinción conocida como del Cretácico-Paleógeno, o K-Pg (anteriormente K-T o Cretácico-Terciario). ¿Cómo pudo ser que estas criaturas tan fuertes y ágiles fueran tan ineptas como para desaparecer? Pero los dinosaurios ya habían sobrevivido durante mucho más tiempo del que lo probablemente lo hagan los humanos o los símios. No tuvieron la culpa de su desaparición. Se extinguieron al final del Cretácico de forma repentina. Hay muchas pruebas que demuestran que el impacto de un meteoroide fue casi con certeza la causa, lo que conecta esta extinción con un objeto extraterrestre del Sistema Solar, y por tanto, con la astronomía, la cosmología y la física.

Aparte de su variedad de tamaños y el ser de sangre fría, una de las características de los dinosaurios fue su longevidad. Dominaron la Tierra durante 100 millones de años, viviendo durante la época mesozoica (entre 252 y 66 millones de años).

Hace 66 millones de años los continentes y océanos no estaban en sus posiciones actuales y el nivel del mar era unos 100 metros superior. Las temperaturas también eran más altas. Estos factores fueron fundamentales para descrifrar algunas de las claves reveladas en el límite K-Pg. El sedimento itálico que contiene la arcilla que el geólogo Walter Álvarez había decidido estudiar era parte de una plataforma continental que yacía bajo cientos de metros de agua. Se llama la Scaglia Rossa y está en las colinas de Umbria cerca de Gubbio a unos 200km al norte de Roma. Es un sedimento marino de piedra caliza que va desde el Cretácico tardío hasta el Terciario temprano.

Existen libros fascinantes sobre los dinosaurios que
cuentan la historia de cómo geólogos, químicos y físicos llegaron a la conclusión de que un enorme meteoroide fue la causa más problable de la extinción de los dinosaurios:

- Tyranosaurus Rex and The Crater of Doom (Walter Álvarez)

- The End of Dinosaurs (Charles Frankel)

Se han obtenido pruebas abundantes de que dicho meteoroide precipitó el cambio drástico en el registro fósil durante la transición K-Pg. Todos los rasgos que caracterizan los cráteres de impacto, incluidos esférulas, tectitas y cuarzo chocado, se encontraron en la vecindad de una capa límite de iridio, que separa las abundantes relíquias de vida por debajo de ellas del mucho más escaso registro fósil por encima.

La propuesta del meteoroide era radical, pero podía explicar observaciones que desafiaban teorías más convencionales. Ningún proceso terrestre podía explicar todos los fenómenos detallados que iban a encontrarse y que finalmente apoyaban la hipótesis. La propuesta ganaba credibilidad porque hacía predicciones, muchas de las cuales se han validado desde entonces.

Walter Álvarez estudio la fina capa de arcilla entre dos capas de piedra caliza: una inferior de color más claro llena de fósiles y una superior de color más oscuro sin fósiles.

El grosor de la capa de arcilla podía ayudar a determinar si el suceso de extinción fue rápido o lento. Era crucial comenzar por medir el tiempo que había tardado en depositarse la arcilla. Una manera era estudiar las inversiones geomagnéticas para aprender más sobre la cronología de la deposición del límite K-Pg. Pero el mejor método fue la medición de su contenido de iridio, un metal raro y el elemento más denso después del Osmio. En la corteza de la Tierra no hay iridio porque este se disolvió hace tiempo en hierro fundido y se hundió con este hasta el núcleo de la Tierra. Por ello cualquier iridio en la superficie debería tener un origen extraterrestre.

Los dos Álvarez (padre e hijo) tuvieron la brillante idea de que estudiando los niveles de iridio en la Tierra se podía determinar cuánto tiempo tardó en depositarse la arcilla. Ellos esperaban una distribución uniforme en el tiempo, indicativa de una deposición estacionaria, casi constante, que podía utilizarse para deducir el tiempo que tardó en formarse la capa de arcilla.

Pero los Álvarez encontraron algo diferente. Encontraron niveles de iridio mucho más altos de los esperados: 90 veces mayor que en la piedra caliza circundante. Este tipo de formación se ha encontrado en muchos lugares de la Tierra y los niveles de iridio en ellos también son muy altos (en 1982 se habían examinado más de 40 lugares).

Si la hipótesis original de deposición estacionaria fuera correcta, el tiempo de formación de esta fina capa de arcilla sería de 3 millones de años. Pero ese era un tiempo demasiado largo para la fina capa de arcilla del límite K-Pg. Sin embargo, si el nivel de iridio estaba elevado en un nivel similar en todo el globo, entonces 500000 toneladas de iridio habían descendido súbitamente en la época de la extinción K-Pg. Tras estudiar varios fenómenos extraterrestres posibles, solo el impacto de un meteoroide (asteroide o cometa) podía explicarlo. Basándose en el iridio medido y contenido promedio de iridio en meteoroides, los investigadores concluyeron que tuvo entre 10 y 15 kilómetros de diámetro y que se movía a unos 20 kilómetros por segundo antes del impacto.

Aunque muchos paleontólogos preferían las explicaciones gradualistas (condiciones medioambiantales, cambio climático, etc) o la actividad volcánica, estas no explicaban todos los hechos. Además, algunos datos o descubrimientos las contradecían. La actividad volcánica pudo ayudar, pero no fue la causa principal. Por ejemplo, la actividad volcánica no puede emitir las 500000 toneladas de iridio en todo el mundo que los Álvarez y otros calcularon. Otras pruebas eran:

- La tectónica de placas y los primeros planos de los cráteres lunares de las misiones a la Luna.

- El descubrimiento de múltiples lugares de micro kristitas (versiones menores de las tectitas, las rocas vítreas que con forma redondeada surjen de fusiones por impacto).

- El descubrimiento de cuarzo chocado, que indica un origen de alta presión, como meteoroides o explosiones nucleares. En 1984 se encontró cuarzo chocado en Montana (USA) y luego en Nuevo México y Rusia. Además el quarzo es raro en rocas del océano, con lo que el cráter debería estar situado en Tierra.

- El descubrimiento de unos cristales llamados espinelas, que apoyan la hipótesis de impactos de alta presión. Al tener níquel y magnesio hacía que no fueran de origen volcánico (ya que estas son ricas en hierro, titanio y cromo). Los volcanes no pueden explicar los materiales inducidos por choques (no producen el cuarzo chocado necesario).

La energía liberada por el impacto de un meteoroide de 10-15km de diámetro a 20 kilómetros por segundo sería 1000 veces mayor que las bombas atómicas de Hiroshima y Nagasaki.
Este impacto originó olas y vientos extremos y grandes tsunamis en un radio de unos 1000km. Solo el 1% de la energía del impacto habría revertido en vientos y olas. El resto de la energía, para fundir, vaporizar y enviar ondas sísmicas de magnitud 10 en la escala de Richter por toda la Tierra. Por ejemplo, el cráter Barringer en Arizona, de 1km de diámetro sería creado por un meteoroide de 50m de diámetro.




Crater Barringer en Arizona


El Cráter Barringer es un agujero en el desierto de Arizona de 1,2km de díametro, creado hace 50.000 años por el impacto de un pequeño asteroide rico en hierro que cayó a más de 10km/s



Todo el material eyectado caliente habría provocado incendios y envenenado agua, aire y suelo. Del cielo también llovieron materiales pesados como níquel y plomo procedentes del meteoroide. También se habría creado óxido nitroso generando lluvia ácida y liberado azufre en la atmósfera. Este azufre habría producido ácido sulfúrico en la atmósfera bloqueando la luz solar, minimizando la fotosíntesis de las plantas y originando un enfriamento generalizado.

Los registros fósiles indican que los océanos tardaron centenares de miles de años en recuperarse y los efectos destructivos perduraron entre quinientos mil y un millón de años. Todo ello hace que al parecer no sobreviviera ninguna criatura de más de 25 kilogramos pues no podían esconderse. Pese a todo ello, los investigadores sabían que era crucial encontrar un cráter de unos 66 millones de años de antigüedad. Este cráter podía ayudar a confirmar el tamaño y el momento del impacto.

Basándose en cantidades de iridio, Walter Álvarez dedujo que el meteoroide debía haber tenido 10km de diámetro, con lo que el cráter debería tener unos 200km de diámetro (unas 20 veces mayor que el tamaño del objeto que impacta). Se tardó más de 10 años en descubrir el cráter. Fue difícil porque, aún cayendo en tierra firme, muchos permanecen ocultos por erosión, enterramiento por sedimentación o la destrucción tectónica. Además la ubicuidad del iridio y otras pruebas geológicas no ayudada.

La primera pista era el cuarzo chocado que podía tener origen en un cráter en tierra o en la plataforma continental con lo que las búsquedas en Tierra podrían identificar dicho cráter. Durante mucho tiempo se había pasado por alto una observación independiente muy importante. En la década de 1950 geólogos industriales habían identificado una estructura circular enterrada de 180km de diámetro, la mitad del cuál estaba dentro de la costa, bajo las llanuras de piedra caliza de Yucatán, y la otra mitad fuera, enterrada bajo agua y sedimentos en el golfo de México. Geólogos de Pemex perforaron pozos y dieron con roca cristalizada a una profundidad de unos 1500m.

No fue hasta la década de 1970 que se sugirió que esta estructura podía ser un cráter de impacto. Esta sugerencia se basaba en medidas de la forma del potencial gravitatorio del accidente geográfico. Sin embargo, todos los que conocían la estructura trabajaban para la industria del petróleo, con lo que estos datos eran confidenciales. Pemex siguió buscando petróleo y en los 70 hizo más estudios geológicos, incluyendo un exámen magnético aéreo de la península de Yucatán, advirtiéndose una fuerte anomalía magnética de unos 50km bordeada por un anillo exterior con un magnetismo anormalmente bajo que tenía unos 180km de diámetro. Ese era precisamente el patrón esperado para un gran cráter de impacto, con una región cental asociada a la fusión por impacto y una región exterior que contuviera residuos del blanco endurecidos. Los datos de gravedad aérea respaldaban aún más esta interpretación. Los aumentos y descensos del campo de gravedad se correlacionaban con la variación de las señales magnéticas.

En un primer momento nadie estableció una conexión porque muchos investigadores desconocían la hipótesis del impacto para la extinción K-Pg. De hecho, la mayoría de los interesados en localizar el cráter de impacto no lo fueron a estudiar hasta 1990. Quienes buscaban un cráter de 66 millones de años y 200km de diámetro para verificar la propuesta de Álvarez llegaron al rastro de posibles candidatos partiendo de una linea de investigacion totalmente diferente a la de los geólogos de Pemex. Si el meteoroide había impactado en el océano pero aterrizado cerca de la costa, había creado un tsunami potente. En 1985 encontraron pruebas  de este tsunami estudiando sedimentos alterados en la línea K-Pg en el lecho del río Brazos en Texas y se llegó a la conclusión que el origen del tusnami se habia producido a 5000km de distancia, es decir, en el Golfo de México, en el Caribe o en el Atlántico occidental.

En 1990 se encontró en Haití un afloramiento de sedimentos de medio metro que contenía tectitas, cuarzo chocado y arcilla de iridio. A partir del espesor de la capa dedujeron que el cráter se encontraba a unos 1000km de distancia. Así pues, el cráter descubierto por Pemex estaba en el sitio correcto y tenía el tamaño correcto. El cráter estaba oculto por sedimentos, pero estos lo habían protegido de la erosión. Se analizaron muestras y obtuvieron cuarzo chocado y roca fundida.

En 1991 se empezó a prestar atención a la hipótesis de que el impacto extinguió los dinosaurios gracias a todas estas pruebas. En 1992 dadas todas estas pruebas acumuladas, la mayoría de los geólogos estaban convencidos de que el accidente de Yucatán era realmente un cráter de impacto. Pero aún no estaban seguros de su relación con la extinción K-Pg. Faltaba una datación detallada mediante el estudio de la composición química de las muestras del cráter. Lo consiguieron estudiando isótopos de Argón en la roca. Se obtuvo 64,98 con un error de 0,05 millones de años. La datación de las esférulas de la capa K-Pg haitiana fue de 65,01 con un error de 0,08 millones de años. Por tanto los sucesos de impacto y extinción coincidian dentro de la incertidumbre correspondiente. Esta excelente concordancia convenció a muchos científicos de que la teoría de la extinción de los dinosaurios por un meteoroide propuesta inicialmente por Álvarez era correcta. Mejoras en las mediciones obtuvieron una datación de 66 millones de años. 


La identificación del cráter Chicxulub es un ejemplo de ciencia en acción que incluye inducciones ingeniosas puestas a prueba e hipótesis atrevidas y exploraciones en lugares tan distantes como Italia, Colorado, Haití, Texas, Yucatán. El meteoroide que cayó en Yucatán tuvo una profunda influencia en el planeta y su vida. Su origen y sus consecuencias ilustran bien las permanentes conexiones entre la Tierra y el universo.

domingo, 8 de julio de 2018

EL TERCER HOMBRE

El libro empieza con el entierro de Harry Lime en el suelo congelado del cementerio central de Viena en un frío día de invierno. Lo habían atropellado delante del portal de su casa. Lo entierran justo el día en que su amigo de la infancia, Rollo Martins, llega a Viena invitado por él a través de la Oficina Internacional de refugiados (Austria era aún territorio ocupado).

La Viena de la postguerra es una ciudad triste y dividida en zonas entre las cuatro potencias ganadoras de la guerra: la zona americana, francesa, británcia y rusa. Las zonas no están separadas físicamente. No hay muros ni alambradas, pero sí carteles indicando cada zona. En el centro de la ciudad, envuelta por el Ring, con sus edificios públicos chapuceros, está la Innere Stadt bajo el control de las cuatro potencias. Aquí, en el núcleo antiguo, en otro tiempo elegante, cada potencia asume la presidencia por turnos y durante un mes se ocupa de la seguridad.


Viena era una ciudad en ruinas indecorosa que aquel febrero se convirtieron en grandes glaciares de nieve y hielo. El Danubio era un río turbio y gris y allí lejos, al otro lado del segundo Bezirk, la zona rusa con el Prater destruido, desolado y lleno de malas hierbas. Solo quedaba la gran noria que giraba lentamente y el hierro oxidado de tanques abandonados.




Harry Lime había propuesto a Martins escribir una crónica sobre el trato que se daba a los refugiados internacionales. Rollo Martins, escritor de novelas baratas del oeste bajo el pseudónimo de Buck Dexter, poseía una especie de doble personalidad. Rollo era pasión, mientras que Martins era la razón.

Cuando Martins aterriza en el aeropuerto de Viena, Lime no está esperándolo para su sorpresa. Tampoco está en el hotel Astoria.

Al salir del cementerio central de Viena tras el entierro de Lime, de estructura radial y también dividido en 4 zonas, el coronel Calloway de Scotland Yard invita a Martins a unas copas. Compartiendo taxi se dirigen a un tranquilo bar de la Kärtnerstrasse, la calle comercial de Viena.

Hablan de Harry. Resulta que era uno de los peores estafadores de Viena. Martins sale de esta conversación, algo desagradable por cierto, con la intención de dejar en ridículo a Calloway por afirmar que Harry era un estafador. Al regresar al hotel Sacher's se encuentra con Crabbin Schmidt, un conocido de Lime que le ofrece dar unas conferencias sobre novela contemporánea. También le habla de la novia de Lime, Ana Schmidt a la que Martins recuerda del entierro. Esa noche le llama a la habitación del hotel Kurtz, otro conocido de Lime, con el que queda a la mañana siguiente en el viejo Viena de la Kärtnerstrasse.

Tras ver a Kurtz va a ver a Anna Schmidt. Se acaba enamorando de ella. Aunque no es agraciada físicamente, es frágil y franca. Anna la da la dirección del médico de Harry, Winkler. Este es un médico pulcro, educado, ordenado, elegante y cauto. El doctor le dice que Harry ya había muerto cuando el llegó a la escena del atropello. Al salir de su consulta Martins ve un crucifijo de El Greco en una de las paredes. Era Jansenista: tenía los brazos sobre la cabeza porque según los jansenistas Jesucristo murió solo para los elegidos.

Tras visitar al doctor Winkler decide ir al piso de Harry para hablar con Koch, un vecino que había oído el accidente y visto el tercer hombre, aunque sin poder identificarlo. Al día siguiente fue a ver a Cooler en la zona americana, otro amigo de Harry que había presenciado el accidente. Cooler es de apariencia bondadosa y humanitaria. Cooler llevó dinero a Anna cuando Harry murió. Tras la visita a Cooler vuelve al piso de Anna para explicarle como ha ido. Deciden acercarse juntos al piso de Harry para hablar con Koch, el vecino que oyó el accidente, porque las versiones de Koch, Kurtz, Cooler y Winkler son contradictorias. Allí descubren que Koch ha sido asesinado. Puesto que Martins había estado ahí, la policia comienza a sospechar de él.

Debido a estas sospechas  Calloway tiene otra entrevista con Martins para explicarle cosas tras el desarrollo de los acontecimientos. Martins le habla del tercer hombre que nadie ha identificado y de su hipótesis de asesinato. Tras esta conversación Calloway dejó de sospechar de Martins. Calloway le habla del tráfico de penicilina, en la que Harry estaba involucrado. La guerra y la pobreza genera estraperlo y mercado negro por escasez. En Austria la penicilina solo era suministrada en hospitales militares. Ni un médico civil ni un hospital civil la podía conseguir por métodos legales. Al principio se robaba penicilina de los hospitales militares que se vendía a precio de oro a médicos austríacos. Por ello solo tenían acceso los ricos a este medicamento. Como los traficantes querían ganar más dinero empezaron a mezclar la penicilina con agua teñida, o con arena si era en polvo. Esto ocasionó muertes y secuelas graves en enfermos.

A partir de este punto Calloway y Martins colaborarán para aclarar el caso de la presunta muerte de Harry y para identificar al Tercer Hombre.



Opinión Personal


En esta novela las apariencias engañan como en el presunto asesinato de Harry Lime. Martins es un escritor de novelas baratas, borracho, mujeriego e  impulsivo, pero honrado y con valores. En cambio, Harry tiene buena apariencia y trabaja en una ONG pero es un estafador y traficante.

Esta novela es narrada como los recuerdos de los archivos y conversaciones del coronel Calloway con Martins.

Lo que más me ha gustado de esta novela es como recrea el ambiente de la Viena decadente de la postguerra y la permanente intriga que te engancha y hace que tengas ganas de leer para conocer el final de la historia.


martes, 16 de enero de 2018

LA TEORÍA DEL NÚCLEO



Esta entrada está basada en el apéndice del Libro El Gran Cuadro, escrito por el físico teórico y cosmólogo norteamericano de Sean Carroll

La teoría del núcleo es una teoría cuántica de campos que describe la dinámica e interacciones de cierto conjunto de partículas de materia (fermiones) y partículas de fuerzas (bosones), incluyendo tanto el modelo estándar de la física de partículas como la teoría general de la relatividad (en el régimen de gravedad débil).



Lagrangiana del modelo estandar

Lagrangiana del modelo estándar a partir de la cual pueden explicarse todos los fenómenos salvo los relacionados con la gravedad



Ecuaciones de la Relatividad General
Ecuaciones de campo de la  Relatividad General que proporcionan las gμν que caracterizan la geometría y la métrica el espacio-tiempo creado por una distribución de masa-energía concreta


La teoría del núcleo se basa en la fórmula de la integral de caminos de la mecánica cuántica, propuesta por Richard Feynman. Esta fórmula resume todo lo que hay que saber sobre la dinámica cuántica de este modelo: partiendo de una configuración inicial de campos, ¿qué probabilidad hay de que estos campos acaben en alguna configuración distinta en un instante posterior?


Suma de historias de la mecanica cuantica
Formulación de la integral de camino o de suma de historias de la mecánica cuántica propuesta por Richard Feynman


principio de minima accion
El principio de mínima acción nos dice que las ecuaciones de movimiento surgen de minimizar una magnitud física llamada acción


Ecuaciones de Euler-Lagrange
Las ecuaciones de Euler-Lagrange obtenidas mediante el cálculo de variaciones proporcionan el lagrangiano L que minimiza la acción


El valor de la acción determina la probabilidad de cada una de las historias posibles para un suceso en mecánica cuántica.

Hay dos clases de campos cuánticos: fermiones y bosones. Los fermiones son las partículas de la materia, ocupan espacio lo que proporciona estabilidad y solidez a la materia. Los bosones pueden apilarse unos encima de otros, originando campos de fuerza macroscópicos como la gravedad y el electromagnetismo.

En teoría cuántica de campos las partículas son en realidad vibraciones de campos cuánticos y quedan determinadas por su masa,  carga, momento angular y espín. Las cargas determinan cómo interactúan las partículas entre sí. La carga de una partícula nos indica como interactúa con el campo portador de la fuerza asociada. Así:


  • los electrones (carga eléctrica -1) interactúan directamente con los fotones, portadores de la fuerza electromagnética.
  • los neutrinos, que tienen carga eléctrica nula, no interactúan directamente con los fotones pero sí indirectamente mediante los electrones.
  • Los fotones mismos son neutros, así que no interactúan directamente entre sí.



La carga gravitacional es solo la energía de la partícula, que es igual a la masa multiplicada por la velocidad de la luz al cuadrado cuando la partícula está en reposo. Esta carga es universal, la poseen todas las partículas.



Equivalencia entre masa y energia de la relatividad especial

Equivalencia entre masa y energía de la relatividad especial



Todos los fermiones tienen una carga nuclear débil, por lo que interactúan con los bosones W y Z.


Desintegración beta
La fuerza nuclear débil es la responsable de la desintegración beta en la que un neutrón se transforma en un protón más un electrón más un antineutrino


Diagrama de Feynman de la desintegracion beta


Diagrama de Feynman de la desintegración beta en la que un bosón W se lleva una unidad negativa de carga y se acaba desintegrando en un electrón y un antineutrino




Los fermiones que interactúan con la fuerza nuclear fuerte son lo quarks, y los que no, los leptones (electrones y neutrinos).




Interaccion entre quarks mediante el intercambio de gluones

Interacción entre un quark up y un quark down mediante el intercambio de gluones



La fuerza nuclear fuerte es tan fuerte que quarks y gluones se ven confinados dentro de partículas como protones y neutrones, por lo que nunca los observamos directamente.



Hadrones

Los hadrones formados por tres quarks se llaman bariones y los mesones son partículas formadas por un quark y un antiquark


Luego está el campo de Higgs y su partícula asociada, el bosón de Higgs, descubierto en el LHC (Large Hadron Collider o  Gran Colisionador de Hadrones) en 2012.



Masa del Boson de Higgs

Resultado del CMS para el canal de desintegración de dos fotones. La pequeña prominencia en la curva es el bosón de Higgs, a unos 125 GeV (CERN/CMS)



Solenoide Compacto de Muones
CMS, Solenoide Compacto de Muones, es uno de los experimentos del Gran Colisionador de Hadrones en el CERN, en la actualidad el acelerador más potente del mundo

Aunque es un bosón, normalmente no hablamos de una fuerza asociada al campo de Higgs; podríamos, pero el Higgs es tan grande, que la fuerza correspondiente es extremadamente débil y de corto alcance. Lo que hace tan especial al bosón de Higgs es que su campo tiene un valor distinto de cero incluso en el espacio vacío. Todas las partículas nadan constantemente en un baño de Higgs, y eso afecta a sus propiedades. Lo más importante es que otorga masa a los quarks y a los leptones cargados, así como a los bosones W y Z.




Particulas del modelo estandar
Las partículas elementales del Modelo Estándar se agrupan en 3 familias. En esta imagen cada familia corresponde a las partículas de las primeras dos columnas de la izquierda, las dos columnas centrales y las dos  columnas de la derecha


La función de onda describe una superposición de cada configuración posible del sistema con el que se está trabajando. Para la teoría del núcleo, una configuración es un valor particular para cada campo, en cada punto del espacio. 

La versión de Feynman de la evolución cuántica (que es equivalente a la de Schrödinger) nos indica la probabilidad de que el sistema termine en una configuración determinada dentro de la función de onda, dado que empezó en algún momento precedente en una configuración diferente dentro de una función de onda anterior.



Ecuacion de Schrodinger

Ecuación de Schrödinger donde H es el operador hamiltoniano

La amplitud W es determinada por la integral de caminos de Feynman sumando todas las formas en que podrían evolucionar los campos entremedias.



Formulacion de la integral de camino


Formulación de la integral de camino o de suma de historias de la mecánica cuántica propuesta por Richard Feynman. En la exponencial compleja está incluida la lagrangiana del modelo estándar y la de la relatividad general (para campos gravitatorios débiles)


¿Y qué es exactamente lo que estamos sumando? Para cada posible camino que puede tomar un sistema, hay una magnitud que calculamos, llamada acción, S. Si el sistema está saltando de cualquier manera por todas partes, su acción será muy grande; si se mueve más uniformemente, la acción será relativamente pequeña. Tanto en mecánica clásica como en mecánica cuántica, de todos los posibles caminos, el sistema toma el que tenga asociada una mínima acción. Toda teoría clásica puede definirse diciendo cuál es la acción del sistema, y luego buscando movimientos que la minimicen.

En la mecánica cuántica, la acción aparece de nuevo, pero con un giro. Feynman propuso un enfoque en el que podemos pensar que un sistema cuántico sigue todos los caminos, no solo el clásicamente permitido. A cada camino le asociamos un cierto factor de fase:


e{iS}


que es un número complejo. Sumar todas las contribuciones para todos los caminos puede implicar una suma constructiva o destructiva




Patron de interferencia en el experimento de la doble rendija

Patrón de interferencia en el experimento de la doble rendija debido a la suma de los diferentes caminos



La excepción se produce cuando un grupo de caminos próximos tienen valores muy similares para la acción; sus factores de fase serán entonces similares, y sumarlos supondrá su acumulación, en lugar de anularse. Esto sucede exactamente cuando la acción se halla cerca de un valor mínimo, que corresponde al camino permitido clásicamente.

Así pues, la mayor probabilidad cuántica queda asociada a una evolución de apariencia casi clásica. Por eso es por lo que nuestro mundo cotidiano está bien modelizado por la mecánica clásica; es el comportamiento clásico el que aporta las mayores contribuciones a la probabilidad de las transiciones cuánticas.

Las cantidades [Dg][DA][Dψ][Dφ] significan cantidades infinitesimales de:


g: el campo gravitatorio.
A: campos de fuerzas bosónicos (electromagnetismo, fuerzas nucleares fuerte y débil).
ψ: campos fermiónicos.
φ: el bosón de Higgs.


Es decir, gravedad, otras fuerzas, materia y Higgs.

Todo lo que sigue a la unidad compleja i es la acción S para la teoría del núcleo.

La acción es una integral sobre la totalidad del espacio, y sobre el período de tiempo entre la configuración inicial y la final. Es decir, sobre las cuatro dimensiones del espacio-tiempo. El factor raíz cuadrada de -g está relacionado con el hecho de que el volumen no es un invariante en la relatividad especial ni general. Depende del movimiento del observador y de la curvatura del espacio-tiempo.

El término gravedad es bastante simple, reflejando la elegancia de la teoría de la relatividad general de Einstein. La cantidad R recibe el nombre de curvatura escalar y representa cuánta curvatura espacio-temporal de cierta clase está presente en cualquier momento dado.




Curvatura del espacio-tiempo

Según la relatividad general la masa de una estrella como el Sol curva el espacio-tiempo tiempo haciendo que los planetas orbiten a su alrededor al seguir el camino más corto posible (geodésica) en un espacio-tiempo de cuatro dimensiones



La curvatura escalar se multiplica por una constante igual a un medio de la masa de Planck al cuadrado.


Masa de Planck
Masa de Planck



Energia de Planck
Energía de Planck



La curvatura escalar R puede calcularse a partir del campo gravitatorio, y la acción para la relatividad general es simplemente proporcional a la integral de R sobre una región de espacio-tiempo. Minimizar esa integral nos da la ecuación de campo de Einstein para la gravedad.

El término otras fuerzas incluye el tensor de fuerza F, que incluye las contribuciones del electromagnetismo y de las fuerzas nucleares fuerte y débil.


Ecuaciones de Maxwell en notacion tensorial

Ecuaciones de Maxwell en notación tensorial


Ecuaciones de Maxwell
Ecuaciones de Maxwell en formato diferencial y vectorial



Los campos de materia son fermiones, representados colectivamente con la letra ψ. En el primero de los dos términos de materia, la letra γ indica las matrices de Dirac, origen de la existencia de las antipartículas. La letra D representa la derivada covariante que incluye el acoplamiento o interacción entre fermiones y los bosones de fuerza. Esta interacción depende de cómo estén cargados los fermiones. La forma en que un electrón interactúa con un fotón, por ejemplo, la caracteriza este término de la acción.



Ecuacion de Dirac

Ecuación de Dirac para una dimensión espacial donde aparecen las matrices γ


El segundo término de materia indica un acoplamiento entre los fermiones y el campo de Higgs. A diferencia del resto de la acción de la teoría del núcleo, la interacción entre el Higgs y los fermiones resulta un tanto barroca y poco atractiva.

Dos cosas la hacen complicada:

  • La primera es la matriz de mezclas Vij que recuerda el hecho de que los fermiones pueden mezclarse entre sí; cuando un quark cima decae, por ejemplo, en realidad decae en una mezcla particular de quarks down, strange y bottom.
  • La otra dificultad es que un campo de fermiones es zurdo y el otro diestro. Esto es consecuencia de que la naturaleza trata de forma diferente a las partículas zurdas y diestras. Ese fenómeno, la violación de la paridad, constituyó toda una sorpresa para los físicos cuando se descubrió, aunque en la actualidad y con un conocimiento más profundo del mundo subatómico no se considera tan excepcional.


La última parte de este término, h.c. representa el conjugado hermitiano. Esto es necesario porque necesitamos quedarnos con la parte real porque la acción debe ser un número real.

Finalmente tenemos la parte de la acción dedicada al campo de Higgs. La primera parte es el término cinético que representa la tasa de cambo del campo, y la segunda es el término potencial, que representa cuánta energía encierra el campo incluso cuando no está cambiando en absoluto. Es este segundo término el que hace que el campo de Higgs sea especial. Como cualquier otro campo quiere permanecer tranquilo en una configuración de mínima energía. Pero a diferencia de los otros campos conocidos, en su estado de energía mínima, el campo de Higgs mismo no desaparece, sino que tiene un valor distinto de cero. Su energía potencial es mayor cuando el campo es nulo que cuando no lo es. Eso es lo que le asegura al campo de Higgs una presencia incluso en el espacio vacío y le permite afectar a todas las demás partículas que se desplazan por él.



Potencial del Campo de Higgs
A la izquierda el potencial de Higgs es nulo cuando el campo de Higgs también lo es. Sin embargo a la derecha se rompe esta simetría y el potencial es diferente de cero cuando el campo de Higgs es nulo 



Sabemos que la teoría del núcleo no puede ser la respuesta definitiva. En el universo hay materia oscura que no encaja bien en ninguno de los campos conocidos.



Movimiento de las estrellas perifericas de las galaxias

La materia visible se insuficiente para explicar el movimiento de las estrellas periféricas de las galaxias y requeriría de un nuevo tipo de materia para ser explicado


Por otro lado los neutrinos tienen masa pero aún no hemos verificado experimentalmente que los términos existentes en la ecuación sean de hecho responsables de la masa de los neutrinos.

Prácticamente todos los físicos creen que hay más partículas y campos por descubrir, con mayores masas y energías. Pero tienen que ser unos que, o bien interactúan muy débilmente con nosotros (como la materia oscura) o bien decaen muy deprisa.

La teoría del núcleo ni siquiera proporciona una teoría completa de los campos conocidos. La ecuación funciona si el campo gravitatorio es muy débil, pero no funciona cuando la gravedad es intensa, como en las cercanías del Big Bang o en el interior de un agujero negro. Para estos casos se necesita una teoría de gravedad cuántica.




Agujero Negro

El espacio-tiempo se curva de manera extrema en un agujero negro haciendo necesaria una teoría de gravedad cuántica


De todas maneras, esto no es problemático porque las limitaciones de la teoría están incorporadas en su formalismo. Con k<Δ (corte ultravioleta) se indica la limitación a los campos que no vibran demasiado enérgicamente. Los campos pueden verse como una combinación de modos, siendo cada uno de estos modos una vibración con una longitud de onda específica. Esto significa situaciones de baja energía y campo débil, pero suficiente para describir nuestro mundo cotidiano que es de baja energía. 

La teoría del núcleo es, en otras palabras, una teoría de campo efectiva. Tiene un régimen de aplicabilidad muy específico y bien definido (partículas que interactúan con energías muy por debajo del corte ultravioleta) y no afirmamos que sea fiable más allá de eso. Aún así es extremadamente precisa, rígida y bien definida. No hay ambigüedad alguna en ella, ni espacio para introducir nuevos aspectos que aún no hayamos advertido.

Quizás en el futuro encontremos una teoría más exhaustiva subyacente a la teoría del núcleo que no aluda a la teoría cuántica de campos. Pero nada de eso cambiará el hecho de que la teoría del núcleo es una descripción exacta de la naturaleza en su dominio de aplicabilidad.








jueves, 4 de enero de 2018

EL PAISAJE COSMICO





Índice


0- Introducción


1- El Mundo según Feynman



  • La naturaleza está nerviosa
  • Partículas elementales
  • Electrodinámica cuántica
  • Diagramas de Feynman
  • Antimateria
  • La constante de estructura fina
  • Cromodinámica cuántica
  • Las interacciones débiles
  • Las leyes de la física


2- La madre de todos los problemas de la física


  • La peor predicción nunca realizada
  • Vuelta a la constante cosmológica
  • Weinberg pronuncia la palabra A
  • El caso de una constante cosmológica negativa
  • La longitud de Planck


3- La canción de la Tierra


  • Campos
  • Colinas y valles
  • Rodando por el paisaje


4- El mito de la unicidad y la elegancia


  • Lo que entienden los físicos por bello
  • Orígenes del mito
  • La teoría de cuerdas y la caída del mito
  • ¿Es elegante la naturaleza?


5- Un rayo en el cielo


  • El universo de Alexander Friedmann
  • El principio cosmológico y las tres geometrías
  • Los tres destinos
  • Geometría es destino
  • La edad del universo y las estrellas más viejas
  • La solución
  • Supernovas tipo I
  • Luz de la creación
  • Inflación


6- Sobre peces congelados y peces hervidos



  • Paisajes antrópicos
  • ¿Cuándo tienen sentido las explicaciones antrópicas?
  • Objeciones filosóficas


7- Un mundo impulsado por una banda elástica



  • Hadrones
  • Orígenes de la teoría de cuerdas


8- Reencarnación



  • Compactificación
  • ¿El elegante universo supersimétrico?
  • La mágica, misteriosa y asombrosa teoría M


9- ¿Por nuestra cuenta?


10- Las Branas


  • D-Branas
  • Branas de cualquier dimensión
  • Branas y compactificación
  • Flujos
  • Singularidades "conifold"
  • El discretuum de Bousso y Polchinski


11- Un universo burbuja



  • Estabilidad y metaestabilidad
  • Una catástrofe de hielo real
  • Clonando el espacio
  • Espacio de De Sitter metaestable
  • Inflación eterna
  • Una relación paradójica entre hijo y padre
  • Dos visiones de la historia
  • Muchos mundos


12- La guerra del agujero negro



  • Complementariedad de agujero negro
  • El Principio Holográfico
  • Burbujas a nuestro alrededor


13- Resumiendo



  • Eslóganes
  • ¿Consenso?
  • Las leyes de la naturaleza son emergentes
  • La selección natural y el universo
  • El comienzo de la inflación
  • Supercuerdas en el cielo
  • Física de altas energías


Diferencia entre Paisaje y megaverso:


Paisaje: No es un lugar real. Es una lista de todos los diseños posibles de universos hipotéticos. Cada valle representa uno de tales diseños. El espacio de diseños es multidimensional.

Megaverso: Muy real. Los universos de bolsillo que lo llenan son lugares que existen realmente, no posibilidades hipotéticas.







Ecuacion de Dirac
Ecuación de Dirac para una dimensión espacial


Definicion de accion
Definición de la magnitud física llamada acción como la integral temporal del lagrangiano


Suma de historias de la mecanica cuantica

Formulación de la integral de camino o de suma de historias de la mecánica cuántica propuesta por Richard Feynman. En la exponencial compleja está incluida el giro o fase de la flecha y la función de onda es la amplitud de la flecha. La integral es la suma de flechas



Lagrangiana del modelo estandar
Lagrangiana del modelo estándar a partir de la cual pueden explicarse todos los fenómenos salvo los relacionados con la gravedad

Formulacion de la integral de camino
Formulación de la integral de camino o de suma de historias de la mecánica cuántica propuesta por Richard Feynman. En la exponencial compleja está incluida la lagrangiana del modelo estándar y la de la relatividad general (para campos gravitatorios débiles)

Lagrangiana de la Electrodinamica Cuantica
Lagrangiana de la Electrodinámica Cuántica, la teoría que describe como interacciona la luz con la materia. M es la masa del electrón, A es el potencial vector del electromagnetismo y F es el tensor electromagnético. Los dos primeros corresponden a la ecuación de Dirac, el tercero es el de interacción entre el electrón y el fotón (consecuencia de la simetría gauge) y el cuarto es el de la propagación del fotón en ausencia de fuentes (onda electromagnética)




Intercambio de dos gluones virtuales

Fuerzas entre quarks a partir del intercambio de dos gluones virtuales




Diagrama de Feynman de una desintegracion beta

Un electrón se transforma en un neutrino electrónico a la vez que un quark up se convierte en un quark down. Dos versiones del mismo diagrama de Feynman



Diagrama de Feynman de la dispersion de un neutrino
Dispersión de un neutrino electrónico en un quark down



La interacción de un bosón gauge débil W con su antipartícula puede originar un bosón gauge débil neutro Z




Camino alternativo por el que el electrón puede ir de un sitio a otro que debe considerarse para obtener una mejor aproximación del momento magnético de un electrón


Diagrama de Feynman de una primera aproximación para calcular el momento magnético del electrón




Curvatura de los rayos luminosos
Una de las predicciones de la relatividad general es la curvatura de los rayos luminosos al pasar cerca de una estrella como el Sol 

Curvatura del espacio-tiempo
Según la relatividad general la masa de una estrella como el Sol curva el espacio-tiempo tiempo haciendo que los planetas orbiten a su alrededor al seguir el camino más corto posible (geodésica) en un espacio-tiempo de cuatro dimensiones



Experimento de Rutherford

Experimento de Rutherford en que se lanzaban partículas alfa contra una fina lámina de oro y se observaba su trayectoria



Choque de dos branas en el Big Bang
Recreación del Big Bang como choque de dos branas de tres dimensiones que viven en un espacio de más dimensiones


Ecuacion de Schrodinger
Ecuación de Schrödinger donde H es el operador hamiltoniano

Movimiento de las estrellas perifericas de las galaxias


 La materia visible se insuficiente para explicar el movimiento de las estrellas periféricas de las galaxias y requeriría de un nuevo tipo de materia para ser explicado



Particulas supersimetricas de los bosones
Los bosones y sus posibles  compañeras supersimétricas


Particulas supersimetricas de los fermiones
Los fermiones, las partículas que constituyen la materia, y sus posibles supercompañeras


Equivalencia entre masa y energia de la relatividad especial
Equivalencia entre masa y energía de la relatividad especial

Ecuacion de onda electromagnetica
Ecuación de onda electromagnética para los campos eléctrico y magnético

Particulas del modelo estandar

Las partículas elementales del Modelo Estándar se agrupan en 3 familias. En esta imagen cada familia corresponde a las partículas de las primeras dos columnas de la izquierda, las dos columnas centrales y las dos columnas de la derecha


Dimension extra enrollada
En la teoría de Kaluza-Klein la quinta dimensión esta enrollada sobre sí misma con un radio diminuto

Circuito electronico con transistores
Circuito electrónico basado en dos transistores bipolares BJT (bipolar junction transistor)

Cuantizacion de la energia de Planck
La energía solo puede radiarse de manera discreta o discontinua en paquetes o  cuantos cuya energía es proporcional a la frecuencia


Ecuaciones de la Relatividad General

Ecuaciones de campo de la  Relatividad General que proporcionan las gμν que caracterizan la geometría y la métrica el espacio-tiempo creado por una distribución de masa-energía concreta

Hadrones
Los hadrones formados por tres quarks se llaman bariones y los mesones son partículas formadas por un quark y un antiquark

Intercambio de fotones entre un electron y un proton
El electrón y el protón se mantienen unidos mediante el intercambio constante de fotones




Conexiones entre las Teorias de Cuerdas

Las dualidades debil-fuerte y radio grande-pequeño crean una red de conexiones que interrelacionan y fusionan las cinco teorías de cuerdas, la supergravedad en once dimensiones y la Teoría M en un marco unificado.

Dualidades de las Teorias de Cuerdas
La dualidad grande/pequeño del radio completa la red de conexiones resultando que las cinco teorías de cuerdas, junto con la Teoría M, son duales entre sí.


Las diferentes teorías de supercuerdas son en el fondo soluciones particulares de una teoría más profunda llamada teoría M


Cronologia del Big Bang
Cronológia del Big Bang



Ecuaciones de Maxwell
Ecuaciones de Maxwell


Potencial del Campo de Higgs

A la izquierda el potencial de Higgs es nulo cuando el campo de Higgs también lo es. Sin embargo a la derecha se rompe esta simetría y el potencial es diferente de cero cuando el campo de Higgs es nulo 

Principio de Incertidumbre
Principio de Incertidumbre de Heisenberg

Planetas del Sistema Solar
Las órbitas de los planetas del Sistema Solar fueron descritas por primera vez por la Ley de Gravitación Universal


Detector ATLAS del Gran Colisionador de Hadrones
El ATLAS es un detector de partículas ubicado en las instalaciones del Gran Colisionador de Hadrones (LHC). Se utiliza para buscar posibles pruebas relacionadas con el origen de la masa y con la existencia de dimensiones adicionales



Detector ATLAS del Gran Colisionador de Hadrones
Montaje del calorímetro del detector ATLAS del LHC. Los ocho imanes toroidales rodean al calorímetro, que mide la energía de las partículas que se producen cuando los protones colisionan en el centro del detector

Solenoide Compacto de Muones

CMS, Solenoide Compacto de Muones, es uno de los experimentos del Gran Colisionador de Hadrones en el CERN, en la actualidad el acelerador más potente del mundo

Patron de interferencia en el experimento de la doble rendija
Patrón de interferencia en el experimento de la doble rendija

Masa del Boson de Higgs
Resultado del CMS para el canal de desintegración de dos fotones. La pequeña prominencia en la curva es el bosón de Higss, a unos 125 GeV (CERN/CMS)


Expansion del universo tras el Big Bang
Expansión del universo tras el Big Bang




Dimensiones extra compactificadas
Ejemplo de dimensiones extra compactificadas, en este caso en forma de esfera


Relacion entre masa gravitatoria y masa inercial
El principio de equivalencia se basa en la igualdad entre masa gravitatoria y masa inercial


Espacio-tiempo de Minkowski
Espacio-tiempo de Minkowski

Espacio-tiempo de Minkowski de 2 dimensiones: una espacial y una temporal. En negro se dibuja un sistema de coordenadas y en azul, otro con velocidad relativa v. E es un evento referido a  las coordenadas de ambos sistemas


Tiempo propio
El tiempo propio de la relatividad especial se define como el intervalo relativista entre la velocidad de la luz

Agujero Negro
El espacio-tiempo se curva de manera extrema en un agujero negro





Puente de Einstein Rosen
Agujero de gusano o puente de Einstein RosenLos agujeros de gusano como conexiones entre dos regiones alejadas del espacio-tiempo son soluciones permitidas por la Relatividad General, aunque altamente inestables





Dilatación gravitacional del tiempo

Dilatación gravitacional del tiempo donde T0 es el tiempo propio y T es el tiempo para un observador externo. Si R es igual al radio de Schwarzschild, T tiende a infinito. Si R es muy grande, T es equivalente a T0










Tiempo de Planck

Tiempo de Planck





Masa de Planck
Masa de Planck



Longitud de Planck
Longitud de Planck



Energia de Planck
Energía de Planck




Temperatura de Planck
La temperatura de Planck es de 1032K y era la temperatura aproximada en el tiempo de Planck







Agujero negro en rotacion

Energía radiada por un agujero negro en rotación




Fusion de dos agujeros negros
Fusión de dos agujeros negros en el que el horizonte del agujero negro resultante se comporta como un fluido de quarks






Temperatura de un agujero negro

Temperatura de un agujero negro




Radiacion de Hawking
Uno de los mecanismos físicos que explicaría el origen de la radiación de Hawking sería la creación de un par de partículas virtual cerca del horizonte de un agujero negro. Una de ellas cae en el agujero negro y la otra es emitida como radiación de Hawking




Entropia de un agujero negro
La entropía de un agujero negro es igual a un cuarto del área del horizonte de sucesos en unidades de Planck, en que una longitud de Planck al cuadrado es lP2= hG/2πc3







Diagrama de Feynman

Diagrama de Feynman en que un electrón y un positrón se aniquilan en fotones que a su vez se desintegra en un par electrón-positrón









Lagrangiana de la Electrodinamica Cuantica



Lagrangiana de la Electrodinámica Cuántica, la teoría que describe como interacciona la luz con la materia. M es la masa del electrón, A es el potencial vector del electromagnetismo y F es el tensor electromagnético. Los dos primeros corresponden a la ecuación de Dirac, el tercero es el de interacción entre el electrón y el fotón (consecuencia de la simetría gauge) y el cuarto es el de la propagación del fotón en ausencia de fuentes (onda electromagnética)




Desintegración beta
La fuerza nuclear débil es la responsable de la desintegración beta en la que un neutrón se transforma en un protón más un electrón más un antineutrino


Diagrama de Feynman de la desintegracion beta

Diagrama de Feynman de la desintegración beta en la que un bosón W se lleva una unidad negativa de carga y se acaba desintegrando en un electrón y un antineutrino.






Espacio en Gravedad Cuantica de Bucles




Espacio liso de la Relatividad General a la izquierda y, a la derecha, cuantos de espacio enlazados según la Gravedad Cuántica de Bucles



Supernova 1987A


Imagen de la supernova 1987A tomada por el telescopio Hubble


Fondo Cosmico de Microondas
Fondo Cósmico de Microondas predicho correctamente por el modelo del Big Bang
La homogeneidad del Fondo Cósmico de Microondas se explica por un brote intenso de gravedad repulsiva como la energía oscura llamada inflación instantes posteriores al Big Bang



Tabla Periodica de los elementos


La tabla periódica de los elementos


Interferometro de Michelson y Morley

Interferómetro diseñado por Michelson con el que demostraron que el éter no existía


Antena de los laboratorios Bell

Antena en forma de cuerno o bocina con la que Penzias y Wilson descubrieron la radiación del Fondo Cósmico de Microondas


Ecuaciones de Maxwell en notacion tensorial
Ecuaciones de Maxwell en notación tensorial




Ecuaciones de Friedmann



Ecuaciones de Friedmann obtenidas como solución de la Relatividad General




Constante de estructura fina
La constante de estructura fina es el parámetro fundamental del electromagnetismo



Fusion Nuclear
Según el Modelo del Big Bang, los primeros átomos de Hidrógeno y Helio se crearon mediante reacciones de fusión nuclear gracias a las elevadas temperaturas



Energia en funcion del momento
Energía en función del momento. Esta ecuación es usada sobretodo en Mecánica Cuántica Relativista


Aproximacion de la energia a bajas velocidades
Aproximación de la energía relativista a bajas velocidades (cuando v es mucho menor que c)










1- El mundo según Feynman



Las leyes de Newton son las primeras leyes consideradas universales.
La ley de la evolución de Darwin marca el camino a seguir por la cosmología. No hay intervención divina. Esta ley está basada en dos conceptos:

- Mutaciones aleatorias.
- Reproducción del más fuerte, con lo que las mutaciones buenas son las que sobreviven.

En los años 60 existían dos modelos cosmológicos: el del Big Bang y el del Modelo Estacionario. En el segundo el universo es infinito espacialmente y siempre ha existido. La explicación de la expansión del universo es mediante la creación de la materia. En pocos años solo ha sobrevivido el modelo del Big Bang.



En cosmología se ha pasado de un posible universo a un megaverso. Se apoya en cuatro puntos:

- La inflación eterna.
- Un paisaje con 10500 posibilidades de la teoría de cuerdas.
- El universo se expande exponencialmente.
- Existe una pequeña constante cosmológica.


La naturaleza está nerviosa

La esencia de la mecánica cuántica son probabilidades e incertidumbre. Incertidumbre entre la posición y la velocidad, entre la energía y el tiempo, entre el campo eléctrico y el campo magnético. Como E=hf, si f es elevada, la energía también lo es. Para medir un Δx pequeño, se necesita una energía de un cuanto elevada, lo que implica una variación de la velocidad grande.

El principio de incertidumbre es el origen de las agitaciones cuánticas, de la energía del punto cero o energía de vacío. Los campos cuánticos están en un estado continuo de fluctuación que no puede eliminarse.

LAa mecánica cuántica comenzó con la cuantización de la energía (E=hf) y del momento angular (órbitas del átomo de Bohr).

El experimento de la doble rendija mostro la dualidad onda-partícula o el principio de complementariedad. Este experimento evidenció el fenómeno de interferencia constructiva y destructiva de las partículas como los electrones y la validez de la formulación de todos los caminos posibles de Feynman.

Partículas elementales

Son los componentes básicos de la naturaleza. Su marco matemático es la teoría cuántica de campos. Son matemáticas complicadas y ecuaciones muy abstractas. Los diagramas de Feynman son una manera intuitiva de ver como interaccionan los fotones y los electrones.

Electrodinámica cuántica

Es la base para la teoría de toda la materia porque el número de electrones determina las propiedades químicas de los elementos de la tabla periódica. La electrodinámica cuántica gira entorno a un proceso fundamental: la emisión de un único fotón por un único electrón. Por ejemplo, los electrones acelerados emiten fotones. El intercambio de fotones mantiene a los electrones unidos al átomo. Para estudiar el átomo la electrodinámica cuántica obvia el núcleo porque es demasiado complejo. Se puede hacer esta aproximación porque es mucho más pesado que el electrón y por ello está casi inmóvil. Además el núcleo es muy pequeño respecto al átomo. El electrón orbita lejos y nunca se acerca lo suficiente como para ser afectado por la complicada estructura interna del núcleo.

Diagramas de Feynman

El punto de partida son partículas, sucesos y espacio-tiempo. El propagador esconde las instrucciones para calcular la posibilidad de que una partícula vaya de A a B. Es una expresión matemática concreta que representa todas las posibles trayectorias. El suceso básico de la electrodinámica cuántica es la emisión de un fotón. El diagrama que lo representa es un vértice.

Antimateria

Una antipartícula es igual a la partícula viajando hacia atrás en el tiempo. En los diagramas de Feynman no hay fuerzas, hay interacciones que se producen con la emisión y absorción de fotones. El intercambio de un fotón da lugar a la repulsión eléctrica entre electrones.

La constante de estructura fina

Es una de las constantes de la naturaleza más importantes. Es una constante de acoplamiento, en este caso, la probabilidad de emisión de un fotón por un electrón. Esta constante controla la intensidad de la fuerza electromagnética y, por tanto, el tamaño del átomo, la velocidad de los electrones, las fuerzas entre los átomos.

Cromodinámica cuántica

El modelo estándar es la teoría cuántica de campos de las partículas elementales que describe la interacción entre partículas. También usa propagadores, vértices y constantes de acoplamiento.

La cromodinámica cuántica es la teoría de los quarks y gluones, los constituyentes de los nucleones. Los protones y los neutrones están formados por tres quarks unidos por una ristra de gluones. Hay seis tipos de quarks pertenecientes a tres familias. Las matemáticas del modelo estándar requieren que se den en pares. Los protones (uud) y los neutrones (ddu) estan formados por quarks up y down, los únicos estables. Las cargas de los quarks son un tercio de la del electrón (positiva o negativa).

El intercambio de gluones mantiene unidos a protones y neutrones en el núcleo.

Las diferencias entre la cromodinámica cuántica y la electrodinámica cuántica son:


- Una constante de acoplamiento cien veces mayor.
- El fotón no tiene carga. El gluón tiene carga y puede interaccionar con el mismo. Un fotón no emite fotones pero un gluón sí puede. Existen cadenas de gluones.


Interacciones débiles


Son las responsables de la radiactividad beta por la que un neutrón se convierte en un protón más un electrón y un antineutrino. La QED y la QCD no pueden explicarlo. El neutrino es similar a un electrón sin carga eléctrica y con una masa diminuta. No emite fotones ni gluones con lo que no experimenta las interacciones electromagnética ni fuerte. La interacción débil es mediada por los bosones W+, W- (su antipartícula) y Z (corriente neutra). Los electrones, quarks y neutrinos pueden emitir bosones W y transformarse en otras partículas.

Las leyes de la física



El modelo estándar es complejo pero describe las propiedades de las partículas elementales, núcleos, átomos y moléculas con increíble precisión a costa de introducir a mano unas treinta constantes de la naturaleza (masas y constantes de acoplamiento).


Sobre estas leyes y constantes de la naturaleza podemos preguntarnos ¿son constantes o cambian en el tiempo, en el espacio o entre universos?


2- La madre de todos los problemas de la física


La peor predicción que se ha hecho nunca

En 1917 Einstein pensaba que el universo era una esfera de tres dimensiones, es decir, cerrado y acotado, además de estático. Sin embargo si solo la fuerza de la gravedad está presente, que es siempre atractiva, un universo estático es imposible de igual manera que una piedra tirada al aire no puede quedarse suspendida en el aire. Por ello Einstein razonó que debía haber alguna fuerza repulsiva que compensara la gravedad.



Einstein descubrió que sus ecuaciones podían modificarse sin alterar su consistencia matemática con un término que representaba una fuerza repulsiva cuya intensidad aumentaba con la distancia. Su intensidad era proporcional a una nueva constante de la naturaleza, Λ, que se llamó constante cosmológica (si es mayor que cero, entonces representa una fuerza repulsiva). Para determinar esta nueva constante bastaba con conocer la distancia media entre galaxias y así encontrar el valor que equilibraba la gravedad. Aun así sería una equilibrio inestable.

En 1929 se formuló la ley de Hubble, que afirma que el universo se está expandiendo. Por tanto no está en equilibrio y, en principio, la constante cosmológica no sería necesaria.

Hoy en día la constante cosmológica es equivalente a la energía de vacío que tiene su origen en el principio de incertidumbre y que permite las agitaciones cuánticas. Estas fluctuaciones son consecuencia de partículas virtuales que aparecen y desaparecen, como pares electrón-positrón o fotón-fotón. El vacío no es el estado de energía nula, es el estado de mínima energía.

Vuelta a la constante cosmológica


No podemos obviar la energía de vacío reajustando nuestra definición de energía porque la energía gravita. Es decir, la energía es fuente del campo gravitatorio y modifica el espacio-tiempo a su alrededor. Aplicando la teoría cuántica de campos se llega a un valor infinito de la energía de vacío por la gran cantidad de partículas en el vacío que hacen su aportación a su energía. Ni siquiera con la teoría de cuerdas se puede calcular.

En teorías donde se da la supersimetría, la energía de vacío se anula al compensarse la energía negativa de los fermiones como el electrón con la energía positiva de los bosones. Sin embargo nuestro mundo no es supersimétrico porque entonces ya habríamos descubierto alguna partícula supersimétrica. El gran problema actual es descubrir la razón por la que la constante cosmológica tan pequeña (10-119) sin ser exactamente cero.

Weinberg pronuncia la palabra A

Steven Weinberg aplicó el principio antrópico a la desesperada para intentar explicar el por qué es tan pequeña la constante cosmológica tras años de esfuerzos infructuosos. Weinberg se preguntó si una constante cosmológica de 10-120 podría impedir la vida. Si una constante cosmológica mayor no impidiera la vida, entonces no se podría aplicar el principio antrópico. En principio una constante cosmológica mayor que 10-120 en varios órdenes de magnitud no alteraría la química molecular (propiedades de los átomos y las moléculas) ni afectaría a la estabilidad del Sistema Solar. Sin embargo, explorando el universo primitivo y sus pequeños contrastes de densidad, Weinberg descubrió que si la constante cosmológica fuera uno o dos órdenes de magnitud mayor nunca se habrían formado las galaxias, las estrellas o los planetas.



El caso de una constante cosmológica negativa



Una constante cosmológica negativa implica una fuerza atractiva que aumenta con la distancia. Si la constante cosmológica fuera negativa, el universo se habría vuelto a contraer hasta un Big Crunch antes de que la vida hubiera tenido tiempo de desarrollarse. La cota antrópica de la constante cosmológica negativa no es mucho mayor que 10-120.

Si la constante cosmológica es grande (tanto positiva como negativa) la expansión del universo es demasiado rápida para que se formen galaxias o se invierte y contrae en un Big Crunch antes de que la vida aparezca. La constante cosmológica debe ser lo suficientemente pequeña para permitir la vida pero no tiene por qué ser nula.

La longitud de Planck

Planck ideó unas unidades naturales en que las tres constantes fundamentales de la física (G, c, h) sean iguales a la unidad en lugar de sus valores actuales tan complicados fruto de una mala elección de las coordenadas. Para ello:

  • La unidad natural de longitud o longitud de Planck es del orden de 10-33cm.
  • La unidad natural de tiempo o tiempo de Planck es del orden de 10-42 segundos.
  • La unidad natural de masa o masa de Planck es del orden de 10-5gramos.

En estas unidades todas las fórmulas son mucho más simples. ¿Tienen un significado especial?

Estas tres unidades fueron decisivas en el desarrollo de la gravedad cuántica. La longitud de Planck es la escala de la textura cuántica del espacio.

El tiempo de Planck es el valor de la duración de las fluctuaciones cuánticas. La masa de Planck es la masa mínima necesaria que puede originar un agujero negro, su masa mínima, del tamaño de una longitud de Planck y que se evaporaría en un tiempo de Planck.

3- La canción de la Tierra



El paisaje es una construcción matemática. Cada punto es un vacío posible, un vacío diferente con leyes físicas diferentes. Las leyes de la física están determinadas por el ambiente (intensidad de campos, constante cosmológica, etc...). Cada punto está determinado por 500 dimensiones (tantas como campos conocidos, sus intensidades, espacio compactificado). Hay 10500  valles estables.

Punto del paisaje = vacío posible = f(x1 , ... ,x 500)



Uno de los campos que más nos enseña sobre el paisaje es el campo de Higgs. El modelo estándar sin el campo de Higgs es matemáticamente inconsistente proporcionando probabilidades infinitas o negativas. Solo es consistente si todas las partículas tuvieran masa nula y se movieran a la velocidad de la luz (condiciones impuestas por la simetría gauge en que se basa).

En 1905 Einstein explicó el efecto fotoeléctrico con la ayuda de la cuantización de la energía de Planck, mediante cuantos de energía que posteriormente se llamarían fotones y que serían consecuencia de la cuantización del campo electromagnético. En un número pequeño, los cuantos se comportan como partículas, pero cuando muchos de ellos se mueven de manera coordinada, la colección total se comporta como un campo: un campo cuántico. Por cada tipo de partícula hay un campo y viceversa.

Variando el campo de Higgs, varían las leyes de la física y la química. Por ejemplo, donde el campo de Higgs es nulo la energía es muy elevada y las partículas se mueven a la velocidad de la luz. Una configuración más estable es la de un campo no nulo con energía más baja donde la vida es posible. El ambiente del vacío, su energía, determina la lista de partículas elementales y sus propiedades. El único vacío posible con leyes de la física estables e invariantes es el fondo de un valle en el paisaje, es decir, un mínimo local. Con 10500   mínimos locales, es posible que en uno de ellos la constante cosmológica sea igual a 10-120 . Universos de bolsillo completos ocupan localizaciones puntuales en el paisaje.

Posteriormente, Einstein formuló su teoría de la relatividad general en 1915 que prevé las ondas gravitatorias a una velocidad igual a la de la luz. Esto hace postular la existencia del gravitón con masa nula asociada a estas ondas.

4- El mito de la unicidad y la elegancia


Lo que entienden los físicos por bello



Una solución elegante en ingeniería es aquella que usa la mínima cantidad de tecnología. En matemáticas, es la demostración de un teorema con el mínimo de hipótesis y pasos. En física, la teoría de la relatividad general es elegante porque sale mucho de muy poco.

Una teoría elegante debe expresarse con pocas ecuaciones más o menos compactas, lo que le otorga simplicidad. Otra característica deseable de las teorías físicas es su unicidad. Es decir, que transmita una sensación de inevitabilidad y que no exista incertidumbre sobre sus consecuencias y sea capaz de predecir todo lo que es posible predecir y no más.

Respecto a las teorías físicas, la belleza sería: 


  • Elegancia
  • Simplicidad
  • Unicidad
  • Simetría
  • Capacidad de respuesta


Seguramente la teoría más bella es la teoría general de la relatividad, deducida únicamente del principio de equivalencia.

También hay belleza en la manera de descubrir una teoría:

- Manera de Einstein: evolución a partir de experimentos mentales como el del ascensor en caída libre que le llevó al principio de equivalencia y el del disco giratorio.
- Manera alternativa: Partir de una ecuación de ondas gravitatorias, similar a las ecuaciones de Maxwell, y deducir de ahí la teoría de la relatividad.

Las masas en movimiento rápido (acelerado) generan ondas gravitatorias. Al interaccionar estas con la materia aparecerían inconsistencias en las ecuaciones. Por ensayo y error se irían añadiendo términos para hacerlas consistentes. Solo lo lograrían al añadir infinitos términos, cuya suma daría exactamente las ecuaciones de Einstein. No hubiera hecho falta el principio de equivalencia. Únicamente ondas gravitatorias, consistencia matemática y el método de aproximaciones sucesivas, que es menos bello. Este método alternativo demostraba la unicidad de la teoría porque en cada aproximación, los términos necesarios para la consistencia estaban unívocamente determinados. No podría ser de otra manera.

Orígenes del mito de la unicidad y la elegancia

  • Pitágoras: Creia en la armonía matemática del universo.
  • Euclides: Geometría euclidiana basada únicamente en 5 axiomas.
  • Platón y Aristóteles: Influencia de un elemento estético, el del círculo como figura perfecta, simétrica.
  • Teoría unificada de los griegos: Todo hecho de cuatro elementos: tierra, aire, agua y fuego.
  • Kepler: Debido a la observación, tuvo que renunciar a los círculos en favor de las elipses.
  • S.XIX: Ya se conocían más de 100 elementos químicos diferentes ordenados en la tabla periódica, en lugar de los 4 de la cultura griega.
  • S.XX: Con la mecánica cuántica parece que vuelve la simplicidad, la elegancia y la unicidad porque toda la química puede derivarse de la teoría mecanocuántica de 4 elementos: el fotón, el electrón, el protón y el neutrón.
  • Años 60: Se produce el descubrimiento de multitud de partículas aparentemente innecesarias, con lo que se vuelve a perder elegancia.
  • Años 70: Con el modelo estándar se recupera algo de unicidad y elegancia, pero con 30 parámetros ajustables.


La teoría de cuerdas y la caída del mito


Existen dos motivos para la necesidad de la teoría de cuerdas:

- La gravedad no está incluida en el modelo estándar.
- La relatividad general es incompatible con la teórica cuántica.

Y hay una serie de razones que motivan una comprensión más profunda:

- A la escala de Planck, la gravedad es más intensa que el resto de las fuerzas. Podría ser que las partículas elementales no lo sean, y estén formadas por otros elementos unidos por la gravedad.

- Entender el Big Bang.

- Solucionar la inconsistencia entre relatividad y mecánica cuántica.

Entre los logros de la teoría de cuerdas tendríamos:

- Unifica de manera consistente la gravedad y la mecánica cuántica.

- La gravedad y la mecánica cuántica son ambas esenciales para la consistencia matemática de la teoría de cuerdas. Solo tiene sentido como una teoría de gravedad cuántica

- Inevitabilidad. No sabemos cómo incorporar exactamente el modelo estándar, pero la teoría de cuerdas contiene los elementos necesarios de una teoría de partículas: fermiones y bosones, fuerza gravitatoria, electromagnética y fuerte. Son consecuencias inevitables de la teoría.

- Es una estructura matemática muy sofisticada que ha inspirado a matemáticos puros.

Sin embargo:

- No se dispone de las ecuaciones definitivas ni se sabe qué es realmente la teoría.

- Es una teoría complicada (no elegante) y no es única. Existen 10500 teorías consistentes.

- Existen nuevos fenómenos implicados por la teoría de cuerdas demasiado alejados del experimento.

El modelo estándar es un gran avance pero no se explica a sí mismo. Es bastante complicado, en absoluto único y ciertamente incompleto. No hay nada especial en nuestro modelo estándar (10500  igualmente consistentes), salvo en que permite la vida.

Por su parte, los cosmólogos ven que:

- El universo es algo con un ajuste muy fino. Se expandió a una velocidad ideal para la aparición de la vida.

- El universo primitivo no era ni demasiado grumoso ni demasiado uniforme. Esto explicaría la existencia de agujeros negros y la ausencia de galaxias.

- La gravedad es suficiente para mantenernos en la Tierra pero no demasiado fuerte para que la combustión nuclear en las estrellas sea demasiado rápida.

- Las leyes de la física permiten la existencia de núcleos y átomos, que generan las moléculas necesarias para la vida y son adecuadas para que sean creados en estrellas y dispersados en supernovas.

Las leyes de la naturaleza parecen hechas para permitir la vida. La teoría de cuerdas y el paisaje pueden explicar el por qué.



5- Un rayo en el cielo


El universo de Alexander Friedmann

En 1929 se formula la ley de Hubble:

v= Hd

que afirma que las galaxias se están alejando de nosotros con una velocidad proporcional a su distancia. Una galaxia a distancia doble, se aleja al doble de velocidad. En el fondo la constante de Hubble H no es constante, cambia con el tiempo. En el pasado era mayor.

El universo cambia y crece con el tiempo en todas direcciones. Es el origen de la teoría del Big Bang. Hubble descubrió esta ley gracias al efecto doppler (corrimiento al rojo) de las líneas espectrales de absorción características de los elementos. Una vez conocido el espectro de absorción de una estrella, con su corrimiento al rojo podemos saber la velocidad de la estrella y de la galaxia. Hubble descubrió que la luz procedente de todas las galaxias lejanas estaba desplazada al rojo. Todas se alejaban. Con lo que en el pasado tuvieron que estar más cerca...o incluso juntas.

Previamente al descubrimiento de esta ley, Alexander Friedmann propuso un universo cerrado y acotado pero en expansión a diferencia de Einstein, que en 1917 proponía un modelo de universo cerrado, acotado y estático.

El principio cosmológico y las tres geometrías

El universo es homogéneo e isótropo a escalas mayores de 100 millones de años luz y hasta al menos 15000 millones de años luz (este es un límite inferior por nuestra incapacidad de ver más lejos). Homogéneo implica que es de una estructura o composición uniforme. Sin grumos. Isótropo quiere decir que es idéntico en todas direcciones. Esta hipótesis se llama principio cosmológico.

Las geometrías espaciales globales compatibles con el principio cosmológico son:

- Esférica: Curvatura positiva k=1
- Plana: Curvatura nulo k=0
- Hiperbólica: Curvatura negativa k=-1

Los tres destinos

En función de la velocidad de expansión de las galaxias y de la materia total del universo hay tres destinos posibles:

- Si hay suficiente masa, la expansión del universo se invertirá o el universo acabará en un Big Crunch.

- Sin no hay suficiente masa, el universo seguirá expandiéndose indefinidamente.

- Si hay equilibrio entre gravedad (densidad de masa) y velocidad de expansión, el universo se expandirá eternamente pero a una velocidad cada vez menor.

Geometría es destino

Existen tres geometrías posibles, cada una de ellas asociada a un posible destino: la teoría de la relatividad general de Einstein relaciona la geometría con la presencia de masa y energía. La masa y la energía afectan a la geometría.

1) Si la densidad crítica es suficientemente grande para invertir la expansión, tendríamos una 3-esfera. Sería un universo cerrado y acotado. Su destino, un Big Crunch o singularidad.

2) Si la densidad crítica es inferior a la necesaria para cerrar el universo, tampoco puede frenar la expansión. En este caso la geometría sería hiperbólica con una expansión eterna. Se trataría de un universo abierto.

3) Si la densidad crítica es igual a un cierto umbral, tendríamos un universo plano con expansión eterna a una velocidad cada vez menor. El universo sería plano.

Actualmente la constante de Hubble se estima en 75 kilómetros por segundo por megaparsec, siendo un megaparsec equivalente a tres millones de años luz. Con esta constante y las ecuaciones de Einstein se puede estimar la densidad crítica de materia-energía necesaria para frenar la expansión. Según las medidas de materia ordinaria, actualmente la densidad crítica del universo es una cincuenteava parte de la densidad crítica, con lo que estaríamos en el caso de un universo hiperbólico.

También hay otro modo de calcular la masa de una galaxia a partir de la medida de su luz: usando las leyes de Newton que dicen que para calcular la masa M basta saber la velocidad de rotación y el radio de un objeto que orbita a su alrededor. Con este método, se encuentra que las galaxias son diez veces más pesadas de lo que aparentaban. Esto implica que un noventa por ciento de la materia es oscura (no ordinaria porque no interacciona con la luz). Esta materia tiene masa y gravita pero no tiene carga. Los candidatos actuales a materia oscura serían los neutrinos o partículas supercompañeras. Considerando la materia oscura, la densidad del universo sería la quinta parte de la densidad crítica siempre que el valor de la constante de Hubble fuera correcto.

Otra manera de establecer la geometría del universo es idear un triángulo cósmico y medir la suma de sus ángulos. Usando el fondo cósmico de microondas se obtiene 180 grados. Así pues tenemos dos respuestas incompatibles: según la densidad de materia tendríamos un universo hiperbólico y según el fondo cósmico de microondas este sería plano.

La edad del universo y las estrellas más viejas

Si rebobinamos la expansión del universo, la constante de Hubble y la distancia a la que se encuentran las galaxias lejanas nos dicen que hace 15000 millones de años todas estaban juntas. Considerando la gravedad, la velocidad de aproximación aumentaría cuando estuvieran cerca. En ese caso, en 10000 millones de años todas estaban juntas.

Sin embargo estudios más detallados de estrellas viejas indican que tienen al menos 13000 millones de años. Por tanto, tenemos tres grandes problemas:

- Existen pruebas contradictorias sobre la geometría del universo.
-  Debemos establecer la edad del universo.
- La existencia o no de una constante cosmológica.


La solución

La existencia de una pequeña constante cosmológica (del 70% de la energía del universo) resuelve los dos mayores enigmas de la cosmología:

1) La energía de vacío adicional es suficiente para hacer plano el universo.

2) Con una energía de vacío del 70% del total es exactamente la que se necesita para que el universo sea más viejo que las estrellas más antiguas. La repulsión extra de la constante cosmológica frena el acercamiento de las galaxias y al tirar el tiempo hacia atrás, el tiempo hasta el Big Bang aumenta porque la fuerza repulsiva aumentó con la distancia (era menor en el pasado).

Supernovas Tipo I

Se originan a partir de sistemas de estrellas dobles con una estrella ordinaria y una enana blanca que orbitan una alrededor de la otra muy cerca. Por gravedad, la enana blanca va succionando masa de la estrella cercana hasta que explota en una supernova.

Estas supernovas siempre dan la misma luminosidad independientemente de la masa de la enana blanca o la estrella normal. Y a partir de su brillo aparente se puede saber a cuánta distancia están. Con el efecto Doppler se determina la velocidad de la galaxia donde está la supernova. Con la velocidad y la distancia se puede calcular la constante de Hubble en el instante en que esa luz fue emitida. Al hacer este estudio para galaxias a distancias diferentes, podemos reconstruir la historia de la constante de Hubble. Estas supernovas nos dicen que la expansión del universo se está acelerando bajo la influencia de una constante cosmológica del orden de 10-120. Aproximadamente el valor que predijo Steven Weinberg basándose en el principio antrópico.

Luz de la creación

La superficie de última dispersión es aquella que contiene los puntos más lejanos del universo que podemos observar. Más allá el universo era muy caliente, con electrones libres que dispersaban los fotones. A partir de esta superficie el universo se hizo transparente. Por ejemplo, la superficie del Sol es la superficie de última dispersión de los gases ionizados de su interior.

Podríamos preguntarnos, ¿Por qué al mirar al cielo no vemos el firmamento con ese resplandor brillante? Por el efecto Doppler y la expansión del universo. Esta velocidad a la que se aleja esta superficie es ligeramente menor que c, lo que implica un desplazamiento hacia el rojo del espectro total hasta el visible y el infrarrojo en todo el espectro de microondas. La frecuencia con la que nos llegan esos fotones es 1000 veces inferior a la que tenían cuando partieron, con lo que su temperatura asociada a esa radiación también lo es. Por eso hoy en día el fondo cósmico de microondas es tan frio, unos 270K, solo 3K por encima del 0 absoluto.

El mapa del fondo cósmico de microondas es muy homogéneo y monótono. El universo primitivo era casi perfectamente homogéneo e isótropo. Pero tenía que haber pequeños grumos para que se pudieran formar galaxias. Si eran demasiado pequeños, la gravedad era insuficiente para crear galaxias. Si eran demasiado grandes, en lugar de galaxias se crearían agujeros negros.

Este contraste de densidad del grumo respecto al total debe ser tal que la diferencia entre la intensidad de microondas en direcciones diferentes tendría que ser 100.000 veces menor que la intensidad media, como así se confirmó. Además la expansión del universo haría que estos grumos de plasma empezaran a vibrar como campanas. Los grumos pequeños con una frecuencia mayor que los grumos grandes, que tenían unos 200.000 años luz de diámetro.

El fondo cósmico de microondas está hoy en día a 10.000 millones de años-luz. Cuando empezó su viaje desde la superficie de última dispersión, estaba a 10 millones de años-luz (1000 veces menos).

Si el espacio es plano deberíamos ver estas gotas con un ángulo de 2º (como se ve la Tierra desde la Luna). Si no fuera plano, el tamaño aparente nos dirá cuán curvado está. Los experimentos confirman que el espacio es plano a una escala de 10 a 20.000 años-luz. Eso no quiere decir que no pueda ser curvo, pues la Tierra es plana a pequeña escala. Además si el universo es finito, es mucho más grande de lo que podemos ver.

La conclusión de que:

- No hay materia suficiente para curvar el universo y hacerlo plano o cerrado.
- La edad del universo parece demasiado corta a no ser que haya una constante cosmológica.
- El fondo cósmico de microondas muestra que el universo fue muy homogéneo en épocas primitivas y lo suficientemente grande como para parecer plano a la escala que podemos ver.

es que el universo es mucho mayor que la porción que podemos ver y que su expansión se está acelerando bajo la influencia de una constante cosmológica muy pequeña.

Inflación

La inflación intenta explicar porque el universo es tan grande, plano y extraordinariamente homogéneo. Es decir, ¿cómo se hizo el universo tan homogéneo como para que el fondo cósmico de microondas pareciera exactamente igual en todas direcciones? Se ha convertido en la pieza central de un nuevo modelo estándar de la cosmología.

Antes del Big Bang y de que el universo se hiciera transparente, el universo creció exponencialmente alisando y eliminando todos los posibles defectos. Puntos que vemos alejados en el fondo cósmico de microondas estuvieron más cerca de lo que parecen en el pasado.

La constante cosmológica positiva da lugar a una fuerza repulsiva universal proporcional a la distancia. Y la energía de vacío que la origina tiene la propiedad de que su densidad no disminuye a medida que el universo se expande, como si ocurre con la densidad de materia ordinaria, lo que hace que esta sea cada vez más incapaz de frenar la expansión. Actualmente el valor de la constante cosmología hace que el universo duplique su tamaño en un periodo de decenas de miles de años-luz. Pero si en el universo primitivo esta hubiera sido mucho mayor habría provocado la inflación concebida por Alan Guth.

La inflación eliminó las arrugas iniciales pero amplió las fluctuaciones cuánticas del vacío creando los mínimos contrastes de intensidad que con el tiempo crecieron para formar galaxias. Estas arrugas cuánticas dejaron su huella en la superficie de última dispersión y podemos verlas como las minúsculas variaciones de brillo en el vacío cósmico de microondas.

Las dos cosas que hemos aprendido de las observaciones cosmológicas más importantes en la última década son:

- Realmente hay una constante cosmológica.
- El universo entero es muchos órdenes de magnitud mayor del que podemos ver.


6- Sobre peces congelados y peces hervidos


Paisajes antrópicos

¿Cuándo es apropiado un paisaje antrópico? Solo tiene sentido si existe una poderosa razón para creer que la existencia de vida inteligente sería imposible a menos que la proposición X fuera cierta. Los requisitos para la vida serían:

1) Las leyes de la física deben llevar a la química orgánica.


2) Deben existir elementos químicos esenciales en abundancia suficiente.


3) El universo debe evolucionar para crear un ambiente suave, amplio, uniforme y estable.

1) Entre estas propiedades de las leyes físicas estarían:

- Existen las partículas elementales electrón, quarks, fotones y neutrinos con unas propiedades especiales de masa y carga.


- El fotón tiene masa nula y alcance infinito. La intensidad de la fuerza electromagnética es adecuada (constante de estructura fina 0.0073).


- Los quarks down y up son muy ligeros.


- Existe el principio de exclusión de Pauli para los fermiones.

2) Creación de elementos químicos

- El proceso de creación desde el hidrógeno hasta el hierro se realiza en el interior de las estrellas. Del hidrógeno se pasa al deuterio, al helio 3 y al helio normal.


- El oxígeno y el carbono atrapados en las estrellas son liberados al universo en las supernovas. La presión de los neutrinos dispersa los núcleos complejos.


- Para el cocinado de los elementos químicos es necesaria la existencia de la interacción débil y de unos neutrinos con la masa adecuada.


- Las propiedades de la resonancia del carbono (posee un estado excitado con la energía adecuada).

3) Evolución del universo

- Había un contraste inicial de densidad adecuado de 10-5(ligera grumosidad inicial) que permitió la formación de estrellas y galaxias. Si hubiera sido menor no se habrían podido formar. Si hubiera sido mayor, se hubieran formado agujeros negros.


- Ligero desequilibrio entre materia y antimateria en una parte por millón. Cuando chocan, se produce un protón y 2 millones de fotones.


- Una gravedad extremadamente débil. Si hubiera sido mayor, las estrellas se quemarían demasiado rápido y no daría tiempo a la formación de la vida antes de un Big Crunch.

Ninguna de estas casualidades (salvo la debilidad de la gravedad) implica una precisión extremadamente alta en el ajuste fino. Sin embargo la pequeñez de la constante cosmológica es otra historia. Que las primeras 119 cifras decimales se anulen no puede ser un accidente. Pero lo más increíble es el inmenso paisaje al que parece abocarnos la teoría de cuerdas.

¿Cuándo tienen sentido las explicaciones antrópicas?

Un segundo criterio sería: Cuando el número de posibilidades matemáticamente compatibles debe ser tan grande que incluso requisitos muy improbables se satisfagan en algunos de los 10500 valles.

Además de darse estos requisitos, debe satisfacerse la condición de agua líquida. Existen 100.000 millones de galaxias con 100000 millones de estrellas cada una, con lo que. existen 10.000 trillones de oportunidades de algún sistema solar habitable.

Una posibilidad que permitiría un universo con esta constante cosmológica sería las 10500 posibilidades que ofrece la teoría de cuerdas junto con el mecanismo de la inflación eterna de creación de universos burbuja.

El principio antrópico puede servir para descartar valles donde alguna propiedad no permite la vida, como el tiempo medio de desintegración del protón. Por ejemplo, el modelo estándar directamente no la permite.


7- Un mundo impulsado por una banda elástica


El paisaje antrópico de la teoría de cuerdas está motivado por:

- El ajuste fino de la constante cosmológica.
- El éxito de la inflación.
- Las 10500  posibilidades para las dimensiones extra que permitirían un ajuste fino de la constante cosmológica a 10-120.

Orígenes de la teoría de cuerdas

A principios de los años 60 existía la teoría de la matriz S o de scattering, que era como una caja negra para no tener que explicar el funcionamiento interno de los hadrones. Los hadrones son partículas hechas de quarks, antiquarks y gluones que experimentan la fuerza nuclear fuerte y están descritas por la cromodinámica cuántica.

La matriz S es una tabla de probabilidades mecano-cuánticas. El input es un grupo de partículas con sus propiedades de masa, carga y espín siendo el output los productos de la colisión con nuevas propiedades.

En 1968 Gabriele Veneziano intenta explicar la matriz S mediante una fórmula llamada la amplitud de Veneziano. Era una expresión matemáticamente elegante, una elegante tabla matemática de probabilidades pero no una imagen de lo que estaban hechas las partículas o de cómo podía visualizarse el proceso de colisión.

En 1969 Leonard Sussking interpreta la fórmula como dos bandas elásticas con quarks en sus extremos que colisionan formando una especie de oscilador armónico cuántico con una energía discreta y una cuerda vibrante. Estas cuerdas, llamadas hadrónicas son microscópicamente pequeñas pero prodigiosamente fuertes.

¿Existe una relación entre la teoría de cuerdas de hadrones y los diagramas de Feynman? En los diagramas de Feynman tenemos partículas puntuales, propagadores y vértices. Una partículas puntual en movimiento es una línea del universo. Sin embargo, una cuerda en movimiento en el espacio-tiempo es una superficie o un cilindro si esta es cerrada. 

Esta manera de considerar los hadrones como bandas elásticas la hace difícil de relacionar con la teoría de hadrones del modelo estándar, la cromodinámica cuántica (QCD). En la QCD los hadrones están hechos de quarks y antiquarks unidos mediante gluones (no cuerdas). Los quarks emiten y absorben gluones que explican esta unión. Además los gluones pueden emitir gluones y eso los hace diferentes de otros bosones como el fotón. Los gluones pueden acumularse.

Sin embargo la QCD y la teoría de cuerdas pueden ser dos caras de la misma teoría. Es como si una hoja del universo fuera una red muy mallada de vértices y propagadores. La hostilidad contra la fórmula de Veneziano y la imagen de colisión de dos bandas elásticas duró hasta que consiguió la aprobación de Murray Gell-Mann.

Los problemas de la teoría de cuerdas original eran:

- Había demasiadas dimensiones: 9 espaciales más una temporal en lugar de las 3 espaciales habituales. Esto tiene que ver con el violento movimiento de agitación de una cuerda.




- La ley de fuerza nuclear entre hadrones era errónea. Originaba fuerzas de largo alcance muy parecidas a la fuerza electromagnética o gravitatoria. Las fuerzas de la naturaleza tienen el mismo origen, el intercambio de partículas mensajeras (fotones, piones, gluones, gravitones). La diferencia en su intensidad y alcance tiene que ver con alguna propiedad de los mensajeros, entre ellas, de su masa. La teoría de cuerdas explicaba las interacciones entre partículas (cuerdas) como el intercambio de una pequeña cuerda y predecía la existencia de dos tipos de cuerdas con masa nula: el fotón (cuerda abierta) y el gravitón (cuerda cerrada).



- Es una teoría del todo...o de nada. El objetivo inicial era describir solo hadrones (ni fotones ni gravitones). Fallaba cuando se intentaba describir la interacción de un protón con un fotón por ejemplo.

Las cuerdas son un caso excepcional de agitaciones cuánticas violentas. Cada agitación u oscilación tiene un poco de movimiento de agitación de punto cero (principio de incertidumbre). Para una cuerda ideal, esto implica que todas las vibraciones son posibles, todos los infinitos modos de oscilación.

El milagro matemático más sorprendente de la teoría de cuerdas es que en 10 dimensiones las vibraciones salvajes diferentes de cuerdas encajan cancelándose exactamente unas con otras y haciéndolas indetectables. Esto solo funciona si absolutamente todo son cuerdas incluyendo a los fotones, etc.

Sin embargo, la teoría de cuerdas supero estas dificultades y renació como una teoría fundamental que unifica mecánica cuántica y gravedad.

8- Reencarnación



Si no se puede hacer una teoría de cuerdas de hadrones porque la teoría insiste en comportarse como la gravedad, entonces hagamos que la gravedad sea descrita por la teoría de cuerdas. Entre ambas teorías si que hay un cambio de escala de 20 órdenes de magnitud, pues el protón tiene un tamaño de 10-13 y una cuerda es del tamaño de una longitud de Planck (10-33).

Las diferentes pautas de vibración de las cuerdas producen partículas de tipos diferentes. Pero esto no es suficiente para explicar la diferencia entre partículas. La clave de la diferencia entre partículas está en las 6 dimensiones extra y en la posibilidad de que estas dimensiones puedan ser compactas, es decir, estar compactificadas.

Compactificación

Como en el caso de Kaluza-Klein en que una dimensión estaba compactificada de manera circular, la compactificación es el proceso de hacer algunas dimensiones finitas y dejar las restantes infinitas. Al estar compactificadas no podemos ver los diferentes movimientos que una partícula puede hacer en las dimensiones extra. Y estos diferentes movimientos adicionales representan nuevas propiedades peculiares de la partícula.

En este caso de Kaluza-Klein, Kaluza propuso una dimensión adicional compacta que permitía unificar la gravedad y el electromagnetismo y Klein afirmó que esta dimensión estaría enrollada. El movimiento de la partícula en esta dimensión haría que experimentara la fuerza electromagnética. La carga eléctrica de la partícula era la componente del momento en la dimensión extra. Si daban vueltas en la misma dirección, se repelían. Si lo hacían en dirección diferentes, se atraían. El electrón se movería en una dirección y el protón en la contraria. Si la partícula no se movía en las direcciones extra, entonces solo experimentaba la fuerza gravitatoria.

La mecánica cuántica cuantizó el movimiento en el eje enrollado, con lo que se cuantizó la carga en múltiplos de la carga del electrón.

De manera similar, las cuerdas pueden moverse en las dimensiones compactificadas como las partículas pero también se pueden enrollar sobre ellas 1, 2 o n veces. A esta propiedad se le llama el número de enrollamiento. En teoría de cuerdas, los espacios compactificados de seis dimensiones extras se realiza en espacios de Calabi-Yau. Estos son muy complicados, tienen agujeros y hay millones de ellos. La distancia abarcada por las dimensiones extra se llama escala de compactificación. En el caso de Kaluza-Klein esta dimensión fijaba la magnitud de la carga eléctrica de una partícula o las masas y otras constantes fundamentales.

A los parámetros que determinan el tamaño y la forma de las dimensiones extra se les llama Moduli. Un espacio de Calabi-Yau tiene centenares. El tamaño y la forma del espacio compacto pueden variar con la posición igual que si hubiera cientos de campos escalares controlando las leyes de la física, las masas y constantes de acoplamiento por ejemplo. Los moduli determinan las leyes de la física. Serían como los campos escalares que afectan a las partículas. Los moduli forman un paisaje de cientos de dimensiones.

¿El elegante universo supersimétrico?


Casi todo lo que se sabe de la teoría de cuerdas es en el caso de que haya supersimetría. En ese caso las matemáticas se simplifican y se pueden deducir muchas propiedades. Es el caso de la teoría de supercuerdas. Las regiones supersimétricas forman una llanura en el paisaje de altitud 0. Pero el mundo no es supersimétrico. La supersimetría trata de las diferencias y similitudes entre fermiones (constituyen la materia y obedecen el principio de exclusión) y bosones (son mediadores de fuerzas y pueden tener los mismos números cuánticos). Estos en principio son muy diferentes pero la idea de supersimetría intenta relacionarlos afirmando que cada fermión tiene un bosón asociado de igual masa y viceversa.

Pero el mundo no es supersimétrico porque no se han descubierto estas partículas supersimétricas. Las simetrías se refieren a las operaciones que se pueden hacer con un sistema sin que cambien los resultados de los experimentos. Las simetrías aproximadas se denominan simetrías rotas. Algunas de las simetrías importantes son las de rotación, traslación temporal y espacial, paridad (rota porque la fuerza nuclear débil no la cumple), conjugación de la carga (antimateria).

La teoría de cuerdas original de Susskind y Nambu era bosónica.

La supersimetría no existe como simetría pero si podría existir como una simetría rota, siendo las partículas supersimétricas mucho más pesadas que las conocidas. Hay confianza en que haya algo de supersimetría porque explicaría los problemas de la masa del bosón de Higgs (no aumenta con las agitaciones cuánticas cercanas según E=mc2) y de la pequeñez de la constante cosmológica.

La Mágica, Misteriosa y asoMbrosa teoría M


En 1985 existían 5 teorías de supercuerdas: 2 con cuerdas abiertas y cerradas (tipos IA y IB). 3 con solo cuerdas cerradas (tipo IIA, IIB y heteróticas). Lo importante es que las cinco contenían cuerdas cerradas. No pueden formularse sin gravedad. NO es un añadido opcional, sino son inconsistentes. Es lo que da confianza de que la teoría de cuerdas pueda ser correcta.

En 1995 Edward Witten buscaba demostrar que todas las teorías de cuerdas eran matemáticamente inconsistentes salvo una. Sin embargo, encontró un paisaje, la porción supersimétrica de altitud 0. Witten descubrió que las cinco teorías son casos extremos, soluciones de una única teoría. NO eran cinco teorías, eran cinco soluciones. Todas pertenecen a una familia de teorías que incluya la teoría M que Witten descubrió. "Una teoría, muchas soluciones"

En la teoría M hay 10 dimensiones espaciales y una temporal. Los objetos fundamentales son las branas (hojas de energía bidimensionales). La conexión entre la teoría M y la teoría de cuerdas es que las cuerdas son en realidad cintas muy estrechas o membranas que se parecen cada vez más a cuerdas finas a medida que se compactifica la décima dimensión espacial. Cuanto más se compactifica una dimensión, esta acaba transformándose en una nueva dimensión compacta cada vez más grande. Al contraer dos dimensiones espaciales encontramos nueve y no ocho grandes direcciones restantes 11-2=9)



9- ¿Por nuestra cuenta?



¿Podrá avanzar la física sin experimentos apropiados por no tener la tecnología suficiente para sondear la escala de Planck? En el pasado se ha conseguido. Por ejemplo, Maxwell añadió el término de corriente de desplazamiento en sus ecuaciones por coherencia matemática (no se cumplía la conservación de la carga). Otros ejemplos serían:

- En 1900 Planck cuantiza la energía y descubre la constante de Planck para explicar la radiación del cuerpo negro.

- En 1905 Einstein postula el fotón para explicar el efecto fotoeléctrico, los principios de relatividad y de constancia de la velocidad de la luz para deducir de ellos la teoría de la relatividad especial.

- En 1913 Bohr cuantiza las órbitas de los electrones en el átomo para explicar porque no caen en espiral al núcleo en el modelo planetario de Rutherford. Lorentz postuló el electrón en 1897.

- Heisenberg desarrolla la mecánica de matrices para aplicarla a osciladores armónicos.

- En 1915 Einstein desarrolla la teoría de la relatividad general a partir de un experimento mental que acaba en el principio de equivalencia.

- Pauli postula el principio de exclusión y un nuevo número cuántico de espín para explicar la estabilidad del átomo.

- Dirac postula la antimateria al interpretar su ecuación que unificaba la relatividad especial con la mecánica cuántica (ecuación de Schrödinger). Esta ecuación fue el punto de partida de la electrodinámica cuántica, que gracias al proceso de normalización fue el inicio de las teorías cuánticas de campos como el modelo estándar.

A partir de la relatividad general y de la solución de Schwarzschild se postulan los agujeros negros y las ondas gravitatorias, que mediante la dualidad onda-partícula, es equivalente a postular la existencia del gravitón.

En 1953 a partir de una generalización de la unificación de Kaluza, Yang y Mills desarrollan las teorías gauge no abelianas.


10 - Las branas tras la máquina máxima de Rube Goldberg



Lo realmente nuevo, lo desconcertante actualmente, es el reconocimiento de que el paisaje de la teoría de cuerdas tiene un número inconcebible de valles diversos. El modelo estándar que incorpora la electrodinámica cuántica y la cromodinámica cuántica solo tiene un vacío porque fue construido a base de datos experimentales para explicar nuestro mundo, nuestro vacío particular.

No parece que haya un principio de selección de la estructura de las dimensiones extra (compactificadas en espacios de Calabi-Yau) que descarte todas las posibilidades menos una. Por eso hay que descartar la unicidad en favor de la diversidad del paisaje. Esta riqueza y diversidad está en la enorme cantidad de geometrías posibles.

D-Branas

Cuando Witten en 1995 conjeturó la teoría M incorporó las membranas como objetos adicionales a las cuerdas pero su naturaleza era algo misteriosa hasta que Polchinski descubrió las branas. Polchinski se preguntó si habría objetos multidimensionales donde podrían terminar (y anclarse) los extremos de una cuerda. Los hay: las D-Branas. Y eran precisamente estos objetos, las membranas o branas, los que necesitaba Witten.

Branas de cualquier dimensión

En principio no hay nada especial en las cuerdas que las haga especiales. De hecho en la teoría solo existen cuando una membrana está en una dimensión que se compactifica. En la teoría M de 10 dimensiones espaciales podrían haber desde 0-branas hasta 9-branas. Pero que puedan existir no implica que realmente existan. La teoría M es una teoría de gravitones, membranas y 5-branas. No hay otras branas por imposición de la relatividad general supersimétrica.

Cada una de las cinco teorías de cuerdas decadimensionales tiene un tipo de branas:

Tipo IIa: D0, D2, D4, D6 y D8 (pares)
Tipo IIb: D1, D3, D5, D7 y D9 (impares)

Una cuerda puede tener sus dos extremos ligados a una D-brana y moverse libremente en ella pero sin poder escapar. En esta situación se comportarán igual que partículas elementales. Si D=3, tendríamos un modelo estándar confinado en D3 mientras que la gravedad no estaría confinada al ser el gravitón una cuerda cerrada.

Branas y compactificación

Los gravitones pueden escapar de las branas al ser cuerdas cerradas. Si las dimensiones inobservadas fueran mayores que 3 sin compactificar, entonces la gravedad sería demasiado débil incluso para mantenernos unidos a la Tierra. Por ello las dimensiones extra deben estar compactificadas en dimensiones enrolladas, de manera que los gravitones prácticamente no salen de la brana y la gravedad sería la que sería si el gravitón estuviera confinada en ella.

Podríamos vivir en una D3-brana con otras D3-branas flotando cerca, a milímetros, en un espacio con 6 dimensiones extra microscópicas (modelo de Randall-Sundrum). Las D-branas de Polchinski abren todo tipo de posibilidades, siendo un universo con muchos mundobranas una posibilidad más que puede encontrarse en el paisaje.

Las branas también pueden enrollarse en las dimensiones extra. Si los espacios de compactificación tienen agujeros, las branas pueden enrollarse en ellos de muchas maneras. Incluso podemos tener paquetes de branas apiladas enrolladas en las dimensiones extra.

Las localizaciones de las branas en el espacio compacto son nuevas variables a añadir a los moduli cuando se cuentan las posibilidades para crear el universo. Vistas a distancia, cuando las dimensiones extra son macroscópicas, las posiciones de la brana parecen ser simples campos escalares adicionales que definen el paisaje.

Flujos

Los flujos han surgido como uno de los ingredientes más importantes del paisaje. Ellos lo hacen prodigiosamente grande. A distancia, parecen más campos escalares. Los flujos están cuantizados, de modo que el flujo a través de cualquier superficie es un entero, y a través de los diversos agujeros de donut también. Es múltiplo entero de una unidad básica de flujo.

Singularidades conifold

Hasta ahora tenemos unos centenares de moduli para fijar el tamaño y forma del espacio compacto y algunos centenares de flujos enteros adicionales. Hay una construcción llamada KKLT que crea un valle con energía de vacío ligeramente positiva con un espacio de Calabi-Yau cualquiera con una singularidad conifold. Se llenan los agujeros con flujos (un entero por agujero), lo que implican hasta 500 parámetros entre moduli y flujos. Colocando una antibrana en la singularidad se consigue energía ligeramente positiva además de romper la supersimetría. Es el primer modelo de paisaje no supersimétrico, aunque para nada parecido a nuestro mundo. Su importancia es que prueba que el paisaje no supersimétrico tiene valles con una pequeña constante cosmológica.

Discretuum de Bousso y Polchinski

El número de flujos a través de los agujeros se limita a 9 (entre 0 y 9) porque más aumentaría el tamaño de las dimensiones extra. Por tanto cada agujero implica 10 vacíos, 2 agujeros 100 vacíos y 500 agujeros hasta 10500   vacíos diferentes. El discretuum es el conjunto de 10500   posibles valores diferentes de la constante cosmológica. Tantas posibilidades permiten constantes cosmológicas en las que se anulan 119 ceros.

En 1985 había 5 teorías, en 1995 teníamos la teoría M y ahora 10500 posibles teorías.

Ya no tenemos que preguntarnos porque la constante cosmológica está tan bien ajustada. Pero ¿Qué principio de la física selecciona nuestro valle benigno de entre otros 10500? Nada lo hace. Es una pregunta errónea.



11 - Un universo burbuja



Un paisaje poblado es un megaverso poblado con todos los ambientes matemáticos posibles, creando un universo de bolsillo en cada valle. Los universos de bolsillo son originados por mecanismos basados en los principios de la relatividad general y en aplicaciones muy convencionales de la mecánica cuántica. Hay dos principios básicos que explican cómo se puebla el paisaje:

- La metaestabilidad del vacío que dice que este no puede cambiar sus propiedades súbitamente.
- El espacio se clona a sí mismo.

Los valles del paisaje son metaestables. Pueden aparecer espontáneamente burbujas de espacio con propiedades diferentes. Así se puebla el paisaje y el universo se hace diverso. Un vacío con constante cosmológica positiva es metaestable, lo que implica una burbuja de espacio-tiempo de de Sitter. Esta es una solución de la relatividad general cuando solo hay constante cosmológica (no hay materia-energía). Es un espacio en inflación que crece exponencialmente con el tiempo. Satisface la ley de Hubble como cualquier universo en expansión. Al expandirse, el espacio no se modifica. Se reproduce, se clona, para rellenar los huecos.

Debido a la ley de Hubble, parte distante del universo se expandirá a una velocidad superior a la de la luz, quedando fuera de nuestro alcance y creando un horizonte de sucesos. Desde dentro veríamos un horizonte siempre a la misma distancia (fijado por la constante cosmológica). Mientras mayor es esta, menor es la distancia del horizonte. Sería un universo invariable de radio finito acotado por su horizonte. Como el horizonte inalcanzable de la Tierra. Desde fuera, veríamos que todo el espacio está creciendo exponencialmente con el tiempo.

La combinación de la relatividad general, la mecánica cuántica y un universo de alta densidad inicial, junto con el paisaje de la teoría de cuerdas, sugiere que un universo metaestable que se infla eternamente puede ser inevitable (inflación eterna).

Parece casi seguro que la historia observable de nuestro universo empezó hace unos 14.000 millones de años en un punto en el paisaje con una densidad de energía suficiente para inflar nuestra región del espacio.

SI entonces el universo descansaba sobre un valle del paisaje levemente inclinado hacia un valle metaestable, conforme se infló fue descendiendo. Cuando llegó al borde descendió rápidamente, convirtiendo energía potencial en calor y partículas. Esto se llama recalentamiento y creo el material del universo. Finalmente llegó al fondo del valle con su minúscula constante cosmológica.

Debido a la diversidad del paisaje, es inevitable que algunos universos se inicien con estas coincidencias (pendiente suave hasta un valle con constante cosmológica pequeña). Para la inflación eterna son necesarias dos hipótesis:

- La existencia del paisaje.
- El universo empezó con una densidad de energía muy alta (Big Bang).

12- La guerra del agujero negro



La posición de Stephen Hawking es que el horizonte de un agujero negro es un punto de no retorno porque para poder volver habría que moverse a una velocidad superior a la de la luz.

Hawking ha demostrado que los agujeros negros tienen energía térmica, calor. Mientras más grandes son, más baja es su temperatura. Si esta es mayor que el cero absoluto, irradia energía en forma de radiación electromagnética, con lo que su energía disminuirá y también su masa. Con tiempo suficiente, acabará evaporándose. La materia engullida vuelve en los fotones de la radiación de Hawking.

Aquí hay una paradoja cuya resolución puede aportar una comprensión mayor de la escurridiza conexión entre la gravedad y la mecánica cuántica, ya que la conservación de la información es uno de los fundamentos lógicos de la física.

El dilema es que la relatividad general dice que la información debe atravesar el horizonte hacia el interior profundo del agujero negro. Pero los principios de la mecánica cuántica dice que la misma información debe permanecer fuera. Y el teorema de imposibilidad de clonación dice que solo es posible una copia de cada bit. O se pierde dentro o permanece fuera. La solución a está paradoja ha llevado a dos nuevos principios de la física:

La complementariedad de agujero negro: Surge de combinar la mecánica cuántica con la teoría de la gravedad. Es como un principio de relatividad nuevo. La descripción de los sucesos depende del estado de movimiento del observador. Permaneciendo en reposo fuera del agujero negro se ve una cosa. Cayendo en caída libre hacia su interior se ven los mismos sucesos de forma completamente diferente. Las dos visiones no se contradicen porque ambos observadores están incomunicados por el horizonte de sucesos.

Principio holográfico: Las dos imágenes diferentes que trata de reconciliar la complementariedad de agujero negro son simplemente dos reconstrucciones diferentes del mismo holograma por dos algoritmos de reconstrucción diferentes. Un bit no está localizado en el espacio (lo impide el principio de incertidumbre). Es como la función de onda de un electrón que llega hasta el infinito.

Relacionado con el horizonte de los universos de bolsillo, es como si el fondo de radiación de microondas (los fotones) fuera la radiación de Hawking, es decir, un holograma revuelto de una infinidad de universos de bolsillo.



13 Resumiendo



La teoría de la evolución de Darwin se basa en las mutaciones aleatorias y en la competición en la reproducción, llevando a la evolución. Respecto a esta teoría habría dos elementos comunes:

- La existencia de un enorme paisaje de posibilidades. Infinidad de especies versus los 10500    universos.
- Un mecanismo superprolífico para convertir los diseños en enormes instancias a partir de carbono, oxígeno e hidrógeno. En el caso del universo, la inflación eterna implica también replicación exponencial de volúmenes de espacio.

Las diferencias serían:

- Mutaciones leves y minúsculas mientras que la generación de universos burbuja se prosduce a partir de grandes cambios de la energía de vacío. En la teoría de Darwin la especie es mejorada mientras que en la generación de universos, existen buenos y malos.
- No hay competencia por los recursos entre universos de bolsillo como en la teoría de la evolución. Se crean muchos universos, pero muchos de ellos inútiles.

Eslóganes:


Antes de resumir este libro en un eslogan podríamos hacerlo con las principales teorías de la física:

- Mecánica Newtoniana: El espacio y el tiempo son absolutos.

- Relatividad especial: El espacio y el tiempo son relativos y la velocidad de la luz es una constante absoluta.

- Relatividad general: El principio de equivalencia (gravedad es indistinguible de  la aceleración).

- Mecánica cuántica: El principio de incertidumbre
- Cosmología: Big Bang.

- Teoría de la evolución: Supervivencia de los más aptos, selección natural, el gen egoísta.

- Este libro: El gran principio organizador de la biología y la cosmología es un paisaje de posibilidades poblado por un megaverso de realidades.

Actualmente hay un fuerte debate entre si el paisaje de la teoría de cuerdas es algo real y posible y los que siguen creyendo en la unicidad, en la existencia de un principio físico que escoja uno de los valles y desarte el resto.
Igualmente, hay debate entre los que adoptan el principio antrópico como algo útil y los que lo rechazan categóricamente.

Actualmente solo la Loop Quantum Gravity es una alternativa razonable al paisaje de teoría de cuerdas.

Las leyes de la naturaleza son emergentes

Hay investigadores que piensan que el espacio y la gravedad son emergentes y que todo está impregnado de un superfluido. Pero no parece ser muy prometedora.

La selección natural y el universo

Lee Smolin también toma ideas de la teoría de la evolución para explicar que nuestro universo es aquel que maximiza la creación de otros universos. Smolin cree que en el interior de un agujero negro se crea un nuevo universo y que el nuestro es aquel que maximiza la creación de otros universos. Para Smolin el principio antrópico no es necesario porque el universo no fue puesto a punto para la vida sino para hacer agujeros negros. Sin embargo no parece ser así. La pregunta real es porque nuestro universo tiene tan pocos agujeros negros. Además con su constante cosmológica ultrapequeña y su escasez de agujeros negros, nuestro universo es especialmente poco apto para reproducirse (con una constante cosmológica grande e inflación es más probable la creación de más universos).

Uno de los mayores desafíos a los que se enfrenta la teoría de cuerdas reside en el mecanismo de la población del paisaje mediante la inflación eterna. Los otros dos mecanismos son bien entendidos:

- La clonación del espacio.
- La generación de burbujas a partir de un vacío metaestable.

La inflación eterna produce infinitos universos de bolsillo y, por tanto infinitos universos (un valle con muchos universos) de cada tipo con las mismas leyes físicas. Con infinitos universos de cada tipo no se pueden hacer predicciones probabilísticas (las predicciones son casi imposibles al ser permitidos todos los valores de cada constante en los diferentes universos asociados a cada valle determinado).

Si hubiera un universo por valle, podríamos calcular la probabilidad de un valor de una constante cosmológica para los diferentes valles y así poder predecir su valor más probable. Al ser posibles más de un universo por valle este tipo de predicción no es posible. Tampoco el principio antrópico podría discutir entre los diferentes universos de cada valle. Sin embrago la situación no es tan desesperada porque pueden encontrarse algunas evidencias experimentales procedentes de:

- El comienzo de la inflación: Tamaño de los grumos presentes en el fondo cósmico de microondas que luego dieron lugar a las galaxias.

- Supercuerdas en el cielo: Cuerdas microscópicas estiradas por la inflación emitirán ondas gravitatorias características.

- Física de altas energías: El LHC puede proporcionar información sobre el bosón de Higgs y la supersimetría. El mundo no es supersimétrico a bajas energías pero la supersimétria impide que la violencia de las agitaciones cuánticas proporcionen una masa enorme al bosón de Higgs que   arruinen el modelo estándar.

- Consistencia matemática de la teoría de cuerdas: No hay muchas teorías consistentes que incluyan la relatividad y la mecánica cuántica. Por eso la teoría de cuerdas tiene pocas alternativas.