domingo, 24 de octubre de 2010

El panorama de la Física actual.


Año mundial de la Física. Grupo de Interés especial GIENCIA. Santiago Cárdenas Martín.

En el último siglo ha avanzado muchísimo nuestra comprensión de la naturaleza. Es asombroso el nivel de conocimiento que hemos llegado a adquirir sobre las partículas más elementales de las que estamos hechos y sobre la estructura general del Universo.

Sin embargo, en este momento la Física se encuentra en una situación muy peculiar. Nuestro conocimiento del universo se basa en dos teorías sumamente bellas, avanzadas y precisas en sus predicciones: La Teoría General de la Relatividad (TGR) y la Teoría Cuántica de Campos (TCC), pero... ¡estas dos teorías son incompatibles entre sí!.

Para completar este panorama, debemos añadir el Modelo Estándar de la Física de Partículas (MEFP), que nos dice cuáles son las partículas que forman el Universo. Podríamos decir que esas tres patas constituyen nuestro conocimiento (incompleto) sobre la Física fundamental de nuestro universo.

En este artículo vamos a repasar el conocimiento incluido en estas tres áreas, dando una muy breve introducción a cada una de ellas, que posteriormente será ampliado en otros artículos. Finalmente, repasaremos las alternativas sobre las que se trabaja para obtener una teoría unificada que acabe con esta pesadilla de incompatibilidad para los físicos.

La Teoría Especial de la Relatividad (TER)

Basándose en los trabajos de algunos físicos que le precedieron, como Lorentz, Albert Einstein escribió en 1905 dos de sus famosos artículos que sumarizaban lo esencial de la Teoría Especial de la Relatividad (TER, SR: Special Relativity); en aquellos momentos, simplemente Teoría de la Relatividad.

La TER fue la revisión de la mecánica clásica de Newton. El hito fundamental en que se basaba era el hecho de que la velocidad de la luz es un parámetro constante y absoluto. Realmente es curioso que se la llamara teoría de la relatividad, ya que su axioma más fundamental es la absolutividad de la velocidad de la luz.

En la mecánica de Newton, para sumar velocidades simplemente se suman; es decir, si vamos por la carretera a 120Km/h y un coche viene en sentido contrario a 100Km/h, la velocidad relativa entre nosotros será de 220Km/h. Esto es algo que cuadra totalmente con nuestra experiencia cotidiana. Sin embargo, esto mismo aplicado a los rayos de luz significaría que la velocidad de aproximación de dos rayos de luz en sentido contrario sería de 2* c (siendo c la velocidad de la luz en el vacío).

El experimento de Michelson refutó este resultado. La conclusión de Einstein era que la velocidad de la luz, se mirara como se mirara, siempre es c. Y en el caso anterior, a pesar de que cada rayo de luz va a la velocidad c, para un observador en reposo ¡la velocidad entre ellos también es c !


Para que la velocidad de la luz (c) sea infranqueable y sigan cuadrando las cosas es necesario que a velocidades cercanas a c pasen cosas tan extrañas como que los cuerpos se acorten, la marcha del tiempo se reduzca y las masas se incrementen.

De todo esto también se deducía, en uno de los artículos de Einstein de 1905, que la energía y la masa son equivalentes, lo que acabó formulando más adelante en su famosa e inmortal fórmula: E=mc^2

Aunque todo esto parezca increíble, la TER está ampliamente contrastada por todo tipo de experimentos, y de hecho es totalmente compatible y está incluida dentro de las dos teorías fundamentales a las que antes nos referíamos (TGR y TCC).

La Teoría General de la Relatividad (TGR)

La TER no cuadraba bien con la presencia de campos gravitatorios, por lo que Einstein trabajó a fondo intentando formular una teoría más general que fuera compatible con la gravedad.

Como resultado de ello, en 1916 publicó la Teoría General de la Relatividad (TGR, GR: General Relativity). La TGR es una de las más bellas teorías físicas existentes; en un principio se mostró como algo sumamente esotérico para los físicos de la época, aunque se hizo popular entre los matemáticos, mucho más acostumbrados a conceptos tan abstractos. Finalmente, su rotunda verificación en una serie de experimentos -como el eclipse solar de 1919- supusieron su total aceptación como teoría física totalmente sólida.

El desarrollo de la TER había llevado al concepto de espacio-tiempo como un ente indivisible. La TER tenía una formulación lógica y elegante dentro del marco de una estructura geométrica tetradimensional llamada Espacio de Minkowski.

La TGR proponía dos hipótesis espectacularmente novedosas en aquel momento: Primero, que la presencia de una masa tiene el efecto de curvar el espacio-tiempo de Minkowski, y segundo, que la inercia hace que se viaje en “línea recta” en este espacio-tiempo, siendo realmente estas líneas rectas las geodésicas de este espacio-tiempo curvado, es decir los caminos más cortos.

Imaginar que el espacio-tiempo se puede curvar es un concepto sumamente abstracto que sólo se llega a comprender después de manejar muy a menudo conceptos matemáticos de esta índole. Es importante resaltar que no solamente se curva el propio espacio, sino que se curva el ente indivisible tetradimensional que forma el espacio y el tiempo.

La TGR ha demostrado con el paso de los años su total y absoluta coincidencia con todo tipo de experimentos que se han ideado. Por ejemplo, hoy en día, el sistema de satélites GPS necesita de los cálculos de la TGR para obtener el nivel de precisión que tiene.

La Mecánica Cuántica (MC)

En 1900, a Max Planck se le ocurrió una forma de cuadrar el extrañísimo comportamiento que tenía la emisión de radiación por parte de lo que se llamaba un “cuerpo negro”. Planck fue capaz de crear una formulación matemática que cuadraba de forma precisa con los resultados experimentales que se obtenían.

Pero para que eso pudiera ser así tuvo que considerar que la radiación se emitía en cuantos discretos de energía. Es decir, no se podía emitir una cantidad cualquiera de energía, tenía que ser un múltiplo entero de una determinada cantidad. En un principio, el propio Planck consideraba que esto era una triquiñuela matemática para que su formulación cuadrara, pero dejaba pendiente una futura explicación física. Resultaba increíble en aquel momento pensar que la energía pudiera venir en paquetes discretos. Sin embargo, aquello fue el hito fundamental que marcó la creación de una nueva teoría física revolucionaria: La Mecánica Cuántica (MC, QM: Quantum Mechanics).

La MC está fundamentada sobre unas hipótesis revolucionarias y aún más increíbles que las de la TGR. Éstas son sus principales bases:

- Tanto la materia como la energía (que sabemos son equivalentes por la TER) tienen un doble comportamiento como partícula y como onda, por lo que toda partícula tiene asociada una frecuencia propia de su “personalidad” de onda.

- La energía siempre se presenta en múltiplos enteros de unas cantidades mínimas que dependen de la frecuencia.

- El estado de una partícula o de un conjunto de ellas se representa por un ente abstracto llamado “vector de un espacio de Hilbert”. Este estado contiene todo lo que podemos saber sobre una partícula: su posición, su velocidad, su energía, etc.

- Cada vez que medimos algo de una partícula, su estado cambia irremisiblemente, dependiendo de la medida que hemos efectuado. Esto hace que nos sea imposible medir con precisión ciertos pares de valores como son su posición y su velocidad. Éste es el famoso Principio de Incertidumbre de Heisenberg.

- De hecho, ciertos conceptos clásicos como son el de posición no existen de forma precisa para una partícula. La posición de una partícula realmente es una distribución de probabilidades de dónde se puede encontrar. Esto nos lleva a un indeterminismo de la naturaleza y a la introducción del concepto de aleatoriedad, algo que Einstein negaba con su famosa frase de “Dios no juega a los dados”.

Publicaremos más adelante otro artículo en el que entraremos algo más en detalle sobre estas increíbles afirmaciones. Por el momento, valga decir que a pesar de su increíble apariencia, la MC describe con asombrosa precisión el comportamiento de las partículas elementales.

El Modelo Estándar de la Física de Partículas (MEFP)

Cuando la mecánica cuántica estaba en el proceso de su creación sólo se tenía certeza de la existencia de tres partículas: el electrón, el protón y el neutrón. De ellas se sabía que sus cargas eléctricas eran -1, +1 y 0, respectivamente, y que las masas del neutrón y el protón eran casi iguales y mucho mayores que las del electrón. Se sabía que los átomos estaban formados por un núcleo con protones y neutrones y una capa externa de electrones.

El físico Paul Dirac llegó a la conclusión de que para toda partícula elemental tenía que existir una antipartícula, con idénticas propiedades pero con carga opuesta. Por ejemplo, existe una antipartícula para el electrón, el positrón, cuya carga es +1. Esta hipótesis fue posteriormente comprobada en los aceleradores de partículas.

La MC establece mo se comportan las partículas elementales, que para cada partícula ha de existir una antipartícula y que las fuerzas se transmiten por partículas portadoras. Por ello existen dos tipos de partículas: las que forman la materia, llamadas Fermiones (por el físico Enrico Fermi) y las que transmiten las fuerzas, llamadas Bosones (por el físico Santyendra Nath Bose). Sin embargo, la MC no dice nada sobre qué partículas y qué fuerzas son las que existen en la naturaleza.

Los aceleradores de partículas han tenido una actividad frenética en los últimos 50 años, intentando identificar cuáles son estas partículas y fuerzas. De hecho, el CERN (Centro Europeo para la Investigación Nuclear), que es uno de los mayores laboratorios del mundo que cuenta con aceleradores, cumplió sus 50 años en 2004. Hace unos treinta años, la situación era desconcertante; se habían encontrado decenas de partículas elementales diferentes con todo tipo de propiedades. Era una situación muy molesta por la enorme complejidad que reflejaba.

Finalmente, Murray Gell-Man propuso una teoría, por la que recibió el premio Nobel, en la que postuló que existían unas partículas más elementales aún que los protones y neutrones, que formaban a los mismos. Dichas partículas se denominan Quarks y pueden unirse de tres en tres para formar protones y neutrones o de dos en dos para formar otros muchos tipos de partículas como los piones y kaones. Esto redujo mucho el número de partículas diferentes.

Sabíamos que además de la fuerza gravitatoria existe la fuerza electromagnética; para poder explicar cómo los neutrones y los protones están unidos entre sí, fue necesario postular una nueva fuerza llamada fuerza nuclear fuerte. Con el descubrimiento de los Quarks fue posible establecer una teoría coherente de la fuerza nuclear fuerte. La fuerza nuclear fuerte tiene una extraña característica llamada “libertad asintótica” que impide que los Quarks puedan ser vistos libremente, pero a pesar de ello, la teoría de los Quarks está plenamente aceptada en la Física actual, ya que ha sido comprobada ampliamente. El premio Nobel de Física de 2004 fue otorgado a los tres físicos que descubrieron esta propiedad de la fuerza nuclear fuerte en 1973: Gross, Politzer y Wilczek.

Además de estas tres, existe una cuarta fuerza: la fuerza nuclear débil, aunque hoy en día contamos con una sólida teoría que establece que las fuerzas electromagnética y nuclear débil son diferentes vistas de una única fuerza llamada electrodébil.

Todos estos descubrimientos llevaron a la formulación de una teoría que establece cuáles son todas las partículas y fuerzas que existen en la naturaleza y cuáles son sus propiedades. Esta teoría es el llamado Modelo Estándar de la Física de Partículas (MEFP, SM: Standard Model).

El MEFP nos dice que los fermiones (partículas que forman la materia) que existen se descomponen en tres familias y que cada familia consta de un electrón, un neutrino y dos quarks. Realmente, a los “electrones” de las otras dos familias se les llama “muón” y “tau”. Son partículas idénticas al electrón, salvo que de mayor masa. Además de estas 12 partículas, existen las correspondientes 12 antipartículas: positrón, antineutrino y antiquarks en cada una de las tres familias.

El MEFP nos dice también que existen tres fuerzas fundamentales en la naturaleza: la fuerza electrodébil que se transmite por el fotón (bosón de la fuerza electromagnética) y los bosones débiles W+, W- y Z; la fuerza nuclear fuerte que se transmite por 8 tipos de partículas llamadas gluones, y la fuerza gravitoria que, como veremos un poco más adelante, es la que no acaba de “cuadrar”. Si llegara a “cuadrar”, se transmitiría por una supuesta partícula que no hemos podido ver hasta ahora llamada “gravitón”.

La Teoría Cuántica de Campos (TCC)

Lo que hemos contado sobre la MC es sumamente extraño, pero aún hay más cosas raras. Resulta que continuamente se están creando partículas virtuales por todas partes. Por ejemplo, para analizar el camino de un electrón entre unos puntos A y B debemos analizar la posibilidad de que vaya en línea recta tal cual, pero debemos también analizar todo tipo de posibilidades, como que a medio camino salga de él un fotón y que luego vuelva, e incluso posibilidades más extrañas.

Esto, junto al hecho de que la mecánica cuántica en su formulación original no tiene en cuenta los efectos relativistas, motivó un desarrollo posterior de la mecánica cuántica en lo que se denominaron teorías cuánticas de campos (TCC, FQT: Field Quantum Theory). Realmente existen dos teorías cuánticas de campo. La más consolidada es la ElectroDinámica Cuántica (EDC, QED: Quantum ElectroDynamics) que detalla la interacción de las partículas de la fuerza electrodébil y la CromoDinámica Cuántica (CDC, QCD: Quantum ChromoDynamics) que detalla la interacción de las partículas con la fuerza nuclear fuerte.

La EDC fue desarrollada por varios físicos alrededor de 1948. Entre otros, el mismo Paul Dirac y el famoso y polifacético Richard Feynmann, que recibió el premio Nobel en 1965 por ello. El desarrollo de la CDC, mucho más reciente, ha sido merecedor de varios premios Nobel, el último en 2004.

Hay que resaltar el hecho de que la TCC incluye totalmente a la TER en todos sus cálculos, por lo que la TER es totalmente compatible tanto con la TGR como con la TCC.

La EDC es probablemente la teoría física más precisa que existe. Muchos de los resultados que predice han podido ser comprobados en los aceleradores de partículas hasta con doce dígitos decimales de precisión. La CDC es una teoría ampliamente aceptada, pero no ha podido ser totalmente verificada debido a que para realizar sus cálculos completos es necesaria una capacidad computacional de la que no disponemos. En estos momentos se trabaja en el desarrollo de ordenadores avanzados dedicados específicamente a realizar cálculos de la CDC, mediante una técnica llamada Lattice-QDC. Se espera que en los próximos años podamos tener una confrontación precisa de los resultados teóricos de la CDC con los de los experimentos.

La incompatibilidad de la TGR con la TCC

La búsqueda de una Teoría de Gravedad Cuántica (TGC)

Como comentamos al comienzo del artículo, la TGR, la TCC y el MEFP constituyen nuestro conocimiento actual sobre lo más fundamental de nuestra naturaleza. Estas tres teorías suponen un gran logro del conocimiento humano. Sin embargo, tenemos un gran problema: La TGR y la TCC son incompatibles.

Cuando tenemos un problema en el reino de lo muy pequeño (picometros o femtometros) la TCC nos ofrece cálculos precisos de todo lo que ocurre a esa escala. Por otra parte, cuando tenemos problemas en presencia de grandes campos gravitatorios como son las estrellas, la TGR nos da resultados impecables.

El problema es que si queremos hacer un cálculo sobre lo que les ocurre a las partículas elementales en presencia de grandes campos gravitatorios, como se necesita en los agujeros negros, las dos teorías ofrecen resultados dispares y no compatibles. No sabemos cómo establecer una teoría que incluya a ambas y que permita eliminar esa incompatibilidad.

El problema es que la TCC es una teoría que supone un espacio-tiempo no curvado y no sabemos cómo cuadrarla en un espacio-tiempo curvado. Y la TGR es una teoría continua en la que no tienen cabida los cuantos de la TCC.

Por eso, el gran reto de la física actual es dar con una hipotética teoría que incluya y de la que se puedan deducir ambas teorías. Dicha teoría se denominaría una Teoría de Gravedad Cuántica (TGC, QG: Quantum Gravity).

Los dos candidatos principales a TGC:

La Teoría de Cuerdas (TC) y la Gravedad Cuántica de Bucles (GCB)

En estos momentos existen dos grandes líneas de investigación a posibles candidatos a una TGC. Una es la Teoría de Cuerdas (TC, ST: String Theory) y su evolución la Teoría-M (TM) y la otra es la Gravedad Cuántica de Bucles (GCB, LQG: Loop Quantum Gravity). La TC es la más popular y algo más antigua. Podríamos decir, haciendo una aproximación algo liberal, que la TC es la evolución de la TCC para poder incluir a la TGR y que la GCB es la evolución de la TGR para poder incluir a la TCC.

Uno de los grandes problemas a los que se enfrenta la TCC es que supone que las partículas elementales no tienen dimensión alguna. Es decir, que son puntuales, infinitamente pequeñas. Esto genera un enorme problema en los cálculos haciendo aparecer infinitos que son eliminados por un método matemática poco ortodoxo llamado normalización.

La TC elimina este problema suponiendo que las partículas son realmente unas cuerdecitas. En algunas versiones de la TC se las supone cuerdas con sus extremos libres y en otras versiones se las supone cuerdas cerradas. La moderna extensión de la TC es la TM, de 1995, y establece no sólo la existencia de cuerdas unidimensionales, sino la de elementos de dimensión 2 y mayores llamados n- branas (las cuerdas serían 1-branas).

La TC y la TM para ser coherentes necesitan que nuestro espacio tenga 10 dimensiones en lugar de 3 y que el MEFP sea ampliado por un modelo mayor llamado supersimetría que establece la existencia de un “supercompañero”, hasta ahora nunca observado, para cada fermión y cada bosón.

Para que pueda haber 7 dimensiones espaciales nunca vistas es necesario suponer que éstas están curvadas y que son de tamaño muy pequeño. Esto es un concepto bastante abstracto, aunque totalmente factible. Más adelante publicaremos un artículo dedicado a la TC en el que intentaremos profundizar en este concepto.

La CGB, por otro lado, nos dice que tanto el espacio como el tiempo no son continuos, sino discretos. Es decir, que existe un “tamaño” de volumen mínimo indescomponible (unos 10^-35 m) y un “paso” de tiempo mínimo indescomponible (unos 10^-43 s). Lo más interesante de la CGB es que establece que el espacio- tiempo es una red de unos elementos mínimos llamados espines (spins). La matería pasa a ser un estado de estos espines, no siendo algo diferente del propio espacio. Estos espines ya fueron postulados por primera vez por Roger Penrose en su teoría de twistors.

La comunidad física se encuentra bastante dividida por los que trabajan en la TM y los que lo hacen en la GCB. Hay incluso chistes sobre ello. ;-)

La GCB no necesita de más dimensiones ni de supersimetría, aunque sería compatible con su posible existencia. De hecho, es posible que la TM y la GCB acaben siendo ambas correctas y compatibles. Podría ser que las branas de la TM sean conjuntos de espines y que la GCB sea un marco más profundo para la TM. Debido a la gran división que hay entre los investigadores que trabajan en cada línea, esta última posibilidad, iniciada por el físico Lee Smolin (del bando de la GCB), ha sido muy poco trabajada.

Cualquier duda, sugerencia o comentario podéis hacerlos a:

scardenas@grupoei.com