Quantcast
Channel: Física – Blog de Emilio Silvera V.
Viewing all 959 articles
Browse latest View live

La complejidad del Cerebro…Los caminos de la Mente

$
0
0

          Los cinco sentidos, Hans Makart (1840-1884)

En su obra Materia y memoria, Henri Bergson decía:

La percepción, en su conjunto, tienen su verdadera razón de ser en la tendencia del cuerpo a moverse”

 

 Nosotros hablamos de los cinco sentidos de los que nos valemos para tener una percepción del mundo que nos rodea. Sabemos, que muchos de los animales que pueblan nuestro planeta tienen algunos de esos sentidos mucho más desarrollados que nosotros, y, sin embargo, es nuestra especie la que prevalece como superior de todas las demás. Nuestras mentes, han llegado a desarrollar un mayor y más completo conjunto de conexiones neuronales que han posibilitado una más amplia consciencia del mundo que nos rodea, de la Naturaleza.

Resultado de imagen de Los cinco sentidos

La percepción, los sentidos y los pensamientos… Para poder entender la conciencia como proceso es preciso que entendamos cómo funciona nuestro cerebro, su arquitectura y desarrollo con sus funciones dinámicas. Lo que no está claro es que la conciencia se encuentre causalmente asociada a ciertos procesos cerebrales pero no a otros.

El cerebro humano -hay que reconocerlo-,  es especial; su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el mundo exterior, no se parece a nada que la Ciencia conozca. Tiene un carácter único y ofrecer una imagen fidedigna del cerebro no resulta nada fácil; es un reto tan extraordinario que no estamos preparados para cumplir en este momento. Estamos lejos de ofrecer esa imagen completa, y sólo podemos dar resultados parciales de esta increíble maravilla de la naturaleza.

Nuestro cerebro adulto, con poco más de 1,5 Kg de peso, contiene unos cien mil millones de células nerviosas o neuronas. La parte o capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de treinta millones de neuronas y un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en acabar el recuento. Si consideramos el número posible de circuitos neuronales, tendremos que habérnoslas con cifras hiper-astronómicas. Un 10 seguido de, al menos, un millón de ceros (en comparación, el número de partículas del universo conocido asciende a 1079 “tan sólo” un 10 seguido de 79 ceros). ¡A que va a resultar que no somos tan insignificantes!

Con tan enorme cantidad de circuitos neuronales, ¿podremos algún día ser capaces de descifrar todos los secretos de nuestro universo? ¿De qué seremos capaces cuando podamos disponer de un cerebro totalmente evolucionado?

Resultado de imagen de Las conexiones sin fin del cerebro

¡Tan frágil y tan fuerte! En tan pequeño conjunto reside el secreto mejor guardado por la Naturaleza que hizo posible, ese asombroso viaje que va, desde la materia inerte hasta los pensamientos. Han sido necesarios dies mil millones de años para que, las estrellas, pudieran fabricar los elementos bioquímicos necesarios para hacer posible tal transición que, por mucho que la queremos comprender…

El límite de lo que podremos conseguir tiene un horizonte muy lejano. Desde hablar o comunicarnos sin palabras sonoras -no es ninguna broma- , a la auto-transportación. Ahora mismo, simplemente con el pensamiento, podemos dar instrucciones a máquinas que obedecen nuestras órdenes. Sí, somos pura energía pensante, el poder de la mente no está totalmente desarrollado y, simplemente es cuestión de tiempo.  Creo que no habrá límite alguno; el cuerpo que ahora nos lleva de un lugar a otro, ya no será necesario, y como los fotones que no tienen masa… ¿Podremos desplazarnos entre las estrellas  a velocidades superlumínicas? Mi imaginación se desboca y va mucho más allá de lo que la razón aconseja.

Creo que estoy corriendo demasiado en el tiempo, volvamos a la realidad. A veces mi mente se dispara. Lo mismo visito mundos extraordinarios con mares luminosos de neón líquido poblados por seres transparentes, que viajo a galaxias muy lejanas pobladas de estrellas de fusión fría circundadas por nubes doradas compuestas de anti-materia en la que, los positrones medio congelados, se mueven lentamente formando un calidoscopio de figuras alucinantes de mil colores. ¡La mente, qué tesoro!

          Es cierto que existen otros mundos y, todos, están dentro de nuestras mentes

Cuando seamos capaces de convertir en realidad todo aquello en lo que podamos pensar, entonces, habremos alcanzado la meta. Para que eso sea una realidad… aún falta y, debemos ser conscientes de que nunca, podremos alcanzarlo todo. Si la Naturaleza y el Universo nos dejo, jugamos con ventaja y con tiempo por delante… ¿Qué se nos puede resistir? Nuestra manera de generar entropía negativa es dejar descendencia, así luchamos contra la desaparición de nuestra especie y de los logros que, durante milenios pudo alcanzar.  Dejamos lo que logramos descubrir a los que nos siguen, ellos a los que vendrán después, y así hasta “el infinito”.

El mundo físico se representa gobernado de acuerdo a leyes matemáticas -fuerzas y constantes universales-. Desde este punto de vista, todo lo que hay en el universo físico está realmente gobernado en todos sus detalles por principios matemáticos, quizá por ecuaciones tales como las que describen nuestras mejores teorías.

Lo más seguro es que la descripción real del mundo físico esté pendiente de matemáticas futuras, aún por descubrir, fundamentalmente distintas de las que ahora tenemos. Llegarán nuevos Gauss, Riemann, Euler, Ramanujan, Cantor…, que con sus frescas y nuevas ideas, transformarán el pensamiento matemático y nuestra manera de ver el mundo.

¿Es, entonces, la Naturaleza matemática? Bueno, yo no me atrevería a negarlo… del todo. Una gran parte sí que lo es

Para llegar a comprenderlo, antes, tendremos que haber descifrado las funciones modulares de los cuadernos perdidos de Ramanujan, o por ejemplo, el verdadero significado del número 137, ése número puro adimensional que encierra los misterios del electrón (e-)  -electromagnetismo -, de la constante de Planck (h) – el cuanto de acción – y de la luz (c) -la relatividad-, además de otros muchos secretos que nos quedan por desvelar.

Los resultados son lentos, no se avanza con la rapidez que todos deseamos. Poincaré expuso su conjetura para que el mundo la pudiera desvelar y no ha sido posible en más de un siglo, hasta que llegó Perelman para resolverla. Riemann expuso su geometría del espacio curvo, y hasta 60 años más tarde no fue descubierta por Einstein para hacer posible su formulación de la relatividad general, donde describe cómo las grandes masas distorsionan el espacio y el tiempo por medio de la fuerza de gravedad que generan para dibujar la geometría del Universo.

Resultado de imagen de Rebote cuántico de la función de ondas del universo ψ para un espaciotiempo de Friedmann-Robertson-Walker

Rebote cuántico de la función de ondas del universo ψ para un espaciotiempo de Friedmann-Robertson-Walker con campo escalar ϕ. v corresponde al volumen del universo en unidades de Planck.  Complejidades como éstas son posibles gracias a los conceptos matemáticos creados por nuestras mentes. Por ejemplo, pensar en las complejas matemáticas topológicas requeridas por la teoría de supercuerdas puede producir incomodidad en muchas personas que, aún siendo físicos, no están tan capacitados para entender tan profundas y complejas  ideas.

Imagen relacionada

Bernhard Riemann introdujo muchas nuevas ideas y fue uno de los más grandes matemáticos. En su corta vida (1.826 – 1.866) propuso innumerables propuestas matemáticas que cambiaron profundamente el curso del pensamiento de los números en el planeta Tierra, como el que subyace en la teoría relativista en su versión general de la gravedad, entre otras muchas (superficie de Riemann, etc.). Riemann les enseñó a todos a considerar las cosas de un modo diferente.

La superficie de Riemann asociada a la función holomorfa “tiene su propia opinión” y decide por sí misma cuál debería ser el, o mejor, su dominio, con independencia de la región del plano complejo que nosotros podamos haberle asignado inicialmente. Durante su corta carrera, Rieman hizo avanzar las matemáticas en muchos campos y, en especial:

El Análisis.

La Teoría de números,

La Geometría, y la

Topología

Ahora podemos comprender la complejidad y la belleza de las superficies de Riemann. Este bello concepto desempeña un papel importante en algunos de los intentos modernos de encontrar una nueva base para la física matemática (muy especialmente en la teoría de cuerdas), y al final, seguramente, podremos desvelar  el mensaje que encierra.

El caso de las superficies de Riemann es fascinante, aunque desgraciadamente sólo es para iniciados. Proporcionaron los primeros ejemplos de la noción general de variedad, que es un espacio que puede pensarse “curvado” de diversas maneras, pero que localmente (por ejemplo, en un entorno pequeño de cualquiera de sus puntos), parece un fragmento de espacio euclídeo ordinario.

La esfera de Riemann, superficie de Riemann compacta, el teorema de la aplicación de Riemann, las superficies de Riemann y aplicaciones complejas… He tratado de exponer en unas líneas la enorme importancia de este personaje para las matemáticas en general y la geometría en particular, y,  para la física.

Lo cierto es que, si miramos hacia atrás en el tiempo, nos encontramos con el hecho cierto de que, Einstein pudo formular su bella teoría de la relatividad general gracias a una conferencia que dio Riemann y que, habiendo pedido ayuda a su amigo Marcel Grosmman, éste le mandara una copia en la que, aparecía el Tensor Métrico de Riemann que le dio a Einstein las herramientas de las que carecía.

En escritos anteriores consideramos dos aspectos de la relatividad general de Einstein, a saber, el principio de la relatividad, que nos dice que las leyes de la física son ciegas a la distinción entre reposo y movimiento uniforme; y el principio de equivalencia, que nos dice de qué forma sutil deben modificarse estas ideas para englobar el campo gravitatorio.

Ahora hay que hablar del tercer ingrediente fundamental de la teoría de Einstein, que está relacionada con la finitud de la velocidad de la luz. Es un hecho notable que estos tres ingredientes básicos puedan remontarse a Galileo; en efecto, parece que fue también Galileo el primero que tuvo una expectativa clara de que la luz debería viajar con velocidad finita, hasta el punto de que intentó medir dicha velocidad. El método que propuso (1.638), que implica la sincronización de destellos de linternas entre colinas distantes, era, como sabemos hoy, demasiado tosco. Él no tenía forma alguna de anticipar la extraordinaria velocidad de la luz.

Esta teoría del electromagnetismo de Maxwell tenía la particularidad de que requería que la velocidad de la luz tuviera un valor fijo y definido, que normalmente se conoce como c, y que un unidades ordinarias es aproximadamente 3 × 108 metros por segundo. Parece que tanto Galileo como Newton tenían poderosas sospechas respecto a un profundo papel que conecta la naturaleza de la luz con las fuerzas que mantienen la materia unida.

Pero la comprensión adecuada de estas ideas tuvo que esperar hasta el siglo XX, cuando se reveló la verdadera naturaleza de las fuerzas químicas y de las fuerzas que mantienen unidos los átomos individuales. Ahora sabemos que tales fuerzas tienen un origen fundamentalmente electromagnético (que vincula y concierne a la implicación del campo electromagnético con partículas cargadas) y que la teoría del electromagnetismo es también la teoría de la luz.

Para entender los átomos y la química se necesitan otros ingredientes procedentes de la teoría cuántica, pero las ecuaciones básicas que describen el electromagnetismo y la luz fueron propuestas en 1.865 por el físico escocés James Clark Maxwell, que había sido inspirado por los magníficos descubrimientos experimentales de Michael Faraday unos treinta años antes y que él plasmó en una maravillosa teoría.

 Resultado de imagen de Gracias a la luz, a la radiación electromagnética, podemos saber del universo lejano

             Gracias a la luz, a la radiación electromagnética, podemos saber del universo lejano

Como he dicho antes, la teoría del electromagnetismo de Maxwell tenía la particularidad de que requería que la velocidad de la luz tuviera un valor fijo y definido, que normalmente se conoce como c, y que un unidades ordinarias es aproximadamente 3 × 108 metros por segundo.

Sin embargo, esto nos presenta un enigma si queremos conservar el principio de relatividad. El sentido común nos diría que si se mide que la velocidad de la luz toma el valor concreto c en el sistema de referencia del observador, entonces un segundo observador que se mueva a una velocidad muy alta con respecto al primero medirá que la luz viaja a una velocidad diferente, aumentada o disminuida, según sea el movimiento del segundo observador.

Pero el principio de relatividad exigiría que las leyes físicas del segundo observador (que definen en particular la velocidad de la luz que percibe el segundo observador) deberían ser idénticas a las del primer observador. Esta aparente contradicción entre la constancia de la velocidad de la luz y el principio de relatividad condujo a Einstein (como de hecho, había llevado previamente al físico holandés Hendrick Antón Lorentz y muy en especial al matemático francés Henri Poincaré) a un punto de vista notable por el que el principio de relatividad del movimiento puede hacerse compatible con la constancia de una velocidad finita de la luz.

Baste saber que, como quedó demostrado por Einstein, la luz, independientemente de su fuente y de la velocidad con que ésta se pueda mover, tendrá siempre la misma velocidad en el vacío, c, o 299.792.458 metros por segundo. Cuando la luz atraviesa un medio material, su velocidad se reduce. Precisamente, es la velocidad c el límite alcanzable de la velocidad más alta del universo. Es una constante universal y, como hemos dicho, es independiente de la velocidad del observador y de la fuente emisora.

¿Cómo funciona esto? Sería normal que cualquier persona creyera en la existencia de un conflicto irresoluble entre los requisitos de una teoría como la de Maxwell, en la que existe una velocidad absoluta de la luz, y un principio de relatividad según el cual las leyes físicas parecen las mismas con independencia de la velocidad del sistema de referencia utilizado para su descripción.

¿No podría hacerse que el sistema de referencia se moviera con una velocidad que se acercara o incluso superara a la de la luz? Y según este sistema, ¿no es cierto que la velocidad aparente de la luz no podría seguir siendo la misma que era antes? Esta indudable paradoja no aparece en una teoría, tal como la originalmente preferida por Newton (y parece que también por Galileo), en la que la luz se comporta como partículas cuya velocidad depende de la velocidad de la fuente. En consecuencia, Galileo y Newtonpodían seguir viviendo cómodamente con un principio de relatividad.

Pero semejante imagen de la naturaleza de la luz había entrado en conflicto con la observación a lo largo de los años, como era el caso de observaciones de estrellas dobles lejanas que mostraban que la velocidad de la luz era independiente de la de su fuente. Por el contrario, la teoría de Maxwell había ganado fuerza, no sólo por el poderoso apoyo que obtuvo de la observación (muy especialmente en los experimentos de Heinrich Hertz en 1.888), sino también por la naturaleza convincente y unificadora de la propia teoría, por la que las leyes que gobiernan los campos eléctricos, los campos magnéticos y la luz están todos subsumidos en un esquema matemático de notable elegancia y simplicidad.

En la teoría de Maxwell, la luz toma forma de ondas, no de partículas, y debemos enfrentarnos al hecho de que en esta teoría hay realmente una velocidad fija a la que deben viajar las ondas luminosas. El punto de vista geométrico-espaciotemporal nos proporciona una ruta particularmente clara hacia la solución de la paradoja que presenta el conflicto entre la teoría de Maxwell y el principio de relatividad.

El día que podamos comprender lo que es la luz, habremos logrado secar todas las fuentes de nuestra inmensa ignorancia

Este punto de vista espaciotemporal no fue el que Einstein adoptó originalmente (ni fue el punto de vista de Lorentz, ni siquiera, al parecer, de Poincaré), pero, mirando en retrospectiva, podemos ver la potencia de este enfoque. Por el momento, ignoremos la gravedad y las sutilezas y complicaciones asociadas que proporciona el principio de equivalencia y otras complejas cuestiones, que estimo aburrirían al lector no especialista, hablando de que en el espacio-tiempo se pueden concebir familias de todos los diferentes rayos de luz que pasan a ser familias de líneas de universo, etc.

Imagen relacionada

Baste saber que, como quedó demostrado por Einstein, la luz, independientemente de su fuente y de la velocidad con que ésta se pueda mover, tendrá siempre la misma velocidad en el vacío, c, o 299.792.458 metros por segundo. Cuando la luz atraviesa un medio material, su velocidad se reduce. Precisamente, es la velocidad c el límite alcanzable de la velocidad más alta del universo. Es una constante universal y, como hemos dicho, es independiente de la velocidad del observador y de la fuente emisora.

Aquí, en este mismo trabajo, tenemos un ejemplo de lo que la mente es. Comencé hablando de una cosa y, sin que me diera cuenta, he recorrido caminos que, ni pensaba recorrer cuando comencé a escribir.

¡Qué misterios!

emilio silvera


¿Pueden llegarnos mensajes del futuro?

$
0
0

Resultado de imagen de Mensajes desde el futuro

Investigadores proponen una solución a algunos problemas de la Física Cuántica, como los viajes en el tiempo o la paradoja del abuelo

Las curvas temporales abiertas podrían resolver muchos problemas de la Física

Las curvas temporales abiertas podrían resolver muchos problemas de la Física – NPJ QUANTUM INFORMATION

Un grupo internacional de investigadores, liderados por la Universidad de Singapur, acaba de demostrar que numerosos problemas de la Física Cuántica, hoy por hoy irresolubles, podrían solucionarse fácilmente con un ordenador cuántico que viajara a través de “curvas temporales abiertas”. El trabajo, que ha levantado gran expectación en la comunidad científica, se publica en la revista Nature Quantum Information.

Hace ya una década que el físico Dave Bacon, que en la actualidad trabaja para Google, demostró que la mejor forma de resolver rápidamente todo un grupo de problemas de la Física (llamados NP-completo) y que traían de cabeza a los matemáticos, era utilizando un ordenador cuántico que se desplazara a través del tiempo. ¿La razón? El hipotético ordenador de Bacon podría moverse con libertad a través de una serie de “curvas cerradas de tiempo”, atajos en el tejido espaciotemporal que se curvan sobre sí mismos. La relatividad general en efecto, permite que dichos caminos puedan existir a través de las contorsiones en el espacio-tiempo que conocemos como agujeros de gusano.

Resultado de imagen de Caminos a través de agujeros de gusano

¿Pero para qué enviar un mensaje en el tiempo y bloquearlo después para que nadie pueda leer su contenido? Sencillamente porque el procedimiento podría ser la clave que se necesitaba para resolver problemas que, actualmente, no tienen solución alguna. Y es que incluso un mensaje “sin abrir” puede resultar tremendamente útil, especialmente si los científicos “entrelazan” el mensaje con algún otro sistema antes de enviarlo.

Como se sabe, el entrelazamiento cuántico es un efecto extraño que es posible solo en el mundo de la Física subatómica, y consiste en una suerte de “comunicación instantánea” entre partículas que, como si fueran hermanos gemelos diminutos, “saben” al instante lo que le ha sucedido a las demás partículas entrelazadas y reaccionan al instante, sin importar la distancia que las separe. Y lo que proponen los investigadores es precisamente eso, crear un entrelazamiento entre el mensaje enviado a través del tiempo y el sistema del laboratorio. Una correlación que podría alimentar y potenciar la computación cuántica.

Resultado de imagen de Representar Curvas temporales cerradas

Sin embargo, las curvas temporales cerradas conllevan no pocos problemas. En general, los físicos creen que, aunque son teóricamente posibles, algo debe de estar evitando que ese tipo de desplazamientos temporales se produzcan en la Naturaleza. De otra forma, argumentan, podrían darse todo tipo de paradojas, entre ellas la clásica de que alguien podría viajar al pasado y matar a su abuelo, impidiendo así su propia existencia.

Y no solo es la familia la que estaría amenazada por unos viajes así. En efecto, romper el flujo temporal, dejando a un lado el principio de causalidad (un acontecimiento causa otro, que causa otro, y otro…) también puede tener consecuencias para la propia Física cuántica. A lo largo de las dos décadas pasadas los investigadores han mostrado hasta la saciedad que los principios mismos sobre los que se basa la Física Cuántica se quiebran en pedazos ante la presencia de curvas temporales cerradas. Por ejemplo, se puede quebrar el principio de incertidumbre, que establece la imposibilidad de conocer al mismo tiempo determinados pares de magnitudes físicas de una partícula (como la velocidad y el momento). O incluso dejar a un lado el Teorema de no Clonación, que dice que los estados cuánticos no se pueden copiar y que constituye uno de los pilares más sólidos de la Mecánica Cuántica.

Evitar las paradojas

 Resultado de imagen de Representar Curvas temporales abiertas

Sin embargo, el nuevo trabajo muestra que un ordenador cuántico sería capaz de resolver problemas hasta ahora irresolubles si en vez de por curvas cerradas, se desplazara a través de “curvas temporales abiertas”, que no crean los problemas de causalidad anteriormente descritos. Esto se debe a que dichas curvas no permiten la interacción directa con cualquier cosa en el propio pasado del objeto: las partículas viajeras del tiempo (o, para ser más exactos, los datos que contienen) nunca interaccionarían con sí mismas.

Pra Mila Gu, de la Universidad de Singapur y director de la investigación, de esta forma “evitamos las paradojas clásicas, como la de los abuelos, aunque seguimos consiguiendo todos esos resultados extraños”.

Imagen relacionada

“Cada vez que presentamos la idea -afirma por su parte Jayne Thompson, coautor de la investigación- todo el mundo dice que no hay forma de que esto pueda tener un efecto”. Pero sí que la hay. Las partículas enviadas de esta forma a través de un bucle temporal pueden, de hecho, ganar un enorme poder de “super computación”, incluso si jamás interactúan con nada del pasado. “La razón se debe a que algunos datos se almacenan en las correlaciones de entrelazado: y esto es precisamente lo que estamos aprovechando”, asegura Thompson.

Sin embargo, no todos los físicos piensan que estas líneas de tiempo abiertas tengan más posibilidades de manifestarse en el Universo físico que las líneas cerradas. Y pueden que tengan razón. Uno de los principales argumentos en contra de la existencia de curvas temporales cerradas es que nadie, que sepamos, nos ha visitado nunca desde el futuro. Un argumento que, por lo menos, no es válido con las curvas temporales abiertas, ya que en ellas cualquier mensaje procedente del futuro resultaría bloqueado.

¿Los Agujeros Negros se evaporan?

$
0
0

 

 

ABC- NOTICIAS DE CIENCIA

S. Hawking tenía razón: Los agujeros negros se evaporan

 

Logran, por primera vez, observar en laboratorio la teoría que el físico británico formuló en 1974

 

Un equipo de investigadores del Instituto Technion de Tecnología de Israel, dirigidos por el físico Jeff Steinhauer, acaba de publicar en Nature un artículo en el que se demuestra, por primera vez, la veracidad de la predicción que Stephen Hawking hizo en 1974: que los agujeros negros se evaporan a lo largo del tiempo hasta desaparecer por completo.

Según la teoría del genial físico británico, en efecto, los agujeros negros no son, a pesar de su sugestivo nombre, totalmente negros, sino que emiten partículas, una tenue radiación que, en su honor, fue bautizada como radiación Hawking y que extrae lentamente energía del agujero negro hasta dejarlo exhausto. Casi desde el principio, la idea de Hawking fue dada por buena por la inmensa mayoría de los científicos, aunque por el momento ha resultado imposible de probar. Algo que sí han conseguido Jeff Steinhauer y sus colegas.

Resultado de imagen de La radiación de los agujeros negros

“Un agujero negro emite radiación como un cuerpo caliente a la temperatura de Hawking. Si su valor es muy alto, la radiación de Hawking consiste en partículas de todo tipo (fotones, gravitones, bosones vectoriales, bosones de Higgs, leptones y hadrones), pero si su valor es “bajo” solo emite fotones y gravitones.”

En un experimento de laboratorio, en efecto, este equipo de físicos ha logrado “ver” a la radiación Hawking en acción, cosa que nuestra tecnología no permite aún hacer directamente en el espacio, con agujeros negros reales. Para conseguirlo, los investigadores “fabricaron” un agujero negro virtual utilizando ondas de sonido y algunas de las formas de materia más extrañas y frías del Universo.

La radiación Hawking, en acción

 

Dibujo20130204 black holes - hawking radiation - usual particle-antiparticle image

“La imagen de un par partícula-antipartícula en el entorno del agujero negro fue introducida por Hawking, pero no se puede olvidar que la longitud de onda más probable de estas partículas es comparable al radio de Schwarschild. Por tanto, no tiene sentido imaginar las partículas como “pequeñas bolitas” cerca den un horizonte de sucesos enorme (como se muestra en esta figura). Las partículas tienen una longitud de onda λ tan grande como el agujero negro y se separan una distancia similar a λ, evitando aniquilarse entresí gracias a las fuerzas de marea gravitatorias.”

 

 

Los agujeros negros ejercen una gravedad tan fuerte que incluso los fotones (las partículas de las que está hecha la luz) no consiguen escapar cuando son capturados. Por otro lado, la Mecánica cuántica nos dice que lo que nosotros conocemos como “vacío espacial” es, en realidad, un auténtico hervidero de “partículas virtuales” que entran y salen de la existencia en pares de materia y antimateria.

Normalmente, y casi nada más aparecer, estas parejas de partículas virtuales se aniquilan unas a otras. Pero en la frontera de un agujero negro, donde la gravedad es extrema, puede suceder que esos pares de partículas se separen, una absorbida por el agujero, la otra lanzada a toda velocidad al espacio. La partícula que es absorbida tiene energía negativa, lo que reduce tanto la energía como la masa del agujero. Por eso, cuantas más de estas partículas absorba el agujero negro, más energía perderá, hasta el punto de llegar a evaporarse por completo. Las partículas “fugitivas”, por su parte, son lo que conocemos como radiación Hawking.

Resultado de imagen de La radiación de los agujeros negros

En un agujero negro real, la radiación Hawking es tan débil que nadie ha conseguido medirla. Por eso, desde hace años se buscaba la forma de observarla en laboratorio. Y ahora, Steinhauer y su equipo lo han conseguido.

En su experimento, los investigadores utilizaron lo que se conoce como “condensado Bose-Einstein, una forma de gas extremadamente frío, para imitar el horizonte de sucesos de un agujero negro, la frontera invisible que, una vez atravesada, no permite que nada pueda regresar. En medio del gas, colocaron después un obstáculo, una especie de “acantilado” que obligaba al gas a caer en forma de cascada, convirtiendo así una cantidad suficiente de energía potencial en energía cinética como para que el gas fluyera a una velocidad mayor que la del sonido.

Vibraciones cristalinas de fonones

Después, y en lugar de pares de partículas materia-antimateria, los físicos utilizaron parejas de fonones, u ondas de sonido cuántico, inmersas en el flujo de gas. El fonón que se quedaba en el lado “lento” conseguía viajar en contra del flujo de gas, alejándose de la cascada, mientras que su pareja, el fonón del lado “rápido”, quedaba inevitablemente atrapado por la cascada, el “agujero negro” de gas a velocidad supersónica.

Según ha explicado el propio Steinhauer a la revista Live Science, “es como si trataras de ir contra una corriente que fluye más rápido de lo que puedes nadar. Sentirías que estás avanzando, pero en realidad vas hacia atrás. Y eso es análogo a lo que le sucede a un fotón que intenta salir de un agujero negro, pero al que la gravedad hace ir en dirección contraria”.

Stephen Hawking predijo que la radiación de las partículas emitidas por el agujero negro permanecería en un espectro continuo de longitudes de onda y energías. Y dijo también que sería posible describir el fenómeno con una única temperatura, que solo dependía de la cantidad de masa que tuviera el agujero negro. En su experimento, Steinhauer y su equipo lograron confirmar las dos predicciones en el interior del peculiar agujero negro sónico de su laboratorio.

¡El universo! ¡La física!

$
0
0
Resultado de imagen de Inmensas formaciones del UniversoResultado de imagen de Inmensas formaciones del UniversoImagen relacionada

Cuando me sumerjo en los misterios y maravillas que encierra el universo, no puedo dejar de sorprenderme por sus complejas y bellas formaciones, la inmensidad, la diversidad, las fuerzas que están presentes, los objetos que lo pueblan, etc.

Pensemos por ejemplo que un átomo tiene aproximadamente 10-8 centímetros de diámetro. En los sólidos y líquidos ordinarios los átomos están muy juntos, casi en contacto mutuo. La densidad de los sólidos y líquidos ordinarios depende por tanto del tamaño exacto de los átomos, del grado de empaquetamiento y del peso de los distintos átomos.

Capa electrónica 076 Osmio.svg

De los sólidos ordinarios, el menos denso es el hidrógeno solidificado, con una densidad de 0’076 gramos por cm3. El más denso es un metal raro, el osmio, con una densidad de 22’48 gramos/cm3.

Si los átomos fuesen bolas macizas e incompresibles, el osmio sería el material más denso posible, y un centímetro cúbico de materia jamás podría pesar ni un kilogramo, y mucho menos toneladas.

Pero los átomos no son macizos. El físico neozelandés experimentador por excelencia, Ernest Ruthertord, demostró en 1.909 que los átomos eran en su mayor parte espacio vacío. La corteza exterior de los átomos contiene sólo electrones ligerísimos, mientras que el 99’9% de la masa del átomo está concentrada en una estructura diminuta situada en el centro: el núcleo atómico.

Resultado de imagen de El núcleo atómico

El núcleo atómico tiene un diámetro de unos 10-15 cm. (aproximadamente 1/100.000 del propio átomo). Si los átomos de una esfera de materia se pudieran estrujar hasta el punto de desplazar todos los electrones y dejar a los núcleos atómicos en contacto mutuo, el diámetro de la esfera disminuiría hasta un nivel de 1/100.000 de su tamaño original.

De manera análoga, si se pudiera comprimir la Tierra hasta dejarla reducida a un balón de núcleos atómicos, toda su materia quedaría reducida a una esfera de unos 130 metros de diámetro. En esas mismas condiciones, el Sol mediría 13’7 km. de diámetro en lugar de los 1.392.530 km. que realmente mide. Y si pudiéramos convertir toda la materia conocida del universo en núcleos atómicos en contacto, obtendríamos una esfera de sólo algunos cientos de miles de km. de diámetro, que cabría cómodamente dentro del cinturón de asteroides del Sistema Solar.

Resultado de imagen de El calor y la presión dentro de las estrellas

El calor y la presión que reinan en el centro de las estrellas rompen la estructura atómica y permiten que los núcleos atómicos empiecen a empaquetarse unos junto a otros. Las densidades en el centro del Sol son mucho más altas que la del osmio, pero como los núcleos atómicos se mueven de un lado a otros sin impedimento alguno, el material sigue siendo un gas.  Hay estrellas que se componen casi por entero de tales átomos destrozados.  La compañera de la estrella Sirio es una “enana blanca” no mayor que el planeta Urano, y sin embargo tiene una masa parecida a la del Sol.

Los núcleos atómicos se componen de protones y neutrones. Ya hemos dicho antes que todos los protones tienen carga eléctrica positiva y se repelen entre sí, de modo que en un lugar dado no se pueden reunir más de un centenar de ellos. Los neutrones, por el contrario, no tienen carga eléctrica y en condiciones adecuadas pueden estar juntos y empaquetados un enorme número de ellos para formar una “estrella de neutrones”. Los púlsares, según se cree, son estrellas de neutrones en rápida rotación.

Resultado de imagen de El Sol

Estas estrellas se forman cuando las estrellas de 2 – 3 masas solares, agotado el combustible nuclear, no pueden continuar fusionando el hidrógeno en helio, el helio en oxígeno, el oxigeno en carbono, etc, y explotan en supernovas. Las capas exteriores se volatilizan y son expulsados al espacio; el resto de la estrella (su mayor parte), al quedar a merced de la fuerza gravitatoria, es literalmente aplastada bajo su propio peso hasta tal punto que los electrones se funden con los protones y se forman neutrones que se comprimen de manera increíble hasta que se degeneran y emiten una fuerza que contrarresta la gravedad, quedándose estabilizada como estrella de neutrones.

Resultado de imagen de Estrella de neutrones

Si el Sol se convirtiera en una estrella de neutrones, toda su masa quedaría concentrada en una pelota cuyo diámetro sería de 1/100.000 del actual, y su volumen (1/100.000)3, o lo que es lo mismo 1/1.000.000.000.000.000 (una milmillonésima) del actual. Su densidad sería, por tanto, 1.000.000.000.000.000 (mil billones) de veces superior a la que tiene ahora.

La densidad global del Sol hoy día es de 1’4 gramos/cm3. Una estrella de neutrones a partir del Sol tendría una densidad que se reflejaría mediante 1.400.000.000.000.000 gramos por cm3. Es decir, un centímetro cúbico de una estrella de neutrones puede llegar a pesar 1.400.000.000 (mil cuatrocientos millones de toneladas). ¡Qué barbaridad!

Objetos como estos pueblan el universo, e incluso más sorprendentes todavía, como es el caso de los agujeros negros explicado en páginas anteriores de este mismo trabajo.

Resultado de imagen de Grandes Nebulosas

Cuando hablamos de las cosas del universo estamos hablando de cosas muy grandes. Cualquiera se podría preguntar, por ejemplo: ¿hasta cuándo podrá mantener el Sol la vida en la Tierra?

Está claro que podrá hacerlo mientras radie energía y nos envíe luz y calor que la haga posible tal como la conocemos.

Como ya explicamos antes, la radiación del Sol proviene de la fusión del hidrógeno en helio. Para producir la radiación vertida por el sol se necesita una cantidad ingente de fusión: cada segundo tienen que fusionarse 654.600.000 toneladas de hidrógeno en 650.000.000 toneladas de helio  (las 4.600.000 toneladas restantes se convierten en energía de radiación y las pierde el Sol para siempre. La ínfima porción de esta energía que incide sobre la Tierra basta para mantener toda la vida en nuestro planeta).

Resultado de imagen de La Fusión del SolResultado de imagen de La Fusión del Sol

Nadie diría que con este consumo tan alto de hidrógeno por segundo, el Sol pudiera durar mucho tiempo, pero es que ese cálculo no tiene en cuenta el enorme tamaño del Sol. Su masa totaliza 2.200.000.000.000.000. 000.000.000.000 (más de dos mil cuatrillones) de toneladas. Un 53% de esta masa es hidrógeno, lo cual significa que el Sol contiene en la actualidad una cantidad de 1.166.000.000.000.000.000.0000.0000.000 toneladas.

Para completar datos diré que el resto de la masa del Sol es casi todo helio. Menos del 0’1 por 100 de su masa está constituido por átomos más complicados que el helio. El helio es más compacto que el hidrógeno. En condiciones idénticas, un número dado de átomos de helio tiene una masa cuatro veces mayor el mismo número de átomos de hidrógeno. O dicho de otra manera: una masa dada de helio ocupa menos espacio que la misma masa de hidrógeno. En función del volumen –el espacio ocupado–, el Sol es hidrógeno en un 80 por ciento.

Resultado de imagen de La fusión de Hidrógeno en Helio

El Proceso de Fusión del Hidrógeno. En el ciclo básico de fusión del Hidrógeno, cuatro núcleos de hidrógeno (protones) se unen para formar un núcleo de Helio. … En realidad existen electrones, neutrinos y fotones involucrados en esta historia que hacen posible la fusión de Hidrógeno hacia helio .

Si suponemos que el Sol fue en origen todo hidrógeno, que siempre ha convertido hidrógeno en helio al ritmo dicho de 654 millones de toneladas  por segundo y que lo seguirá haciendo hasta el final, se calcula que ha estado radiando desde hace unos 4.000 millones de años y que seguirá haciéndolo durante otros cinco mil millones de años más.

Pero las cosas no son tan simples. El Sol es una estrella de segunda generación, constituida a partir de gas y polvo cósmico desperdigado por estrellas que se habían quemado y explotado miles de millones de años atrás.  Así pues, la materia prima del Sol contenía ya mucho helio desde el principio, lo que nos lleva a pensar que el final puede estar algo más cercano.

Por otra parte, el Sol no continuará radiando exactamente al mismo ritmo que ahora. El hidrógeno y el helio no están perfectamente entremezclados. El helio está concentrado en el núcleo central y la reacción de fusión se produce en la superficie del núcleo.

Resultado de imagen de La Tierra será una gigante roja

A medida que el Sol siga radiando, irá adquiriendo una masa cada vez mayor ese núcleo de helio y la temperatura en el centro aumentará. En última instancia, la temperatura sube lo suficiente como para transformar los átomos de helio en átomos más complicados. Hasta entonces el Sol radiará más o menos como ahora, pero una vez que comience la fusión del helio, empezará a expandirse y a convertirse poco a poco en una gigante roja. El calor se hará insoportable en la Tierra, los océanos se evaporarán y el planeta dejará de albergar vida en la forma que la conocemos.

La esfera del Sol, antes de explotar para convertirse en una enana blanca, aumentará engullendo a Mercurio y a Venus y quedará cerca del planeta Tierra, que para entonces será un planeta yermo.

Los astrónomos estiman que el Sol entrará en esta nueva fase en unos 5 ó 6 mil millones de años. Así que el tiempo que nos queda por delante es como para no alarmarse todavía. Sin embargo, el no pensar en ello… no parece conveniente.

Espero que al lector de este trabajo, encargado por la Asociación Cultural “Amigos de la Física 137, e/hc”, les esté entreteniendo y sobre todo interesando los temas que aquí hemos tratado, siempre con las miras puestas en difundir el conocimiento científico de temas de la naturaleza como la astronomía y la física. Tratamos de elegir temas de interés y aquellos que han llamado la atención del público en general, explicándolos y respondiendo a preguntas que seguramente les gustaría conocer, tales como: ¿por qué la Luna muestra siempre la misma cara hacia la Tierra?

La atracción gravitatoria de la Luna sobre la Tierra hace subir el nivel de los océanos a ambos lados de nuestro planeta y crea así dos abultamientos. A medida que la Tierra gira de oeste a este, estos dos bultos – de los cuales uno mira hacia la Luna y el otro en dirección contraria – se desplazan de este a oeste alrededor de la Tierra.

Resultado de imagen de Mares poco  profundos de BeringResultado de imagen de Mares poco  profundos de Irlanda

Al efectuar este desplazamiento, los dos bultos rozan contra el fondo de los mares poco profundos, como el de Bering o el de Irlanda. Tal rozamiento convierte energía de rotación en calor, y este consumo de la energía de rotación terrestre hace que el movimiento de rotación de la Tierra alrededor de su eje vaya disminuyendo poco a poco. Las mareas actúan como freno sobre la rotación de la Tierra, y como consecuencia de ello, los días terrestres se van alargando un segundo cada mil años.

Pero no es sólo el agua del océano lo que sube de nivel en respuesta a la gravedad lunar. La corteza sólida de la Tierra también acusa el efecto, aunque en medida menos notable. El resultado son dos pequeños abultamientos rocosos que van girando alrededor de la Tierra, el uno mirando hacia la Luna y el otro en la cara opuesta de nuestro planeta. Durante ese desplazamiento, el rozamiento de una capa rocosa contra otra va minando también la energía de rotación terrestre. (Los bultos, claro está, no se mueven físicamente alrededor del planeta, sino que a medida que el planeta gira, remiten en un lugar y se forman en otro, según qué porciones de la superficie pasen por debajo de la Luna y sean atraídas por su fuerza de gravedad).

Resultado de imagen de La Luna

La Luna no tiene mares ni mareas en el sentido corriente. Sin embargo, la corteza sólida de la luna acusa la fuerte atracción gravitacional de la Tierra, y no hay que olvidar que ésta es 80 veces más grande que la Luna. El abultamiento provocado en la superficie lunar es mucho mayor que el de la superficie terrestre. Por tanto, si la Luna rotase en un periodo de 24 horas, estaría sometida a un rozamiento muchísimo mayor que la Tierra. Además, como nuestro satélite tiene una masa mucho menor que la Tierra, su energía total de rotación sería, ya de entrada, para periodos de rotación iguales, mucho menor.

Así pues, la Luna, con una reserva inicial de energía muy pequeña, socavada rápidamente por los grandes bultos provocados por la Tierra, tuvo que sufrir una disminución relativamente rápida de su periodo de rotación.  Hace seguramente muchos millones de años debió de decelerarse hasta el punto de que el día lunar se igualó con el mes lunar. De ahí en adelante, la Luna siempre mostraría la misma cara hacia el planeta Tierra.

Resultado de imagen de La luna y las mareasResultado de imagen de La luna y las mareasResultado de imagen de La luna y las mareas

Esto, a su vez, congela los abultamientos en un aposición fija. Unos de ellos miran hacia la Tierra desde el centro mismo de la cara lunar que nosotros vemos, mientras que el otro está apuntando en dirección contraria desde el centro mismo de la cara lunar que no podemos ver. Puesto que las dos caras no cambian de posición a medida que la Luna gira alrededor de la Tierra, los bultos no experimentan ningún nuevo cambio ni tampoco se produce rozamiento alguno que altere el periodo de rotación del satélite. La luna continuará mostrándonos la misma cara indefinidamente; lo cual, como veis, no es ninguna coincidencia, sino la consecuencia inevitable de la gravitación y del rozamiento.

La Luna es un caso relativamente simple. En ciertas condiciones, el rozamiento debido a las mareas puede dar lugar a condiciones de estabilidad más complicadas.

Resultado de imagen de Mercurio y el Sol

Durante unos ochenta años, por ejemplo, se pensó que Mercurio (el planeta más cercan al Sol y el más afectado por la fuerza gravitatoria solar) ofrecía siempre la misma cara al Sol, por el mismo motivo que la Luna ofrece siempre la misma cara a la Tierra. Pero se ha comprobado que, en el caso de este planeta, los efectos del rozamiento producen un periodo estable de rotación de 58 días, que es justamente dos tercios de los 88 días que constituyen el período de revolución de Mercurio alrededor del Sol.

Hay tantas cosas que aprender que el corto tiempo que se nos permite estar aquí es totalmente insuficiente para conocer todo lo que nos gustaría. ¿Hay algo más penoso que la ignorancia?

Continuemos pues aprendiendo cosas nuevas.

En la página 283 dejé una reseña de lo que se entiende por entropía y así sabemos que la energía sólo puede ser convertida en trabajo cuando    dentro del sistema concreto que se esté utilizando, la concentración de energía no es uniforme. La energía tiende entonces a fluir desde el punto de mayor concentración al de menor concentración, hasta establecer la uniformidad. La obtención de trabajo a partir de energía consiste precisamente en aprovechar este flujo.

Resultado de imagen de El agua de un río en la montaña

El agua de un río está más alta y tiene más energía gravitatoria en el manantial del que mana en lo alto de la montaña y menos energía en el llano en la desembocadura, donde fluye suave y tranquila. Por eso fluye el agua río abajo hasta el mar (si no fuese por la lluvia, todas las aguas continentales fluirían montaña abajo hasta el mar y el nivel del océano subiría ligeramente. La energía gravitatoria total permanecería igual, pero estaría distribuida con mayor uniformidad).

Una rueda hidráulica gira gracias al agua que corre ladera abajo: ese agua puede realizar un trabajo. El agua sobre una superficie horizontal no puede realizar trabajo, aunque esté sobre una meseta muy alta y posea una energía gravitatoria excepcional. El factor crucial es la diferencia en la concentración de energía y el flujo hacia la uniformidad.

Y lo mismo reza para cualquier clase de energía. En las máquinas de vapor hay un depósito de calor que convierte el agua en vapor, y otro depósito frío que vuelve a condensar el vapor en agua. El factor decisivo es esta diferencia de temperatura. Trabajando a un mismo y único nivel de temperatura no se puede extraer ningún trabajo, por muy alta que sea aquella.

Resultado de imagen de La entrop

Resultado de imagen de La entropResultado de imagen de La entrop

El término “entropía” lo introdujo el físico alemán Rudolf J. E. Clausius en 1.849 para representar el grado de uniformidad con que está distribuida la energía, sea de la clase que sea. Cuanto más uniforme, mayor la entropía. Cuando la energía está distribuida de manera perfectamente uniforme, la entropía es máxima para el sistema en cuestión.

Clausius observó que cualquier diferencia de energía dentro de un sistema tiende siempre a igualarse por sí sola. Si colocamos un objeto caliente junto a otro frío, el calor fluye de manera que se transmite del caliente al frío hasta que se igualan las temperaturas de ambos cuerpos. Si tenemos dos depósitos de agua comunicados entre sí y el nivel de uno de ellos es más alto que el otro, la atracción gravitatoria hará que el primero baje y el segundo suba, hasta que ambos niveles se igualen y la energía gravitatoria quede distribuida uniformemente.

Clausius afirmó, por tanto, que en la naturaleza era regla general que las diferencias en las concentraciones de energía tendían a igualarse. O dicho de otra manera: que la entropía aumenta con el tiempo.

Resultado de imagen de Termodinámica

El estudio del flujo de energía desde puntos de alta concentración a otros de baja concentración se llevó a cabo de modo especialmente complejo en relación con la energía térmica. Por eso, el estudio del flujo de energía y de los intercambios de energía y trabajo recibió el nombre de “termodinámica”, que en griego significa “movimiento de calor”.

Con anterioridad se había llegado ya a la conclusión de que la energía no podía ser destruida ni creada. Esta regla es tan fundamental que se la denomina “primer principio de la termodinámica”.

La idea sugerida por Clausius de que la entropía aumenta con el tiempo es una regla general no menos básica, y que denomina “segundo principio de la termodinámica.”

Según este segundo principio, la entropía aumenta constantemente, lo cual significa que las diferencias en la concentración de energía también van despareciendo. Cuando todas las diferencias en la concentración de energía se han igualado por completo, no se puede extraer más trabajo, ni pueden producirse cambios.

¿Está degradándose el universo?

emilio silvera

Recopilado de distintas fuentes, especialmente de Isaac ASimov

Acercarse a la velocidad de la luz… trae consecuencias

$
0
0

Todos sabemos de los fenómenos que se pueden producir en algunos aspectos de la relatividad especial de Einstein. Él no quiso llamarla de esa manera y, había pensado que “teoría de la invariabilidad” que reflejaba el carácter invariable de la velocidad de la luz, entre otras cosas, estaría bien. Sin embargo, finalmente se quedó como la Teoría de la Relatividad Especial. La obra de Eintein demostraba que conceptos tales como espacio y tiempo, que anteriormente parecían estar sepados y ser absolutos, en realidad están entrelazados y son relativos. Einstein demostró además que otras propiedades físicas del universo, sorprendentemente, también están interrelacionadas. La más famosa de sus fórmulas constituye uno de los ejemplos más importantes.

En esta escueta fórmula Einstein afirma que la energía (E) de un objeto y su masa (m) son conceptos independientes; podemos determinar la energía a partir de la masa del objeto (multiplicando esta dos veces por la velocidad de la luz, o sea por c2) o podemos determinar la masa conociendo su energía (dividiendo esta úlñtima dos veces por la velocidad de la luz). En otras palabras, la energía y la masa son las caras de una misma moneda. Claro que, el tipo de cambio es grande (c2 es una cantidad considerable). Una masa pequeña llega a producir una cantidad considerable de energía.

Nube de hongo sobre Hiroshima después de haber soltado la bomba Little Boy.
La nube de hongo creada por la bomba Fat Man como resultado de la explosión nuclear sobre Nagasaki.
   Nube del hongo sobre Hirosima y
   Nube del hongo sobre Nagasaki
En Hirosima se utilizó como arma el devastador poder destructivo obtenido de la conversión en energía de menos del uno por ciento de 900 gramos de uranio; algún día,  en centrales energéticas de fusiòn podremos utilizar productivamente la fórmula de Eisntein para bien de la Humanidad y satisfacer la demanda de energía del mundo moderno aprovechando la materia prima inagotable que tenemos en el agua de los mares y océanos de la Tierra.
Resultado de imagen de Haces de muones corriendo a la velocidad de la luz en el LHC multiplican su masa
Los conceptos que ponen de relieve la Teoría de la Relatividad Especial, ponen de relieve principios fundamentales y una de las cosas que nunca podremos hacer es ir más rápido que la velocidad de la luz. Algunos de ustedes se podrá preguntar ¿por qué no podemos coger un objeto, por ejemplo un muón, que un acelerador de partículas haya impulsado hasta conseguir que se mueva a 298 168 Km/s -el 99,5 por ciento de la velocidad de la luz- y “empujarlo un poco más”, consiguiendo que vaya al 99,9 por ciento de la velocidad de la luz, y entonces”empujarlo realmente un poco más” para tratar de que cruce la barrera de la velocidad de la luz.

La energía que se comunica a un cuerpo libre puede integrarse en él de dos maneras distintas:

 

  1. En forma de velocidad, con lo cual aumenta la rapidez del movimiento.
  2. En forma de masa, con lo cual se hace “más pesado”.

La división entre estas dos formas de ganancia de energía, tal como la medimos nosotros, depende en primer lugar de la velocidad del cuerpo (medida, una vez más, por nosotros).

 

 

Resultado de imagen de Puente de Einstein-Rosen

 

Posiblemente, si tenemos el tiempo necesario para ello, al final encontraremos el camino para poder “burlar” (que no superar) la velocidad de la luz en el vacío, y, de esa manera podremos, finalmente, ir a otros mundos allí fuera, en las estrellas.

 

Estamos tratando de cruzar la barrera de la velocidad de la luz pero, Einstein, en su fórmula nos explica que tal cosa no es posible, y, el esfuerzo no tendría éxito precisamente por lo que antes hemos explicado para las dos maneras en que se transmite la energía y se puede incorporar a un cuerpo libre.
Cuanto más rápido se mueve un objeto, más energía tiene y, a partir de la fórmula de Einsteon, vemos que cuanta más energía tiene un objeto, más masa posee. Por ejemplo, los muones que se desplacen al 99,9 por ciento de la velocidad de la luz pesan más que los muones inmóviles. De hecho, la verdad es que se vuelven 22 veces más pesados.
Resultado de imagen de La masa aumenta a velocidades cercanas a la de la luz
Pero, cuanto más masa tiene un objeto, más difícil es incrementar su velocidad. Una cosa es empujar una ligera bicleta  y otra muy distinta, empujar a un pesado camión. Así, a medida que un muón se mueve más rápido, se hace cada vez más difícil aumentar aún más su velocidad. Cuando se desplaza a un 99,999 por ciento de la velocidad de la luz, la masa de un muón se multiplica por 224; a un 99,99999999 por ciento de la velocidad de la luz se multiplica por un factor que es más de 70 000. Como la masa del muón aumenta sin limiter a medida que su velocidad se aproxima a la de la luz, sería necesario un impulso dado con una cantidad infinita de energía para alcanzar o superar la barrera de la velocidad de la luz. Por supuesto, esto es imposible de alcanzar y, en consecuencia, ningún objeto puede (en nuestro unhiverso) moverse más rápido que la luz (llegaría a tener una masa infinita) que es el limite de velocidad que podemos alcanzar y también, el limite para poder transmitir información.
Resultado de imagen de La Velocidad de la luz
La velocidad de la luz es de 300.000 kilómetros por segundo. Podría rodear la Tierra casi 7 veces cada segundo. Es una barrera, un límite en el Universo. Nada puede viajar a más velocidad. Además de ser insuperable, la velocidad de la luz parece ser uno de los fundamentos sobre los que se ha construido nuestro Universo.
Resultado de imagen de El Tiempo transcurre más lento para los viajeros a la velocidad de la luz
Desde nuestra nave en reposo relativo vemos cómo la luz recorre más distancia entre los espejos en la nave en movimiento que en la nuestra. El Tiempo transcurre más lento para nave viajera a velocidad relativista.

La luz se propaga en el vacío a una velocidad aproximada a los 30.000 millones (3×1010) de centímetros por segundo. La cantidad c2 representa el producto c×c, es decir: 3×1010 × 3×1010, ó 9×1020. Por tanto, c2 es igual a 900.000.000.000.000.000.000. Así pues, una masa de un gramo puede convertirse, en teoría, en 9×1020 ergios de energía.

Resultado de imagen de ergio unidades

El ergio es una unida muy pequeña de energía que equivale a: “Unidad de trabajo o energía utilizado en el sistema c.g.s y actúa definida como trabajo realizado por una fuerza de 1 dina cuando actúa a lo largo de una distancia de 1 cm: 1 ergio = 10-7 julios”. La kilocaloría, de nombre quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia convertido en energía daría 2’2 × 1010 (22 millones) de kilocalorías.  Una persona puede sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.

O digámoslo de otro modo: si fuese posible convertir en energía eléctrica la energía representada por un solo gramo de materia, bastaría para tener luciendo continuamente una bombilla de 100 vatios durante unos 28.200 años.

Claro que la luz, también es mucho más que todo eso y es una manisfestación electromagnetica como el resto de las radiaciones. A medida que la luz va desde una galaxia a otra más distante, esa luz se extiende como lo hace el espacio y eso hace que la luz, cuya longitud de onda es intrínsecamente corta, se convierta gradualmente en luz roja de longitud de onda más larga. Esa es la causa del desplazamiento hacia el rojo de los espectros de luz de las galaxias distantes.

¿Cómo se convierte el  “desplazamiento hacia el rojo” en una manera para medir distancias en el Universo? Todo se debe a un sorprendente descubrimiento realizado en 1926 en el observatorio del monte Wilson, cerca de Los Ángeles. Allí Edwin Hubble descubrió que el Universo se está expandiendo. Fue un hallazgo increíble, pues nadie se esperaba algo así. Al haber  “desplazamientos hacia el rojo” en todas direcciones, Hubble descubrió que todas las galaxias distantes del Universo se estaban separando entre sí, algo que hoy sabemos que está causado por la expansión del propio espacio.

                                                                         Efecto  Doppler

Vista desde la Tierra una galaxia no parece alejarse, pero sabemos que sí ocurre porque su luz en espectro aparece más desplazada hacia la zona del rojo de lo habitual para los elementos químicos que nos llegan de la misma. Una galaxia que se aleje a poca velocidad adquirirá un ligero tono rojizo, pero una galaxia que se aleje más rápidamente adquirirá un rojo más intenso, un mayor “desplazamiento hacia el rojo”. Pero Hubble también descubrió que las galaxias que se mueven a mayor velocidad, también son las que están más alejadas. Eso significa que cuanto mayor sea el  “desplazamiento hacia el rojo”, más lejos estará la galaxia.

Averiguando la velocidad de expansión del espacio y realizando los cálculos inversos, los cosmólogos han podido estimar la edad del Universo en unos 13700 millones de años. Así que lo más lejos que podemos observar en cualquier dirección es 13700 millones de años luz. La luz no ha podido viajar más. Es el denominado “Universo observable”. Una esfera de poco menos de 13700 millones de años luz en todas direcciones que contiene todo lo que podemos ver. No hay razón para considerar que el “Universo observable” abarque todo el tamaño del Universo. Podría ser mayor, pero eso es lo que podríamos ver dado el tiempo que la luz ha viajado.
Resultado de imagen de Expansión del Universo en imágenes Gifs
Un astrónomo situado en una galaxia del extremo del horizonte no puede ver ninguna de las galaxias situadas en el otro extremo de nuestro Universo. Pero puede ver galaxias situadas a unos 13.700 millones de años luz en la otra dirección y así sucesivamente. Por lo que respecta a los astrónomos de la Tierra, el límite de la velocidad de la luz los tiene atrapados. Si nos preguntáramos que está ocurriendo más allá de nuestro “Universo observable” tendríamos que afrontar el hecho de que la velocidad de la luz es realmente una barrera.

 

El GPS consta de una red de 24 satélites, que orbitan en la Tierra a una altura de 20000 km sobre la superficie. En cualquier momento, cualquier vehículo donde se halle instalado recibe la señal de al menos 4 satélites y compara la duración de las distancias a que se encuentran, a la velocidad de la luz, para calcular su ubicación exacta  en la superficie. Todo el sistema depende de relojes extraordinariamente precisos y cuando los ingenieros los diseñaron sabían que los satélites se moverían a casi 11300 km/h, una velocidad suficiente para ralentizar sus relojes una diminuta fracción de segundo. Los ingenieros incluyeron en el sistema todas las diferencias de tiempo relativistas y eso les ha conferido una precisión impresionante. Como los relojes de los satélites avanzan a unas velocidades diferentes que los relojes situados sobre la Tierra, sin estas correcciones relativistas la posición del vehículo sería errónea.

                                                             Sistema  GPS

La distorsión del tiempo es sólo una de las extrañas consecuencias de viajar con velocidades próximas a las de la luz. Imaginemos que  continuamos con la “bici” pedaleando a velocidades próximas a las de la luz, entonces el espacio comienza a hacer cosas extrañas para el ciclista y para la bicicleta. Un observador apreciaría que la longitud de la bicicleta disminuye en la dirección del movimiento, que se encoge en dicha dirección. Este efecto se conoce como  “contracción de la longitud” y junto con la  “dilatación del tiempo” son percibidos así por un observador inmóvil cuando ve algo que se mueve con velocidades próximas a la de la luz.

Pero también el ciclista que se mueve a esta velocidad experimenta los efectos relativistas y su visión del mundo cambia radicalmente conforme su velocidad se aproxima a la de la luz. Las formas de las cosas comienzan a distorsionarse, todo se curva formándose una especie de túnel y los colores se van deformando también. Los cambios de color se explican por el fenómeno físico denominado  “efecto Doppler”, mientras que la distorsión de la forma ocurre por un fenómeno óptico denominado “aberración”.
La velocidad de la luz tiene otras peculiaridades en el lento movimiento de nuestro mundo. Peculiaridades que sí percibimos muy bien. La velocidad de la luz es constante, pero únicamente en el vacío del espacio. Cuando la luz atraviesa otros medios como el vidrio o algún fluido se ralentiza considerablemente. Si no lo hiciese así los telescopios o la visión humana, por ejemplo, no funcionarían.

La luz viaja más lentamente a través del agua, por eso vemos que la luz se refracta, se curva y se ondula cuando estamos bajo el agua. La vida tal y como la conocemos sería muy diferente si la luz no se propagara a velocidades diferentes a través de materiales diferentes. No podríamos ver y nuestros ojos no funcionarían igual. En un universo donde la luz se moviese a igual velocidad a través de todos los materiales, sabríamos muy poco del mundo que nos rodeara, sólo veríamos vagas manchas de luz y oscuridad. Esto ocurriría porque nuestros ojos dependen de unas lentes biológicas, los cristalinos, para enfocar las imágenes en nuestras  retinas. Al igual que las lentes de cristal funcionan porque la luz se ralentiza cuando las atraviesan. Pero, ¿por qué ocurre eso?. Porque la luz es absorbida por los átomos de cristal que la vuelven a irradiar a continuación, de manera que existe un retardo. La luz golpea un átomo que vibra y entonces reenvía la luz, de ahí viene el retardo. Este retardo también hace que la luz se curve cuando encuentra un cristal en forma de lente. Si se curva de forma adecuada la luz puede ser enfocada, recogida y ampliada. Para los astrónomos nada puede ser más importante. Menos mal que la luz se ralentiza cuando pasa a través del cristal, porque esa es la razón de que poseamos telescopios. Los tenemos gracias a que la luz se curva cuando atraviesa el cristal, así podemos concentrar grandes cantidades de luz en un solo punto y eso nos permite contemplar las lejanas maravillas del Universo. La luz pasa a través de la lente del telescopio a 200000 km/s, 2/3 de su velocidad en el vacío.
Resultado de imagen de La velocidad de la luz---- muro impenetrable
            Tendremos que buscar otras fórmulas, otros caminos para viajar burlando el muro de c

Aún nos enfrentamos a la velocidad de la luz como un muro impenetrable. Una velocidad que según Einstein nunca podrá ser rebasada. Sin embargo la Historia está llena de imposibles que se hicieron realidad. Por ejemplo, ¿seremos capaces de alcanzar las estrellas en naves que viajen más rápidas que la velocidad de la luz? Y si es así, ¿cuándo?

Esa es la idea básica del concepto de  “Agujero de gusano”, plegar el espacio sobre sí mismo y tomar un atajo a través del Universo. Hoy, naturalmente, esta idea pertenece aún al ámbito de la ciencia ficción. ¿Pero que aspecto tendría una máquina de agujeros de gusano? Probablemente sería enorme y su equipamiento podría estar situado sobre un gran número de asteroides, dispuestos sobre una esfera gigantesca. Una gran batería de rayos láser concentraría una enorme cantidad de energía sobre un solo punto. Habría que alcanzar una temperatura increíble con el fin de abrir un agujero, una burbuja o puerta que quizás nos llevase a otra parte del  Universo.
                            Nave interestelar de ficción
       
Otra estrategia diferente que nos permitiría viajar por el espacio a mayor velocidad que la luz es el  “Impulso por deformación” que en la literatura de ciencia ficción también se denomina “motor de curvatura”. ¿Qué puede frenar o poner límites a nuestra imaginación.
En realidad, yo estaba hablando de que la masa y la energía son dos aspectos de la misma cosa y de que, la velocidad de la luz produce extraños efectos para los objetos que tratan de sobrepasarlas, ?que digo? que tratan de acercarse a ella. Ya lo hemos visto más arriba con los muones que se transforman en otra cosa a medida que la velcoidad de la luz está más cerca de la que ellos llevan.
                                           Hay cuestiones que aún no podemos explicar
También aquí, en nuestro Sol, está presente la famosa ecuación de Einstein, por medio de lo que ella explica, es posible que las estrellas brillen en el cielo, que la Tierra tenga la luz y el calor necesarios para la vida y que las plantas puedan realizar su necesaria fotosíntesis.
emilio silvera

¿Qué es un bosón? y ¿qué es un bosón gauge?

$
0
0

Un bosón es una partícula elemtal (o estado ligado de partículas elementales, por ejemplo, un núcleo atómico o átomo) con espín entero, es decir, una partícula que obedece a la estadísitca de Bose-Einstein (estadísictica cuántica), de la cual deriva su nombre. Los bosones son importantes para el Modelo estándar de las partículas. Son bosones vectoriales de espín uno que hacen de intermediarios de las interacciones gobernadas por teorías gauge.

En física se ha sabido crear lo que se llama el Modelo estándar y, en él, los Bosones quedan asociados a las tres fuerzas que lo conforman, el fotón es el Bosón intermediario del electromagnetismo, los W+, w- y Zº son bosones gauge que transmiten la fuerza en la teoría electrodébil, mientras que los gluones son los bosones de la fuerza fuerte, los que se encargan de tener bien confinados a los Quarks conformando protones y neutrones para que el núcleo del átomo sea estable. La Gravedad, no se ha dejado meter en el modelo y, por eso su bosón no es de gauge. El gravitón que sería la partícula mediadora de la gravitación sería el hipotético cuanto de energía que se intercambia en la interacción gravitacional.

Ejemplos de los Bosones gauge son los fotones en electrodinámica cuántica (en física, el fotón se representa normalmente con el símbolo \gamma \!, que es la letra griega gamma), los gluones en cromodinámica cuántica y los bosones W y Z en el modelo de Winberg-Salam en la teoría electrodébil que unifica el electromagnetismo con la fuerza débil. Si la simetría  gauge de la teoría no está rota, el bosón gauge es no masivo. Ejemplos de bosones gauge no masivos son el fotón y el gluón.

Si la simetría gauge de la teoría  es una simetría rota el bosón gauge tiene masa no nula, ejemplo de ello son los bosones W y Z . Tratando la Gravedad, descrita según la teoría de la relatividad general, como una teoría gauge, el bosón gauge sería el gravitón, partícula no masiva y de espín dos.

File:Electron-positron-scattering.svg

Diagrama de Feynman mostrando el intercambio de un fotón virtual (simbolizado por una línea ondulada y \gamma \,) entre un positrón y un electrón.De esta manera podemos llegar a comprender la construcción que se ha hecho de las interacciones que están siempre intermediadas por un nosón mensajero de la fuerza.

En el modelo estándar, como queda explicado,  hay tres tipos de bosones de gauge: fotones, bosones W y Z y gluones. Cada uno corresponde a tres de las cuatro interacciones: fotones son los bosones de gauge de la interacciones electromagnética, los bosones W y Z traen la interacción débil, los gluones transportan la interacción fuerte.  El gravitón, que sería responsable por la interacción gravitacional, es una proposición teórica que a la fecha no ha sido detectada. Debido al confinamiento del color, los gluones aislados no aparecen a bajas energías.

Aquí, en el gráfico, quedan representadas todas las partículas del Modelo estándar, las familias de Quarks y Leptones que conforman la materia y los bones que intermedian en las interacciones o fuerzas fundamentales que están presentes en el Universo. La Gravedad no ha podido ser incluida y se ha negado a estar unida a las otras fuerzas. Así el bosón que la transmite, tampoco está en el modelo que es incompleto al dejar fuera la fuerza que mantiene unidos los planetas en los sistemas solares, a las galaxias en los cúmulos y nuestros pies unidos a la superficie del planeta que habitamos. Se busca una teoría que permita esta unión y, los físicos, la laman gravedad cuántica pero… ¡no aparece por ninguna parte!

 http://1.bp.blogspot.com/_HG3RuD3Hmls/TRET9YfPcqI/AAAAAAAAFhI/CtvwqESOw04/s1600/MC01.jpg

Llegados a este punto tendremos que retroceder, para poder comprender las cosas, hasta aquel trabajo de sólo ocho páginas que publicó  Max Planck  en 1.900 y  lo cambió todo. El mismo Planck se dio de que, todo lo que él había tenido por cierto durante cuarenta años, se derrumbaba con ese trabajo suyo que, venía a decirnos que el mundo de la materia y la nergía estaba hecho a partir de lo que el llamaba “cuantos”.

Supuso el nacimiento de la Mecánica Cuántica (MC), el fin del determinismo clásico y el comienzo de una nueva física, la Física Moderna, de la que la Cuántica sería uno de sus tres pilares junto con la Relatividad y la Teoría del Caos. Más tarde, ha aparecido otra teoría más moderna aún por comprobar, ¿las cuerdas…?

Imagen relacionada

El universo según la teoría de las cuerdas sería entonces una completa extensa polícroma SINFONIA ETERNA de vibraciones, un multiverso infinito de esferas,  una de ellas un universo independiente causalmente, en una de esas esferas nuestra vía láctea, en ella nuestro sistema solar, en él nuestro planeta, el planeta tierra en el cual por una secuencia milagrosa de hechos se dió origen a la vida autoconsciente que nos permite preguntarnos del cómo y del por qué de todas las cosas que podemos observar y, también, de las que intiuimos que están ahí sin que se dejen ver.

Claro que, cuando nos adentramos en ese minúsculo “mundo” de lo muy pequeño, las cosas difieren y se apartan de lo que nos dicta el sentido común que, por otra parte, es posible que sea el  común de los sentidos. Nos dejamos guiar por lo que observamos, por ese mundo macroscópico que nos rodea y, no somos consciente de ese otro “mundo” que está ahí formando parte del universo y que, de una manera muy importante incide en el mundo de lo grande, sin lo que allí existe, no podría existir lo que existe aquí.

Interacciones en la naturaleza

                                   Interacciones en la naturaleza

 Albert Einstein habría dicho que “es más importante la imaginación que el conocimiento”, el filósofo Nelson Goodman ha dicho que “las formas y las leyes de nuestros mundos no se encuentran ahí, ante nosotros, listas  ser descubiertas, sino que vienen impuestas por las versiones-del-mundo que nosotros inventamos – ya sea en las ciencias, en las artes, en la percepción y en la práctica cotidiana-.”

Sin embargo yo, humilde pensador, me decanto por el hecho cierto de que, nuestra especie,  siempre llegó al conocimiento a través de la imaginación y la experiencia primero, a la que más tarde,  acompañó largas secciones de estudio y muchas horas de mediatación y, al final de todo eso, llego la experimentación que hizo posible llegar a lugarés ignotos que antes nunca, habían podido ser visitados. De todo ello, pudieron surgir todos esos “nuevos mundos” que, como la Mecanica Cuántica y la Relatividad, nos describían el propio mundo que  nos era desconocido.

Cuando comencé éste trabajo sólo quería dar una simple explicación de los bosones y su intervención en el mundo de lo muy pequeño pero…

      Demócrito de Abdera

No estaría mal echar una mirada hacia atrás en el tiempo y recordar, en este momento, a Demócrito que, con sus postulados, de alguna manera venía a echar un poco de luz sobre el asunto, dado que él decía que  para determinar  si algo era un á-tomo habría que ver si era indivisible. En el modelo de los quarks, el protón, en realidad, un conglomerado pegajoso de tres quarks que se mueven rápidamente. Pero como esos quarks están siempre ineludiblemente encadenados los unos a los otros, experimentalmente el protón aparece indivisible.

Acordémonos aquí de que Boscovich decía que, una partícula elemental, o un “á-tomo”, tiene que ser puntual. Y, desde luego, esa , no la pasaba el protón. El equipo del MIT y el SLAC, con la asesoría de Feynman y Bjorken, cayó en la cuenta de que en este caso el criterio operativo era el de los “puntos” y no el de la indivisibilidad. La traducción de sus  a un modelo de constituyentes puntuales requería una sutileza mucho mayor que el experimento de Rutherford.

Resultado de imagen de Los Quarks dentro de los protones

Precisamente por eso era tan conveniente fue tan conveniente para Richard Edward Taylor y su equipo, tener a dos de los mejores teóricos del mundo en el equipo aportando su ingenio, agudeza e intuición en todas las fases del proceso experimental. El resultado fue que los  indicaron, efectivamente, la presencia de objetos puntuales en movimiento dentro del protón.

En 1990 Taylor, Friedman y Kendall recogieron su premio Nobel por haber establecido la realidad de los quarks. Sin embargo, a mí lo que siempre me ha llamado más la atención es el hecho cierto de que, este descubrimiento como otros muchos (el caso del positrón de Dirac, por ejemplo), han  posible gracias al ingenio de los teóricos que han sabido vislumbrar cómo era en realidad la Naturaleza.

A todo esto, una buena  sería: ¿cómo pudieron ver este tipo de partículas de tamaño infinitesimal, si los quarks no están libres y están confinados -en este caso- dentro del protón?  Hoy, la  tiene poco misterio sabiendo lo que sabemos y hasta donde hemos llegado con el LHC que, con sus inmensas energías “desmenuza” un protón hasta dejar desnudos sus más íntimos secretos.

    Este es, el resultado ahora de la colisión de protones en el LHC

Lo cierto es que, en su momento, la teoría de los Quarks hizo muchos conversos, especialmente a medida que los teóricos que escrutaban los  fueron imbuyendo a los quarks una realidad creciente, conociendo mejor sus propiedades y convirtiendo la incapacidad de ver quarks libres en una virtud. La  de moda en aquellos momentos era “confinamiento”. Los Quarks están confinados permanentemente porque la energía requerida para separarlos aumenta a medida que la distancia entre ellos crece. Esa es, la fuerza nuclear fuerte que está presente dentro del átomo y que se encarga de transmitir los ocho Gluones que mantienen confinados a los Quarks.

Así, cuando el intento de separar a los Quarks es demasiado intenso, la energía se vuelve lo bastante grande para crear un par de quark-anti-quark, y ya tenemos cuatro quarks, o dos mesones. Es como intentar  un cabo de cuerda. Se corta y… ¡ya tenemos dos!

Resultado de imagen de Los Quarks de Gell MannResultado de imagen de VenezianoResultado de imagen de John SchwarzResultado de imagen de Edward Witten

¿Cuerdas? Me parece que estoy confundiendo el principal objetivo de este trabajo y, me quiero situar en el tiempo futuro que va, desde los quarks de Gell-Mann hasta las cuerdas de Veneziano y John Schwarz y más tarde Witten. Esto de la Física, a veces te juega malas pasadas y sus complejos caminos te llevan a confundir conceptos y  momentos que, en realidad, y de manera individualizada, todos han tenido su propio tiempo y lugar.

¿Cuántas veces no habré pensado, en la posibilidad de tomar el elixir de la sabiduría para poder comprenderlo todo? Sin embargo, esa pósima mágica no existe y, si queremos , el único camino que tenemos a nuestro alcance es la observación, el estudio, el experimento… ¡La Ciencia!, que en definitiva, es la única que nos dirá como es, y como se producen los fenómenos que podemos contemplar en la Naturaleza y, si de camino, podemos llegar a saber el por qué de su comportamiento… ¡mucho mejor!

       El camino será largo y, a veces, penoso pero… ¡llegaremos!

Nuestra insaciable curiosidad nos llevará lejos en el saber del “mundo”. llegaremos al corazón mismo de la materia para conmprobar si allí, como algunos imaginan, habitan las cuerdas vibrantes escondidas tan profundamente que no se dejan ver. Sabremos de muchos mundos habitados y podremos hacer ese primer contacto tántas veces soñado con otros seres que, lejos de nuestro región del Sistema solar, también, de manera independiente y con otros nombres, descubrieron la cuántica y la relatividad. Sabremos al fín qué es la Gravedad y por qué no se dejaba juntar con la cuántica. Podremos realizar maravillas que ahora, aunque nuestra imaginación es grande, ni podemos intuir por no tener la información necesaria que requiere la imaginación.

En fín, como decía Hilbert: ¡”Tenemos que saber, sabremos”!

emilio silvera

¿Una familia de partículas inmortales?

$
0
0

 

Las interacciones cuánticas convierten a las cuasipartículas en inmortales

Las interacciones cuánticas convierten a las cuasipartículas en inmortales – K. Verresen / TUM

Resultado de imagen de Cuasipartículas imágenes GIFs

 

Por primera vez, un equipo de físicos comprueba que las cuasipartículas renacen de sus cenizas después de desintegrarse

Noticia de Prensa

 

Si hay algo en lo que todos estamos de acuerdo es que nada dura para siempre. Lo dicen las leyes de la Física, en concreto la segunda ley de la termodinámica, que es la que rige el destino del Universo: toda actividad o proceso incrementa la entropía de un sistema. O lo que es lo mismo, el desorden. Por eso envejecemos, por eso las estrellas se apagan, los átomos se descomponen y por eso, también, los cristales de un vaso que se ha roto jamás volverán a recomponerse.

Pero un equipo de investigadores de la Universidad Técnica de Munich, en el Instituto Max Planck para la Física de Sistemas Complejos, parece haber hallado una excepción a esta norma universal. De hecho, han descubierto que lo que parece inconcebible en nuestra experiencia cotidiana puede estar sucediendo en el misterioso mundo cuántico. Y que allí, unos extraños entes llamados “cuasipartículas” tienen la propiedad de desintegrarse y volver a renacer después de sus propias cenizas, en una serie de ciclos que no tienen fin y que las convierte, de hecho, en inmortales. El extrordinario hallazgo se acaba de publicar en Nature Physics.

Resultado de imagen de Cuasipartículas en el interior de los cuerpos - imagen GIPs

Las cuasipartículas pueden describirse como un extraño fenómeno de “excitación colectiva” que sucede en el interior de los cuerpos sólidos. Cuando, por ejemplo, un electrón se mueve en el interior de un sólido, su movimiento se ve perturbado por las interacciones con otros muchos electrones, o núcleos atómicos, que también se están moviendo. Y eso hace que, a pesar de seguir comportándose como un electón libre, tenga una masa diferente, que recibe el nombre de “cuasipartícula de electrones. Otras cuasipartículas incluyen a los fonones, que son partículas derivadas de las vibraciones de los átomos dentro de un sólido, a los plasmones, que son partículas derivadas de las oscilaciones de un plasma, y a muchas otras, como los famosos fermiones de Majorana, que son a la vez materia y antimateria, los fluxones, los plasmones o los solitones.

Imagen relacionada

En los grandes aceleradores de partículas podemos observar sus comportamientos y desvelar sus secretos

A pesar de que una cuasipartícula implica a todas las partículas que, con sus movimientos, se afectan unas a otras, pueden ser consideradas como partículas individuales que se mueven en el interior de un sistema, rodeadas por una nube de otras partículas que se apartan de su camino o que son arrastradas por su movimiento. El concepto de cuasipartículas fue acuñado por el físico y ganador del premio Nobel Lev Davidovich Landau. Lo usó para describir estados colectivos de muchas partículas o más bien sus interacciones debido a fuerzas eléctricas o magnéticas. A causa de estas interacciones, varias partículas actúan como una sola.

“Hasta ahora -explica Frank Pollmann, uno de los autores del artículo- se suponía que las cuasipartículas en sistemas cuánticos interactivos decaen después de un cierto tiempo. Pero ahora sabemos que no es así: las interacciones fuertes pueden, incluso, detener la descomposición por completo”.

Resultado de imagen de Cuasipartículas en el interior de los cuerpos - imagen GIPs

“Hasta el momento -prosigue el investigador- no se sabía con detalle qué procesos influyen en el destino de esas cuasipartículas en sistemas que interactúan. Pero ahora contamos con métodos numéricos con los que podemos calcular interacciones complejas, y computadoras con un rendimiento lo suficientemente alto como para resolver estas ecuaciones”.

Con estas armas a su disposición, los investigadores llevaron a cabo complejas simulaciones para “espiar” a las cuasipartículas. “Es cierto que se desintegran -explica por su parte Ruben Verresen, autor principal del estudio- pero nuevas entidades de partículas idénticas emergen de los escombros. Si el decaimiento se produce muy rápidamente, después de un cierto tiempo se produce una reacción inversa y los escombros vuelven a converger. Este proceso puede repetirse sin fin, como una oscilación sostenida en el tiempo entre decaimiento y renacimiento”.

Muerte y resurrección

Resultado de imagen de Partículas virtuales - imagen GIPS

 

La mecánica cuántica tiene muchas implicaciones que no llegamos a comprender

 

Desde el punto de vista de la Física, esa oscilación entre “muerte y resurrección” puede considerarse como una onda que se transforma en materia, en virtud de la dualidad onda-partícula que predice la mecánica cuántica. Por lo tanto, las cuasipartículas inmortales no violan la segunda ley de la termodinámica. Su entropía permanece constante, la decadencia se detiene.

Resultado de imagen de Los ratones cuasipartículas

Cada día damos un paso más en el conocimiento de lo muy pequeño

El descubrimiento, además, consigue también explicar una serie de fenómenos que hasta ahora habían desconcertado a los científicos. Los físicos experimentales, por ejemplo, han medido que el compuesto magnético Ba3CoSB2O9 es sorprendentemente estable, cuando no debería serlo. Ahora se sabe que los magnones, un tipo de cuasipartículas magnéticas, son las responsables de ello. Del mismo modo, otras cuasipartículas, los rotones hacen posible que el helio, que en la superficie de la Tierra es un gas, se convierta en un líquido a -273 grados centígrados (el cero absoluto, donde la actividad atómica se detiene) y pueda seguir fluyendo sin restricciones.

“Nuestro trabajo es pura investigación básica -enfatiza Pollmann-. Sin embargo, es perfectamente posible que algún día nuestros resultados permitan incluso aplicaciones, por ejemplo, la construcción de memorias de datos duraderas para futuras computadoras cuánticas”.

En nuestro Universo: ¡La Eternidad no existe

$
0
0

Resulta imposible frenar el cáncer y a la vez impedir la acumulación de células defectuosas

Resulta imposible frenar el cáncer y a la vez impedir la acumulación de células defectuosas - FOTOLIA

Una fórmula matemática desmonta la idea de que se puede detener el envejecimiento.

Resultado de imagen de Envejecer es Ley de Vida

Se puede ralentizar, pero no hay ninguna vía de escape para evitarlo: es una característica propia de los organismos multicelulares

Noticia de Prensa en ABC

 

 

Resultado de imagen de Investigadores de la Universidad de Arizona han probado que es matemáticamente imposible detener el envejecimiento

 

 

Investigadores de la Universidad de Arizona han probado que es matemáticamente imposible detener el envejecimiento en organismos multicelulares, entre los que están las plantas y los animales. De hecho, han concluido que la senescencia es una característica propia de los seres vivos complejos.

«El envejecimiento es matemáticamente y totalmente inevitable. No hay ninguna vía de escape lógica, teórica ni matemática», ha dicho en un comunicado Joanna Masel, profesora de ecología y biología evolutiva en la Universidad de Arizona y coautora de la investigación.

Resultado de imagen de Las células de un organismo vivo multicelular

En un artículo publicado en la revista Proceedings of the National Academy of Sciences, Masel y su colaborador Paul Nelson han aplicado un modelo matemático para simular la evolución de las células de un organismo y han encontrado pruebas de por qué el envejecimiento es «una verdad incontrovertible» y «una propiedad intrínseca de ser multicelular».

Para ello, han simulado el proceso de selección natural, a través del cual los individuos que son más aptos sobreviven con mayor frecuencia que los menos aptos. La idea que trataron de poner a prueba es si se podría evitar el envejecimiento de un organismo complejo si cada una sus células pasara por un fenómeno de selección natural «perfecto» que permitiera «depurar» a todas y cada una de las que son defectuosas o viejas.

Por desgracia, según Masel y Nelson no es posible hacerlo.

Los dos motivos del envejecimiento

Resultado de imagen de Pérdida de función en los tejidos vivos con el paso del tiempo

El principal impedimento es que el envejecimiento consiste en dos procesos distintos que el organismo no puede frenar a la vez: si bloquease uno, se dispararía el otro, y viceversa. El primero de ellos es la disminución de la velocidad de crecimiento de las células y la pérdida de función de los tejidos: por ejemplo, cuando las células epiteliales envejecen dejan de producir pigmentos y el cabello se blanquea; cuando ocurre lo mismo en el tejido conjuntivo, el organismo deja de regenerar las redes de colágeno y la piel pierde elasticidad y se arruga. El segundo proceso es que algunas células quedan fuera de control y disparan su crecimiento, a veces generando tumores.

No hay forma de frenar ambos fenómenos a la vez: «Si te deshaces de las células que funcionan mal, entonces las células cancerosas proliferan. Pero si te deshaces de las cancerosas, o simplemente las frenas, entonces permites que se acumulen las células defectuosas (…). Puedes hacer una cosa u otra, pero no las dos a la vez», ha dicho Paul Nelson, coautor de la investigación.

«No es nada nuevo que todos vamos a morir; muchas cosas son obvias y muy familiares para todos, pero realmente, ¿por qué envejecemos?», se ha preguntado Masel.

Resultado de imagen de Nacemos, vivimos y morimos: No somos eternos

«Nosotros hemos investigado por qué ocurre el envejecimiento, desde la perspectiva de por qué la selección natural no lo ha detenido aún», ha continuado el investigador. La respuesta que ellos han encontrado es que al final, según las matemáticas, tratar de arreglar las cosas solo empeora el proceso.

«Quizás puedas ralentizar el envejecimiento, pero no puedes detenerlo», ha dicho Masel. «Tenemos una demostración matemática de por qué es imposible solucionar los dos problemas (la eliminación de las células defectuosas e impedir el crecimiento de las cancerosas). Puedes arreglar uno pero el otro permanecerá. (…) Y la razón básica es que las cosas se rompen. No importa cuánto lo intentes, no puedes evitarlo».

Quizás no sea un consuelo, pero según este investigador, es algo que todos debemos afrontar: «Es sencillamente algo con lo que lidiar si “quieres” ser un organismo multicelular». A diferenca de ellos, las bacterias son capaces de reparar sus daños en el ADN y cada cierto tiempo se reproducen y generan clones para garantizarse la inmortalidad. Pero, ¿quién querría ser una bacteria?


Ciencias Físicas y sus personajes

$
0
0

La vida de la ciencia

Y el Premio Nobel de Física es para… Englert y Higgs

Carlos Muñoz

Con el descubrimiento del bosón de Higgs se culmina el modelo estándar de la Física de Partículas. En este artículo revisamos la historia y la física detrás de este gran descubrimiento. Desde por qué sólo Englert y Higgs han recibido el Premio Nobel, hasta qué es eso del vacío de Higgs y cómo contribuye a generar las masas de las partículas elementales.

El Nobel, ¿por qué?

Desde que el 4 de julio de 2012, los representantes de los experimentos CMS y ATLAS del LHC anunciaron el CERN que tenían evidencias del haber detectado el bosón de Higgs, el Nobel estaba cantado. ¿Por qué?

· Primero, porque “el Higgs” es una nueva partícula elemental con propiedades muy especiales.

Tiene una masa enorme, 125 veces mayor que la del protón. Solamente el quark top es más pesado. Además, es la primera partícula con espín 0 (es un escalar). Todas las demás partículas son fermiones con espín ¹/2, como los quarks, electrones y neutrinos, o bosones (de gauge) con espín 1 como los fotones, los gluones y los W y Z.

· Segundo, y todavía más espectacular, porque el (campo de) Higgs define el vacío de la naturaleza, es de hecho el propio vacío.

En la teoría cuántica de campos que describe el mundo de las partículas elementales, éstas no son los objetos fundamentales sino los campos. Las partículas son las excitaciones energéticas de los campos. Lo podemos entender intuitivamente si pensamos en el campo electromagnético.

Si creamos un campo que se distribuye por el espacio y lo perturbamos (por ejemplo el campo creado por un electrón cuando éste se acelera), la perturbación se propaga en forma de ondas electromagnéticas (como la luz) que no son más que las partículas llamadas fotones. El campo es como el agua de un estanque y las partículas son como las ondas de agua que se producen cuando lanzamos una piedra.

De manera semejante al fotón, el electrón está asociado a las vibraciones del campo del electrón o el Higgs a las vibraciones del campo de Higgs. En este último caso, dada la enorme masa del Higgs, esas vibraciones tan energéticas sólo se pueden producir en un acelerador como el LHC donde los protones colisionan a una velocidad próxima a la de la luz.  Hay que tirar una piedra muy pesada para que las ondas sean muy grandes.

Pero hay una diferencia crucial entre el campo de Higgs y el resto de los campos. Intuitivamente diríamos que el valor de cualquier campo en el vacío debería ser nulo, porque parece lógico que en el vacío no haya nada, al igual que un estanque vacío no tiene agua. Sin embargo, el campo de Higgs tiene un valor ¡no nulo! Es como si no pudiésemos vaciar el estanque del todo y siempre quedase un cierto nivel de agua. Es decir, que el vacío cuántico está lleno del campo de Higgs. El campo de Higgs está en todas partes, permea todo el universo.

Dado que en Mecánica Cuántica el vacío se define como el estado de mínima energía y en nuestro vacío siempre está en el campo de Higgs y por tanto hay energía, podemos decir que el vacío es un vacío de Higgs. Por eso el Higgs tiene espín 0, porque el vacío no puede tener orientaciones especiales.

· Y el tercero, porque el campo de Higgs genera las masas de todas las partículas elementales. ¿Quién da más por menos?

Lo podemos entender intuitivamente de la siguiente manera. Cuando las partículas elementales se mueven en el vacío (de Higgs), están interaccionando con el campo de Higgs del que está lleno dicho vacío. Las que más interaccionan tienen mayor masa porque es como si “rozasen” mucho con el campo y se viesen frenadas en su movimiento, como un objeto que se desplazase dentro del agua del estanque. Las que interaccionan menos se mueven más fácilmente y decimos que tienen menos masa. Como toda explicación intuitiva del mundo cuántico, ésta también es imperfecta porque el rozamiento no existe en ese mundo y por tanto las partículas con una velocidad dada no acabarán parándose. La interacción/rozamiento con el campo/fluido de Higgs sólo les produce el efecto de una masa.

No vamos a negar la evidencia, lo del campo de Higgs se parece mucho a la idea fallida del éter del siglo XIX, que lo permeaba todo para que las ondas electromagnéticas se pudiesen propagar en lo que aparentemente era espacio vacío, pero que en realidad estaba lleno del éter. El mecanismo resucitó en el siglo XX convertido en el campo de Higgs, pero de una forma que es compatible con la relatividad espacial y los experimentos nos dicen en el siglo XXI que ¡funciona!

El Nobel ¿Para quién?

La idea del Higgs surgió de cálculos teóricos hace la friolera de cuarenta y nueve años. ¿No merecen ser entonces los teóricos los primeros que reciban los honores del Nobel?, no sólo por el tiempo que lo han estado esperando, sino también por la extraordinaria imaginación que tuvieron al proponer tan extraña partícula y el espectacular mecanismo al que está asociada, que hace que se generen las masas de todas las demás partículas. Además, ¿quién se hubiese atrevido a escoger a tan sólo unos pocos experimentales entre todos los muchos que han contribuido a construir y manejar esa máquina monstruosa que es el LHC? Los estatutos de la Fundación Nobel dicen: “In no case may a prize be divided between more than three persons”. Lo que hay que reconocer es que sin el descubrimiento de los experimentales, los teóricos seguirían sin su premio, y así lo viene a expresar el Comité Nobel cuando en su anuncio dice “for the theoretical Discovery of a mechanism that contributes to our understanding of the origin off mass of subatomic particles, and which recently was confirmed through the discovery of the predicted fundamental particle, by the ATLAS and CMS experiments at CERN’s Large Hadron Collider”.

En realidad, la historia no se acaba con los trabajos de EB y Higgs (EBH) de 1964. El 12 de octubre del mismo año se recibe un artículo escrito por los estadounidenses Guralnik y Hagen y por el británico Kibble (GHK), donde proponen el mismo mecanismo para generar las masas de los bosones de gauge. ¿Se les debería haber considerado también para el Nobel? Por desgracia para ellos, su trabajo llegó a la revista tres meses y medio más tarde que el de EB. Además, en el artículo de GHK aparecen citados los tres trabajos anteriores de EBH y por tanto el Comité Nobel no pudo tener la seguridad de que no los hubiesen usado para sus propios resultados.

3. El Higgs, ¿por qué culmina el modelo estándar?

Con el descubrimiento de Higgs, que confirma el mecanismo con el que las partículas adquieren masa, podemos celebrar con orgullo la culminación del modelo estándar de la Física de Partículas. Sin embargo, no fueron EBH quienes aplicaron su mecanismo a la teoría correcta, al concentrarse erróneamente en su aplicación a los modelos hadrónicos. El honor le correspondió al estadounidense Weinberg y al paquistaní Salam, cuando de manera independiente se encajaron todas las piezas del rompecabezas en 1967 y construyeron la teoría electrodébil. Para ello aplicaron el mecanismo de EHB al modelo de los leptones del estadounidense Glashow (los tres recibieron el Nobel en 1979), de forma que consiguieron generar masas para los bosones mediadores de la interacción débil W y Z a través de un valor no nulo en el vacío para el campo de Higgs. Asimismo, acoplando el campo de Higgs a los leptones (electrón, muon, tau) consiguieron generar las masas de estos últimos.

Posteriormente, en 1971 los holandeses ‘t Hooft y Veltman (Premios Nobel 1999) demuestran que gracias al mecanismo de EBH el modelo de Weinberg-Salam es renormalizable, es decir que es matemáticamente consistente y que no se obtienen infinitos cuando se calculan por ejemplo choques de partículas en aceleradores. El italiano Rubbia y el holandés van der Meer (Premios Nobel 1984), descubrieron los bosones W y Z en el CERN en 1983, con las masas predichas de la teoría electrodébil.

En 1973 se acabó de construir la teoría de las interacciones fuertes entre gluones y quarks, donde estos últimos, al igual que los leptones, adquieren masa a través del mecanismo de EBH. De esta forma, la estructura del modelo estándar englobando a las interacciones fuertes y electrodébiles quedaba establecida.

¡El límite de las teorías!

$
0
0

Presentado en la XIX Edición del

Siempre andamos a vueltas con las teorías, y, tenemos que ser conscientes que las teorías tienen unos límites que están bien determinados. Veamos:

¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son.

Resultado de imagen de Longitud de onda cuántica de la masa del Universo

Y precisamente esta constante es el segundo motivo por el que no encuentras los muebles en una posición diferente cada vez que entras en el salón.

Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño.  La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 centímetros, más joven que el tiempo de Planck 10ˉ⁴³ segundos y supere la temperatura de Planck de 1032 grados.  Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.

Resultado de imagen de Resultado de imagen de Teoría cuántica de la Gravedad

La Gravedad Cuántica, el eslabón perdido para comprender la evolución del Universo. Los físicos teóricos la han encontrado, ellos saben que dicha teoría subyace en la Teoría de Supercuerdas que, desgraciadamente, es inverificable… ¡Por el momento! Se cree que llegar hasta las cuerdas requeriría disponer de la energía de Planck (1019 GeV).

En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”.

Image Slider Image

La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuiteria de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.

Resultado de imagen de La Información en unidades de Planck

      Representación gráfica de la obtención experimental de la constante de Planck

Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros.  Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos. Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2.  Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.

Resultado de imagen de representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias.Imagen relacionada

No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas.  Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias. Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón.

Imagen relacionada

En nuestro Universo todo es energía y el resultado de dos fuerzas contrapuestas que, al ser iguales en potencia, equilibran el todo y hace posible la estabilidad que podemos contemplar en las estrellas y en los átomos.

α = 2πehc ≈ 1/137
αG = (Gmp2)/ hc ≈ 10-38

La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala.  La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.

Otro de los mundos imaginarios ideados por la artista. (Foto: Reuters)Resultado de imagen de Otros mundos

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la Naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

Resultado de imagen de El número puro y adimensional 137

Nunca nadie ha explicado el valor numérico de ninguna de las constantes de la naturaleza. ¿Recordáis el 137? Ese número puro, adimensional, que guarda los …

Cuando surgen comentarios de números puros y adimensionales, de manera automática aparece en mi mente el número 137. Ese número encierra más de lo que estamos preparados para comprender; me hace pensar y mi imaginación se desboca en múltiples ideas y teorías. Einstein era un campeón en esta clase de ejercicios mentales que él llamaba “libre invención de la mente”. El gran físico creía que no podríamos llegar a las verdades de la naturaleza sólo por la observación y la experimentación. Necesitamos crear conceptos, teorías y postulados de nuestra propia imaginación que posteriormente deben ser explorados para averiguar si existe algo de verdad en ellos.

Para poner un ejemplo de nuestra ignorancia poco tendríamos que buscar, tenemos a mano miles de millones.

Imagen relacionada

Hablamos de portales cuánticos, fluctuaciones de vacío… Cuerdas y de Taquiones pero…

Un gran Físico nos decía:

“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”.

Resultado de imagen de el 137 la constante de estructura fina

 

 

Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el producto de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e-), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).

¡Sabemos aun tan poco!

emilio silvera

Física, la era cuántica y otros fascinantes conceptos

$
0
0

gran-muralla-galaxias

Los científicos para lograr conocer la estructura del universo a su escala más grande, deben retroceder en el tiempo, centrando sus teorías en el momento en que todo comenzó. Para ello, como  todos sabeis, se han formulado distintas teorías unificadoras de las cuatro fuerzas de la naturaleza, con las cuales se han modelado acontecimiento y condiciones en el universo primitivo casi a todo lo largo del camino hasta el principio. Pero cómo se supone que debió haber habido un «antes», aparece una barrera que impide ir más allá de una frontera que se halla fijada a los 10-43 [s] después del Big Bang, un instante conocido como «momento de Planck», en homenaje al físico alemán Max Planck.

El momento de Planck es la unidad de momento, denotada por m P c {\displaystyle m_{P}c} {\displaystyle m_{P}c}en el sistema de unidades naturales conocido como las unidades de Planck.


Se define como:

{\displaystyle m_{P}c={\frac {\hbar }{l_{P}}}={\sqrt {\frac {\hbar c^{3}}{G}}}\;\approx \;6.52485\;kg{\frac {m}{s}}}

donde

En unidades del SI. el momento de Planck equivale a unos 6,5 kg m/s. Es igual a la masa de Planck multiplicada por la velocidad de la luz, con frecuencia asociada con el momento de los fotones primordiales en ciertos modelos del Big Bang que aún perduran.

Resultado de imagen de La era cuánticaResultado de imagen de La era cuántica

Esta barrera existe debido a que antes del momento de Planck, durante el período llamado la «era de Planck o cuántica», se supone que las cuatro fuerza fundamentales conocidas de la naturaleza eran indistinguibles o se hallaban unificadas , que era una sola fuerza. Aunque los físicos han diseñado teorías cuánticas que unen tres de las fuerzas, una por una, a través de eras que se remontan al momento de Planck, hasta ahora les ha sido prácticamente imposible armonizar las leyes de la teoría cuántica con la gravedad de la relatividad general de Einstein, en un sólo modelo teórico ampliamente convincente y con posibilidades claras de ser contrastado en experimentos de laboratorio y, mucho menos, con observaciones.

Si hablamos de singularidades en agujeros negros, debemos dejar la R.G. y acudir a la M.C. “…según las leyes de la Relatividad, el eje más horizontal siempre es espacio, mientras que el más vertical siempre es tiempo. Por tanto, al cruzar el horizonte lo que nosotros entendemos por tiempo y espacio ¡habrán intercambiado sus papeles! Puede sonar raro y, definitivamente, es algo completamente anti intuitivo, pero es la clave de que los agujeros negros sean como son y jueguen el papel tan importante que juegan en la física teórica actual. Al fin y al cabo, dentro no es lo mismo que fuera…”

Si ahora queremos cuantizar, es decir encontrar la versión cuántica, la gravedad escrita como RG lo que tenemos que hacer es encontrar la teoría cuántica para la métrica.  Sin embargo, esto no conduce a una teoría apropiada, surgen muchos problemas para dar sentido a esta teoría, aparecen infinitos y peor que eso, muchos cálculos no tienen ni tan siquiera un sentido claro.  Así que hay que buscar otra forma de intentar llegar a la teoría cuántica.

Resultado de imagen de Gravedad  cuántica

Como tantas veces hemos comentado, los trabajos que se han realizado sobre poder construir una teoría cuántica de la gravedad nos llevan a un número sorprendente de implicaciones. Por un lado, sólo se ha podido conceptuar a la gravedad cuántica, siempre y cuando, el universo tenga más de cuatro dimensiones. Además, se llega a considerar que en la era de Planck, tanto el universo como la gravedad pudieron ser una sola cosa compacta estructurada por objetos cuánticos infinitamente diminutos, como los que suponemos que conforman las supercuerdas. A esta escala, el mismísimo espaciotiempo estaría sometido a imprescindibles fluctuaciones muy semejantes a las que causan las partículas al nacer y desaparecer de la existencia en el espacio-tiempo ordinario. Esta noción ha conducido a los teóricos a describir el universo de la era cuántica como una especie de extremadamente densa y agitada espuma que pudo haber contenido las vibrantes cuerdecillas que propugnan los cosmólogos cuerdistas.

Los físicos especulan que el cosmos ha crecido a desde una «nada» primigenia que al nacer comenzó el principio del tiempo y que, en ese parto, contenía toda la materia y toda la energía.

Resultado de imagen de La espuma cuántica

Según la física cuántica, “la nada” no existe. En vez de esto, en la escala más pequeña y elemental del universo hallamos una clase de “espuma cuántica”.

John Wheeler explicó el término de “espuma cuántica” en 1955. A este nivel subatómico, la energía se rige por el principio de Incertidumbre de Heisenberg; sin embargo, para comprender este principio y cualquier aseveración de física cuántica, es importante antes entender que el universo se rige por cuatro dimensiones: tres comprendidas por el espacio que un objeto ocupa (vectores “X”, “Y” y “Z”) y una última, que es el tiempo.

Imagen relacionadaResultado de imagen de La teoría cuánticaResultado de imagen de La teoría cuántica

La Física actual no puede describir lo que sucedió en el Big Bang. La Teoría Cuántica y la Teoría de la Relatividad fracasan en éste estado inicial del Universo infinitamente denso y caliente. Tan solo una teoría de la Gravedad  Cuántica que integre ambos pilares fundamentales de la Física, podría proporcionar una idea acerca de cómo comenzó el Universo.

Según los primeros trabajos sobre la teoría cuántica de la gravedad, el propio espaciotiempo varió en su topografía, dependiendo de las dimensiones del universo niño. Cuando el universo era del tamaño de un núcleo atómico (ver imagen de abajo), las condiciones eran relativamente lisas y uniformes; a los 10-30cm (centro) es evidente una cierta granulidad; y a la llamada longitud de Planck, todavía unas 1.000 veces más pequeño (abajo), el espacio tiempo fluctúa violentamente.

 

La Gravedad de Einstein y la Cuántica de Planck… ¡No casan!

Los físicos han intentado con denuedo elaborar una teoría completa de la gravedad que incluya la mecánica cuántica. Los cálculos de la mayoría de las teorías propuesta de la «gravedad cuántica» arrojan numerosos infinitos. Los físicos no están seguros si el problema es técnico o conceptual. No obstante, incluso prescindiendo de una teoría completa de gravedad cuántica, se puede deducir que los efectos de la teoría cuántica, habrían sido cruciales durante los primeros 10-43 segundos del inicio del universo, cuando éste tenía una densidad de 1093 gramos por centímetro cúbico y mayor. (El plomo sólido tiene una densidad de aproximadamente diez gramos por centímetro cúbico.) Este período, que es el que corresponde a la era de Planck, y a su estudio se le llama cosmología cuántica. Como el universo en su totalidad habría estado sujeto a grandes incertidumbres y fluctuaciones durante la era de Planck o era cuántica, con la materia y la energía apareciendo y desapareciendo de un vacío en grandes cantidades, el concepto de un principio del universo podría no tener un significado bien definido. En todo caso, la densidad del universo durante este período es de tal magnitud que escapa a nuestra comprensión. Para propósitos prácticos, la era cuántica podría considerarse el estado inicial, o principio, del universo. En consecuencia, los procesos cuánticos ocurridos durante este período, cualquiera sea su naturaleza, determinaron las condiciones iniciales del universo.

Observaciones astronómicas indican que el universo tiene una edad de 13,73 ± 0,12 millardos de años (entre 13 730 y 13 810 millones de años) y por lo menos … Sin embargo…

El universo estaba a 3.000° Hace doce mil quinientos millones de años; a 10 mil millones de grados (1010° K) un millón de años antes, y, tal vez, a 1028° K un par de millones más temprano. Pero, y antes de ese tiempo ¿qué pasaba? Los fósiles no faltan, pero no sabemos interpretarlos. Mientras más elevada se va haciendo la temperatura del universo primigenio, la situación se va complicando para los científicos. En la barrera fatídica de los 1033° K –la temperatura de Planck–, nada funciona. Nuestros actuales conocimientos de la física dejan de ser útiles. El comportamiento de la materia en estas condiciones tan extremas deja de estar a nuestro alcance de juicio. Peor aún, hasta nuestras nociones tradicionales pierden su valor. Es una barrera infranqueable para el saber de la física contemporánea. Por eso, lo que se suele decir cómo era el universo inicial en esos tempranos períodos, no deja de tener visos de especulación.

Los progresos que se han obtenido en física teórica se manifiestan a menudo en términos de síntesis de campos diferentes. Varios  son los ejemplos que de ello encontramos en diversos estudios especializados, que hablan de la unificación de las fuerzas fundamentales de la naturaleza.

Resultado de imagen de La teoría cuántica

Resultado de imagen de La Relatividad generalResultado de imagen de La Relatividad general

En física se cuentan con dos grandes teorías de éxito: la cuántica y la teoría de la relatividad general.

Cada una de ellas ha demostrado ser muy eficiente en aplicaciones dentro de los límites de su ámbito propio. La teoría cuántica ha otorgado resultados más que satisfactorios en el estudio de las radiaciones, de los átomos y de sus interacciones. La ciencia contemporánea se presenta como un conjunto de teorías de campos, aplicables a tres de las grandes interacciones: electromagnética, nuclear fuerte, nuclear débil. Su poder predictivo es bastante elocuente, pero no universal. Esta teoría es, por ahora, incapaz de describir el comportamiento de partículas inmersas en un campo de gravedad intensa. Ahora, no sabemos si esos fallos se deben a un problema conceptual de fondo o falta de capacidad matemática para encontrar las ecuaciones precisas que permitan la estimación del comportamiento de las partículas en esos ambientes.

La teoría de la relatividad general, a la inversa, describe con gran precisión el efecto de los campos de gravedad sobre el comportamiento de la materia, pero no sabe explicar el ámbito de la mecánica cuántica. Ignora todo acerca de los campos y de la dualidad onda-partícula, y en ella el «vacío» es verdaderamente vacío, mientras que para la física cuántica hasta la «nada» es «algo»…

                  Nada está vacío, ya que, de donde surge es porque había

Claro está, que esas limitaciones representativas de ambas teorías no suelen tener mucha importancia práctica. Sin embargo, en algunos casos, esas limitantes se hacen sentir con agresividad frustrando a los físicos. Los primeros instantes del universo son el ejemplo más elocuente.

El científico investigador, al requerir estudiar la temperatura de Planck, se encuentra con un cuadro de densidades y gravedades extraordinariamente elevadas. ¿Cómo se comporta la materia en esas condiciones? Ambas teorías, no dicen mucho al respecto, y entran en serias contradicciones e incompatibilidades. De ahí la resistencia de estas dos teorías a unirse en una sólo teoría de Gravedad-Cuantíca, ya que, cada una de ellas reina en un universo diferente, el de lo muy grande y el de lo muy pequeño.

Resultado de imagen de Principio de incertidumbreResultado de imagen de Principio de incertidumbre

Todo se desenvuelve alrededor de la noción de localización. La teoría cuántica limita nuestra aptitud para asignar a los objetos una posición exacta. A cada partícula le impone un volumen mínimo de localización. La localización de un electrón, por ejemplo, sólo puede definirse alrededor de trescientos fermis (más o menos un centésimo de radio del átomo de hidrógeno). Ahora, si el objeto en cuestión es de una mayor contextura másica, más débiles son la dimensión de este volumen mínimo. Se puede localizar un protón en una esfera de un décimo de fermi, pero no mejor que eso. Para una pelota de ping-pong, la longitud correspondiente sería de unos 10-15 cm, o sea, bastante insignificante.La física cuántica, a toda partícula de masa m le asigna una longitud de onda Compton: lc = h / 2p mc

Por su parte, la relatividad general igualmente se focaliza en la problemática del lugar que ocupan los objetos. La gravedad que ejerce un cuerpo sobre sí mismo tiende a confinarlo en un espacio restringido. El caso límite es aquel del agujero negro, que posee un campo de gravedad tan intenso que, salvo la radiación térmica, nada, ni siquiera la luz, puede escapársele. La masa que lo constituye está, según esta teoría, irremediablemente confinada en su interior.

En lo que hemos inmediatamente descrito, es donde se visualizan las diferencias entre esos dos campos del conocimiento. Uno alocaliza, el otro localiza. En general, esta diferencia no presenta problemas: la física cuántica se interesa sobre todo en los micro-objetos y la relatividad en los macro-objetos. Cada cual en su terreno.

Resultado de imagen de La teoría cuánticaResultado de imagen de los macro-objetos cosmicos

Sin embargo, ambas teorías tienen una frontera común para entrar en dificultades. Se encuentran objetos teóricos de masa intermedia entre aquella de los micro-objetos como los átomos y aquella de los macro-objetos como los astros: las partículas de Planck. Su masa es más o menos la de un grano de sal: 20 microgramos. Equivale a una energía de 1028 eV o, más aún, a una temperatura de 1033° K. Es la «temperatura de Planck».

Ahora bien, si queremos estimar cuál debería ser el radio en que se debe confinar la masita de sal para que se vuelva un agujero negro, con la relatividad general la respuesta que se logra encontrar es de que sería de 10-33 cm, o sea ¡una cien mil millonésima de mil millonésima de la dimensión del protón! Esta dimensión lleva el nombre de «radio de Planck». La densidad sería de ¡1094 g/cm3! De un objeto así, comprimido en un radio tan, pero tan diminuto, la relatividad general sólo nos señala que tampoco nada puede escapar de ahí. No es mucha la información.

Si recurrimos a la física cuántica para estimar cuál sería el radio mínimo de localización para un objeto semejante al granito de sal, la respuesta que encontramos es de un radio de 10-33 cm. Según esta teoría, en una hipotética experiencia se lo encontrará frecuentemente fuera de ese volumen. ¡Ambos discursos no son coincidentes! Se trata de discrepancias que necesitan ser conciliadas para poder progresar en el conocimiento del universo. ¿Se trata de entrar en procesos de revisión de ambas teoría, o será necesaria una absolutamente nueva? Interrogantes que solamente el devenir de la evolución de la física teórica las podrá responder en el futuro.

Dibujo20121227 SUSY particles - SM particles - in spanish

No sabemos por qué existen los fermiones y los bosones gauge que han sido observados en los experimentos. Todas las piezas del puzzle encajan a la perfección, pero la imagen mostrada en el puzzle no la han elegido las leyes físicas que conocemos, nos viene impuesta por la Naturaleza. Lo único que podemos decir es que la Naturaleza es así y nos gustaría saber el porqué, pero aún estamos muy lejos de descubrirlo (si es que es posible hacerlo sin recurrir a un principio antrópico).

De todas las maneras, en lo que se refiere a una Teoría cuántica de la Gravedad, tendremos que esperar a que se confirmen las teorías de supergravedad, supersimetría, cuerdas, la cuerda heterótica, supercuerdas y, la compendiada por Witten Teoría M. Aquí, en estas teorías (que dicen ser del futuro), sí que están apasiblemente unidas las dos irreconcialbles teorías: la cuántica y la relativista, no sólo no se rechazan ni emiten infinitos, sino que, se necesitan y complementan para formar un todo armónico y unificador.

Imagen relacionada

¡Si pudiéramos verificarla!

Pero, contar con la energía de Planck (1019 GeV), no parece que, al menos de momento, no sea de este mundo. Ni todos los aceleradores de partículas del mundo unidos, podrían llegar a conformar una energía semejante.

emilio silvera

El “universo” de lo muy pequeño. ¡Resulta fascinante!

$
0
0

 « 

 Fue Einstein el que nos dijo a que velocidad podíamos recibir información del Universo que estana limitada por la velocidad de la luz en el vacío, c, es decir 299.792.458 m/s

 

Resultado de imagen de La luz en el vacío
Algunas cosas no varían nunca sin importar desde donde las mire el observador o si está en reposo o en movimiento.
No pocas veces nos topamos con algunos hechos que… çNo podemos explicar!
Hablemos   ahora del  “universo” de lo muy pequeño, ese  “mundo” fascinante.

                 ¿Os acordáis? ¿Cuántos niños no habrán soñado con escenas como estas?

Cuando hablo de lo muy pequeño, puedo llegar a entender muy bien lo que es, lo que son, “licencias literarias” el papel de nada se queja y el lápiz puede escribir lo que quiera y piense el que lo sostiene, según le dicte su imaginación. Claro que, cuando comparamos ese mundo de ilusiones e imaginación con el mundo real, todo el edificio se viene abajo. ¡Lástima!

Todos los niños pequeños juegan con diminutos muñecos que son soldados, guerreros o seres de otras galaxias con poderes mágicos y, ellos, en su inocente mundo sin maldad, los dirigen con sus manitas gordezuelas al desarrollo de luchas y aventuras sin fin. Jonathan Swift, nos deleitó con aquellas aventuras de Gulliver, un aventurero que llegó a las tierras de Lilliput: Allí, todo era muy pequeño, la naturaleza, las plantas, los habitantes del lugar y sus casas y palacios, embarcaciones y todos los animales.

Gulliver era allí un gigante de proporciones inmensas: Incluso llegó a extinguir un fuego con una simple chorrada (es decir, hizo pipí) y acabó de inmediato con el (para ellos) enorme fuego.

http://4umi.com/image/book/swift/gulliver-pindar-lilliput-troops.jpg

Su tamaño podía, sin dificultad alguna, decidir el resultado de una guerra entre aquellos pequeñísimos seres que, ante un gigante como él, no tenían defensa alguna y, sus armas, resultaban ridículas para poder causarle algún daño. Dormido lo tuvieron que coger para poder atarlo.

Durante otro viaje, las fuerzas ignotas del destino llevaron a Gulliver a un pais llamado  Brobdingnag, donde la gente y todos los seres animados e inanimados eran mucho más grandes que él. Allí era un enano, mimado por una niña pequeña llamada Glumdalclitch. Al final, Gulliver es recogido en una jaula por un águila que lo deja caer en el mar de donde lo rescataron unos marineros a los que, al contarles esas historias, pusieron incrédulas caras de asombro.

Resultado de imagen de La llama de una vela pequeñaResultado de imagen de La llama de una vela pequeña

Claro que, cuando nos trasladamos al mundo real, las cosas no suelen ser de esa manera. Poco importa lo fascinantes que las historias de este tipo nos puedan resultar. Las cosas no funcionan de esa manera. Todos sabemos, por ejemplo que la llama de una vela pequeña y la de una vela grande, son aproximadamente del mismo tamaño. ¿De qué tamaño serían las llamas de las velas de Lilliput? Y, desde luego, si pensamos un poco, más cuestiones nos surgen: ¿Cómo serían las gotas de lluvia en Lilliput y en Brobdingnag?, ¿eran las leyes físicas para el agua diferentes allí que en nuestro propio mundo? Y, finalmente, los físicos se preguntarían: ¿De qué tamaño eran los átomos en esos lugares?, ¿qué clase de reacciones químicas podrían tener lugar con los átomos del cuerpo de Gulliver?

Claro que, con esas preguntas esas historias fallan. La verdadera razón por la que los mundos de Los Viajes de Gulliver no pueden existir es que las leyes de la Naturaleza no permanecen exactamente iguales cuando se cambian las escalas. A veces, esto es evidente en las películas de desastres, donde quizá se ha construído una maqueta a escala para simular una gran ola o un rascacielos en llamas.

Imagen relacionada

El ojo experto puede, sin problemas, distinguir entre la maqueta y la realidad. Los mejores resultados se obtienen cuando el factor de escala para el tiempo se elige igual a la raíz cuadrada de la escala espacial. Así, si el rascacielos de turno se construye a escala 1:9, hay que rodar la película a un 1/3 de su velocidad real. Pero incluso así, como antes señalo, el ojo entrenado distingue la diferencia entre lo que sucede en la película y lo que se observaría en el mundo real.

En resumen, las leyes que gobiernan el mundo físico tienen dos características importantes: muchas leyes de la Naturaleza permanecen inalterables, no se alteran cuando cambia la escala, pero hay otros fenómenos, tales como una vela encendida o las gotas de agua, que no cambian del mismo modo. La implicación final es que el mundo de los objetos muy pequeños será completamente diferente del mundo ordinario.

Justamente en el mundo de los seres vivos la escala crea importantes diferencias. En muchos aspectos, la anatomía de un ratón se podría considerar (más o menos y, guardando las distancias) como una copia de la de un elefante, pero mientras que un ratón puede trepar por una pared de piedra prácticamente vertical sin mucha dificultad (incluso se puede caer desde una altura varias veces mayor que su tamaño sin hacerse gran daño), un elefante sería incapaz de realizar tal hazaña. Así llegamos a comprender que la Gravedad, se deja sentir en menor grado a medida que los objetos disminuyen de tamaño.

Cuando llegamos a los seres unicelulares, se ve que para ellos no hay distinción entre arriba y abajo. Para ellos, la tensión superficial del agua es mucho más importante que la fuerza de gravedad. Basta observar que la tensión superficial es la fuerza que da forma a una gota de agua y comparar el tamaño de esa gota con los seres unicelulares, muchísimo menores, para que sea evidente que la tensión superficial es muy importante a esta escala.

20070423121309-uk6i7lpn.jpg

La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos fuerza de Van der Vaalls. esta fuerza tiene un alcance muy corto. para ser más precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente proporcional a 1/r7. Esto significa  que si se reduce la distancia entre dos átomos a la mitad, la fuerza de Van der Vaalls con la que se atraen uno a otro se hace 2 x 2 x 2 x 2 x 2 x 2 x 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza.

Ahora tendríamos que hablar algo de la mecánica cuántica y, en ese ámbito, las reglas de la mecánica cuántica funcionan tan bien que resultaría realmente difícil refutarlas.

Acordaos de los trucos ingeniosos descubiertos por Werner Hesinberg, Paul Dirac, o, Schrödinger que vinieron a mejorar y completar  las reglas generales. Sin embargo, algunos de aquellos pioneros (Einsteiny el mismo Schrödinger), sin embargo, presentaron serias objeciones a dicha interpretación de la naturaleza de lo muy pequeño.

Podríamos formular una simple pregunta que pondría en un brete a más de uno: ¿Dónde está realmente el electrón, en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad? Si prestamos atención a Bohr, no tiene ningún sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores serían las únicas realidades a las que deberíamos prestar atención y de las que podemos hablar.

Muchas veces me sorprende oír a muchos “científicos” que hablan con una seguridad de lo que dicen como si, de una verdad inamovible se tratara. Ellos (en realidad) creen que saben y, no llegan a darse cuenta de que están hablando de un Modelo que ha sido construído matemáticamente hablando, para poder explicar eso que, nosotros, los humanos, creemos que es la realidad del mundo. Sin embargo, más de una vez hemos tenido que cambiar esos modelos y rectificar esa “realidad” por otra que, resultó ser “más real”.

¡Sabemos tan poco!

emilio silvera

El “universo” de las partículas

$
0
0

Solo el 1% de las formas de vida que han vivido en la Tierra están ahora presentes, el 99%, por una u otra razón se han extinguido. Sin embargo, ese pequeño tanto por ciento de la vida actual, supone unos cinco millones de especies según algunas estimaciones. La  Tierra acoge a todas esas especies u palpita de vida que prolifera por doquier. Hay seres vivos por todas partes y por todos los rincones del inmenso mosaico de ambientes que constituye nuestro planeta encontramos formas de vida, cuyos diseños parecen hechos a propósito para adaptarse a su hábitat, desde las profundidades abisales de los océanos hasta las más altas cumbres, desde las espesas selvas tropicales a las planicies de hielo de los casquetes polares. Se ha estimado la edad de 3.800 millones de años desde que aparecieron los primeros “seres vivos” sobre el planeta (dato de los primeros microfósiles). Desde entonces no han dejado de aparecer más y más especies, de las que la mayoría se han ido extinguiendo. Desde el siglo XVIII en que Carlos Linneo propuso su Systema Naturae no han cesado los intentos por conocer la Biodiversidad…, de la que por cierto nuestra especie, bautizada como Homo sapiens por el propio Linneo, es una recién llegada de apenas 200.000 años.

Ahora, hablaremos de la vida media de las partículas elementales (algunas no tanto). Cuando hablamos del tiempo de vida de una partícula nos estamos refiriendo al tiempo de vida media, una partícula que no sea absolutamente estable tiene, en cada momento de su vida, la misma probabilidad de desintegrarse. Algunas partículas viven más que otras, pero la vida media es una característica de cada familia de partículas.

También podríamos utilizar el concepto de “semivida”. Si tenemos un gran número de partículas idénticas, la semivida es el tiempo que tardan en desintegrarse la mitad de ese grupo de partículas. La semivida es 0,693 veces la vida media.

http://www.monografias.com/trabajos75/agua-pesada/image003.gif

Si miramos una tabla de las partículas más conocidas y familiares (fotónelectrón muón tau, la serie de neutrinos, los mesones con sus pioneskaones, etc., y, los Hadrones bariones como el protónneutrónlambdasigmapsi y omega, en la que nos expliquen sus propiedades de masa, carga, espín, vida media (en segundos) y sus principales maneras de desintegración, veríamos como difieren las unas de las otras.

Resultado de imagen de vida media del protón

Algunas partículas tienen una vida media mucho más larga que otras. De hecho, la vida media difiere enormemente. Un neutrón por ejemplo, vive 10¹³ veces más que una partícula Sigma⁺, y ésta tiene una vida 10⁹ veces más larga que la partícula sigma cero. Pero si uno se da cuenta de que la escala de tiempo “natural” para una partícula elemental (que es el tiempo que tarda su estado mecánico-cuántico, o función de ondas, en evolucionar u oscilar) es aproximadamente 10ˉ²⁴ segundos, se puede decir con seguridad que todas las partículas son bastantes estables. En la jerga profesional de los físicos dicen que son “partículas estables”.

http://nuclear.fis.ucm.es/FERIA/IMAGENES/TAB_ISOTOPOS.JPG

¿Cómo se determina la vida media de una partícula? Las partículas de vida larga, tales como el neutrón y el muón, tienen que ser capturadas, preferiblemente en grandes cantidades, y después se mide electrónicamente su desintegración. Las partículas comprendidas entre 10ˉ¹⁰ y 10ˉ⁸ segundos solían registrarse con una cámara de burbujas, pero actualmente se utiliza con más frecuencia la cámara de chispas. Una partícula que se mueve a través de una cámara de burbujas deja un rastro de pequeñas burbujas que puede ser fotografiado. La Cámara de chispas contiene varios grupos de de un gran número de alambres finos entrecruzados entre los que se aplica un alto voltaje. Una partícula cargada que pasa cerca de los cables produce una serie de descargas (chispas) que son registradas electrónicamente. La ventaja de esta técnica respecto a la cámara de burbujas es que la señal se puede enviar directamente a una computadora que la registra de manera muy exacta.

Una partícula eléctricamente neutra nunca deja una traza directamente, pero si sufre algún tipo de interacción que involucre partículas cargadas (bien porque colisionen con un átomo en el detector o porque se desintegren en otras partículas), entonces desde luego que pueden ser registradas. Además, realmente se coloca el aparato entre los polos de un fuerte imán. Esto hace que la trayectoria de las partículas se curve y de aquí se puede medir la velocidad de las partículas. Sin embargo, como la curva también depende de la masa de la partícula, es conveniente a veces medir también la velocidad de una forma diferente.

 

Una colisión entre un protón y un antiprotón registrada mediante una cámara de chispas del experimento UA5 del CERN.

En un experimento de altas energías, la mayoría de las partículas no se mueven mucho más despacio que la velocidad de la luz. Durante su carta vida pueden llegar a viajar algunos centímetros y a partir de la longitud media de sus trazas se puede calcular su vida. Aunque las vidas comprendidas entre 10ˉ¹³ y 10ˉ²⁰ segundos son muy difíciles de medir directamente, se pueden determinar indirectamente midiendo las fuerzas por las que las partículas se pueden transformar en otras. Estas fuerzas son las responsables de la desintegración y, por lo tanto, conociéndolas se puede calcular la vida de las partículas, Así, con una pericia ilimitada los experimentadores han desarrollado todo un arsenal de técnicas para deducir hasta donde sea posible todas las propiedades de las partículas. En algunos de estos procedimientos ha sido extremadamente difícil alcanzar una precisión alta. Y, los datos y números que actualmente tenemos de cada una de las partículas conocidas, son los resultados acumulados durante muchísimos años de medidas  experimentales y de esa manera, se puede presentar una información que, si se valorara en horas de trabajo y coste de los proyectos, alcanzaría un precio descomunal pero, esa era, la única manera de ir conociendo las propiedades de los pequeños componentes de la materia.

Resultado de imagen de La vida de las partículas

Que la mayoría de las partículas tenga una vida media de 10ˉ⁸ segundos significa que son ¡extremadamente estables! La función de onda interna oscila más de 10²² veces/segundo. Este es el “latido natural de su corazón” con el cual se compara su vida. Estas ondas cuánticas pueden oscilar 10ˉ⁸ x 10²², que es 1¹⁴ o 100.000.000.000.000 veces antes de desintegrarse de una u otra manera. Podemos decir con toda la seguridad que la interacción responsable de tal desintegración es extremadamente débil.

Se habla de ondas cuánticas y también, de ondas gravitacionales. Las primeras han sido localizadas y las segundas están siendo perseguidas.

Aunque la vida de un neutrón sea mucho más larga (en promedio un cuarto de hora), su desintegración también se puede atribuir a la interacción débil. A propósito, algunos núcleos atómicos radiactivos también se desintegran por interacción débil, pero pueden necesitar millones e incluso miles de millones de años para ello. Esta amplia variación de vidas medias se puede explicar considerando la cantidad de energía que se libera en la desintegración. La energía se almacena en las masas de las partículas según  la bien conocida fórmula de Einstein E = Mc². Una desintegración sólo puede tener lugar si la masa total de todos los productos resultantes es menor que la masa de la partícula original. La diferencia entre ambas masas se invierte en energía de movimiento. Si la diferencia es grande, el proceso puede producirse muy rápidamente, pero a menudo la diferencia es tan pequeña que la desintegración puede durar minutos o incluso millones de años. Así, lo que determina la velocidad con la que las partículas se desintegran no es sólo la intensidad de la fuerza, sino también la cantidad de energía disponible.

Si no existiera la interacción débil, la mayoría de las partículas serían perfectamente estables. Sin embargo, la interacción por la que se desintegran las partículas π°, η y Σ° es la electromagnética. Se observará que estas partículas tienen una vida media mucho más corta, aparentemente, la interacción electromagnética es mucho más fuerte que la interacción débil.

Durante la década de 1950 y 1960 aparecieron tal enjambre de partículas que dio lugar a esa famosa anécdota de Fermi cuando dijo: “Si llego a adivinar esto me hubiera dedicado a la botánica.”

Si la vida de una partícula  es tan corta como 10ˉ²³ segundos, el proceso de desintegración tiene un efecto en la energía necesaria para producir las partículas ante de que se desintegre. Para explicar esto, comparemos la partícula con un diapasón que vibra en un determinado modo. Si la “fuerza de fricción” que tiende a eliminar este modo de vibración es fuerte, ésta puede afectar a la forma en la que el diapasón oscila, porque la altura, o la frecuencia de oscilación, está peor definida. Para una partícula elemental, esta frecuencia corresponde a su energía. El diapasón resonará con menor precisión; se ensancha su curva de resonancia. Dado que para esas partículas extremadamente inestable se miden curvas parecidas, a medida se las denomina resonancias. Sus vidas medias se pueden deducir directamente de la forma de sus curvas de resonancia.

http://i.livescience.com/images/i/22669/i02/cms-higgs.jpg

Bariones Delta. Un ejemplo típico de una resonancia es la delta (∆), de la cual hay cuatro especies ∆ˉ, ∆⁰, ∆⁺ y ∆⁺⁺(esta última tiene doble carga eléctrica). Las masas de las deltas son casi iguales 1.230 MeV. Se desintegran por la interacción fuerte en un protón o un neutrón y un pión.

Existen tanto resonancias mesónicas como bariónicas . Las resonancias deltas son bariónicas. Las resonancias deltas son bariónicas. (También están las resonancias mesónicas rho, P).

Las resonancias parecen ser solamente una especie de versión excitada de los Hadrones estable. Son réplicas que rotan más rápidamente de lo normal o que vibran de diferente manera. Análogamente a lo que sucede cuando golpeamos un gong, que emite sonido mientras pierde energía hasta que finalmente cesa de vibrar, una resonancia termina su existencia emitiendo piones, según se transforma en una forma más estable de materia.

Por ejemplo, la desintegración de una resonancia ∆ (delta) que se desintegra por una interacción fuerte en un protón o neutrón y un pión, por ejemplo:

∆⁺⁺→р + π⁺;  ∆⁰→р + πˉ; o п+π⁰

En la desintegración de un neutrón, el exceso de energía-masa es sólo 0,7 MeV, que se puede invertir en poner en movimiento un protón, un electrón y un neutrino. Un Núcleo radiactivo generalmente tiene mucha menos energía a su disposición.

Resultado de imagen de masa y energía

El estudio de los componentes de la materia tiene una larga historia en su haber, y, muchos son los logros conseguidos y muchos más los que nos quedan por conseguir, ya que, nuestros conocimientos de la masa y de la energía (aunque nos parezca lo contrario), son aún bastante limitados, nos queda mucho por descubrir antes de que podamos decir que dominamos la materia y sabemos de todos sus componentes. Antes de que eso llegue, tendremos que conocer, en profundidad, el verdadero origen de la Luz que esconde muchos secretos que tendremos que desvelar.

Esperemos que con los futuros experimentos del LHC y de los grandes Aceleradores de partículas del futuro,  se nos aclaren algo las cosas y podamos avanzar en el perfeccionamiento del Modelo Estándar de la Física de Partículas que, como todos sabemos es un Modelo incompleto que no contiene a todas las fuerzas de la Naturaleza y, cerca de una veintena de sus parámetros son aleatorios y no han sido explicados. Uno de ellos era el Bosón de Higgs que pudo ser confirmado. Sin embargo, a mí particularmente me quedan muchas dudas al respecto.

emilio silvera

¿Convertir energía en materia?

$
0
0

 

 

 

 

Sí todo se repite en el Universo… ¿Cuando volverán los buenos tiempos?

 

 

 dinosaurio-extincion

                                        Esperémos que no nos pase lo mismo que a ellos

Resultado de imagen de Convertir energía en materiaResultado de imagen de Convertir energía en materia

 

La masa es energía congelada, es decirt, masa y energía son dos aspectos de la misma cosa

 

Sí, sería posible convertir energía en materia,  hacerlo en grandes cantidades resulta poco práctico. Veamos por qué. Según la teoría de Einstein, tenemos que E = mc2, donde E representa la energía, medida en ergios, m representa la masa, medida en gramos, y c es la velocidad de la luz en centímetros por segundo. La luz se propaga en el vacío a una velocidad aproximada a los 30.000 millones (3×1010) de centímetros por segundo. La cantidad c2 representa el producto c×c, es decir: 3×1010 × 3×1010, ó 9×1020. Por tanto, c2 es igual a 900.000.000.000.000.000.000. Así pues, una masa de un gramo convertirse, en teoría, en 9×1020 ergios de energía.


Convertir la energía en materia requiere el proceso contrario al de convertir la masa en energía, y, luego, se necesitaría una inmensa cantidad de energía para conseguir algo de masa. Fijémonos en que un fotón gamma, por ejemplo, aún siendo muy energético, sólo daría lugar a un electrón y un positrón (siendo la masa de ambos ridícula).

El ergio es una unida muy pequeña de energía que equivale a: “Unidad de  o energía utilizado en el sistema c.g.s y actúa definida como trabajo realizado por una fuerza de 1 dina cuando actúa a lo largo de una distancia de 1 cm: 1 ergio = 10-7 julios”. La kilocaloría, de  quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia convertido en energía daría 2’2×1010 (22 millones) de kilocalorías. Una persona  sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.

O digámoslo de otro modo: si fuese posible convertir en energía eléctrica la energía representada por un solo gramo de materia, bastaría  tener luciendo continuamente una bombilla de 100 vatios durante unos 28.200 años.


Claro que una cosa es convertir la masa en energía y otra muy distinta  lo contrario, pero ¿ sería posible convertir energía en materia? Bueno, ya antes hemos dado la respuesta: Sí, pero a costa de un gasto ingente de energía que haría el proceso demasiado costoso y poco rentable. Fijémonos en estos ejemplos:

La energía que representa un  gramo de materia equivale a la que se obtendría de quemar unos 32 millones de litros de gasolina. Nada tiene de extraño, por tanto, que las bombas nucleares, donde se convierten en energías cantidades apreciables de materia, desaten tanta destrucción.

La conversión opera en ambos sentidos. La materia se  convertir en energía y la energía en materia. Esto último puede hacerse en cualquier momento en el laboratorio, donde continuamente convierten partículas energéticas (como fotones de rayos gamma) en 1 electrón y 1 positrón sin ninguna dificultad. Con ello se invierte el proceso, convirtiéndose la energía en materia.

De momento, no hemos podido conseguir gran cosa para fines pacíficos en lo que a las reacciones nucleares se refiere. Si acaso la energía de fisión de las Centrales nucleares que, en realidad, no es muy aconsejable, y, por otro lado, con fines armamentísticos con las bombas atómicas y de otro  que utilizan la fusión.

Pero estamos hablando de una transformación de ínfimas cantidades de masa casi despreciable. ¿Pero podremos utilizar el mismo principio para conseguir cantidades mayores de materia a partir de energía?

Bueno, si un gramo de materia puede convertirse en una cantidad de energía igual a la que produce la combustión de 32 millones de litros de gasolina, entonces hará falta toda esa energía para fabricar un solo gramo de materia, lo que nos lleva al convencimiento de que no sería muy rentable  el proceso.

Fuente: Isaac Asimov

¡Fluctuaciones de Vacío! ¿Que son?

$
0
0

Un fuerte campo gravitatorio puede inducir un efecto desbocado en las fluctuaciones cuánticas que se producen en el espacio, aparentemente vacío, …

En física cuántica, la fluctuación cuántica es un cambio temporal en la cantidad de energía en un punto en el espacio como resultado del Principio de Incertidumbre que imaginó Werner Heisenberg. De acuerdo a una formulación de este principio energía y tiempo se relacionan de la siguiente forma:

\Delta E\Delta t\approx {h \over 2\pi }

Esto significa que la conservación de la energía puede parecer violada, pero sólo por breves lapsos. Esto permite la creación de pares partícula-antipartícula de partículas virtuales. El efecto de esas partículas es medible, por ejemplo, en la carga efectiva del electrón, diferente de su carga “desnuda”. En una formulación actual, la energía siempre se conserva, pero los estados propios del Hamiltoniano no son los mismos que los del operador del número de partículas, esto es, si está bien definida la energía del sistema no está bien definido el número de partículas del mismo, y viceversa, ya que estos dos operadores no conmutan.

Imagen que representa las fluctuaciones del vacío entre una esfera y una superficie plana.

                                 Las fluctuaciones del vacío entre una esfera y una superficie plana

En un estudio realizado por un equipo de físicos con avanzados aparatos, han hallado un resultado del que nos dicen:

“La materia se construye sobre fundamentos frágiles. Los físicos acaban de confirmar que la materia, aparentemente sustancial, es en realidad nada más que fluctuaciones en el vació cuántico. Los investigadores simularon la frenética actividad que sucede en el interios de los protones y neutrones, que como sabéis son las partículas que aportan casi la totalidad de la masa a la materia común.

 

 

Cada protón (o neutrón) se compone de tres quarks – véase ilustración – pero las masas individuales de estos quarks apenas comprenden el 1% del total de la masa del protón¿Entonces de dónde sale el resto? La teoría sostiene que esta masa es creada por la fuerza que mantiene pegados a los quarks, y que se conoce como fuerza nuclear fuerte.  En términos cuánticos, la fuerza fuerte es contenida por un campo de partículas virtuales llamadas gluones, las cuales irrumpen aleatoriamente en la existencia para desaparecer de nuevo. La energía de estas fluctuaciones del vacío debe sumarse a la masa total del neutróny del protón.”

 

 

De ella se conforman galaxias y también, seres vivos

Tiene y encierra tantos misterios la materia que estamos aún y años-luz de y conocer sobre su verdadera naturaleza. Es algo que vemos en sus distintas formas materiales que configuran y conforman todo lo material desde las partículas elementales hasta las montañas y los océanos. Unas veces está en estado “inerte” y otras, se eleva hasta la vida que incluso,  en ocasiones, alcanza la consciencia de SER. Sin embargo, no acabamos de dilucidar de dónde viene su verdadero origen, su esencia,  lo que era antes de “ser” materia. ¿Existe acaso una especie de sustancia cósmica anterior a la materia? Y, si realmente existe esa sustancia… ¿Dónde está?

Claro que hemos llegado a saber que las llamadas fluctuaciones del vacío son oscilaciones aleatorias, impredecibles e ineliminables de un campo de fuerza (electromagnético o gravitatorio) que son debidas a un “tira y afloja” en el que pequeñas regiones del espacio toman prestada, momentáneamente, energía de regiones adyacentes y luego las devuelven. Pero…

- ¿Qué regiones adyacentes?

Acaso universos paralelos, acaso deformaciones del espacio-tiempo a escalas microscópicas, micros agujeros negros que pasan a ser agujeros blancos salidos de estas regiones o campos de fuerza que no podemos ver pero sí sentir, y, en última instancia, ¿por qué se forman esas partículas virtuales que de inmediato se aniquilan y desaparecen antes de que puedan ser capturadas? ¿Qué sentido tiene todo eso?

Las consecuencias de la existencia del cuanto mínimo de acción fueron revolucionarios para la comprensión del vacío. Mientras la continuidad de la acción clásica suponía un vacío plano, estable y “realmente” vacío, la discontinuidad que supone el cuanto nos dibuja un vacío inestable, en continuo cambio y muy lejos de poder ser considerado plano en las distancias atómicas y menores. El vacío cuántico es de todo menos vacío, en él la energía nunca puede quedar estabilizada en valor cero, está fluctuando sobre ese valor, continuamente se están creando y aniquilando todo tipo de partículas, llamadas por eso virtuales, en las que el producto de su energía por el tiempo de su existencia efímera es menor que el cuanto de acción. Se llaman fluctuaciones cuánticas del vacío y son las responsables de que exista un que lo inunda todo llamado campo de punto cero.

Pero volvamos de nuevo a las fluctuaciones de vacío, que al igual que las ondas “reales” de energía positiva, están sujetas a las leyes de la dualidad onda/partícula; es decir, tienen tanto aspectos de onda como aspectos de partícula.

Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio. El aspecto de partícula está incorporado en el concepto de partículas virtuales, es decir, partículas que pueden nacer en pares (dos partículas a un tiempo), viviendo temporalmente de la energía fluctuacional tomada prestada de regiones “vecinas” del , y que luego se aniquilan y desaparecen, devolviendo la energía a esas regiones “vecinas”. Si hablamos de fluctuaciones electromagnéticas del vacío, las partículas virtuales son fotonesvirtuales; en el caso de fluctuaciones de la gravedad en el vacío, son gravitones virtuales.

De las llamadas fluctuaciones de vacío pueden surgir, partículas virtuales y quién sabe que cosas más… Hasta un nuevo Universo.

                                  Son muchas  las preguntas que no tienen respuestas

Parece que las fluctiuaciones ocurren en cualquier lugar, pero que, son tan minúsculas que ningún observador o experimentador las ha detectado de una manera franca hasta la fecha y, se sabe que están ahí por experimentos que lo han confirmado. Estas fluctuaciones son más poderosas cuanto menos escala se considera en el espacio y, por debajo de la longitud de Planck-Wheeler las fluctuaciones de vacío son tan enormes que el espacio tal como lo conocemos “pareciera estar hirviendo” para convertirse en una especie de espuma cuántica que parece que en realidad, cubre todo el espacio “vacío cuántico” que sabemos que está ahí y es el campo del que surgen esas partículas virtuales que antes menccionaba.

     ¿Espuma cuántica? Si profundizamos mucho en la materia… Podríamos ver otro universo distinto al nuestro. Las cosas miles de millones de veces más pequeñas que en nuestro mundo cotidiano, no parecen las mismas cosas.

Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, limite_planck es la escala de longitud por debajo de la cual el tal como lo conocemos deja de existir y se convierte en espuma cuántica.  El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2) juega un papel clave en la entropía de un agujero negro. ¡Qué locura!

Resultado de imagen de Teoría cuántica de la gravedad

La teoría que junte lo grande y lo pequeño. Las que ahora tenemos no dejan que la Gravedad se junte con la cuántica. Parece que en la teoría de cuerdas subyace esa teoría pero… no se puede verificar.

Como tantas veces hemos comentado, los trabajos que se han realizado sobre poder construir una teoría cuántica de la gravedad nos llevan a un sorprendente de implicaciones. Por un lado, sólo se ha podido conceptuar a la gravedad cuántica, siempre y cuando, el universo tenga más de cuatro dimensiones. Además, se llega a considerar que en la era de Planck, tanto el universo como la gravedad pudieron ser una sola cosa compacta estructurada por objetos cuánticos infinitamente diminutos, como los que suponemos que conforman las supercuerdas. A esta escala, el mismísimo espaciotiempo estaría sometido a imprescindibles fluctuaciones muy semejantes a las que causan las partículas al nacer y desaparecer de la existencia en el espaciotiempo ordinario. Esta noción ha conducido a los teóricos a describir el universo de la era cuántica como una especie de extremadamente densa y agitada espuma que pudo haber contenido las vibrantes cuerdecillas que propugnan los cosmólogos cuerdistas.

Los físicos especulan que el cosmos ha crecido a desde una «nada» primigenia que al nacer comenzó el principio del tiempo y que, en ese parto, contenía toda la materia y toda la energía.

En física como en todas las demás disciplinas científicas, los conocimientos avanzan y las teorías que sostuvieron los cimientos de nuestros conocimientos se van haciendo viejas y van teniendo que ser reforzadas con las nuevas y más poderosas “vigas” de las nuevas ideas y los nuevos hallazgos científicos que hacen posible ir perfeccionando lo que ya teníamos.

Recientemente se han alzado algunas voces contra el Principio de Incertidumbre de Heisenberg. He podido leer en un artíoculo de la prestigiosa Revista Nature, un artículo del premio Nobel de Física Gerald ´t Hoofft, en el que propone que la naturaleza probabilistica de la mecánica cuántica, desaparecería a la escala de Planck, en la que el comportamiento de la materia sería determinista; a longitudes mayores, energías más pequeñas.

El mundo de lo muy pequeño (el micro espacio), a nivel atómico y subatómico, es el dominio de la física cuántica, así nunca podríamos saber, de acuerdo m con el principio de incertidumbre, y, en un momento determinado, la posición y el estado de una partícula. Este estado podría ser una función de la escala espacio-temporal. A esta escala tamaños todo sucede demasiado deprisa para nosotros.

cuerdascuantica.jpg

El “universo cuántico” nada es lo que parece a primera vista, allí entramos en otro mundo que en nada, se parece al nuestro

 Cuando hablamos de la mecánica cuántica, tenemos mirar un poco hacia atrás en el tiempo y podremos darnos del gran impacto que tuvo en el devenir del mundo desde que, en nuestras vidas, apareció el átomo y, más tarde, sus contenidos. Los nombres de Planck, Einstein, Bohr, Heisenberg, Schrödinger, Pauli, Bardeen, Roentgen, Dirac y muchos otros, se pudieron a la cabeza de la lista de las personas más famosas. Aquel primer premio Nobel de Física otorgado en 1900 a Roentgen por descubrir los rayos X, en el mismo año llegaría el ¡cuanto! De Planck que inspiró a Einstein para su trabajo sobre el Efecto fotoeléctrico que también, le valdría el Nobel, y, a partir de ese momento, se desencadenó una especie de alucinante por saber sobre el átomo, sus contenidos, y, de qué estaba hecha la materia.

Resultado de imagen de La conocida como Paradoja EPR y los conceptos de Tiempo y , presente, pasado y futuro.

               La conocida como Paradoja EPR y los conceptos de Tiempo y , presente, pasado y futuro.

La Mecánica Cuántica es incompleta (conclusión EPR).  Dos posibles conclusiones enfrentadas:
La Mecánica Cuántica es completa, pero el realismo local no se cumple. Entonces… ¿Cómo se comporta la Naturaleza en realidad? Bueno, no siempre lo sabemos y, no hace mucho me encontré con el comentario de un científico que decía:
“Nadie ha resuelto la paradoja del gato de Schröedinger, ni la paradoja de Einstein-Podolsky-Rosen. El principio de incertidumbre no se ha explicado y se asume como un dogma, lo mismo pasa con el spin. El spin no es un giro pero es un giro.  Aquí hay un desafío al pensamiento humano. ¡Aquí hay una aventura del pensamiento!”

Fueron muchas las polémicas desatadas a cuenta de las aparentes incongruencias de la moderna Mecánica Cuántica. La paradoja de Einstein-Podolsky-Rosen, denominada “Paradoja EPR”, trata de un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. Es relevante, pues pone de manifiesto un problema aparente de la mecánica cuántica, y en las décadas siguientes se dedicaron múltiples esfuerzos a desarrollarla y resolverla.

Einstein (y a muchos otros científicos), la idea del entrelazamiento cuántico le resultaba extremadamente perturbadora. Esta particular característica de la mecánica cuántica permite preparar estados de dos o más partículas en los cuales es imposible obtener útil sobre el estado total del sistema haciendo sólo mediciones sobre una de las partículas.

Por otro lado, en un entrelazado, manipulando una de las partículas, se puede modificar el estado total. Es decir, operando sobre una de las partículas se puede modificar el estado de la otra a distancia de manera instantánea. Esto habla de una correlación entre las dos partículas que no tiene paralaje en el mundo de nuestras experiencias cotidianas. Cabe enfatizar pues que cuando se mide el estado de una partícula, enseguida sabemos el estado de la otra, lo cual aparentemente es instantáneo, es decir, sin importar las distancias a las que se encuentren las partículas, una de la otra, ambas saben instantáneamente el estado de la otra.

El experimento planteado por EPR consiste en dos partículas que interactuaron en el pasado y que quedan en un estado entrelazado. Dos observadores reciben cada una de las partículas. Si un observador mide el momento de una de ellas, sabe cuál es el momento de la otra. Si mide la posición, gracias al entrelazamiento cuántico y al principio de incertidumbre, puede la posición de la otra partícula de forma instantánea, lo que contradice el sentido común.

File:O2 MolecularOrbitals Anim.gif

Animación que muestra dos átomos de oxígeno fusionándose para formar una molécula de O2 en su estado cuántico fundamental. Las nubes de color representan los orbitales atómicos. Los orbitales 2s y 2p de cada átomo se combinan para formar los orbitales σ y π de la molécula, que la mantienen unida. Los orbitales 1s, más interiores, no se combinan y permiten distinguir a cada núcleo. Lo que ocurre a escalas tan pequeñas es fascienante.

Si nos pudiéramos convertir en electrones, por ejemplo, sabríamos dónde y cómo estamos en cada momento y podríamos ver asombrados, todo lo que estaba ocurriendo a nuestro alrededor que, entonces sí, veríamos transcurrir a un ritmo más lento del que podemos detectar en los electrones desde nuestro macroestado espacio temporal. El electrón, bajo nuestro punto de vista se mueve alrededor del núcleo atómico a una velocidad de 7 millones de km/h.

A medida que se asciende en la escala de tamaños, hasta el tiempo se va ajustando a esta escala, los objetos, a medida que se hacen mayores se mueven más despacio y, además, tienen más duración que los pequeños objetos infinitesimales del micro mundo cuántico. La vida media de un neutron es de unos 15 minutos, por ejemplo, mientras que la vida media de una estrellas se puede contar en miles de millones de años.

En nuestra macroescala, los acontecimientos y ,los objetos se mueven a velocidades que a nosotros nos parecen normales. Si se mueven con demasiada lentitud nos parece que no se mueven. Así hablamos de escala de tiempo geológico, para referirnos al tiempo y velocidad de la mayor parte de los acontecimientos geológicos que afectan a la Tierra, el tiempo transcurre aquí en millones de años y nosotros ni lo apreciamos; nos parece que todo está inmóvil. Nosotros, los humanos, funcionamos en la escala de años (tiempo biológico).

El Tiempo Cosmológico es aún mucho más dilatado y los objetos cósmicos (mundos, estrellas y galaxias), tienen una mayor duración aunque su movimiento puede ser muy rápido debido a la inmensidad del espacio universal en el que se mueven. La Tierra, por ejemplo, orbita alrededor del Sol a una velocidad media de 30 Km/s., y, el Sol, se desplaza por la Galaxia a una velocidad de 270 km/s. Y, además, se puede incrementar el tiempo y el espacio en su andadura al estar inmersos y ligados en una misma maya elástica.

Así,  el espacio dentro de un átomo, es muy pequeño; dentro de una célula, es algo mayor; dentro de un animal, mayor aún y así sucesivamente… hasta llegar a los enormes espaciosa que separan las estrellas y las galaxias en el Universo.

Distancias astronómicas separan a las estrellas entre sí, a las galaxias dentro del cúmulo, y a los cúmulos en los supercúmulos.

Las distancias que separan a los objetos del Cosmos se tienen que medir con unidades espaciales, tal es su inmensa magnitud que, nuestras mentes, aunque podamos hablar de ellas de manera cotidiana, en realidad, no han llegado a asimilarlas.Y, a todo ésto, los físicos han intentado con denuedo elaborar una teoría completa de la gravedad que incluya la mecánica cuántica. Los cálculos de la mayoría de las teorías propuesta de la «gravedad cuántica» arrojan numerosos infinitos. Los físicos no están seguros si el problema es técnico o conceptual. No obstante, incluso prescindiendo de una teoría completa de gravedad cuántica, se puede deducir que los efectos de la teoría cuántica, habrían cruciales durante los primeros 10-43 segundos del inicio del universo, cuando éste tenía una densidad de 1093 gramos por centímetro cúbico y mayor. (El plomo sólido tiene una densidad de aproximadamente diez gramos por centímetro cúbico.) Este período, que es el que corresponde a la era de Planck, y a su estudio se le llama cosmología cuántica. Como el universo en su totalidad habría estado sujeto a grandes incertidumbres y fluctuaciones durante la era de Planck o era cuántica, con la materia y la energía apareciendo y desapareciendo de un vacío en grandes cantidades, el concepto de un principio del universo podría no tener un significado bien definido. En todo caso, la densidad del universo durante este período es de tal magnitud que escapa a nuestra comprensión. Para propósitos prácticos, la era cuántica podría considerarse el estado inicial, o principio, del universo. En consecuencia, los procesos cuánticos ocurridos durante este período, cualquiera sea su naturaleza, determinaron las iniciales del universo.

gran-muralla-galaxias

Una cosa nos ha podido quedar clara: Los científicos para lograr conocer la estructura del universo a su escala más grande, deben retroceder en el tiempo, centrando sus teorías en el momento en que todo comenzó. Para ello, como  todos sabeis, se han formulado distintas teorías unificadoras de las cuatro fuerzas de la naturaleza, con las cuales se han modelado acontecimiento y en el universo primitivo casi a todo lo largo del camino hasta el principio. Pero cómo se supone que debió haber habido un «antes», aparece una barrera que impide ir más allá de una frontera que se halla fijada a los 10-43 [s] después del Big Bang, un instante conocido como «momento de Planck», en homenaje al físico alemán Max Planck.

Resultado de imagen de La era cuántica

Esta barrera existe debido a que antes del momento de Planck, durante el período llamado la «era de Planck o cuántica», se supone que las cuatro fuerza fundamentales conocidas de la naturaleza eran indistinguibles o se hallaban unificadas , que era una sola fuerza. Aunque los físicos han diseñado teorías cuánticas que unen tres de las fuerzas, una por una, a través de eras que se remontan al momento de Planck, hasta ahora les ha prácticamente imposible armonizar las leyes de la teoría cuántica con la gravedad de la relatividad de Einstein, en un sólo modelo teórico ampliamente convincente y con posibilidades claras de ser contrastado en experimentos de laboratorio y, mucho menos, con observaciones.

Y después de todo ésto, sólo una caso me queda clara: ¡Lo poco que sabemos! A pesar de la mucha imaginación que ponemos en las cosas que creemos conocer.

emilio silvera


Algunos desarrollos de la Física Teórica…Son notables

$
0
0

Hasta hace muy pocos años la Gravitación y la Mecánica Cuántica eran dos campos de la Física Teórica que utilizaban metodologías muy distintas y que estaban prácticamente desconectados entre sí. Por una parte, la interacción gravitatoria está descrita por la Teoría de la Relatividad General de Einstein, que es una teoría clásica (es decir, no cuántica) en la que la Gravedad se representa como una propiedad geométrica del espacio y del tiempo. Por otro lado, gobierna el mundo de las partículas atómicas y subatómicas. Su generalización relativista (la Teoría Cuántica de Campos) incorpora los principios de la Teoría Especial Relativista y, junto con el principio gauge, ha permitido construir con extraordinario éxito el llamado Modelo Estándar de la Física de las Partículas Elementales.

Resultado de imagen de El Modelo Estandar de la f´çisica de partículas

Con sus 20 parámetros aleatorios (parece que uno de ellos ha sido hallado -el bosón de Higgs-), el Modelo estándar de la física de partículas que incluye … sólo tres de las cuatro fuarzas fundamentales. La Gravedad se niega a juntarse con las otras fuerzas.

La interacción electromagnética, por ejemplo, es la responsable de las fuerzas que controlan la estructura atómica, reacciones químicas y todos los fenómenos electromagnéticos. Puede explicar las fuerzas entre las partículas cargadas, pero al contrario que las interacciones gravitacionales, pueden ser tanto atractivas como repulsivas. Algunas partículas neutras se desintegran por interacciones electromagnéticas. La interacción se puede interpretar tanto como un modelo clásico de fuerzas (ley de Coulomb) como por el intercambio de unos fotones virtuales. Igual que en las interacciones gravitatorias, el hecho de que las interacciones electromagnéticas sean de largo alcance significa que tiene una teoría clásica bien definida dadas por las ecuaciones de Maxwell. La teoría cuántica de las interacciones electromagnéticas se describe con la electrodinámica cuántica, que es una forma sencilla de teoría gauge.

Imagen relacionada

                                El electromagnetismo está presente por todo el Universo

La interacción fuerte es unas 102 veces mayor que la interacción electromagnética y, como ya se dijo antes, aparece sólo entre los hadrones y es la responsable de las fuerzas entre nucleones que confiere a los núcleos de los átomos su gran estabilidad. Actúa a muy corta distancia dentro del núcleo (10-15 metros) y se puede interpretar como una interacción mediada por el intercambio de mesones virtuales llamados Gluones. Está descrita por una teoría gauge llamada Cromodinámica cuántica.

Las teorías gauge explican satisfactoriamente la dinámica de las interacciones electromagnéticas, fuertes y débiles en un gran rango de distancias. Sin embargo, a pesar que la Teoría General de la Relatividad puede formularse como una teoría gauge, todos los intentos de introducir en ella de manera completamente satisfactoria los principios de la Mecánica Cuántica, han fracasado. No obstante, los desarrollos realizados en el marco de la Teoría de Cuerdas en los últimos años han dado lugar a una convergencia, al menos metodológica, entre estos dos campos de la Física Fundamental.

https://ponungeologentuvida.files.wordpress.com/2012/04/teoria-del-big-bang.jpg

                       Lo cierto es que buscamos incansables para saber de qué está hecho el “mundo”

La piedra angular de esta inesperada conexión es la llamada correspondencia gravedad/teoría gauge. En su forma más genérica dicha correspondencia afirma que la dinámica de ciertas teorías cuánticas de campos sin gravedad puede ser descrita por medio de una teoría gravitatoria en un espacio-tiempo que contiene al menos una dimensión adicional.

Para poder comprender con claridad los orígenes y las consecuencias de tan sorprendente relación entre teorías tan diferentes, es interesante recordar como fue descubierta en el contexto de la Teoría de Cuerdas. la Teoría de cuerdas tiene su origen en los años 60-70 como un intento de describir los hadrones(partículas elementales que experimentan interacción fuerte) como estados de una cuerda en movimiento.

                ¡Teoría de cuerdas! (¿)

La longitud de la cuerda se puede identificar con el tamaño del hadrón y sería del orden del fermi (10-15metros). Sin embargo, al analizar en detalle el espectro de modos de vibración de las cuerdas cerradas se descubrió que estas contienen una partícula de espín 2 y masa nula…(¿el gravitón?) que no se corresponde con ningún hadrón y que, en cambio, se identifica de manera natural con el gravitón (el cuanto fundamental de la interacción gravitatoria). De esta forma la Teoría de Cuerdas pasó de ser considerada una teoría de las interacciones fuertes a ser una posible teoría de unificación de las cuatro interacciones fundamentales de la Naturaleza a una escala mucho más pequeña: La longitud de Planck(10-35 metros).

La longitud de Planck se define como:

<br />
\ell_P =<br />
\sqrt\frac{\hbar G}{c^3} \approx<br />
1.616 199 (97) \times 10^{-35} \mbox{ metros}<br />

donde c es la velocidad de la luz en el vacío, G es la constante de gravitación universal, y \hbar es la Constante de Planck racionalizada o reducida.

Una consecuencia sorprendente del estudio cuántico de la cuerda es que ésta debe propagarse en un espacio-tiempo de diez dimensiones. La métrica de dicho espacio-tiempo está también fuertemente constreñida. De hecho, la consistencia mecano-cuántica del movimiento de la cuerda en un espacio curvo impone que la métrica de este debe satisfacer unas ecuaciones que,  en el límite en el que la longitud de la cuerda se considera muy pequeña, se reducen a las ecuaciones de Einstein de la relatividad general. Así pues, las ecuaciones fundamentales de la gravedad clásica en diez dimensiones se puede obtener de la dinámica cuántica de la cuerda.

En los años noventa se descubrió que el espectro de la Teoría de Cuerdas contiene, además de los modos de vibración asociados a las diferentes partículas, otros estados que están extendidos a lo largo de varias dimensiones espacio-temporales. Dichos espacios se denominan Branas y son paredes de dominio en el espacio-tiempo diez-dimensional que corresponden a estados no-perturbativos de la Teoría de Cuerdqas similares a los solitones de las teorías cuánticas de campo. En particular, las denominadas Dp-Branas son objetos que pueden estar extendidos a lo largo de p dimensiones espaciales y una temporal para 0 ≤ p ≤ 9. Uno puede imaginárselas como hiperplanos (p+1)-dimensionales. En particular la D3-Branas están extendidas a lo largo de cuatro dimensiones (tres espaciales y una temporal).

 

Claro, todo es pura conjetura (hasta que no sea verificado de forma experimental). Increíblemente el mundo de las branas es tan colosalmente extraño como lo es el infinitecimal mundo de las partículas cuánticas, con la salvedad de que, al tratar de objetos aún más pequeños, es decir aquellos que posiblemente existan más allá de los Quarks, la fascinación sube de tono al toparnos con un universo de cosas “imposibles”, bueno, mejor alejado de lo que nos dice el sentido común que (está visto),  no es el mejor de los sentidos.

Las D-branas aparecen en muchas discusiones modernas relacionadas con las cuerdas (por ejemplo, en la entropía de los agujeros negros). Suelen tratarse como si fueran objetos clásicos que yacen dentro del espacio-tiempo completo 1 + 9 (o 1 + 10) dimensiones. La “D” viene de “Dirichlet”, por analogía con el tipo de problema de valor de frontera conocido como un problema de Dirichlet, en el que hay una frontera de género tiempo sobre la que se especifican datos (según Peter G. Lejeune Dirichlet, un eminente matemático francés que vivió entre 1.805 y 1.859).

Imagen
Imagen

                     No resulta fácil para nosotros imaginar el Mundo Brana

Las D-Branas son objetos dinámicos que pueden moverse, deformarse y cambiar de estado interno. Una de sus características fundamentales es que este último está caracterizado por un campo gauge que viv3e en su interior. Así podremos decir que las D-Branas albergan teorías de gauge en su seno. Esta es una realización novedosa de la simwetría gauge que está en la base de la correspondencia gravedad/teoría gauge. Además, dado que la Teoría de Cuerdas es una teoría gravitatoria, cualquier objeto masivo (y en particular las D-Branas) tiene asociado una métrica que describe la distorsión gravitatoria del espacio-tiempo en torno a él. En el caso de las D-Branas estas métricas son fáciles de encontrar y son similares a la clásica solución de Schwazschild de la relatividad general. En 1997 el joven físico argentino Juan Maldacena sugirió  utilizar esta solución de gravedad para describir la teoría gauge que vive en las D-Branas.

¿Podría ser nuestro universo una membrana flotando en un espacio de más dimensiones, que se rompe muchas veces en un universo circundante? Según una rama de la teoría de las cuerdas llamada braneword, hay una gran cantidad de dimensiones extra de espacio, y aunque la gravedad puede llegar a salir, nosotros estamos confinados a nuestro propio universo “brana”, con sólo tres dimensiones. Neil Turok, de la Universidad de Cambridge en el Reino Unido, y Paul Steinhardt, de la Universidad de Princeton en Nueva Jersey, EE.UU., han trabajado en cómo el Big Bang se podría haber provocado cuando nuestro universo se enfrentó violentamente con otro. Se repite el enfrentamiento, produciendo un nuevo Big Bang de vez en cuando, por lo que si el modelo del universo cíclico es correcto, el cosmos puede ser inmortal. ¡Por imaginar que no quede!

Sólo vamos a ser conscientes de dimensiones extra allí donde inciden directamente sobre las D-brana en la que “vivimos”. Más que una imagen de tipo “espacio cociente” que evoca la analogía de Kaluza-Kleinoriginal: El gráfico representa un modelo de manguera de un espacio-tiempo de dimensiones más altas de tipo Kaluza-Klein, donde la longitud, o mejor, la dimensión a lo largo de la longitud de la manguera representa el 4-espacio-tiempo normal, y la dimensión alrededor de la manguera representa la dimensión extra “pequeñas” (quizá escala de Planck). Imaginemos un “ser” que habite en este mundo, que rebasa estas dimensiones extra “pequeñas”, y por ello no es realmente consciente de ellas.

Resultado de imagen de En la propuesta de Maldacena de las dos descripciones (gauge y gravitatoria) son duales y complementarias entre sí.

En la propuesta de Maldacena de las dos descripciones (gauge y gravitatoria) son duales y complementarias entre sí. En principio nos puede parecer confusa la afirmación de que la gravedad juega un papel relevante en la física de la teoría gauge. En los cursos de física nosm enseñan que la gravedad es mucho más débil que las otras fuerzas, y que, por lo tanto, su efecto es despreciable salvo a distancias realmente pequeñas o masas realmente grandes. Para resolver esta paradoja hay que tener en cuenta que la gravedad de la que estamos hablando no es la de nuestro universo aproximadamente plano y (posiblemente) con una pequeña constante cosmológica positiva, sino que se trata de una teorìa auxiliar en más de cuatro dimensiones y con constante cosmológica negativa.

Para seguir explicando el tema, mucho tendríamos que escribir. Sin embargo, quede aquí esta entrada que, al menos, puede despertar alguna curiosidad en los lectores que, aconsejados por lo leido, busquen más sobre el tema que, sin duda alguna, llega a ser fascinante.

Fuente: Muchos de los párrafos aquí insertos, han sido transcritos de un trabajo de Alfon V Ramallo del Departamento de Física de Partículas de la Universidad de Santiago de Compostela.

PD.

Aclaración: Cuando mencionamos una teoría gauge, lo estamos haciendo de cualquiera de las teorías cuánticas de campos creadas para explicar las interacciones fundamentales. Una teoría gauge requiere un grupo de simetría para los campos y los potenciales (el grupo gauge). En el caso de la electrodinámica, el grupo es abeliano, mientras que las teorías gauge para las interacciones fuertes y débiles utilizan grupos no abelianos. Las teorías gauge no abelianas son conocidas como teorías de Yang-Mills. esta diferencia explñica por qué la electrodinámica cuántica es una teoría mucho más simple que la cromodinámica cuántica, que describe las interacciones fuertes, y la teoría electrodébil, que es la teoría unificada de las interacciones débiles y las electromagnéticas. En el caso de la Gravedad Cuántica, el Grupo Gauge es mucho más complicado que los grupos gauge tanto de las interacciones fuertes como de las débiles.

¡La Física! ¡Qué complejidad!

emilio silvera

Creemos cosas que…, ¿serán ciertas?

$
0
0

  

 

 

 

 

Diagrama de la trayectoria del sistema de Lorenz para los valores r = 28, σ = 10, b = 8/3.

Teoría del cáos es la denominación popular de la rama de las matemáticas, la física y otras disciplinas científicas que trata ciertos tipos de sistemas dinámicos  muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro, imposibilitando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinísticos, es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.

Foto

 

Montaje experimental. Foto: HZB, D.J.P. Morris y A. Tennant. .

 

Hubo un tiempo, el el Universo muy temprano, en el que la temperatura estaba encima de algunos cientos de veces la masa del protón, cuando la simetría aún no se había roto, y la fuerza débil y electromagnética no sólo eran la misma matemáticamente, sino realmente la misma. Un físico que hibiera podido estar allí presente, en aquellos primeros momento, no habría podido observar ninguna diferencia real entre las fuerzas producidas por el intercambio de estas cuatro partículas: las W, la Z y el Fotón.

 

 

 

Muchas son las sorpresas que nos podríamos encontrar en el universo primitivo, hasta la presencia de agua ha sido detectada mediante la técnica de lentes gravitacionales en la galaxia denominada MG J0414+0534 que está situada en un tiempo en el que el Universo sólo tenía dos mil quinientos millones de años de edad. El equipo investigador pudo detectar el vapor de agua presente en los chorros de emisión de un agujero negro supermasivo. Este tipo de objeto es bastante raro en el universo actual. El agua fue observada en forma de mases, una emisión de radiación de microondas provocada por las moléculas (en este caso de agua) al ser amplificadas por una onda o un campo magnético.

Siguiendo con el trabajo, dejemos la noticia de más arriba (sólo insertada por su curiosidad y rareza), y, sigamos con lo que hemos contado repetidas veces aquí de las fuerzas y la simetría antes de que, el universo se expandiera y enfriara para que, de una sóla, surgieran las cuatro fuerzas que ahora conocemos: Gravedad que campa sola y no quiere juntarse con las otras fuerzas del Modelo Estándar, el electromagnetismo y las nucleares débil y fuerte.

 

mundo brana

 

 

Las fuerzas de la naturaleza que gobiernan la electricidad, el magnetismo, la radiactividad y las reacciones nucleares están confinadas a un “mundobrana” tridimensional, mientras que la gravedad actúa en todas las dimensiones y es consecuentemente más débil. Seguramente ese será el motivo por el cual, encontrar  al Bosón mediador de la fuerza, el Gravitón, resulta tan difícil.

De manera similar, aunque menos clara, las teorías de supersimetrías conjeturaban que las cuatro fuerzas tal vez estaban ligadas por una simetría que se manifestaba en los niveles de energía aún mayores que caracterizaban al universo ya antes del big bang. La introducción de un eje histórico en la cosmología la física de partículas (como decía ayer en uno de los trabajos), beneficio a ambos campos. Los físicos proporcionaron a los cosmólogos una amplia gama de herramientas útiles para saber cómo se desarrolló el universo primitivo. Evidentemente, el Big Bang no fue una muralla de fuego de la que se burló Hoyle, sino un ámbito de sucesos de altas energías que muy posiblemente pueden ser comprensibles en términos de teoría de campo relativista y cuántica.

 

 

 

 

La cosmología, por su parte, dio un tinte de realidad histórica a las teorías unificadas. Aunque ningún acelerador concebible podrían alcanzar las titánicas energías supuestas por las grandes teorías unificadas y de la supersimetría, esas exóticas ideas aún  pueden ser puestas a prueba, investigando las partículas constituyentes del universo actual y tratar de ver si son compatibles con el tipo de historia primitiva que implican las teorías.

Gell-Mann, el premio Nobel de física, al respeto de todo esto decía: “Las partículas elementales aparentemente proporcionan las claves de algunos de los misterios fundamentales de la Cosmología temprana… y resulta que la Cosmología brinda una especia de terreno de prueba para alguna de las ideas de la física de partículas elementales.” Hemos podido llegar a descubrir grandes secretos de la naturaleza mediante los pensamientos que, surgidos de la mente desconocida y misteriosa de algunos seres humanos, han podido ser intuidos mediante ráfagas luminosas que nunca sabremos de dónde pudieron surgir )Lorentz, Planck, Einstein, Heisenmberg, Dirac, Eddigton, Feymann, Wheeler… Y, una larga lista de privilegiados que pudieron ver, lo que otros no podían.

 

 

http://lamemoriacelular.com/blog/wp-content/uploads/2010/04/celula.png

 

Moléculas, átomos y conexiones para formar pensamientos

Hemos llegado a poder discernir la relación directa que vincula el tamaño, la energía de unión y la edad de las estructuras fundamentales de la Naturaleza. Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene. La cosmología sugiere que esta relación resulta del curso de la historia cósmica, que los quarks se unieron primero en las energías extremadamente altas del big bang original  y que a medida que el Universo se expandió, los protones y neutrones compuestos de quarks se unieron para formar núcleos de átomos, los cuales, cargados positivamente, atrajeron a los electrones cargados con electricidad negativa estableciéndose así como átomos completos, que al unirse formaron moléculas.

 

 

 

 

 

Si es así (que lo es), cuanto más íntimamente examinemos la Naturaleza, tanto más lejos hacia atrás vamos en el tiempo.   Alguna vez he puesto el ejemplo de mirar algo que no es familiar, el dorso de la mano, por ejemplo, e imaginemos que podemos observarlo con cualquier aumento deseado.

Con un aumento relativamente pequeño, podemos ver las células de la piel, cada una con un aspecto tan grande y  complejo como una ciudad, y con sus límites delineados por la pared celular.  Si elevamos el aumento, veremos dentro de la célula una maraña de ribosomas serpenteando y mitocondrias ondulantes, lisosomas esféricos y centríolos, cuyos alrededores están llenos de complejos órganos dedicados a las funciones respiratorias, sanitarias y de producción de energía que mantienen a la célula.

Ya ahí tenemos pruebas de historia. Aunque esta célula particular solo tiene unos pocos años de antigüedad, su arquitectura se remonta a más de mil millones de años, a la época en que aparecieron en la Tierra las células eucariota o eucarióticas como la que hemos examinado.

 

 

 

Si miramos con el microsopio, electrónico llegamos a divisar hasta el núcleo de las células

 

Resultado de imagen de El núcleo de las células

 

 

Para determinar dónde obtuvo la célula el esquema que le indicó como formarse, pasemos al núcleo y contemplemos los delgados contornos de las macromoléculas de ADN segregadas dentro de sus genes.  Cada una contiene una rica información genética acumulada en el curso de unos cuatro mil millones de años de evolución.

 

 

 

 

Almacenado en un alfabeto de nucleótidos de  cuatro “letras”- hecho de moléculas de azúcar y fosfatos, y llenos de signos de puntuación, reiteraciones para precaver contra el error, y cosas superfluas acumuladas en los callejones sin salida de la historia evolutiva-, su mensaje dice exactamente cómo hacer un ser humano, desde la piel y los huesos hasta las células cerebrales.

Si elevamos más el aumento veremos que la molécula de ADN está compuesta de muchos átomos, con sus capas electrónicas externas entrelazadas y festoneadas en una milagrosa variedad de formas, desde relojes de arena hasta espirales ascendentes como largos muelles y elipses grandes como escudos y fibras delgadas como puros.  Algunos de esos electrones son recién llegados, recientemente arrancados a átomos vecinos; otros se incorporaron junto a sus núcleos atómicos hace más de cinco mil millones de años, en la nebulosa de la cual se formó la Tierra.

 

 

Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene. Sion embargo, nos queda la duda de: ¿qué podrá haber más allá de los Quarks?

¿Qué no podremos hacer cuando conozcamos la naturaleza real del átomo y de la luz? El fotón,  ese cuánto de luz que parece tan insignificante, nos tiene que dar muchas satisfacciones y, en él, están escondidos secretos que, cuando sean revelados, cambiará el mundo. Esa imagen de arriba que está inmersa en nosotros en en todo el Universo, es la sencilles de la complejidad. A partir de ella, se forma todo: la muy pequeño y lo muy grande.

Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión.   Tales núcleos y átomos se formaron dentro de una estrella que estalló mucho antes de que naciera el Sol.  Si podemos aumentar aún más, veremos los tríos de quarks que constituyen protones y neutrones. Los quarks han estado unidos desde que el Universo sólo tenía unos pocos segundos de edad.

Al llegar a escalas cada vez menores, también hemos entrado en ámbitos de energías de unión cada vez mayores.  Un átomo puede ser desposeído de su electrón aplicando sólo unos miles de electrón-voltios de energía.  Sin embargo, para dispersar los nucleones que forman el núcleo atómico se requieren varios millones de electrón-voltios, y para liberar los quark que constituyen cada nucleón.

 

 

 

 

Uno de los misterios de la naturaleza, están dentro de los protomes y netrones que, confromados por Quarks, resulta que, si estos fueran liberados, tendrían independientemente, más energía que el protón que conformaban. ¿cómo es posible eso?

Introduciendo el eje de la historia, esta relación da testimonio del pasado de las partículas: las estructuras más pequeñas, más fundamentales están ligadas por niveles de energía mayores porque las estructuras mismas fueron forjadas en el calor del big bang. Esto implica que los aceleradores de partículas, como los telescopios, funcionen como máquinas del tiempo.  Un telescopio penetra en el pasado en virtud del tiempo que tarda la luz en desplazarse entre las estrellas; un acelerador recrea, aunque sea fugazmente, las condiciones que prevalecían en el Universo primitivo. El acelerador de 200 Kev diseñado en los años veinte por Cockroft y Walton reproducía algunos de los sucesos que ocurrieron alrededor de un día después del comienzo del big bang. Los aceleradores construidos en los años cuarenta y cincuenta llegaron hasta la marca de un segundo.  El Tevatrón del Fermilab llevó el límite a menos de una milmillonésima de segundo después del comienzo del Tiempo.  El nuevo LHC proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

 

 

Resultado de imagen de cuando el Universo tenía menos de una millonésima de segundo de edad.

 

Esta es una edad bastante temprana: una diez billonésima de segundo es menos que un pestañeo con los párpados en toda la historia humana registrada.  A pesar de ello, extrañamente, la investigación de la evolución del Universo recién nacido indica que ocurrieron muchas cosas aún antes,  durante la primera ínfima fracción de un segundo.

Todos los teóricos han tratado de elaborar una explicación coherente de los primeros momentos de la historia cósmica.  Por supuesto, sus ideas fueron esquemáticas e incompletas, muchas de sus conjeturas, sin duda, se juzgaran deformadas o sencillamente erróneas, pero constituyeron una crónica mucho más esclarecedora del Universo primitivo que la que teníamos antes.

A los cien millones de años desde el comienzo del tiempo, aún no se habían formado las estrellas, si acaso, algunas más precoces.  Aparte de sus escasas y humeantes almenaras, el Universo era una sopa oscura de gas hidrógeno y helio, arremolinándose aquí y allá para formar protogalaxias.

 

 

Anti-hidrógeno

 

 

He aquí la primera imagen jamás obtenida de antimateria, específicamente un “anti-átomo” de anti-hidrógeno. Este experimento se realizó en el Aparato ALPHA de CERN, en donde los anti-átomos fueron retenidos por un récord de 170 milisegundos (se atraparon el 0.005% de los anti-átomos generados).

A la edad de mil millones de años, el Universo tiene un aspecto muy diferente.  El núcleo de la joven Vía Láctea arde brillantemente, arrojando las sobras de cumulonimbos galácticos a través del oscuro disco; en su centro brilla un quasar blanco-azulado.  El disco, aún en proceso de formación, es confuso y está lleno de polvo y gas; divide en dos partes un halo esférico que será oscuro en nuestros días, pero a la sazón corona la galaxia con un brillante conjunto de estrellas calientes de primera generación.

Para determinar dónde obtuvo la célula es esquema que le indicó como formarse, pasemos al núcleo y contemplemos los delgados contornos de las macromoléculas de ADN segregadas dentro de sus genes. Cada una contiene una rica información genética acumulada en el curso de unos cuatro mil millones de años de evolución.

Claro que, nuestra historia está relacionada con todo lo que antes de llegar la vida al Universo pudo pasar. ¡Aquella primera célula! Se replicó en la sopa primordial llamada Protoplasma vivo y, sigguió evolucionando hasta conformar seres de diversos tipos y, algunos, llegaron a adquirir la conciencia.

 

 

Macromolécula

Almacenado en un alfabeto de nucleótidos de cuatro “letras”- hecho de moléculas de azúcar y fosfatos, y llenos de signos de puntuación, reiteraciones para precaver contra el error, y cosas superfluas acumuladas en los callejones sin salida de la historia evolutiva-, su mensaje dice exactamente cómo hacer un ser humano, desde la piel y los huesos hasta las células cerebrales.

célula cerebral

 

Si elevamos más el aumento veremos que la molécula de ADN está compuesta de muchos átomos, con sus capas electrónicas externas entrelazadas y festoneadas en una milagrosa variedad de formas de una rareza y de una incleible y extraña belleza que sólo la Naturaleza es capaz de conformar.

 

Molécula de ADN

 

Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión. Tales núcleos átomos se formaron dentro de una estrella que estalló mucho antes de que naciera el Sol. Si podemos aumentar aún más, veremos los tríos de quarks que se  constituyen en protones y neutrones.

 

 

Átomo de Carbono

Los quarks han estado unidos desde que el Universo sólo tenía unos pocos segundos de edad. Una vez que fueron eliminados los antiquarks, se unieron en tripletes para formar protones y neutrones que, al formar un núcleo cargado positivamente, atrayeron a los electrones que dieron lugar a formar los átomos que más tarde, conformaron la materia que podemos ver en nuestro unioverso.

Al llegar a escalas cada vez menores, también hemos entrado en ámbitos de energías de unión cada vez mayores. Un átomo puede ser desposeído de su electrón aplicando sólo unos miles de electrón-voltios de energía. Sin embargo, para dispersar los nucleaones que forman el núcleo atómico se requieren varios millones de electrón-voltios, y para liberar los quarks que constituyen cada nucleón se necesitaría cientos de veces más energía aún.

Resultado de imagen de frase de Fynnegan’s Wake de James Joyce; “¡Tres <a href=

Los Quarks dentro del núcleo están sometidos a la Interacción fuerte, es decir, la más potente de las cuatro fuerzas fundamentales del Universo, la que mantiene a los Quarks confinados dentro del núcleo atómico por medio de los Gluones.

Introduciendo el eje de la historia, esta relación da testimonio del pasado de las partículas: las estructuras más pequeñas, más fundamentales están ligadas por niveles de energía mayores porque las estructuras mismas fueron forjadas en el calor del Big Bang.

 

 

Haces de protones que chocan cuando viajan a velocidad relativista en el LHC

 

Esto implica que los aceleradores de partículas, como los telescopios, funcionen como máquinas del tiempo. Un telescopio penetra en el pasado en virtud del tiempo que tarda la luz en desplazarse entre las estrellas; un acelerador recrea, aunque sea fugazmente, las condiciones que prevalecían en el Universo primitivo.

El acelerador de 200 kev diseñado en los años veinte por Cockroft y Walton reproducía algunos de los sucesos que ocurrieron alrededor de un día después del comienzo del big bang.

 

foto

 

Aquel acelerador nada tenía que ver con el LHC de ahora, casi un siglo los separa

 

Los aceleradores construidos en los años cuarenta y cincuenta llegaron hasta la marca de un segundo. El Tevatrón del Fermilab llevó el límite a menos de una milmillonésima de segundo después del comienzo del Tiempo. El nuevo supercolisionador superconductor proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

 

 

 

El Tevatrón del Fermilab ya estaba en el camino de la modernidad en los avances de la Física

Esta es una edad bastante temprana: una diez billonésima de segundo es menos que un pestañeo con los párpados en toda la historia humana registrada. A pesar de ello, extrañamente, la investigación de la evolución del Universo recién nacido indica que ocurrieron muchas cosas aún antes, durante la primera ínfima fracción de un segundo.

Todos los teóricos han tratado de elaborar una explicación coherente de los primeros momentos de la historia cósmica. Por supuesto, sus ideas fueron esquemáticas e incompletas, muchas de sus conjeturas, sin duda, se juzgaran deformadas o sencillamente erróneas, pero constituyeron una crónica mucho más aclaradora del Universo primitivo que la que teníamos antes.

 

 

 

 

                                               Recreación del Universo primitivo

 Bueno amigos, el trabajo era algo más extenso y entrábamos a explicar otros aspectos y parámetros implicados en todo este complejo laberinto que abarca desde lo muy grande hasta la muy pequeño, esos dos mundos que, no por ser tan dispares, resultan ser antagónicos, porque el uno sin el otro no podría existir. Otro día, seguiremos abundando en el tema apasionante  que aquí tratamos.

emilio silvera

¡El Modelo Estándar

$
0
0

Resultado de imagen de Steven Weinberg y Abdus SalamResultado de imagen de Steven Weinberg y Abdus Salam

 

Steven Weinberg y Abdus Salam

Precisamente, en los dos últimos comentarios de Fandila y otro mío, nos estábamos refiriendo a las teorías y, los dos coincidimos en que, a medida que se avanza y se descubren nuevos parámentros, tienen que ser refinadas para que reflejen de manera más real lo que quieren representar de los fenómenos que vemos en la Naturaleza.

Resultado de imagen de El Modelo Estándar de la Física de Partículas

“El modelo estándar de la física de partículas es una teoría relativista de campos cuánticos desarrollada entre 1970 y 1973[cita requerida] basada en las ideas de la unificación y simetrías1​ que describe la estructura fundamental de la materia y el vacío considerando las partículas elementales como entes irreducibles cuya cinemática está regida por las cuatro interacciones fundamentales conocidas (exceptuando la gravedad, cuya principal teoría, la relatividad general, no encaja con los modelos matemáticos del mundo cuántico). La palabra “modelo” en el nombre viene del período de los 70 cuando no había suficiente evidencia experimental que confirmara el modelo.1​ Hasta la fecha, casi todas las pruebas experimentales de las tres fuerzas descritas por el modelo estándar están de acuerdo con sus predicciones. Sin embargo el modelo estándar no alcanza a ser una teoría completa de las interacciones fundamentales debido a varias cuestiones sin resolver.”

Resultado de imagen de El Modelo Estándar de la Física de Partículas

Han pasado 50 años desde que Steven Weinberg y Abdus Salam publicaran aquel artículo en el que formalizaron el llamado Modelo Estándar de las Interacciones Fundamentales. Han sido 5 décadas de actividad científica muy intensa en las que se han realizado toda clase de experimentos para someter a esta teoría a las más complicadas pruebas que nos dijeran si realmente era un modelo que reflejaba la realidad que la naturaleza nos quiere transmitir.

El Modelo Estándar está construido de manera imperfecta, y aunque ha sido y será una herramienta de un enorme rendimiento para los físicos, hay que reconocer que estaba construido con 20 parámetros aleatorios (metidos con calzador) y, de los cuales solo uno de ellos (el Bosón de Higgs) ha sido hallado.

Imagen relacionada

En el modelo estándar que nos habla de las familias de partículas subatómicas que conforman la materia y también de aquellas otras que son intermediarias en la transmisión de las fuerzas fundamentales. Las partículas están divididas en familias como los quarks, los lectones y los hadrones. En realidad, los hadrones que se dividen en bariones y mesones se consideran una clase de subpartículas al estar conformadas por tripletes de quarks los bariones, y, por quarks y antiquarks los mesones.

Resultado de imagen de El Modelo Estándar de la Física de Partículas Resultado de imagen de El Modelo Estándar de la Física de Partículas

Además de las partículas mencionadas, en el Modelo Estándar están incluidas tres de las cuatro fuerzas fundamentales de la Naturaleza: Fuerza Nuclear Fuerte, Fuerza Nuclear Débil y, Electromagnetismo. La cuarta fuerza que es la Gravedad se resiste a reunirse en el modelo con las otras tres, y, precisamente por eso, los físicos están tratando de construir el modelo de la Gravedad Cuántica que por fin, reúna a todas las fuerzas.

Parece (aunque esto será objeto de un artículo a parte) que en la teoría de cuerdas (pendiente de ser verificada) puede subyacer esa teoría cuántica de la gravedad.

Resultado de imagen de simetria en el modelo estandar

La teoría estándar constituye un logro científico de inmensa importancia. A partir de simples postulados de simetría, es posible deducir las propiedades dinámicas de las interacciones electrodébil y fuerte, es decir, el lagrangiano completo que rige las fuerzas entre los constituyentes básicos de la materia, prediciendo así el comportamiento del mundo microscópico, de forma muy precisa y en perfecto acuerdo con las observaciones experimentales.

Resultado de imagen de simetria en el modelo estandar

Más aún, la consistencia matemática de la teoría hizo necesario introducir un nuevo campo de fuerza escalar, el campo de Higgs, del que no teníamos ninguna evidencia empírica hasta que los experimentos realizados en el acelerador de partículas LHC, encontraron el Bosón de Higgs y se consiguió añadir uno de los veinte parámetros aleatorios que tenía el modelo para convertirlo en un parámetro real y muy positivo, de tal manera que 50 años más tarde, lo que era una hipótesis teórica se ha convertido en una realidad tangible.

Resultado de imagen de simetria en el modelo estandar

Desde la perspectiva actual, la Teoría Estándar se obtiene fácilmente a partir de un mínimo número de ingredientes: la existencia de constituyentes elementales de la materia con espín ½, quarks y lectones, y las propiedades de simetría de los campos cuánticos que los describen.

La derivación matemática de su estructura parece tan simple y elegante que se podría llegar a pensar que es el resultado de una idea brillante (¿por qué no se nos había ocurrido antes?). Nada más lejos de la realidad. El desarrollo histórico de la teoría se produjo mediante una concatenación de pequeños pasos, no siempre en la buena dirección, en los que poco a poco se fueron superando grandes dificultades técnicas y conceptuales.

Resultado de imagen de simetria en el modelo estandar

El modelo que formularon Weinberg y Salam en 1967-1968 estaba basado en los desarrollos anteriores realizados por muchos otros científicos. Además, era un modelo solo de lectones y por lo tanto, tal como ahora sabemos, matemáticamente inconsistente debido a anomalías cuánticas. Harían falta todavía algunos años de profunda investigación y nuevas ideas para hacer posible la incorporación de los quarks, dando lugar al modelo definitivo. La celebración de este cincuentenario es una buena oportunidad para analizar retrospectivamente la evolución conceptual que ha permitido alcanzar este gran éxito científico.

¿Por qué la Gravedad no está en el Modelo Estándar?

$
0
0

Dibujo20160701 paritcles standard model table

“El modelo de Glashow–Weinberg–Salam «asocia la carga electrodébil, T, a dobletes de las componentes L de los fermiones [y] singletes de las componentes R». La discusión es breve, pero precisa y segura. A los bosones débiles W+, W− y W3 de la simetría SU(2)L se les «incorpora un bosón neutro adicional de la simetría U(1)Y , al que se denota como B. [El] bosón B se combina con el bosón neutro, W3 del grupo SU(2) [para] dar lugar a uno sin masa, [el] fotón A, [y] otro masivo, el Z0«. Se introduce también el ángulo de Weinberg θW.

Los quarks de un protón son libres de moverse dentro del volumen del protón. Si se intenta tirar de uno de los quarks hacia afuera, la energía requerida es del orden de 1 GeV por Fermi, como estirar una bolsa elástica. La energía necesaria para producir una separación excede en mucho a la energía de producción de un par quark-antiquark, así que en vez de sacar un quark aislado, se producen mesones como los producidos al combinar pares de quark-antiquark.

Los model

Tras introducir de forma breve la libertad asintótica y la observación experimental de los quarks mediante jets, se presenta la interacción débil. «Se comprobó que viola la paridad. Esta propiedad debe ser incorporada a la estructura de esta interacción. Para ello, el espinor de Dirac f, que representa a cada fermión, se puede separar en dos componentes, fL y fR, cada una de las cuales corresponde a la orientación del momento respecto del espín (helicidad). [En] el caso de la desintegración β la interacción débil solo afecta a la componente e−L y a su antipartícula e+R. La componente e−R o e+L no interviene en la interacción débil».

Resultado de imagen de La teoría cuántica de campos

Toda teoría sobre las partículas elementales se desarrolla dentro del marco de la teoría cuántica de campos, que incluye tanto el modelo estándar como la teoría del núcleo. Está basada en tres supuestos fundamentales:

  • La validez de la mecánica cuántica.
  • La validez del principio de relatividad de Einstein.
  • La localidad, es decir, todas las fuerzas fundamentales surgen de procesos locales y no de la acción a distancia. Estos procesos locales incluyen la emisión y absorción de partículas.
Resultado de imagen de La teoría cuántica de campos
La comprensión de por qué las ecuaciones de la mecánica cuántica son las que son, de por qué la materia esta formada por unas partículas determinadas y de por qué existe algo como la luz vino con el éxito del modelo estándar de partículas. Un requisito clave para ello fue la reconciliación en los años 40 de la Relatividad Especial con la mecánica cuántica. Ambas son prácticamente incompatibles y solo pueden coexistir en un tipo determinado de teorías. En estas teorías las fuerzas entre partículas solo pueden surgir del intercambio de otras partículas. Además todas estas partículas son cuantos de varios tipos de campos. Por ejemplo existe un campo electrónico cuyo cuanto es el electrón y el cuanto del campo electromagnético es el fotón. No existen campos para los protones y los neutrones porque estos están formados por otras partículas elementales: los quarks, que sí tienen campos asociados.
Por eso las ecuaciones de una teoría de campos como el modelo estándar no tratan con partículas sino con campos: las partículas aparecen como manifestaciones o excitaciones de dichos campos.
Resultado de imagen de La ecuación de Dirac
El problema de unir adecuadamente la mecánica cuántica y la teoría de la relatividad parecía estancado hasta que, en 1930, el físico inglés Paul Adrian Maurice Dirac logró deducir una ecuación que describe adecuadamente los fenómenos cuánticos y es compatible con el principio de la relatividad. Si existe algo así como una estética matemática, la ecuación de Dirac es una verdadera obra de arte, por la manera tan ingeniosa con la que el físico inglés resolvió un problema aparentemente irresoluble.
el modelo estándar no alcanza a ser una teoría completa de las interacciones fundamentales debido a varias cuestiones sin resolver.

Resultado de imagen de El problema del número de constantes físicas fundamentales

 

  1. El problema del número de constantes físicas fundamentales. El modelo contiene 19 parámetros arbitrarios cuyos valores se eligen para que las predicciones se ajusten a los resultados experimentales.
  2. Por qué las interacciones se dan como simetrías gauge del grupo SUC(3)×SUL(2)×UY(1).
  3. Por qué hay tres generaciones de cuarks y leptones.
  4. Por qué no hay hadrones con carga fraccionaria (a pesar que sus constituyentes, los cuarks, sí la tienen).
  5. Cuál es el origen de las masas de los leptones y los cuarks y/o la aparente jerarquía de masas.
  6. El origen de la violación CP. Dentro de él, la materia y la antimateria son simétricas. La preponderancia de la materia en el universo podría ser explicada diciendo que el universo comenzó con otras condiciones iniciales, pero la mayoría [¿quién?] de los físicos piensan que esta explicación no es elegante.
  7. No explica la materia oscura ni la energía oscura.
  • Einstein reformuló la teoría newtoniana en su Teoría de la Relatividad General. Interpretando la gravedad como geometría llegó a las llamadas ecuaciones de campo de Einstein

R_{\mu \nu} - {1 \over 2}g_{\mu \nu}\,R + g_{\mu \nu} \Lambda = {8 \pi G \over c^4} T_{\mu \nu}
Estas ecuaciones contienen tanto los resultados de Galileo como los de Newton, pero al precio de una complejidad mucho mayor. Las ecuaciones de Einstein son necesarias en algunas aplicaciones que requieren una gran precisión como las sincronizaciones de los satélites del sistema GPS.

Aun así no son universalmente válidas. Se sabe que no son aplicables a objetos extremadamente pequeños, como puede ser el centro de un agujero negro.
Los físicos (aunque han tratado de lograrlo), no han  podido incluir la fuerza de Gravedad en el Modelo Estandar de la física de partículas, parece que la Gravedad no quiere juntarse con las otras tres fuerzas fundamentales.
Resultado de imagen de La fuerza de gravedad
Sin embargo, la gravedad sí que actúa en las partículas subatómicas, pues tienen masa. Pero es una masa tan pequeña que esta interacción queda ensombrecida y su comportamiento está descrito por la interacción electromagnética (a nivel atómico) y por las interacciones nuclear débil y fuerte (a nivel subatómico.
Es decir,se trata simplemente de que el ámbito de la fuerza de Gravedad no está en ese “universo” de lo muy pequeño que casi carece de masa. Si lugar es aquel en el que pululan las estrellas, los mundos, las galaxias , agujeros negros y objetos masivos que la genera.
Resultado de imagen de Objetos que general Gravedad
Dicen que la Naturaleza es “sabia” y, precisamente por ello a cada cosda le reserva su lugar y cometido y, precisamente el de la Gravedad no se encuentra en el mundo de lo muy pequeño, sino que, por el contrario habita allí donde las masas son importantes. Cuando está presente una singularidad es tan potente que, distorsiona el Espacio y hace desaparecer el Tiempo.
Es simplemente por e4so que la fuerza de Gravedad no está presente con las otras fuerzas en el Modelo Estándar, ella, la Gravedad, necesita de grandes masas para hacer acto de presencia y realizar el trabajo que le tiene encomendado la Naturaleza.
Aunque se dice que una teoría cuantica de la Gravedad subyace en la Teoría de Cuerdas…. No parece muy factible que estas dos fuerzas incompatibles “sean amigas” alguna vez.
emilio silvera

Buscando la Gravedad Cuántica

$
0
0

Todo el ritmo del Universo está en nosotros que somos parte de él, una de las partes que piensan (no puedo quedarme en la idea de que estamos solos en tan inmenso Universo). Y, queremos buscar respuestas y desvelar secretos de la Naturaleza que nos somete a continuas pruebas que no podemos superar. Las preguntas son más que las respuestas y, a cada conocimiento nuevo, aparecen mil preguntas incontestables. Pero… ¡seguimos buscando!

Desde la noche de los tiempos los grandes pensadores de nuestra especie, cuando ya los humanos se habían asentado en Sociedades y comprendieron que éramos animales sociales, que los unos necesitábamos de los otros para seguir adelante, desde entonces, comenzamos un progreso que aún hoy en día sigue vigente y, cada vez estamos más cerca de alcanzar las estrellas.

Resultado de imagen de Realidad cuántica

En realidad, la región que denominamos Gravedad cuántica nos lleva y comprende preguntas sobre el origen del universo observable que nadie ha sabido contestar ¿Qué ingenio tecnológico haría falta para medir la fuerza de gravedad entre dos partículas?

Resultado de imagen de Dos partículas subatómicas se transmiten Gravedad mínima

Lo tenemos a la vista y nadie le presta la menor atención: Dos partículas subatómicas cualesquiera que sean, tienen tan pequeñas masas que, la fuerza de gravedad que generan es tan ínfima que se puede despreciar. Así, en el Modelo Estándar de la física de partículas y fuerzas fundamentales, sólo están presentes las tres fuerzas que hacen su trabajo en el ámbito de lo muy pequeño (nucleares fuerte y débil y electromagnetismo), la Gravedad se resiste a estar con ellas, toda vez que la Naturaleza le ha reservado otro otro ámbito de acción en las regiones donde se encuentran los objetos muy grandes como estrellas y planetas, galaxias y agujeros negros… Se niega a estar junto a las otras fuerzas en el llamamdo Modelo Estándar.

Resultado de imagen de Modelo EstándarResultado de imagen de Sistemas planetarios

En el Modelo Estándar la Gravedad está ausente y, sin embargo, está presente en el sistema planetario

 Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “Teoría de Yodo o Gran Teoría Unificada”. Es decir, una Teoría en la que estuvieran todas las respuestas… ¡Un sueño! Los Físicos teóricos hablan de la Gravedad cuántica que trata de unificar el Modelo estándar que ya tiene dentro a tres de las cuatro fuerzas fundamentales, con la Gravedad mediante una buena estructura matemática unificada que describa el comportamiento de la Naturaleza sin dejar fuera a ninguna de sus fuerzas como ocurre ahora que, han dejado fuera del Modelo estándar a la Gravedad que se resiste a estar junto a las otras tres fuerzas. Así, continúan persiguiendo ese sueño llamado Teoría de Campo Unificado.

Claro que una teoría cuántica de la gravedad debe generalizar dos teorías de supuestos y formulación radicalmente diferentes:

  • La teoría cuántica de campos que es una teoría no determinista (determinismo científico) sobre campos de partículas asentados en el espacio-tiempo plano de la relatividad especial (métrica de Minkowski)  que no es afectado en su geometría por el momento lineal de las partículas.
  • La teoría de la relatividad general  que es una teoría determinista que modela la gravedad como curvatura dentro de un espacio-tiempo  que cambia con el movimiento de la materia y densidades energéticas.

         La geometría del espacio la determina la materia presente

Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?). Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal. Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado!

¿Quién puede ir a la longitud de Planck para verlas?

         Ni vemos la longitud de Planck ni las dimensiones extra

La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa. En el Hiperespacio, todo es posible. Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.

Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas. Todo debe ser contestado a partir de una ecuación básica.

¿Dónde radica el problema? Bueno, construir una ecuación que conteste todas las preguntas…. ¡No será nada fácil! Creo que siempre habrá cuestiones sumergidas en el enigma, secretos que debemos desvelar y, de esa manera, nunca caeremos en el hastio ni perderemos la curiosidad.

¿Saberlo todo? ¡Qué tontería! ¿Donde quedaría el placer de descubrir?

         Nuestro mundo es tridimensional y no podemos ver otro más allá… ¡si existe!

El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni el nuevo acelerador de partículas LHC que con sus 14 TeV no llegaría ni siquiera a vislumbrar esas cuerdas vibrantes de las que tanto se habla.

La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías.

Con sus 20 parámetros aleatorios (parece que uno de ellos ha sido hallado -el bosón de Higgs-), el Modelo estándar de la física de partículas que incluye sólo tres de las interacicones fundamentales -las fuerzas nucleares débil y fuerte y el electromagnetismo-, ha dado un buen resultado y a permitido a los físicos trabajar ampliamente en el conocimiento del mundo, de la Naturaleza, del Universo. Sin embargo, deja muchas preguntas sin contestar y, lo cierto es que, se necesitan nuevas maneras, nuevas formas, nuevas teorías que nos lleven más allá.

¡Necesitamos algo más avanzado!

Se ha dicho que la función de la partícula de Higgs es la de dar masa a las partículas que conocemos y están incluidas en el Modelo estándar, se nos ha dicho que ha sido encontrada pero, nada se ha dicho de cómo ésta partícula transmite la masa a las demás. Mucho mejor que los del LHC lo explica en su libro nuestro contertulio Ramón Máquez. Faltan algunas explicaciones.

El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo. El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.

   ¿Acaso las partículas circulan por el campo de Higgs y se ven frenadas por éste que les adosa la masa?

Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs. Las partículas influidas por este campo, toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético. Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.

Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein. La masa, m, tiene en realidad dos partes. Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.

Peor la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más

apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.

Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.

La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.

Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs(de ahí la expectación creada por el nuevo acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas –Las masas de los W+, W-, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?

No dejamos de experimentar para saber ccómo es nuestro mundo, la Naturaleza, el Universo que nos acoge.

Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles. En la unidad hay cuatro partículas mensajeras sin masa –los W+, W-, Zº fotón que llevan la fuerza electrodébil. Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébilse fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.

Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.

Relatividad y Gravedad Cuántica. Universidad de Cambridge.
Relatividad y Gravedad Cuántica. Universidad de Cambridge.
Roger Penrose es uno de los nuevos humanistas del siglo que se ha interesado por los problemas de las matemáticas, de la física, de la biología, de la psicología y de la filosofía. Siguiendo el modelo de Popper de los tres mundos, ha trabajado sobre la flecha del mundo 1 de la física, al mundo 2 de la conciencia, y del mundo 3 de las matemáticas, al mundo 1.

En esta última dirección ha publicado numerosos libros y artículos, donde aborda la asignatura pendiente de la unificación de la mecánica cuántica y la teoría del campo gravitatorio. El camino que ha seguido Penrose es encontrar una base común a ambas.

Para ello ha introducido dos modelos: los “spin networks” y los “twistors”, el primero discreto, con una métrica intrínseca, no relativista, previo al concepto de espacio, el segundo continuo, con una métrica extrínseca, relativista e inmerso en un espacio-tiempo dado.

 Claro que son varias las corrientes que quieren abrirse camino hacia otras físicas nuevas.

 

“La charla inaugural del congreso anual Strings 2012, 23-28 Julio, MPI, Múnich, Alemania, a cargo de John H. Schwarz (Caltech), uno de los padres de la teoría de cuerdas, no tiene desperdicio. Según él, la teoría de cuerdas y la teoría M no son nada radicales, todo lo contrario, son la prolongación natural de las teorías cuánticas de campos. De hecho, la teoría de cuerdas y la teoría M son la misma cosa que la teoría cuántica de campos (pero escrita en un lenguaje más adecuado, en el sentido de la teoría de la matriz de dispersión (scattering) o matriz S). “

 

 

http://guillegg.files.wordpress.com/2010/06/strings1.jpg

Según lo que podemos entender y hasta donde han podido llegar nuestros conocimientos actuales, ahora sabemos donde están las fronteras: donde las masas o las energías superan 1019 veces la masa del protón, y esto implica que estamos mirando a estructuras con un tamaño de 10-33 centímetros. Esta masa la conocemos con el nombre de masa de Planck y a la distancia correspondiente la llamamos distancia de Planck. La masa de Planck expresada en gramos es de 22 microgramos, que la es la masa de un grano muy pequeño de azúcar (que, por otra parte, es el único de Planck que parece más o menos razonable, ¡los otros números son totalmente extravagantes!). Esto significa que tratamos de localizar una partícula con la precisión de una longitud de Planck, las fluctuaciones cuánticas darán tanta energía que su masa será tan grande como la masa de Planck, y los efectos de la fuerza gravitatoria entre partículas, , sobrepasarán los de cualquier otra fuerza. Es decir, para estas partículas la gravedad es una interacción fuerte.

Sí, a nuestro alrededor podemos contemplar la simetría que en el Universo quedó rota. Que la imaginación que es libre de “volar” hacia espacios desconocidos e infinitos  y hacia escenarios imposibles, también puede, no sólo escenificar el hiperespacio, sino que, llevando la fascinación aún más lejos, ¿quién sabe? (como tántas veces hemos comentado), si los teóricos no habrán dado en el blanco y, con su intuición creadora, han podido vislumbrar que toda la materia del universo está formada por cuerdas vibrantes y armónicas que se conjugan de diferentes maneras, produciendo con sus pulsos, nuevas partículas.

Arte humo simétrica Foto de archivo - 8808585

También en otras ocasiones hemos recordado que: “En griego, la simetría significa “la misma medida” (syn significa “juntos”, como en sinfonía, una unión de sonidos, y metrón, “medición”); así su etimología nos informa que la simetría supone la repetición de una cantidad medible. Pero la simetría para los griegos, también significaba la “la debida proporción”, lo que implicaba que la repetición involucrada debía ser armoniosa y placentera, como de hecho, resultan ser en la figura que arriba contemplamos. Asi, la Naturaleza nos está indicando que una relación simétrica debe ser juzgada por un criterio estético superior.”

Buscamos ese Universo fascinante de luz y color en el que la armonía es total y se comprenden todas las cosas

La teoría de supercuerdas tiene tantas sorpresas fantásticas que cualquiera que investigue en el tema reconoce que está llena de magia. Es algo que funciona con tanta belleza… Cuando cosas que no encajan juntas e incluso se repelen, si se acerca la una a la otra alguien es capaz de formular un camino mediante el cual, no sólo no se rechazan, sino que encajan a la perfección dentro de ese sistema, como ocurre ahora con la teoría M que acoge con naturalidad la teoría de la relatividad general y la teoría mecánico-cuántica; ahí, cuando eso se produce, está presente la belleza.

Resultado de imagen de La gravedad cuántica dentro de las cuerdas

Lo que hace que la teoría de supercuerdas sea tan interesante es que el marco estándar mediante el cual conocemos la mayor parte de la física es la teoría cuántica y resulta que ella hace imposible la gravedad. La relatividad general de Einstein, que es el modelo de la gravedad, no funciona con la teoría cuántica. Sin embargo, las supercuerdas modifican la teoría cuántica estándar de tal manera que la gravedad no sólo se convierte en posible, sino que forma parte natural del sistema; es inevitable para que éste sea completo.

¿Por qué es tan importante encajar la gravedad y la teoría cuántica? Porque no podemos admitir una teoría que explique las fuerzas de la naturaleza y deje fuera a una de esas fuerzas. Así ocurre con el Modelo Estándar que deja aparte y no incluye a la fuerza gravitatoria que está ahí, en la Naturaleza.

La teoría de supercuerdas se perfila como la teoría que tiene implicaciones si tratamos con las cosas muy pequeñas, en el microcosmos; toda la teoría de partículas elementales cambia con las supercuerdas que penetra mucho más; llega mucho más allá de lo que ahora es posible.

Resultado de imagen de TopologíaResultado de imagen de Topología

                                    Topología de Red y topología de las nuevas fases de la materia…

La topología es, el estudio de aquellas propiedades de los cuerpos geométricos que permanecen inalteradas por transformaciones continuas. La topología es probablemente la más joven de las ramas clásicas de las matemáticas. En contraste con el álgebra, la geometría y la teoría de los números, cuyas genealogías datan de tiempos antiguos, la topología aparece en el siglo diecisiete, con el nombre de analysis situs, ésto es, análisis de la posición.

De manera informal, la topología se ocupa de aquellas propiedades de las figuras que permanecen invariantes, cuando dichas figuras son plegadas, dilatadas, contraídas o deformadas, de modo que no aparezcan nuevos puntos, o se hagan coincidir puntos diferentes. La transformación permitida presupone, en otras palabras, que hay una correspondencia biunívoca entre los puntos de la figura original y los de la transformada, y que la deformación hace corresponder puntos próximos a puntos próximos. Esta última propiedad se llama continuidad, y lo que se requiere es que la transformación y su inversa sean ambas continuas: así, trabajarnos con homeomorfismos.

Resultado de imagen de Espacio tiempo y galaxias

En cuanto a nuestra comprensión del universo a gran escala (Espacio-tiempo, galaxias, supercúmulos, el Big Bang…), creo que afectará a nuestra idea presente, al esquema que hoy rige y, como la nueva teoría, el horizonte se ampliará enormemente; el cosmos se presentará ante nosotros como un todo, con un comienzo muy bien definido y un final muy bien determinado.

Para cuando eso llegue, sabremos lo que es, como se genera y dónde están situados los orígenes de esa “fuerza”, “materia”, o, “energía” que ahora no sabemos ver para explicar el movimiento de las galaxias o la expansión del espacio mismo, y, dónde está el origen de todo, esa sustancia cósmica que puede ser la causante del universo que conocemos y también, de que podamos estar aquí para contarlo.

emilio silvera

Viewing all 959 articles
Browse latest View live