Quantcast
Channel: Física – Blog de Emilio Silvera V.
Viewing all 959 articles
Browse latest View live

La Vida de las partículas

$
0
0

Resultado de imagen de ¡La curiosidad humana! Siempre queriéndo saber Blog de emilio silveraResultado de imagen de ¡La curiosidad humana! Siempre queriéndo saber Blog de emilio silveraResultado de imagen de ¡La curiosidad humana! Siempre queriéndo saber Blog de emilio silveraResultado de imagen de ¡La curiosidad humana! Siempre queriéndo saber Blog de emilio silvera

Desde que somos muy pequeñitos y aprendemos las primeras palabras, ya estamos preguntando y tenemos en la boca ese ¿por qué…? que llega a fastidiar a los adultos por su insistencia y machaconería. Claro que, la curiosidad es un ingrediente que está siempre con nosotros… ¡Menos mal!

 

 

 

 

A pesar de estar aislados en este pequeño mundo que llamamos Tierra, a pesar de todos los inconvenientes y peligros que hemos tenido que vencer, a pesar de la enorme ignorancia que hemos tenido que soportar, los miembros de nuestra especie han sabido profundizar en los secretos de la Naturaleza y del Universo. Confinados en éste pequeño mundo inventamos la manera de encontrar otros mundos situados a muchos años luz de nosotros tratando de encontrar seres semejantes con los que poder entablar una relación.

 

 

 

De las moléculas que conforman esta Nebulosa, más del 83% contienen carbono entre las que se encuentran aquellas que nos dirigen hacia los aminoácidos precursores de la vida. Aquí se forman los mundos que llevan materiales químicos precursores de células que evolucionaran hacia la inteligencia. En esta inmensa Nebulosa se han descubierto más de 6 sistemas planetarios en formación.

 

Resultado de imagen de El paso del Tiempo lo cambia todo Blog de emilio silveraResultado de imagen de El paso del Tiempo lo cambia todo Blog de emilio silveraResultado de imagen de El SolResultado de imagen de Gigante rojaResultado de imagen de Nebulosa planetaria
De estrella amarilla de la clase G2V, el Sol se transformará en Gigante roja y, finalmente, en enana blanca.
Esa imagen de arriba que tiene una belleza exótica y extraña, con ese puntito blanco en el centro, no es otra cosa que una nebulosa planetaria, es decir, en lo que se convertirá el Sol dentro de unos 5.000 millones de años. Una estrella enana blanca rodeada de una bonita nebulosa. LLegar hasta ese punto conlleva un largo recorrido que algunas veces os conté aquí.

 

 

 

Resultado de imagen de La Mente ese misterio

 

 

La Mente y lo que llamamos Conciencia, plantea un problema especial que no se encuentra en otros dominios de la Ciencia. En la física y en la química se explican unas entidades determinadas en función de otras entidades y otras leyes pero, en el caso de la Conciencia… ¿Cómo poder explicar tal maravilla?

 

 

 

La mente humana es tan compleja que no todos ante la misma cosa vemos lo mismo. Nos enseñan figuras y dibujos y nos piden que digamos (sin pensarlo) la primera cosa que nos sugiere. De entre diez personas, sólo coinciden tres, los otros siete divergen en la apreciación de lo que el dibujo o la figura les sugiere. Un paisaje puede ser descrito de muy distintas maneras según quién lo pueda contar.

 

 

 

 

Solo el 1% de las formas de vida que han vivido en la Tierra están ahora presentes, el 99%, por una u otra razón se han extinguido. Sin embargo, ese pequeño tanto por ciento de la vida actual, supone unos cinco millones de especies según algunas estimaciones. La  Tierra acoge a todas esas especies u palpita de vida que prolifera por doquier. Hay seres vivos por todas partes y por todos los rincones del inmenso mosaico de ambientes que constituye nuestro planeta encontramos formas de vida, cuyos diseños parecen hechos a propósito para adaptarse a su hábitat, desde las profundidades abisales de los océanos hasta las más altas cumbres, desde las espesas selvas tropicales a las planicies de hielo de los casquetes polares. Se ha estimado la edad de 3.800 millones de años desde que aparecieron los primeros “seres vivos” sobre el planeta (dato de los primeros microfósiles). Desde entonces no han dejado de aparecer más y más especies, de las que la mayoría se han ido extinguiendo. Desde el siglo XVIII en que Carlos Linneo propuso su Systema Naturae no han cesado los intentos por conocer la Biodiversidad…, de la que por cierto nuestra especie, bautizada como Homo sapiens por el propio Linneo, es una recién llegada de apenas 200.000 años.

 

Sí, ahora hablemos de…

Ahora, hablaremos de la vida media de las partículas elementales (algunas no tanto). Cuando hablamos del tiempo de vida de una partícula nos estamos refiriendo al tiempo de vida media, una partícula que no sea absolutamente estable tiene, en cada momento de su vida, la misma probabilidad de desintegrarse. Algunas partículas viven más que otras, pero la vida media es una característica de cada familia de partículas.

También podríamos utilizar el concepto de “semivida”. Si tenemos un gran número de partículas idénticas, la semivida es el tiempo que tardan en desintegrarse la mitad de ese grupo de partículas. La semivida es 0,693 veces la vida media.

http://www.monografias.com/trabajos75/agua-pesada/image003.gif

Si miramos una tabla de las partículas más conocidas y familiares (fotónelectrón muón tau, la serie de neutrinos, los mesones con sus pioneskaones, etc., y, los Hadrones bariones como el protónneutrónlambdasigmapsi y omega, en la que nos expliquen sus propiedades de masa, carga, espín, vida media (en segundos) y sus principales maneras de desintegración, veríamos como difieren las unas de las otras.

Resultado de imagen de La vida media del Neutrón

Algunas partículas tienen una vida media mucho más larga que otras. De hecho, la vida media difiere enormemente. Un neutrón por ejemplo, vive 10¹³ veces más que una partícula Sigma⁺, y ésta tiene una vida 10⁹ veces más larga que la partícula sigma cero. Pero si uno se da cuenta de que la escala de tiempo “natural” para una partícula elemental (que es el tiempo que tarda su estado mecánico-cuántico, o función de ondas, en evolucionar u oscilar) es aproximadamente 10ˉ²⁴ segundos, se puede decir con seguridad que todas las partículas son bastantes estables. En la jerga profesional de los físicos dicen que son “partículas estables”.

http://nuclear.fis.ucm.es/FERIA/IMAGENES/TAB_ISOTOPOS.JPG

¿Cómo se determina la vida media de una partícula? Las partículas de vida larga, tales como el neutrón y el muón, tienen que ser capturadas, preferiblemente en grandes cantidades, y después se mide electrónicamente su desintegración. Las partículas comprendidas entre 10ˉ¹⁰ y 10ˉ⁸ segundos solían registrarse con una cámara de burbujas, pero actualmente se utiliza con más frecuencia la cámara de chispas. Una partícula que se mueve a través de una cámara de burbujas deja un rastro de pequeñas burbujas que puede ser fotografiado. La Cámara de chispas contiene varios grupos de de un gran número de alambres finos entrecruzados entre los que se aplica un alto voltaje. Una partícula cargada que pasa cerca de los cables produce una serie de descargas (chispas) que son registradas electrónicamente. La ventaja de esta técnica respecto a la cámara de burbujas es que la señal se puede enviar directamente a una computadora que la registra de manera muy exacta.

Una partícula eléctricamente neutra nunca deja una traza directamente, pero si sufre algún tipo de interacción que involucre partículas cargadas (bien porque colisionen con un átomo en el detector o porque se desintegren en otras partículas), entonces desde luego que pueden ser registradas. Además, realmente se coloca el aparato entre los polos de un fuerte imán. Esto hace que la trayectoria de las partículas se curve y de aquí se puede medir la velocidad de las partículas. Sin embargo, como la curva también depende de la masa de la partícula, es conveniente a veces medir también la velocidad de una forma diferente.

 

Una colisión entre un protón y un antiprotón registrada mediante una cámara de chispas del experimento UA5 del CERN.

En un experimento de altas energías, la mayoría de las partículas no se mueven mucho más despacio que la velocidad de la luz. Durante su carta vida pueden llegar a viajar algunos centímetros y a partir de la longitud media de sus trazas se puede calcular su vida. Aunque las vidas comprendidas entre 10ˉ¹³ y 10ˉ²⁰ segundos son muy difíciles de medir directamente, se pueden determinar indirectamente midiendo las fuerzas por las que las partículas se pueden transformar en otras. Estas fuerzas son las responsables de la desintegración y, por lo tanto, conociéndolas se puede calcular la vida de las partículas, Así, con una pericia ilimitada los experimentadores han desarrollado todo un arsenal de técnicas para deducir hasta donde sea posible todas las propiedades de las partículas. En algunos de estos procedimientos ha sido extremadamente difícil alcanzar una precisión alta. Y, los datos y números que actualmente tenemos de cada una de las partículas conocidas, son los resultados acumulados durante muchísimos años de medidas  experimentales y de esa manera, se puede presentar una información que, si se valorara en horas de trabajo y coste de los proyectos, alcanzaría un precio descomunal pero, esa era, la única manera de ir conociendo las propiedades de los pequeños componentes de la materia.

Imagen relacionada

Que la mayoría de las partículas tenga una vida media de 10ˉ⁸ segundos significa que son ¡extremadamente estables! La función de onda interna oscila más de 10²² veces/segundo. Este es el “latido natural de su corazón” con el cual se compara su vida. Estas ondas cuánticas pueden oscilar 10ˉ⁸ x 10²², que es 1¹⁴ o 100.000.000.000.000 veces antes de desintegrarse de una u otra manera. Podemos decir con toda la seguridad que la interacción responsable de tal desintegración es extremadamente débil.

Resultado de imagen de Ondas cuánticas

Se habla de ondas cuánticas y también, de ondas gravitacionales. Las primeras han sido localizadas y las segundas están siendo perseguidas.

Aunque la vida de un neutrón sea mucho más larga (en promedio un cuarto de hora), su desintegración también se puede atribuir a la interacción débil. A propósito, algunos núcleos atómicos radiactivos también se desintegran por interacción débil, pero pueden necesitar millones e incluso miles de millones de años para ello. Esta amplia variación de vidas medias se puede explicar considerando la cantidad de energía que se libera en la desintegración. La energía se almacena en las masas de las partículas según  la bien conocida fórmula de Einstein E = Mc². Una desintegración sólo puede tener lugar si la masa total de todos los productos resultantes es menor que la masa de la partícula original. La diferencia entre ambas masas se invierte en energía de movimiento. Si la diferencia es grande, el proceso puede producirse muy rápidamente, pero a menudo la diferencia es tan pequeña que la desintegración puede durar minutos o incluso millones de años. Así, lo que determina la velocidad con la que las partículas se desintegran no es sólo la intensidad de la fuerza, sino también la cantidad de energía disponible.

Si no existiera la interacción débil, la mayoría de las partículas serían perfectamente estables. Sin embargo, la interacción por la que se desintegran las partículas π°, η y Σ° es la electromagnética. Se observará que estas partículas tienen una vida media mucho más corta, aparentemente, la interacción electromagnética es mucho más fuerte que la interacción débil.

Durante la década de 1950 y 1960 aparecieron tal enjambre de partículas que dio lugar a esa famosa anécdota de Fermi cuando dijo: “Si llego a adivinar esto me hubiera dedicado a la botánica.”

Si la vida de una partícula  es tan corta como 10ˉ²³ segundos, el proceso de desintegración tiene un efecto en la energía necesaria para producir las partículas ante de que se desintegre. Para explicar esto, comparemos la partícula con un diapasón que vibra en un determinado modo. Si la “fuerza de fricción” que tiende a eliminar este modo de vibración es fuerte, ésta puede afectar a la forma en la que el diapasón oscila, porque la altura, o la frecuencia de oscilación, está peor definida. Para una partícula elemental, esta frecuencia corresponde a su energía. El diapasón resonará con menor precisión; se ensancha su curva de resonancia. Dado que para esas partículas extremadamente inestable se miden curvas parecidas, a medida se las denomina resonancias. Sus vidas medias se pueden deducir directamente de la forma de sus curvas de resonancia.

Resultado de imagen de http://i.livescience.com/images/i/22669/i02/cms-higgs.jpgResultado de imagen de http://i.livescience.com/images/i/22669/i02/cms-higgs.jpg

Bariones Delta. Un ejemplo típico de una resonancia es la delta (∆), de la cual hay cuatro especies ∆ˉ, ∆⁰, ∆⁺ y ∆⁺⁺(esta última tiene doble carga eléctrica). Las masas de las deltas son casi iguales 1.230 MeV. Se desintegran por la interacción fuerte en un protón o un neutrón y un pión.

Existen tanto resonancias mesónicas escalares y vectoriales en el ámbito nuclear. . Las resonancias deltas son bariónicas. Las resonancias deltas son bariónicas. (También están las resonancias mesónicas rho, P).

Las resonancias parecen ser solamente una especie de versión excitada de los Hadrones estable. Son réplicas que rotan más rápidamente de lo normal o que vibran de diferente manera. Análogamente a lo que sucede cuando golpeamos un gong, que emite sonido mientras pierde energía hasta que finalmente cesa de vibrar, una resonancia termina su existencia emitiendo piones, según se transforma en una forma más estable de materia.

Por ejemplo, la desintegración de una resonancia ∆ (delta) que se desintegra por una interacción fuerte en un protón o neutrón y un pión, por ejemplo:

∆⁺⁺→р + π⁺;  ∆⁰→р + πˉ; o п+π⁰

En la desintegración de un neutrón, el exceso de energía-masa es sólo 0,7 MeV, que se puede invertir en poner en movimiento un protón, un electrón y un neutrino. Un Núcleo radiactivo generalmente tiene mucha menos energía a su disposición.

El estudio de los componentes de la materia tiene una larga historia en su haber, y, muchos son los logros conseguidos y muchos más los que nos quedan por conseguir, ya que, nuestros conocimientos de la masa y de la energía (aunque nos parezca lo contrario), son aún bastante limitados, nos queda mucho por descubrir antes de que podamos decir que dominamos la materia y sabemos de todos sus componentes. Antes de que eso llegue, tendremos que conocer, en profundidad, el verdadero origen de la Luz que esconde muchos secretos que tendremos que desvelar.

Resultado de imagen de El Bosón de Higgs

Esperemos que con los futuros experimentos del LHC y de los grandes Aceleradores de partículas del futuro,  se nos aclaren algo las cosas y podamos avanzar en el perfeccionamiento del Modelo Estándar de la Física de Partículas que, como todos sabemos es un Modelo incompleto que no contiene a todas las fuerzas de la Naturaleza y, cerca de una veintena de sus parámetros son aleatorios y no han sido explicados. Uno de ellos, el Bosón de Higgs, dicen que ha sido encontrado. Sin embargo, a mí particularmente me quedan muchas dudas al respecto. Habría que explicar mucho mejor los mecanismos mediante los cuales el bosón le suministra la masa a las demás partículas.

emilio silvera


La Física y el Tiempo

$
0
0

Resultado de imagen de La física y el Tiempo

¡El Tiempo! ¿Qué es el Tiempo? ¿Existe en realidad, o, simplemente es una abstracción de nuestras Mentes? El algo que está ahí desde siempre, nació con el Big Bang, no lo podemos ver ni tocar pero, su transcurrir se deja sentir, y, lo cambia todo. Pasado, Presente y Futuro… ¡Una ilusión que llamamos Tiempo!

Resultado de imagen de Para el topólogo, un nudo es una curva continua, cerrada y sin puntos dobles.

Para el topólogo, un nudo es una curva continua, cerrada y sin puntos dobles. Esta curva está situada en un espacio de tres dimensiones y se admite que pueda ser deformada, estirada, comprimida, aunque está “prohibido” hacerle cortes. Cuando se puede, a través de diversas manipulaciones, se pasa de un nudo a otro y se dice que son equivalentes. Claro que, algunos se abstraen en cuestiones con otras, al parecer, no relacionadas.

Un viejo amigo bromeaba diciendo que el Andante en do menor de la Sinfonía Concertante de Mozart conseguía devolverle a su intimidad anímica de partida, y que por eso, en su opinión, plasmaba de forma inefable el tiempo cíclico, o mejor aún, una CTC (“curva de género de tiempo cerrada”). Y transcurridos los doce minutos que dura ese movimiento, volvíamos a escucharlo una vez más. Mientras, discutíamos sin cesar sobre el tiempo.

 Imagen relacionadaImagen relacionadaImagen relacionadaImagen relacionadaImagen relacionadaImagen relacionada

                         No es bueno perder la perspectiva, ver las cosas como son

Hay un tiempo para cada cosa. Un tiempo para soñar, inconmensurable, un tiempo para vivir, siempre corto, un tiempo para filosofar, misterioso,…, y un tiempo para la ciencia, sujeto a número.

Me gustaría empezar definiendo el tiempo, pero no sé. Sesudos pensadores, como Platón y Aristóteles, lo ensayaron con brillantez. El tiempo es una imagen móvil de la eternidad. Esta imagen es eterna, pero se mueve según número, dirá Platón en el TIMEO. El tiempo es el número de movimiento según el antes y el después…El tiempo no es movimiento, sino movimiento en tanto en cuanto admite enumeración. El tiempo es una especie de número. El tiempo es obviamente aquello que se cuenta, no aquello con lo cual contamos, escribirá Aristóteles en su FÍSICA.

 Imagen relacionadaImagen relacionadaImagen relacionadaResultado de imagen de Mirando el horizonte del océano creí que el Tiempo se parabaImagen relacionadaResultado de imagen de Mirando el horizonte del océano creí que el Tiempo se paraba

           Alguna vez, en simbiosis con la Naturaleza, podemos sentir como se ha parado el tiempo

Son definiciones muy sugestivas, aunque teñidas de circularidad: movimiento en el tiempo, tiempo a través del movimiento. Agustín de Hipona vio esto claramente. Célebre es asimismo su declaración: Si nemo a me quaerat, scio; si quaerenti explicari velim, nescio (CONFESIONES). En uno de los análisis más penetrantes del tema, sugirió Agustín la mente como fuente de tiempo: En ti es, mente mía, donde mido los tiempos.

Time is what happens when nothing else happens, afirma Feynman; para a continuación advertir que toda definición del tiempo es necesariamente circular, y que lo importante no es decir qué es el tiempo, sino decir cómo se mide lo que llamamos tiempo. En su enciclopédico tratado sobre la gravitación, Misner, Thorne y Wheeler nos recuerdan de forma sencilla y profunda lo que toda medida del tiempo físico debe cumplir: Time is defined so that motion looks simple.

PortadaTiempo.gif

El tiempo es un concepto inventado por el hombre para ordenar, primero, sus sensaciones y actos, y luego, los fenómenos. Decían los escolásticos: Tempus est ens rationis cum fundamento in re. La primera unidad natural debió ser el día, por la ciclicidad conspicua de las salidas del Sol. Los grandes avances científicos y tecnológicos a lo largo de los siglos han estado vinculados a los adelantos en la precisión con que se ha ido midiendo el tiempo. Hoy disponemos de relojes que aseguran un segundo en 20 millones de años, y el paso de la femtoquímica a la attofísica empieza a ser una realidad.

No pocas veces nos podemos ver perdidos en la vorágine de lo que llamamos tiempo, algo tan enorme que, en realidad, no sabemos lo que es. No lo hemos llegado a comprender, y, por si fuero poco, tampoco sabemos, si en realidad existe. Muchos han sido los filósofos que trataron de explicar lo que el Tiempo es… ¡No lo consiguieron!

El tiempo antes de Einstein.

Imagen relacionadaImagen relacionadaResultado de imagen de Ciclos astrales

La física nació en torno al tiempo. Las regularidades en los ciclos astrales permitieron al acierto en las predicciones apoyadas en esta periodicidad, y con ello despertó sin duda la confianza del hombre en la racionalidad, inclinándole a escoger el cosmos frente al caos.

Breve historia de la medida del tiempo

Resultado de imagen de Podemos ver una sombra del mismo objeto más larga que otra según el SolResultado de imagen de Podemos ver una sombra del mismo objeto más larga que otra según el Sol

La longitud de las sombras fue uno de los primeros métodos usados para fijar las horas. En el Museo Egipcio de Berlín hay un fragmento de piedra que posiblemente sea de un reloj de sol de alrededor de 1500 a.C. Los babilonios desarrollaron los relojes de sol, y se dice que el astrónomo Anaximandro de Mileto los introdujo en Grecia en el siglo VI a.C.

En el siglo II a C, Eratóstenes, de la biblioteca de Alejandría, concibió y llevó a cabo la primera medida de las dimensiones de la Tierra de la que se tiene noticia. En el Año Internacional de la Astronomía, una de las actividades que se llevaron a cabo fue, precisamente averiguar el radio terrestre por el mismo método.

Aparte de relojes de sol, en la antigüedad se usaron también relojes de arena, de agua, cirios y lámparas de aceite graduadas.

En la segunda mitad del siglo XIII aparecen los primeros relojes mecánicos. Su precisión era muy baja (10-20%). En el XIV se mejoran, con el invento del escape de rueda catalina, y ya se alcanzan precisiones de 20 a 30 minutos por día (1-2%). Por allá al año 1345 se empieza a dividir las horas en minutos y segundos.

El tiempo físico asoma en el siglo XIV, en el Merton College Oxford y luego en la Universidad de París, con Oresme. Se representa en una línea horizontal, mientras en vertical se disponen las cualidades variables. Son los primeros gráficos de función (en este caso, función del tiempo). La cinemática celeste brinda un buen reloj a través de la segunda ley de Kepler, midiendo tiempos mediante áreas. La ley armónica de Kepler permitirá medirlos a través de longitudes. Galileo desarrolló la cinemática terrestre, y sugirió el reloj de péndulo. A Huygens debemos la técnica de medida del tiempo que ha llegado a nuestros días, y que suministró relojes más precisos y transportables mediante volantes oscilatorios acoplados a resortes de calidad.

Reloj de péndulo de Huygens

Diseño del reloj de péndulo de Huygens, 1656 (imagen de dominio público).

La importancia, no sólo científica sino económica, de disponer de relojes precisos y estables, queda reflejada en el premio ofrecido por el gobierno inglés de la reina Ana en 1714, que dispuso that a reward be settled by Parliament upon such person o persons as shall discover a more certain and practicable method of ascertainig longitude that any yet in practice. La recompensa era de 20, 000 libras para el que presentara un cronómetro capaz de determinar la longitud con error menor de 30´ de arco al término de un viaje a las Indias occidentales, equivalente a mantener el tiempo con error menor de 2 minutos tras seis semanas de viaje. Se la llevó casi medio siglo después el relojero británico John Harrison (1693-1776), con un reloj, conocido como H4, que incorporaba correcciones por variación en la temperatura, y que en un primer viaje de 81 días desde Porstmouth a Puerto Real (Jamaica) en 1761-62 se retrasó 5 s, esto es, de precisión 10⁻⁶ (10; 44).

Después se pasó a los de diapasón, de aquí a los de cuarzo, y hoy los atómicos ofrecen precisiones desde 10⁻¹² – 10⁻¹⁵ (Cs) hasta 10⁻¹⁶ (máser de H).

Una red de relojes atómicos de cesio, sincronizados mediante ondas de radio, velan actualmente por la exactitud de la hora sobre el planeta. Como señala Davies (10), ya no nos sirve como cronómetro el giro de la Tierra alrededor de su eje. Aunque durante siglos ha sido este viejo trompo un magnífico reloj de referencia, la falta de uniformidad de su giro (las mareas, por ejemplo, lo frenan incesantemente y alargan con ello el día en un par de milésimas de segundo por siglo, perceptible para los finos cronómetros actuales), y otras desviaciones estacionales, cuantitativamente similares a estos retrasos seculares, pero irregulares y de signo variable, son circunstancias que en conjunto obligan a añadir al tiempo civil un segundo intercalar cada uno o dos años (el último lo fue el 1 de enero de 1999, a las 0 horas) con el fin de remediar la asincronía entre los tiempos atómicos y los días astronómicos. El día no tiene 86 400 s justos (donde el segundo se define como la duración de 9 192 631 770 períodos de una determinada vibración de los átomos de Cs. Hoy la tecnología alcanza precisiones fabulosas: relojes que en treinta millones de años se desviarían a lo sumo en un diminuto segundo, como el NIST-F1 (Boulder, Colorado).

Por norma general y para mayor exactitud del sistema, dentro del campo visual de cualquier receptor GPS siempre hay por lo menos 8 satélites presentes. Cada uno de esos satélites mide 5 m de largo y pesa 860 kg . La energía eléctrica que requieren para su funcionamiento la adquieren a partir de dos paneles compuestos de celdas solares adosadas a sus costados. Están equipados con un transmisor de señales codificadas de alta frecuencia, un sistema de computación y un reloj atómico de cesio, tan exacto que solamente se atrasa un segundo cada 30 mil años.

Resultado de imagen de Satélites y GPS

La posición que ocupan los satélites en sus respectivas órbitas facilita que el receptor GPS reciba, de forma constante y simultánea, las señales de por lo menos 6 u 8 de ellos, independientemente del sitio donde nos encontremos situado. Mientras más señales capte el receptor GPS, más precisión tendrá para determinar las coordenadas donde se encuentra situado.

Incluso hay relojes de pulsera comerciales (receptores de señales de radio) con precisión de un segundo por millón de años garantizada por un reloj atómico en una lejana estación. La naturaleza de altísima precisión: la estabilidad del púlsar binario b1855+09 puede ser de unas partes en 10¹⁵ o incluso mejor.

El tiempo de Newton:

En los PRINCIPIA, Newton empieza con una renuncia a definir el tiempo: El tiempo, el espacio, el lugar y el movimiento son de todos bien conocidos. Y no los defino. Pero digo que el vulgo no concibe esas cantidades más que por su relación a cosas sensibles. Para evitar ciertos prejuicios que de aquí se originan, es conveniente distinguirlas en absolutas y relativas, verdaderas y aparentes, matemáticas y vulgares.

Resultado de imagen de El Tiempo absoluto de newtonResultado de imagen de El Tiempo de Newton

A continuación, sin embargo, Newton se arrepiente de su primer impulso y aclara: El tiempo absoluto, verdadero y matemático, de suyo y por su propia naturaleza fluye uniformemente sin relación a nada externo y se llama también duración: el tiempo relativo, aparente y vulgar es cualquier medida sensible y externa (exacta o no uniforme) de la duración por medio del movimiento y se usa vulgarmente en lugar del tiempo verdadero: tal como la hora, el día, el mes, el año.

¿Qué significa que el tiempo fluye? ¿Qué el tiempo “se mueve en el tiempo”? De nuevo la pescadilla mordiéndose la cola. El absolutismo del tiempo newtoniano recibió encendidas críticas. Leibniz opuso su idea de espacio y tiempos puramente relativos, el primero como un orden de coexistencia, el segundo como un orden de sucesiones de las cosas; ambos, espacio y tiempo, son phœnomena bene fundata. Los argumentos dinámicos con que Newton arropa su tesis de la naturaleza absoluta de la rotación y con ello la de un espacio absoluto, apoyo posterior para el tiempo absoluto, también hallan fuertes objeciones. Para Berkeley esas razones de Newton lo único que muestran es la importancia del giro respecto de las masas lejanas del Universo y no respecto de un espacio absoluto, que él no acepta. Ernst Mach, en la segunda mitad del XIX, insistirá decididamente en este punto de vista, y desde su positivismo acosará los absolutos newtonianos. De “medieval”, “no científico”, “metafísico”, tilda Mach a NewtonNo tenemos derecho a hablar de un tiempo “absoluto”: de un tiempo independiente de todo cambio. Tal tiempo absoluto no puede medirse por comparación con ningún movimiento; por tanto no tiene valor práctico ni científico, y nadie tiene derecho a decir que sabe algo de él. Es una concepción metafísica vana.

El tiempo en Einstein:

El tiempo newtoniano, absoluto, el nos es familiar, tuvo que dejar paso al tiempo einsteniano, mutable y relativo, con tantos “ahora” por suceso cuantos estados de movimiento mutuo imaginemos.

Resultado de imagen de El Toempi de Einstein

El reloj de Einstein no anda a la misma velocidad para todos y, siempre dependerá de la velocidad a la que cada cual se esté moviendo. Sus postulados pusieron la Física “patas arriba” y, como elefante en cacharrería, vino a trastocarlo todo.

El tercero de los trabajo enviados por Albert Einstein (AE) en su Annus Mirabilis de 1905 a Annalen der Physik lleva por título “Zur Elektrodynamik Bewegter Körper” (“Sobre la electrodinámica de los cuerpos en movimiento”). Junto con el quinto, titulado “Ist der Trägheit eines Körpers von seinem Energieinhalt abhängig?” (“¿Depende la inercia de un cuerpo de su contenido de energía?”), constituyen lo que hoy se llama TEORÍA ESPECIAL DE LA RELATIVIDAD.

Da A.E. un par de razones para justificar su tercer trabajo:

Resultado de imagen de ElectromagnetismoResultado de imagen de Electromagnetismo

  1. La insatisfacción que le produce la asimetría en la descripción maxwelliana de los fenómenos electromagnéticos: la acción entre un conductor y un imán depende solo del movimiento relativo entre ambos, pero la teoría de Maxwell distingue entre el caso de conductor en reposo y el caso de imán en reposo: a) En el primer caso el campo magnético móvil engendra un campo eléctrico, con una energía determinada, que a su vez produce corrientes en el conductor en reposo. b) En el segundo caso, no se produce ningún campo electrónico, sino una fuerza electromotriz en el conductor, sin energía asociada, que engendra una corriente como en el caso anterior.
  2. La incapacidad de la óptica y del electromagnetismo (EM) para detectar el movimiento respecto del lichtmedium, es decir, de un inercial privilegiado. Esto le sugiere que la óptica y el EM tienen las mismas ecuaciones en todos los inerciales (sistemas en los que las leyes de la mecánica de Newton son las mismas). Y AE eleva esto a un principio, que llama “Prinzip der Relativität”, y le añade un compañero, aparentemente incompatible con él: “La velocidad de la luz en vacío es siempre la misma, con independencia del estado de movimiento del cuerpo emisor”.

¿Será ese de arriba el rayo de luz de Einstein, o, por el contrario, será un asteroide que se nos viene encima?

Siendo todavía muy joven, en 1895-1896, ya le preocupaba el EM y la luz, como recordaba en 1955: “Si persiguiéramos a la velocidad de la luz un rayo de luz, veríamos una onda independiente del tiempo. ¡Tal cosa, sin embargo, no existe! Este fue el primer experimento mental, infantil, en relación con la teoría especial de la relatividad”.

Este tercer trabajo de Einstein en 1905 no contiene ninguna referencia a otros trabajos, ni suyos ni de otros (como Lorentz o Poincaré).

Consciente de que su postulado de la constancia de la velocidad de la luz choca frontalmente con la ley galileana de adición de velocidades, Albert Einstein revisa los cimientos de la Física, empezando por definir físicamente y con sumo cuidado el concepto de Gleichzeitigkeit o simultaneidad entre sucesos. Considera un sistema inercial, para el que supone válida la geometría euclidiana para calcular distancias entre objetos estacionarios a través de sus coordenadas respecto de sus ejes cartesianos. Si A, B son dos observadores estacionarios, provistos de relojes iguales, y A (B) manda una señal luminosa a B (A), quien la devuelve sin tardanza a A (B), diremos que el reloj de A está sincronizado con el reloj de B si

t(B) – t(A) = t’(A) – t(B),

donde t(A) es el tiempo marcado por el reloj de A cuando envía la señal a B, t(B) lo que marca el reloj de B al llegarle la señal de A y reemitirla, y t’(A) la lectura del reloj de A al recibir la devolución de B.

Resultado de imagen de determinación de la velocidad de la luz por GalileoResultado de imagen de Galileo sin medios quiso medir la velocidad de la luz

No parece el mejor método para medir la velocidad de la luz, el empleado por Galileo. Claro que, en aquellos tiempos…¿Qué se podía hacer?

Supone Albert Einstein que esta definición no lleva a contradicciones, que es en principio posible entre cualquier par de observadores estacionarios en el inercial, y que la relación de sincronización anterior es de equivalencia: Si A está sincronizada con B, también B lo está con A, y si además B lo está con C, también A y C lo están. A esto le siguen ecuaciones que quiero obviar para no dar complejidad al trabajo.

No existe “el” presente, o,m puede ser que sea lo único que exista.

Pasa Albert Einstein a enunciar con precisión el principio de relatividad y el postulado de la constancia de la velocidad de la luz en el vacío:

  1. Las leyes que rigen los cambios de los sistemas físicos son las mismas en todos los inerciales.
  2. Todo rayo de luz se mueve en cualquier inercial con una misma velocidad, c, independientemente del movimiento de su fuente.

Como consecuencia, demuestra que el concepto de sincronía, y por ende de simultaneidad, es relativo, no absoluto. La noción de “presente”, “ahora” o cualquier instante determinado depende del referencial inercial.

 Resultado de imagen de La energía de los taquiones

           Algunos incluso hablaron de energía taquiónica.

¿Más rápido que la luz?

¿Existen partículas que se muevan con velocidad superior a la de la luz? Sí por ejemplo, cualquier partícula que lleve en agua, a temperatura entre 0 y 50 ºC, una velocidad ν > c / n, n = 1.3, irá más deprisa en ese medio que los fotones del espectro visible. Lo mismo ocurre con la mayoría de los rayos cósmicos que llegan a la atmósfera; son superlumínicos en relación con la velocidad de la luz en el aire. Precisamente en esta posibilidad de rebasar la velocidad de la luz en un medio reside el efecto Cerenkov.

Resultado de imagen de La velocidad de los taquiones

                  “La ignorancia afirma o niega rotundamente; la Ciencia duda.”

Lo que no se conocen son taquiones, o partículas que se muevan más deprisa que la luz en el vacío. Si existieran, podrían utilizarse para mandar información al pasado. Violando el orden causa-efecto. Por ello se “decreta” su inexistencia.

En fin, que la velocidad de la luz en el vacío, al menos que sepamos, es infranqueable. Es un límite impuesto por la Naturaleza al que habrá que vencer, no superándolo (que no se puede), sino mediante una artimaña física inteligente que logre burlar dicho límite.

Aparte de algún que otro añadido, el artículo (parcialmente expuesto aquí -se obviaron partes complejas), es del Físico de la Universidad Complutense D. Alberto Galindo Tixaire. Fue publicado en el Volumen 19, número 1 de la Revista Española de Física en 2005 Año Mundial de la Física

Año mundial de la Física

En realidad, un Homenaje a Einstein por haber pasado más de un siglo desde aquel acontecimiento memorable de la Relatividad Especial en el año 1.905 y haberse cumplido otro siglo desde su relatividad general de 1905. Dos acontecimientos que marcaron el camino de la Física y la Cosmología. Precisamente ahora, se cumplen los 100 años desde que Einstein diera al mundo la segunda parte de su Teoría.

emilio silvera

El Universo de las partículas II

$
0
0

Estamos hablando de las partículas y no podemos dejar a un lado el tema del movimiento rotatorio de las mismas. Usualmente se ve cómo la partícula gira sobre su eje, a semejanza de un trompo, o como la Tierra o el Sol, o nuestra galaxia o, si se me permite decirlo, como el propio universo. En 1.925, los físicos holandeses George Eugene Uhlenbeck y Samuel Abraham Goudsmit aludieron por primera vez a esa rotación de las partículas. Éstas, al girar, generan un minúsculo campo electromagnético; tales campos han sido objeto de medidas y exploraciones, principalmente por parte del físico alemán Otto Stern y el físico norteamericano Isaac Rabi, quienes recibieron los premios Nobel de Física en 1.943 y 1.944 respectivamente, por sus trabajos sobre dicho fenómeno.

Resultado de imagen de Magnetismo de los electrones

Esas partículas (al igual que el protón, el neutrón y el electrón), que poseen espines que pueden medirse en números mitad, se consideran según un sistema de reglas elaboradas independientemente, en 1.926, por Fermi y Dirac; por ello, se las llama y conoce como estadísticas Fermi-dirac. Las partículas que obedecen a las mismas se denominan fermiones, por lo cual el protón, el electrón y el neutrón son todos fermiones.

Hay también partículas cuya rotación, al duplicarse, resulta igual a un número par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son bosones, como por ejemplo la partícula alfa.

Imagen relacionada

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de esta teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico dad. Dichas partículas (como dije antes) son bosones, que tienden a juntarse.

Los bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. Para bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de fermiones idénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.

Resultado de imagen de Espacio de dos dimensiones

En un espacio de dos dimensiones es posible que haya partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones. Estas partículas se conocen con el nombre de aniones; para aniones idénticos, la función de ondas no es simétrica (un cambio de fase de +1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1. Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

Resultado de imagen de El principio de exclusión de Pauli

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo estado cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7K) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos dorman una única entidad (un superátomo). Este efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender cómo forma  un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Resultado de imagen de los neutrones

Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en  definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Sea como fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

¿Qué es el anti-neutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el anti-protón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos.

Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma forma que las partículas corrientes forman la materia ordinaria.

Resultado de imagen de La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un anti-deuterón. Desde entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros anti-núcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, para tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

No parece que dichas observaciones fuesen un éxito. ¿Es posible que el universo esté formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? Dado que la materia y la antimateria son equivalente en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaría la otra, y el universo debería estar compuesto de iguales cantidades de la una y de la otra.

Resultado de imagen de Resultado de imagen de La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

                Aquí detectaron y lograron encontrar la anti-materia por primera vez

Este es el dilema. La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los quásares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros, como el único mecanismo conocido para producir la energía requerida.

Con esto de la antimateria me ocurre igual que con el hecho, algunas veces planteado, de la composición de la materia en lugares lejanos del universo. “Ha caído una nave extraterrestre y nuestros científicos han comprobado que está hecha de un material desconocido, casi indestructible”. Este comentario se ha podido oír en alguna película de ciencia ficción. Podría ser verdad (un material desconocido), sin embargo, no porque la nave esté construida por una materia distinta, sino porque la aleación es distinta y más avanzada a partir de los materiales conocidos del universo. En cualquier parte del universo, por muy lejana que pueda estar, rigen los mismos principios y las mismas fuerzas: la materia y la energía son las mismas en cualquier parte. Lo único que puede diferir es la forma en que se utilice, el tratamiento que se le pueda dar, y sobre todo, el poseer el conocimiento y la tecnología necesarios para poder obtener el máximo resultado de las propiedades que dicha materia encierra, porque, en última instancia, ¿es en verdad inerte la materia?

Resultado de imagen de Escenas del UniversoResultado de imagen de El UniversoResultado de imagen de El UniversoResultado de imagen de El Universo

                     Todo lo que podemos ver en el Universo, sin excepción, está hecho de materia

Tiene y encierra tantos misterios la materia que estamos aún a años luz de saber y conocer sobre su verdadera naturaleza. Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos, pero que tampoco sabemos, en realidad, a qué son debidas. Sí, sabemos ponerles etiquetas como la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio, y con mayor frecuencia, en los elementos que conocemos como transuránidos.

Resultado de imagen de Transuránidos

A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de su ruptura, sobrepasando a la emisión de partículas alfa. ¡Parece que la materia está viva! Son muchas las cosas que desconocemos, y nuestra curiosidad nos empuja continuamente a buscar esas respuestas.

El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o el anti-neutrón), y por lo tanto, han sido denominados leptones (de la voz griega leptos, que dignifica “delgado”).

Aunque el electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1.940), el problema de su estructura, si la hay, aún no está resuelto. Conocemos su masa y su carga negativa que responden a 9’1093897 (54) × 10-31 Kg la primera, y 1’60217733 (49) × 10-19 culombios la segunda, y también su radio clásico r0 igual a e2/(mc2) = 2’82 × 10-13 cm. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve una carga eléctrica, sea la que fuese (sabemos cómo actúa y cómo medir sus propiedades, pero aún no sabemos qué es), que tenga asociada un mínimo de masa.

Lo cierto es que el electrón es una maravilla en sí mismo. El universo no sería como lo conocemos si el electrón fuese distinto a como es; bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.

Imagen relacionada

                                          Muchos granos de arena conforman la inmensa playa

¡No por pequeño se es insignificante!

Recordémoslo, todo lo grande está hecho de cosas pequeñas. En realidad, existen partículas que no tiene asociada ninguna masa en absoluto, es decir, ninguna masa en reposo. Por ejemplo, las ondas de luz y otras formas de radiación electromagnética se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones*). Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda, se denomina fotón, de la palabra griega que significa “luz”.

El fotón tiene una masa de 1, una carga eléctrica de 0, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma de que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este término se reserva para la familia formada por el electrón, el muón y la partícula tau, con sus correspondiente neutrinos: υe, υμ y υτ.

Imagen relacionada

Existen razones teóricas para suponer que cuando  las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitaciones. Esas ondas pueden, así mismo, poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.

La forma gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón, y por tanto, ha de ser inimaginablemente difícil de detectar.

Resultado de imagen de Detectando gravitones

   No será fácil detectar gravitones

De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm de longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas) desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegase a captar la cien billonésima parte de un centímetro. Las débiles ondas de los gravitones, que proceden del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitacionales. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaron el hallazgo de Weber.

En cualquier caso, no creo que a estas alturas alguien pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es 0, su carga es 0, y su espín es 2. Como el fotón, no tiene antipartícula; ellos mismos hacen las dos versiones.

emilio silvera

El Universo de las partículas I

$
0
0

¿Qué no será capaz de inventar el hombre para descubrir los misterios de la Naturaleza?

Resultado de imagen de El experimento de Rutherford

Ha pasado mucho tiempo desde que Rutherford identificara la primera partícula nuclear (la partícula alfa). El camino ha sido largo y muy duro, con muchos intentos fallidos antes de ir consiguiendo los triunfos (los únicos que suenan), y muchos han sido los nombres que contribuyen para conseguir llegar al conocimiento que actualmente tenemos del átomo y del núcleo; los electrones circulando alrededor del núcleo, en sus diferentes niveles, con un núcleo compuesto de protones y neutrones que, a su vez, son constituidos por los quarks allí confinados por los gluones, las partículas mediadoras de la fuerza nuclear fuerte. Pero, ¿qué habrá más allá de los quarks?, ¿las supercuerdas vibrantes? Algún día se sabrá.

Partículas

Resultado de imagen de Los rayos cósmicos

El universo de las partículas es fascinante. Cuando las partículas primarias chocan con átomos y moléculas en el aire, aplastan sus núcleos y producen toda clase de partículas secundarias. En esta radiación secundaria (aún muy energética) la que detectamos cerca de la Tierra, por los globos enviados a la atmósfera superior, han registrado la radiación primaria.

El físico estadounidense Robert Andrews Millikan, que recogió una gran cantidad de información acerca de esta radiación (y que le dio el nombre de rayos cósmicos), decidió que debería haber una clase de radiación electromagnética. Su poder de penetración era tal que, parte del mismo, atravesaba muchos centímetros de plomo. Para Millikan, esto sugería que la radiación se parecía a la de los penetrantes rayos gamma, pero con una longitud de onda más corta.

Resultado de imagen de Los rayos cósmicos que llegan a la Tierra

Otros, sobre todo el físico norteamericano Holly Compton, no estaban de acuerdo en que los rayos cósmicos fuesen partículas. Había un medio para investigar este asunto; si se trataba de partículas cargadas, deberían ser rechazadas por el campo magnético de la Tierra al aproximarse a nuestro planeta desde el espacio exterior. Compton estudió las mediciones de la radiación cósmica en varias latitudes y descubrió que en realidad se curvaban con el campo magnético: era más débil cera del ecuador magnético y más fuerte cerca de los polos, donde las líneas de fuerza magnética se hundían más en la Tierra.

Las partículas cósmicas primarias, cuando entran en nuestra atmósfera, llevan consigo unas energías fantásticas, muy elevadas. En general, cuanto más pesado es el núcleo, más raro resulta entre las partículas cósmicas. Núcleos tan complejos como los que forman los átomos de hierro se detectaron con rapidez; en 1.968, otros núcleos como el del uranio. Los núcleos de uranio constituyen sólo una partícula entre 10 millones. También se incluirán aquí electrones de muy elevada energía.

Resultado de imagen de Se  descubre el Positrón

Ahora bien, la siguiente partícula inédita (después del neutrón) se descubrió en los rayos cósmicos. A decir verdad, cierto físico teórico había predicho ya este descubrimiento. Paul Adrien Dirac había aducido, fundándose en un análisis matemático de las propiedades inherentes a las partículas subatómicas, que cada partícula debería tener su antipartícula (los científicos desean no sólo que la naturaleza sea simple, sino también simétrica). Así pues, debería haber un antielectrón, salvo por su carga que sería positiva y no negativa, idéntico al electrón; y un antiprotón, con carga negativa en vez de positiva.

Resultado de imagen de La ecuación de Dirac

En 1.930, cuando Dirac expuso su teoría, no llamó demasiado la atención en el mundo de la ciencia. Pero, fiel a la cita, dos años después apareció el antielectrón. Por entonces, el físico americano Carl David Anderson trabajaba con Millikan en un intento por averiguar si los rayos cósmicos eran radiación electromagnética o partículas. Por aquellas fechas, casi todo el mundo estaba dispuesto a aceptar las pruebas presentadas por Compton, según las cuales, se trataría de partículas cargadas; pero Millikan no acababa de darse por satisfecho con tal solución.

Imagen relacionada

Anderson se propuso averiguar si los rayos cósmicos que penetraban en una cámara de ionización se curvaban bajo la acción de un potente campo magnético. Al objeto de frenar dichos rayos lo suficiente como para detectar la curvatura, si la había, puso en la cámara una barrera de plomo de 6’35 mm de espesor. Descubrió que, cuando cruzaba el plomo, la radiación cósmica trazaba una estela curva a través de la cámara; y descubrió algo más. A su paso por el plomo, los rayos cósmicos energéticos arrancaban partículas de los átomos de plomo. Una de esas partículas dejó una estela similar a la del electrón. ¡Allí estaba, pues, el anti-electrón de Dirac! Anderson le dio el nombre de positrón. Tenemos aquí un ejemplo de radiación secundaria producida por rayos cósmicos. Pero aún había más, pues en 1.963 se descubrió que los positrones figuraban también entre las radiaciones primarias.

Resultado de imagen de El antielectrón

Abandonado a sus propios medios, el positrón es tan estable como el electrón (¿y por qué no habría de serlo si el idéntico al electrón, excepto en su carga eléctrica?). Además, su existencia puede ser indefinida. Ahora bien, en realidad no queda abandonado nunca a sus propios medios, ya que se mueve en un universo repleto de electrones. Apenas inicia su veloz carrera (cuya duración ronda la millonésima de segundo), se encuentra ya con uno.

Así, durante un momento relampagueante quedaron asociados el electrón y el positrón; ambas partículas girarán en torno a un centro de fuerza común. En 1.945, el físico americano Arthur Edwed Ruark sugirió que se diera el nombre de positronio a este sistema de dos partículas, y en 1.951, el físico americano de origen austriaco  Martin Deutsch consiguió detectarlo guiándose por los rayos gamma característicos del conjunto.

Pero no nos confundamos, aunque se forme un sistema positronio, su existencia durará, como máximo, una diezmillonésima de segundo. El encuentro del electrón-positrón provoca un aniquilamiento mutuo; sólo queda energía en forma de radiación gamma. Ocurre pues, tal como había sugerido Einstein: la materia puede convertirse en energía y viceversa. Por cierto, que Anderson consiguió detectar muy pronto el fenómeno inverso: desaparición súbita de rayos gamma para dar origen a una pareja electrón-positrón. Este fenómeno se llama producción en pareja. Anderson compartió con Hess el premio Nobel de Física de 1.936.

Poco después, los Joliot-Curie detectaron el positrón por otros medios, y al hacerlo así realizaron, de paso, un importante descubrimiento. Al bombardear los átomos de aluminio con partículas alfa, descubrieron que con tal sistema no sólo se obtenían protones, sino también positrones. Cuando suspendieron el bombardeo, el aluminio siguió emitiendo positrones, emisión que sólo con el tiempo se debilitó. Aparentemente habían creado, sin proponérselo, una nueva sustancia radiactiva. He aquí la interpretación de lo ocurrido según los Joliot-Curie: cuando un núcleo de aluminio absorbe una partícula alfa, la adición de los dos protones transforma el aluminio (número atómico 13) en fósforo (número atómico 15). Puesto que las partículas alfa contienen cuatro nucleones en total, el número masivo se eleva 4 unidades, es decir, del aluminio 27 al fósforo 31. Ahora bien, si al reaccionar se expulsa un protón de ese núcleo, la reducción en una unidad de sus números atómicos y masivos hará surgir otro elemento, o sea, el silicio 30.

Puesto que la partícula alfa es el núcleo del helio, y un protón es el núcleo del hidrógeno, podemos escribir la siguiente ecuación de esta reacción nuclear:

aluminio 27 + helio 4 = silicio 30 + hidrógeno 1

Nótese que los números másicos se equilibran:

27 + 4 = 30 + 1

Adentrarse en el universo de las partículas que componen los elementos de la tabla periódica, y en definitiva, la materia conocida, es verdaderamente fantástico.

Tan pronto como los Joliot-Curie crearon el primer isótopo radiactivo artificial, los físicos se lanzaron en tropel a producir tribus enteras de ellas. En realidad, las variedades radiactivas de cada elemento en la tabla periódica son producto de laboratorio. En la moderna tabla periódica, cada elemento es una familia con miembros estables e inestables, algunos procedentes de la naturaleza, otros sólo del laboratorio. Por ejemplo, el hidrógeno presenta tres variedades: en primer lugar, el corriente, que tienen un solo protón. En 1.932, el químico Harold Urey logró aislar el segundo. Lo consiguió sometiendo a lenta evaporación una gran cantidad de agua, de acuerdo con la teoría de que los residuos representarían una concentración de la forma más pesada del hidrógeno que se conocía, y, en efecto, cuando se examinaron al espectroscopio las últimas gotas de agua no evaporadas, se descubrió en el espectro una leve línea cuya posición matemática revelaba la presencia de hidrógeno pesado.

Resultado de imagen de El núcleo de hidrógeno pesado está constituido por un protón y un neutrón

El núcleo de hidrógeno pesado está constituido por un protón y un neutrón. Como tiene un número másico de 2, el isótopo es hidrógeno. Urey llamó a este átomo deuterio (de la voz griega deutoros, “segundo”), y el núcleo deuterón. Una molécula de agua que contenga deuterio se denomina agua pesada, que tiene puntos de ebullición y congelación superiores al agua ordinaria, ya que la masa del deuterio es dos veces mayor que la del hidrógeno corriente. Mientras que ésta hierve a 100º C y se congela a 0º C, el agua pesada hierve a 101’42º C y se congela a 3’79º C. El punto de ebullición del deuterio es de -23’7º K, frente a los 20’4º K del hidrógeno corriente. El deuterio se presenta en la naturaleza en la proporción de una parte por cada 6.000 partes de hidrógeno corriente. En 1.934 se otorgó a Urey el premio Nobel de Química por su descubrimiento del deuterio.

El deuterio resultó ser una partícula muy valiosa para bombardear los núcleos. En 1.934, el físico australiano Marcus Lawrence Edwin Oliphant y el austriaco P. Harteck atacaron el deuterio con deuterones y produjeron una tercera forma de hidrógeno, constituido por un protón y dos neutrones. La reacción se planteó así:

hidrógeno 2 + hidrógeno 2 = hidrógeno 3 + hidrógeno 1

Este nuevo hidrógeno superpesado se denominó tritio (del griego tritos, “tercero”); su ebullición a 25º K y su fusión  a 20’5º K.

Como es mi costumbre, me desvío del tema y sin poderlo evitar, mis ideas (que parecen tener vida propia), cogen los caminos más diversos. Basta con que se cruce en el camino del trabajo que realizo un fugaz recuerdo; lo sigo y me lleva a destinos distintos de los que me propuse al comenzar. Así, en este caso, me pasé a la química, que también me gusta mucho y está directamente relacionada con la física; de hecho son hermanas: la madre, las matemáticas, la única que finalmente lo podrá explicar todo.

emilio silvera

No siempre la Física se puede explicar con palabras

$
0
0

Resultado de imagen de Agujero negro

Se dice que un agujero negro (una masa M concentrada en un volumen menor que el dictado por su radio de Schwarzschild rs = 2GM/c2) absorbe todo lo que cae sobre él. Sin embargo, Beckenstein y Hawking determinaron que el agujero negro posee entropía (proporcional al área del horizonte) y por ello temperatura, y Hawking concluye (1975) que la temperatura le hace radiar como un cuerpo negro; por tanto, eventualmente el agujero se evapora.

Resultado de imagen de Agujero Blanco

Aquí viene la paradoja. Si formamos el agujero negro arrojando materia en forma concreta (por ejemplo, un camión), la masa del camión acabaría eventualmente escupida como radiación del cuerpo negro, perdiéndose la preciosa información sobre el camión. Pero se supone que la evolución de “todo” es cuántica, y por ello unitaria. Ahora bien, la evolución unitaria mantiene la información (estados puros van a estados puros, no mezcla…); he ahí la paradoja.

Resultado de imagen de La información del agujero negro no se pierde

                    Estaría bien poder entrar en un agujero negro para recabar información

Fue Hawking quien primero presentó la paradoja de “pérdida de información” en contra de otros que, como Gerard’t Hooft y Susskind, quienes mantienen que la información no se puede perder, y que por ello debe haber sutiles correlaciones en la radiación emitida, de las que en principio sería posible extraer la información original sobre que el agujero negro tragó un camión…

Paradogicamente, ha sido, durante el desarrollo de la “Teoría de Cuerdas” cuando se ha podido dilucidar el problema planteado hace veinticinco años por Beckenstein y Hawking que, han resultado llevar razón.

Recientemente S. Hawking ha cambiado de opinión y admite ahora que no hay pérdida de información, al respetarse el sentido unitario de la evolución del sistema, de acuerdo con la mecánica cuántica.

La gravitación y dimensiones extra

Esas hipotéticas dimensiones extra, necesarias para la existencia de la teoría de cuerdas, muchas las están buscando pero, de momento, nadie las pudo encontrar. Claro que, como para todo en este mundo, se necesita…¡Tiempo! dejemos que transcurra y…¡veremos!

“… la línea tiene magnitud en una dirección, el plano en dos direcciones y el sólido en tres direcciones; a parte de éstas, no hay ninguna magnitud porque las tres son todas…”

 

 

Resultado de imagen de Sólo tres dimensiones

 

En nuestro Universo sólo podemos ver tres dimensiones y la temporal

 

Eso nos dijo Aristóteles alrededor de 350 años antes de Cristo, y la verdad, es que desde la experiencia cotidiana es difícil refutarlo. Más aún, la existencia de dimensiones extra podría tener consecuencias desastrosas para la estabilidad de las órbitas atómicas y planetarias, sobre todo en el caso de que dichas dimensiones fuesen de un tamaño comparable al del sistema estudiado. En concreto, Paul Ehrenfest en 1917 demostró que la ley del inverso del cuadrado de la distancia para la fuerza electrostática o gravitatoria se modificaría si hubiera N dimensiones espacial extra, de forma que F ≈ r-2 π. De hecho, ningún experimentado físico realizado hasta la fecha ha revelado la existencia de más de tres dimensiones espaciales, y dicho sea de paso, tampoco más de una dimensión temporal.

Sin embargo, aunque la experiencia ordinaria no necesitase de más de tres más una dimensiones, desde Riemann, Gauss, Ricci y algún otro, el punto de vista matemático permite estudiar de forma consistente la geometría de espacion de dimensión arbitraria que, como digo, lo debemos en gran parte a Bernhard Riemann sobre variedades n-dimensionales (1854), y ello a pesar de que Ptolomeo propusiera una “demostración” de que una cuarta dimensión espacial no tiene magnitud ni definición posibles (Tratado sobre la distancia, 150 a. C.).

Resultado de imagen de La relatividad especial de 1095

La formulación de la Relatividad Especial de Einstein en 1905 supuso una revolución en nuestra concepción del espacio y del tiempo, y planteó la cuestión de la dimensionalidad desde una perspectiva completamente nueva. En efecto, en la interpretación geométrica que llevó a cabo Herman Minkowski en 1909, la teoría de Einstein podía entenderse de forma simple en términos de una variedad espacio-temporal de cuatro dimensiones, en la que a tres dimensiones espaciales se le añadía en pie de igualdad una cuarta, el tiempo, en la forma itc. El espacio y el tiempo pasaron de entenderse como conceptos independientes a formar un entramado único 4-dimensional, en el que las distancias se miden a través de la métrica de Minkowski:

metrica_de_minkowski

Por su parte, Einstein, lejos de considerar el espacio-tiempo de Minkowski como una mera descripción matemática, lo elevó a la categoría de entidad física con su Teoría General de la Relatividad (RG) de 1.915 al considerarlo como objeto dinámico, cuya geometría, dada por la métrica de Riemann gμυ(x), depende de tener en cuenta en cada punto de su contenido de materia y energía. La curvatura del espacio-tiempo determina la trayectoria de las partículas de prueba que se mueven en él, y por tanto, la teoría proporciona una interpretación geométrica de la interacción gravitatoria.

Resultado de imagen de La unificación del electromagnetismo y la gravitación

La unificación del electromagnetismo y la gravitación, mencionada por mí en anteriores trabajos, fue la primera de las teorías con dimensiones extra. Se la envi´ço un oscuro matemático desconocido a Einstein, en una carta manuscrita en la que, le presentaba la teoría de 5 dimensiones en la que, era posible unificar, las dos teorías más grandes del momento (relatividad y electromagnetismo). Einsten la leyó varias veces y la volvía a guardad y, por fin, después de dos años, se decidió a enviarla para su publicación. Allí nació la teoría primera de más altas dimensiones: la de Kaluza-Klein (este último la mejoró más tarde).

Está claro que a comienzos del siglo pasado, nuestro conocimiento de las interacciones fundamentales se reducía a dos teorías de campos bien establecidas, el electromagnetismo de Maxwell, en pie desde 1873, y la novedosa Teoría General de la Relatividad para la gravitación, que Einstein comenzara a gestar en 1907 y publicara en 1915. No es por tanto de extrañar que el atractivo de la teoría de Einstein provocara en muchos, incluido el propio Einstein, el impulso de buscar una generalización de la misma, que incluyera también a la teoría de Maxwell, en una descripción geométrica unificada.

Con ese único objetivo, se tomaron varios caminos que, si bien no llegaron al destino deseado, permitieron realizar descubrimientos trascendentales que marcaría la evolución de la física teórica hasta nuestros días. (En aquellos tiempos se desconocían las fuerzaas nucleares débil y fuerte).

Se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.

El primero de estos caminos fue propuesto por Hermann Weyl en 1918. En la Relatividad General, el espacio-tiempo se considera como una variedad pseudo-Riemanniana métrica, esto es, en la que, aunque la orientación de un vector transportado paralelamente de un punto a otro depende del camino seguido, su norma es independiente del transporte. Esta independencia de la norma disgustaba a Weyl que propuso reemplazar el tensor métrico gμυ por una clase de métricas conformemente equivalentes [gμυ] (esto es, equivalentes bajo cambios de escala gμυ → λ gμυ), y el transporte paralelo por otro que respetara esa estructura conforme. Esto se conseguía introduciendo un nuevo campo, Aμ, que al cambiar de representante de la clase de equivalencia [gμυ], se transformaba precisamente como el potencial vector de la teoría de Maxwell:

Aμ → Aμ + ∂μλ

Resultado de imagen de Hermann Weyl

               Hermann Weyl

Este tipo de transformación es lo que Weyl denominó trasformación de “gauge, en el sentido de cambio de longitud. En propias palabras de Weyl en una carta dirigida a Einstein en 1.918, con su teoría había conseguido “… derivar la electricidad y la gravitación de una fuente común…“. La respuesta de Einstein no se hizo esperar:

“Aunque su idea es muy elegante, tengo que declarar francamente que, en mi opinión, es imposible que la teoría se corresponda con la naturaleza.”

 

La objeción de Einstein se basaba en el hecho de que en la propuesta de Weyl, el ritmo de avance de los relojes también dependería del camino seguido por éstos, lo cual entraría en contradicción, por ejemplo, con la estabilidad de los espectros atómicos.

Aunque la teoría de Weyl fue abandonada rápidamente, en ella se introducía por primera vez el concepto de simetría gauge. Varias décadas más tarde, con el desarrollo de las teorías gauge no abelianas por Yang Mills (1954), y del Modelo Estándar de las partículas elementales, se comprobó que la misma noción de invarianza subyacía en la descripción del resto de interacciones fundamentales (electrodébiles y fuertes).

Resultado de imagen de Teoría de cinco dimensiones

La teoría de cinco dimensiones de Kaluza Klein fue la precursora de la de cuerdas

El segundo camino en la búsqueda de la unificación comenzó un año antes de la publicación de la Relatividad General. En 1914 Gunnar Nordström propuso una teoría en cinco dimensiones que unificaba el electromagnetismo con la gravitación de Newton. La aparición de la Teoría de la Relatividad General hizo olvidar la teoría de Nordström, pero no la idea de la unificación a través de dimensiones extra.

Kaluza

Así estaban las cosas cuando en 1.919 recibió Einstein un trabajo de Theodor Kaluza, un privatdozent*en la Universidad de Königsberg, en el que extendía la Relatividad General a cinco dimensiones. Kaluza consideraba un espacio con cuatro dimensiones, más la correspondiente dimensión temporal y suponía que la métrica del espacio-tiempo se podía escribir como:

metrica_de_kaluza

Donde metrica_4-dimensional_del_espacio-tiempo con μ,υ = 1, 2, 3, 4, corresponde a la métrica 4-dimensional del espacio-tiempo de la RG, Aμproporciona el campo electromagnético, Φ es un campo escalar conocido posteriormente como dilatón, y α = √2k es la constante de acoplo relacionada con la constante de Newton k. Kaluza demostró que las ecuaciones de Einstein en cinco dimensiones obtenidas de esta métrica y linealizadas por los campos, se reducían a las ecuaciones de Einstein ordinarias (en cuatro dimensiones) en vacío, junto con las ecuaciones de Maxwell para Aμ, siempre que se impusiera la condición cilíndrica, esto es, que la métrica metrica_de_kaluza_v2 no dependiera de la quinta coordenada.

El trabajo de Kaluza impresionó muy positivamente a Einstein: “Nunca había caído en la cuenta de lograr una teoría unificada por medio de un cilindro de cinco dimensiones… A primera vista, su idea me gusta enormemente…” (carta de Einstein a Kaluza en 1919, en abril).

Gunnar Nordström

Este hecho resulta sorprendente si consideramos que el trabajo de Nordström fue publicado cinco años antes. Por motivos desconocidos, en el mes de mayo de 1919, Einstein rebajó su entusiasmo inicial: “Respeto en gran medida la belleza y lo atrevido de su idea, pero comprenderá que a la vista de las objeciones actuales no pueda tomar parte como originalmente se planeó“. Einstein retuvo el trabajo de T. Kaluza durante dos años, hasta que en 1.921 fue presentado por él mismo ante la Academia Prusiana. Hasta 1.926 Einstein guardó silencia acerca de la teoría en cinco dimensiones.

Ese mismo año, Oskar Klein publicaba un trabajo sobre la relación entre la teoría cuántica y la relatividad en cinco dimensiones. Uno de los principales defectos del modelo de Kaluza era la interpretación física de la quinta dimensión. La condición cilíndrica impuesta ad hoc hacía que ningún campo dependiera de la dimensión extra, pero no se justificaba de manera alguna.

Klein propuso que los campos podrían depender de ella, pero que ésta tendría la topología de un círculo con un radio muy pequeño, lo cual garantizaría la cuantización de la carga eléctrica. Su diminuto tamaño, R5 ≈ 8×10-31 cm, cercano a la longitud de Planck, explicaría el hecho de que la dimensión extra no se observe en los experimentos ordinarios, y en particular, que la ley del inverso del cuadrado se cumpla para distancias r » R5. Pero además, la condición de periodicidad implica que existe una isometría de la métrica bajo traslaciones en la quinta dimensión, cuyo grupo U(1), coincide con el grupo de simetría gauge del electromagnetismo.

Oskar Klein.jpg

Oskar Benjamin Klein (1894-1977). Fotografía tomada para el Göttingen Bohr-Festspiele, junio de 1922.

Por último, imponiendo que el dilaton es una constante, Klein demostró que las ecuaciones de movimiento reproducen las ecuaciones completas de Einstein y Maxwell. Esta forma de tratar la dimensión extra, bautizada posteriormente como el paradigma de la compactificación, había logrado superar los obstáculos iniciales: “… parece que la unión de la gravitación y la teoría de Maxwell se consigue de una forma completamente satisfactoria con la teoría de cinco dimensiones” (carta de Einstein a Lorentz en 1927), y de hecho, ha sido la única forma consistente de introducir dimensiones extra hasta fechas más recientes.

El propio Einstein había comenzado a trabajar en la teoría de Kaluza con su ayudante Jacob Grommer y en 1.922 publicó un primer trabajo sobre existencia de soluciones esféricamente simétricas, con resultado negativo. Más tarde, en 1927 presentó ante la Academia Prusiana dos trabajos en los que reobtenía los resultados de Klein. Su infructuosa búsqueda de una teoría de campo unificada le haría volver cada pocos años a la teoría en cinco dimensiones durante el resto de su vida. Los resultados de Klein sobre la cuantización de la carga eléctrica pueden entenderse fácilmente considerando el desarrollo en modos de Fourier de los campos con respecto a la dimensión periódica:

modos_fourier_para_campos

La ecuación de ondas en cinco dimensiones puede reescribirse como:

ecuacion_ondas_5_dimensiones

Donde Dμ es una derivada covariante con respecto a transformaciones generales de coordenadas y con respecto a transformaciones gauge con una carga qn = nk/R5. Vemos por tanto que el campo en cinco dimensiones se descompone en una torre infinita de modos 4-dimensionales Ψn(x) con masas masas_5_dimensiones, en unidades naturales ћ = c = 1, y carga qn (modos de Kaluza-Klein).

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

Puesto que el radio de compactificación es tan pequeño, el valor típico de las masas será muy elevado, cercano a la masa de Planck Mp = k-12 = 1’2 × 1019 GeV*, y por tanto, a las energías accesibles hoy día (y previsiblemente, tampoco en un futuro cercano – qué más quisieran E. Witten y los perseguidores de las supercuerdas -), únicamente el modo cero n = 0 será relevante. Esto plantea un serio problema para la teoría, pues no contendría partículas ligeras cargadas como las que conocemos.

Resultado de imagen de Las dimensiones de Kaluza-Klein

¿Y si llevamos a Kaluza-Klein a dimensiones superiores para unificar todas las interacciones?

La descripción de las interacciones débiles y fuertes a través de teorías gauge no abelianas mostró las limitaciones de los modelos en cinco dimensiones, pues éstas requerirían grupos de simetría mayores que el del electromagnetismo. En 1964 Bryce de UIT presentó el primer modelo de tipo Kaluza-Klein-Yang-Mills en el que el espacio extra contenía más de una dimensión.

El siguiente paso sería construir un modelo cuyo grupo de isometría contuviese el del Modelo Estándar SU(3)c × SU(2)l × U(1)y, y que unificara por tanto la gravitación con el resto de las interacciones.

Edward Witten demostró en 1981 que el número total de dimensiones que se necesitarían sería al menos de once. Sin embargo, se pudo comprobar que la extensión de la teoría a once dimensiones no podía contener fermiones quirales, y por tanto sería incapaz de describir los campos de leptones y quarks.

Por otra parte, la supersimetría implica que por cada bosón existe un fermión con las mismas propiedades. La extensión supersimétrica de la Relatividad General es lo que se conoce como supergravedad (supersimetría local).


Joël Scherk (1946-1980) (a menudo citado como Joel Scherk) fue un francés teórico físico que estudió la teoría de cuerdas y supergravedad [1] . Junto con John H. Schwarz , pensaba que la teoría de cuerdas es una teoría de la gravedad cuántica en 1974. En 1978, junto con Eugène Cremmer y Julia Bernard , Scherk construyó el lagrangiano y la supersimetría transformaciones para supergravedad en once dimensiones [2] , que es uno de los fundamentos de la teoría-M .

Unos años antes, en 1978, Cremmer, Julia y Scherk habían encontrado que la supergravedad, precisamente en once dimensiones, tenía propiedades de unicidad que no se encontraban en otras dimensiones. A pesar de ello, la teoría no contenía fermiones quirales, como los que conocemos, cuando se compactaba en cuatro dimensiones. Estos problemas llevaron a gran parte de los teóricos al estudio de otro programa de unificación a través de dimensiones extra aún más ambicioso, la teoría de cuerdas.

No por haberme referido a ella en otros trabajos anteriores estará de más dar un breve repaso a las supercuerdas. Siempre surge algún matiz nuevo que enriquece lo que ya sabemos.

Resultado de imagen de Yoichiro Nambu,

El origen de la teoría de supercuerdas data de 1968, cuando Gabriela Veneziano introdujo los modelos duales en un intento de describir las amplitudes de interacción hadrónicas, que en aquellos tiempos no parecía provenir de ninguna teoría cuántica de campos del tipo de la electrodinámica cuántica. Posteriormente, en 1979, Yaichiro Nambu, Leonard Susskind y Holger Nielsen demostraron de forma independiente que las amplitudes duales podían obtenerse como resultado de la dinámica de objetos unidimensionales cuánticos y relativistas dando comienzo la teoría de cuerdas.

En 1971, Pierre Ramona, André Neveu y otros desarrollaron una teoría de cuerdas con fermiones y bosones que resultó ser supersimétrica, inaugurando de esta forma la era de las supercuerdas.

Sin embargo, en 1973 David Gross, David Politzer y Frank Wilczek descubrieron que la Cromodinámica Cuántica, que es una teoría de campos gauge no abeliana basada en el grupo de color SU(3)c, que describe las interacciones fuertes en términos de quarks y gluones, poseía la propiedad de la libertad asintótica. Esto significaba que a grandes energías los quarks eran esencialmente libres, mientras que a bajas energías se encontraban confinados dentro de los hadrones en una región con radio R de valor R ≈ hc/Λ ≈ 10-13 cm.

Dicho descubrimiento, que fue recompensado con la concesión del Premio Nobel de Física a sus autores en 2.004, desvió el interés de la comunidad científica hacia la Cromodinámica Cuántica como teoría de las interacciones fuertes, relegando casi al olvido a la teoría de supercuerdas.

Resultado de imagen de John Henry Schwarz

                                                        John Henry Schwarz

 

 

A pesar de todo, en 1974 Joel Scherk y John Schwarz hicieron la observación de que la teoría de cuerdas podía ser también una teoría cuántica de la gravitación. Sin embargo, este hecho pasó desapercibido durante casi una década. Además, las teorías de cuerdas tenían extrañas propiedades. Su versión más simple, la cuerda bosónica, sólo estaba definida en 26 dimensiones, y por si esto fuese poco, también presentaba un estado taquiónico, es decir, con masa al cuadrado negativa. Por otra parte, las supercuerdas parecían estar plagadas de anomalías (obstrucciones a la cuantización de la teoría que hacían altamente improbable que se los pudiera dar alguna explicación útil para la física fundamental.

Todo cambió, sin embargo, cuando en 1984 Michael Green y John Schwarz demostraron que las teorías de supercuerdas cerradas basadas en los grupos SO(32) y E8 × E8 estaban libres de anomalías si se definían en un espacio-tiempo de 10 dimensiones.

Ese mismo año, Gross, Harvey, Martinec y Rohm encontraron otro tipo de teorías de cuerdas consistentes denominadas heteróticas.

Como resultado de esos y otros muchos trabajos emergieron cinco teorías de cuerdas consistentes denominadas tipo I, tipo IIA, tipo IIB, heterótica SO(32) (HO) y heterótica E8 × E8 (HE). Todas consistentes exclusivamente en 10 dimensiones y estaban libres de taquiones.

       David Jonathan Gross

El de más edad de los cuatro, David Gross, hombre de temperamento imperativo, es temible en los seminarios cuando al final de la charla, en el tiempo de preguntas, con su inconfundible vozarrón dispara certeros e inquisidoras preguntas al ponente. Lo que resulta sorprendente es el hecho de que sus preguntas dan normalmente en el clavo.

La posibilidad de construir teorías realistas de las interacciones entre partículas fundamentales (incluyendo la gravitación) a partir de la teoría de supercuerdas surgió del trabajo seminal de Candelas, Strominger, Horowitz y Witten de 1985 donde se proponía el uso de la supercuerda heterótica E8 × E8 y la compactificación de las 6 dimensiones extra para dar lugar a espacios de Calabi-Yan (un tipo especial de propiedades o variedades compactas con tres dimensiones complejas). La idea era que mediante la elección apropiada de la variedad compactificada, el límite de la teoría a bajas energías sería similar al Modelo Estándar definido en las cuatro dimensiones ordinarias; es decir, la teoría cuántica de campos actualmente aceptada como la teoría correcta de las interacciones fuertes y electrodébiles basada en el grupo gauge SU(3)C × SU(2)L × U(1)Y, que incluye la cromodinámica cuántica (grupo de color SU(3)C) y la teoría de las interacciones electrodébiles basada en el grupo conocido como SU(2)L × U(1)Y, desarrollada en 1967 por Steven Weinberg, Abdus Salam y Sheldon Glashow y por la que se les concedió el Premio Nobel de Física en 1979.

Resultado de imagen de Espacios compactificados B de dimensión 6, tipo Calabi-YanResultado de imagen de Espacios compactificados B de dimensión 6, tipo Calabi-Yan

De esta forma, durante los años ochenta se estudiaron con gran detalle numerosos espacios compactificados B de dimensión 6, tipo Calabi-Yan, junto con otros espacios, como por ejemplo, los llamados orbifoldios (variedades diferenciables cocientadas por grupos discretos) en un intento de tomas contacto con la fenomenología de bajar energías accesibles a los experimentos actuales. Además, las posibilidades podían aumentarse incluyendo campos gauge que podían estar definidos sobre B, dando lugar a diferentes líneas de flujo que se enrollarían y enlazarían de infinidad de formas dentro de B, sacando partido de su habitualmente intrincada topología.

En todo caso, el tamaño típico de espacio B era del orden de la longitud de PlanckLp = 1’6 × 10-33 cm*, que en unidades naturales es la inversa de la masa de Planck. Este hecho situaba fuera de las posibilidades reales el estudio experimental de sus propiedades. Además, a cada espacio B, ataviado de sus líneas de flujo, correspondería un posible vacío (estado fundamental o de menor energía) de la teoría. Sin embargo, en la medida que ésta sólo se podía determinar perturbativamente, es decir, en el régimen de interacción débil, no era posible seleccionar el verdadero vacío de la teoría a partir de primeros principios, sino tan sólo buscar aquellos que podían tener más posibilidades de establecer contacto con el mundo que observamos a nuestro alrededor.

emilio silvera



 Profesor sin plaza ni salario, salvo honorarios según las clases impartidas.

 masa_planck del orden de 10-8 Kg = 1011 GeV; es la masa de una partícula cuya longitud de onda compton es igual a la longitud de Planck.

Los Quarks invisibles

$
0
0

Resultado de imagen de Las Partículas elementales

Una vez que se ha puesto orden entre las numerosas especies de partículas, se puede reconocer una pauta. Igual que Dimitri Ivanovich Mendeleev descubrió el sistema periódico de los elementos químicos en 1869, así también se hizo visible un sistema similar para las partículas. Esta pauta la encontraron independientemente el americano Murray Gell-Mann y el israelí Yuval Ne’eman. Ocho especies de mesones, todos con el mismo espín, u ocho especies de bariones, con el mismo espín, se podían reagrupar perfectamente en grupos que llamaremos multipletes. El esquema matemático correspondiente se llama SU(3). Grupletes de ocho elementos forman un octete “fundamental”. Por esta razón Gell-Mann llamó a esta teoría el “óctuplo camino”. Lo tomó prestado del budismo de acuerdo con el cual el camino hacia el nirvana es el camino óctuplo.

Pero las matemáticas SU(3) también admiten multipletes de diez miembros. Cuando se propuso este esquema se conocían nueve bariones con espín 3/2. Los esquemas SU(3) se obtienen al representar dos propiedades fundamentales de las partículas, la extrañeza S frente al isoespín I₃ , en una gráfica.

Imagen de trazas en la cámara de burbujas del primer evento observado incluyendo bariones Ω, en el Laboratorio Nacional Brookhaven.

De esta manera, Gell-Mann predijo un décimo barión, el omega-menos (Ω¯), y pudo estimar con bastante precisión su masa porque las masas de los otros nueve bariones variaban de una forma sistemática en el gráfico (también consiguió entender que las variaciones de la masa eran una consecuencia de una interacción simple). Sin embargo, estaba claro que la Ω¯, con una extrañeza S = -3, no tenía ninguna partícula en la que desintegrarse que no estuviera prohibida por las leyes de conservación de la interacción fuerte. De modo que, la Ω¯ sólo podía ser de tan sólo 10¯²³ segundos como los demás miembros del multiplete, sino que tenía que ser del orden de 10¯¹⁰ segundos. Consecuentemente, esta partícula debería viajar varios centímetros antes de desintegrarse y esto la haría fácilmente detectable. La Ω¯ fue encontrada en 1964 con exactamente las mismas propiedades que había predicho Gell-Mann.

Resultado de imagen de El físico Murray Gell-Mann

Murray Gell-Mann, nacido en Nueva York en el año 1929, recibió el premio Nobel de Física en 1969 por su aporte en la teoría de las partículas atómicas.

Murray Gell-Mann, nacido en Nueva York en el año 1929, recibió el premio Nobel de Física en 1969 por su aporte en la teoría de las partículas atómicas.

Se identificaron estructuras multipletes para la mayoría de los demás bariones y mesones y Gell-Mann también consiguió explicarlas. Sugirió que los mesones, igual que los bariones, debían estar formados por elementos constitutivos “más fundamentales aún”. Gell-Mann trabajaba en el Instituto de Tecnología de California en Pasadena (CalTech), donde conversaba a menudo con Richard Feynman. Eran ambos físicos famosos pero con personalidades muy diferentes. Gell-Mann, por ejemplo, es conocido como un entusiasta observador de Pájaros, familiarizado con las artes y la literatura y orgulloso de su conocimiento de lenguas extranjeras. Feynman fue un hombre hecho a sí mismo, un analista riguroso que se reía de cualquier cosa que le recordara la autoridad establecida. Hay una anécdota que parece no ser cierta de hecho, pero que me parece tan buena que no puedo evitar el contarla; podía haber sucedido de esta forma. Gell-Mann le dijo a Feynman que tenía un problema, que estaba sugiriendo un nuevo tipo de ladrillos constitutivos de la materia y que no sabía qué nombre darles. Indudablemente debía haber de haber pensado en utilizar terminología latina o griega, como ha sido costumbre siempre en la nomenclatura científica. “Absurdo”, le dijo Feynman; “tú estás hablando de cosas en las que nunc ase había pensado antes. Todas esas preciosas pero anticuadas palabras están fuera de lugar. ¿Por qué no los llamas simplemente “shrumpfs”, “quacks” o algo así?”.

Cuando algún tiempo después le pregunté a Gell-Mann, éste negó que tal conversación hubiera tenido lugar. Pero la palabra elegida fue quark, y la explicación de Gell-Mann fue que la palabra venía de una frase de Fynnegan’s Wake de James Joyce; “¡Tres quarks para Muster Mark!”. Y, efectivamente así es. A esas partículas les gusta estar las tres juntas. Todos los bariones están formados por tres quarks, mientras que los mesones están formados por un quark y un antiquark.

Los propios quarks forman un grupo SU(3) aún más sencillo. Los llamaremos “arriba (u)”, “abajo” (d), y “extraño” (s). Las partículas “ordinarias” contienen solamente quarks u y d. Los hadrones “extraños” contienen uno o más quarks s (o antiquarks ŝ).

La composición de quarks de espín 3/2 se puede ver en la tabla 5. La razón por la que los bariones de espín ½ sólo forman un octete es más difícil de explicar. Está relacionada con el hecho de que en estos estados, al menos dos de los quarks tienen que ser diferentes unos de otros.

Realmente, la idea de que los hadrones estuvieran formados por ladrillos fundamentales sencillos había sido también sugerida por otros. George Zweig, también en el CalTech, en Pasadena, había tenido la misma idea. Él había llamado a los bloques constitutivos “ases!, pero es la palabra “quark” la que ha prevalecido. La razón por la que algunos nombres científicos tienen más éxito que otros es a veces difícil de comprender.

Pero en esta teoría había algunos aspectos raros. Aparentemente, los quarks (o ases) siempre existen en parejas o tríos y nunca se han visto solos. Los experimentadores habían intentado numerosas veces detectar un quark aislado en aparatos especialmente diseñados para ello, pero ninguno había tenido éxito.

Los quarks –si se pudieran aislar- tendrían propiedades incluso más extrañas. Por ejemplo, ¿cuáles serían sus cargas eléctricas? Es razonable suponer que tanto los quarks u como los quarks s y d deban tener siempre la misma carga. La comparación de la tabla 5 con la tabla 2 sugiere claramente que los quarks d y s tienen carga eléctrica -1/3 y el quark u tiene carga +2/3. Pero nunca se han observado partículas que no tengan carga múltiplo de la del electrón o de la del protón. Si tales partículas existieran, sería posible detectarlas experimentalmente. Que esto haya sido imposible debe significar que las fuerzas que las mantienen unidas dentro del hadrón son necesariamente increíblemente eficientes.

Aunque con la llegada de los quarks se ha clarificado algo más la flora y la fauna de las partículas subatómicas, todavía forman un conjunto muy raro, aún cuando solamente unas pocas aparezcan en grandes cantidades en el universo (protones, neutrones, electrones y fotones). Como dijo una vez Sybren S. de Groot cuando estudiaba neutrinos, uno realmente se enamora de ellos. Mis estudiantes y yo amábamos esas partículas cuyo comportamiento era un gran misterio. Los leptones, por ser casi puntuales, son los más sencillos, y por tener espín se ven afectados por la interacción que actúa sobre ellos de forma muy complicada, pero la interacción débil estaba bastante bien documentada por entonces.

Los hadrones son mucho más misteriosos. Los procesos de choque entre ellos eran demasiado complicados para una teoría respetable. Si uno se los imagina como pequeñas esferas hachas de alguna clase de material, aún quedaba el problema de entender los quarks y encontrar la razón por la que se siguen resistiendo a los intentos de los experimentadores para aislarlos.

Si queréis saber más sobre el tema, os recomiendo leer el libro “Partículas” de Gerard ´t Hooft

¡La misteriosa Mecánica cuántica!

$
0
0
 
Muchas son las cosas que aún nos resultan misteriosas pero, ¿qué alcanzaremos en el futuro? ¿Podremos realmente dominar y disponer de la energía de Planck que nos lleve hasta lugares inimaginables? ¿Serán nuestras mentes capaces de evolucionar hasta el extremo de que, algún día muy lejano en el futuro pudiéramos estar conectados con el ritmo vital del Universo, la energía pura que todo lo rige? Manejar esas potentes energías sería manejar los mundos, el espacio y, sobre todo, el Tiempo tan vital para nosotros.

  

 

 

 

El modelo estándar de la física de partículas es una teoría que describe las relaciones entre las interacciones fundamentales conocidas y las partículas elementales que componen toda la materia. Es una teoría cuántica de campos desarrollada entre 1970 y 1973 que es consistente con la mecánica cuánticay la relatividad especial. Hasta la fecha, casi todas las pruebas experimentales de las tres fuerzas descritas por el modelo estándar están de acuerdo con sus predicciones. Sin embargo, el modelo estándar no alcanza a ser una teoría completa de las interacciones fundamentales debido a que no incluye la gravedad, la cuarta interacción fundamental conocida, y debido también al número elevado de parámetros numéricos (tales como masas y constantes que se juntan) que se deben poner a mano en la teoría (en vez de derivarse a partir de primeros principios).

 

 

Vayamos al trabajo que aquí presentamos

 

Se que una vez Albert Einstein alagó al actor Charles Chaplin diciéndole: “Lo que siempre he admirado de usted es que su arte es universal, todo el mundo le comprende y admira”. A esto Chaplin respondió a Einstein: “Lo suyo es mucho más digno de respeto, todo el mundo le admira y prácticamente nadie le comprende”.

Es cierto lo que Chaplin decía, todos admiraban a Einstein y pocos comprendían sus postulados. De hecho, cuando estaba buscando la Teoría de Todo, la gente se amontonaban, literalmente, ante los escaparates de la Quinta Avenida para ver las Ecuaciones que pocos entendían…¡Así somos los Humanos! Lo que no comprendemos nos produce temor o admiración, o, las dos cosas a la vez.

                                        Gerad ´t Hooft

Hace algún tiempo, me desplace a Madrid invitado por la Real Sociedad Española de Física para  asistir a una Conferencia que sobre el LHC y el Bosón de Higgs impartía el físico y premio Nobel de Física Gerad ´t Hooft. La charla de ‘t Hooft se inscribía en el ciclo La ciencia y el cosmos, y, entre otras cosas nos decía a los presentes que, La física, en concreto la física de partículas, ha sido siempre su gran pasión. “cuando era joven, la física estaba cambiando el mundo radicalmente: la energía nuclear, la televisión, los ordenadores, las primeras misiones espaciales…. yo quería formar parte de todo eso”. Y las partículas elementales “eran el mayor misterio de todos”, añade. “En cierto modo aún lo son, aunque sabemos de ellas muchísimo más que entonces. Hoy los ordenadores siguen siendo emocionantes, la biología y el código del ADN, la astronomía y los vuelos espaciales… Sigue habiendo muchas cosas capaces de estimular la imaginación de jóvenes deseosos de aprender cosas nuevas impulsados por el deseo de estar ahí, en el momento en que se están haciendo los descubrimientos que cambian el mundo”.

 Resultado de imagen de El bosón de Higgs

Gerard ‘t Hooft explicó lo que significa, en los modelos teóricos, el famoso bosón: “El campo de la partícula de Higgs actúa como una especie de árbitro; proyectado contra otras partículas, este campo determina su comportamiento, si tienen carga o masa y hasta qué punto se diferencian de otras partículas. Y, en aquel tiempo, nos decía:  “Si no encontramos el Higgs, si realmente no está, necesitaremos algo más que haga ese papel de árbitro”. Eso significaría, continuaba el Nobel, que “nuestras teorías ya no funcionan, y han funcionado tan bien hasta que eso es difícil de imaginar”.

Claro que, después de aquello se encontró el Bosón de Higgs y todos contentos. Ahora se busca el Fotón oscuro en el LHC.

            Sí, al LHC se le resiste la partícula oscura…, bueno, si es que anda por ahí. Hasta el momento, como nos pasa con el Gravitón, sólo es una conjetura lo de su existencia.

Fue en 199 cuando ‘t Hooft recibió el premio Nobel de Física 1999 (junto con su colega y director de tesis Martinus Veltman),  por “dilucidar la estructura cuántica de las interacciones electro-débiles” -según palabras de la Academia sueca- de la física de las partículas elementales.

Acera del Gran Colisionador de Hadrones (el acelerador LHC situado en el Laboratorio Europeo de Física de partículas, CERN, junto a Ginebra), el científico holandés explica que se trata “de una máquina única en el mundo” y continúa: “Esperamos descubrir nuevas cosas con él y poner a prueba teorías que, hasta donde hemos podido comprobar hasta , funcionan muy bien, pero necesitamos ir más allá”.

Resultado de imagen de Los océanos de Higgs

El descubrimiento de la partícula de Higgs, o bosón de Higgs, era el objetivo número uno del LHC, y tras un largo período de funcionamiento del acelerador, los miles de físicos que trabajan en los detectores, han logrado acotar el terreno de búsqueda, aunque, insisten, seguramente necesitarán tomar muchos más para descubrirlo. O tal vez descubrir que no existe, lo que supondría una revolución en la física de partículas, al obligar a replantear el llamado Modelo Estándar, que describe todas las partículas elementales y sus interacciones, y que hasta ahora funciona con altísima precisión aunque, dicen los expertos, está incompleto.

Al fin, tras largo búsqueda y trabajo, nos hicieron partícipe del esperado descubrimiento que viene a refrendar el Modelo Estándar que, incompleto aún, con el dichoso Bosón queda mejor conformado al desaparecer uno de los casi veinte parámetros aleatorios que en él están presentes.

holoscience1

Gerard ‘t Hooft, uno de los grandes físicos teóricos de partículas elementales, considera que será muy difícil desarrollar una teoría del todo, un cuerpo teórico capaz de explicar todas las fuerzas que actúan en la naturaleza aunando la Relatividad General de Einstein y la Mecánica Cuántica, tan eficaces por separado en la descripción del macrocosmos y el microcosmos, respectivamente. “Mi impresión es que esta teoría unificadora, una teoría del todo, aún requerirá el trabajo de muchas nuevas generaciones de investigadores jóvenes y listos”, afirma. “No llegaremos a ella de un momento a otro por la simple razón de que el universo es demasiado complejo para que una única teoría lo abarque todo. Vale, no digo que sea imposible, pero me parece muy improbable. Y mientras llega, queda mucho por , incluso hallazgos espectaculares”.

El CERN, a la caza del misterioso «fotón oscuro»

                                                  El CERN, a la caza del misterioso Fotón oscuro

Por otra parte, el científico holandés ha señalado que el LHC realiza más actividades que intentar encontrar el bosón de Higgs. En este sentido, ha destacado que se buscan también partículas que podrían construir la materia oscura, un de materia de la que los físicos tienen la certeza de que es cinco veces más abundante que el universo que la materia ‘normal’, pero que no absorbe, refleja ni emite luz, lo que hace muy difícil su detección y, por tanto, estudiar su naturaleza. Del mismo modo, también se está desarrollando una teoría capaz de unificar la teoría de la relatividad general de Einstein y la mecánica cuántica que, según ha explicado Hooft, “permitiría lo que ocurre dentro de los átomos”.

Recuerdo un pasaje escrito por él al principio de su interesante e instructivo libro “Partículas Elemetales”, que decía:

Resultado de imagen de El rompecabezas de las partículas subatómicas que encaja perfectamente con la naturaleza

“Mi intención es narrar los últimos 25 años de investigación sobre las partículas más pequeñas que constituyen la materia. Durante esos 25 años, yo empecé a ver la Naturaleza como un test de inteligencia para toda la humanidad en su conjunto, como un gigantesco con el que podemos jugar. Una y otra vez, nos tropezamos con nuevas piezas, grandes y pequeñas, que encajan maravillosamente con las que ya tenemos. Yo quiero compartir con ustedes la sensación de triunfo que sentimos en esos momentos.”

 

 

Tenía la intención (si se presentaba la oportunidad),  de preguntarle sobre “su Principio Holográfico” pero, no pudo ser. Sólo pude saludarlo e intercambiar unas breves palabras junto con Ignacio Cirac presente en el evento.

 

Publicó el principio holográfico, el cual explica que la información de una dimensión extra es visible una curvatura del espacio tiempo con una menos dimensiones. Por ejemplo, los hologramas son imágenes de 3 dimensiones colocadas en una superficie de 2 dimensiones, el cual da a la imagen una curvatura cuando el observador se mueve. Similarmente, en relatividad general, la cuarta dimensión manifestada en 3 dimensiones observables como la curvatura de un sendero de un movimiento de partícula (criterio) infinitesimal. Hooft ha especulado que la quinta dimensión es realmente la fábrica del espacio-tiempo.

Acordaos de que, a mediados del año 2,003 apareció la noticia de que la “información sería el componente fundamental de la naturaleza” postulada por un grupo de físicos entre los que se incluyen el Premio Nóbel danés Gerard t´Hooft y el físico de la Universidad de California Raphael Bousso, basadas en el “Principio Holográfico”. teoría, por singular y chocante que pareciese en su momento ha tenido a lo largo de estos siete años una influencia notable tanto en la sociedad científica como en los círculos alternativos.

Personajes tan influyentes Deepak Chopra sin ir más lejos habla del ámbito cuántico como el campo de información de donde todo lo conocido, materia, emociones, pensamientos. El controvertido joven físico Nassam Haramein defiende un universo basado en el holograma. Científicos japoneses -al igual que del resto del mundo- investigan con hologramas creando imágenes 3D o explican el funcionamiento del mundo físico basado en los campos de energía e información. Hay hasta “farmacología holográfica” a cargo de empresas farmaceúticas. El año pasado el físico Craig Hogan tras la detección de un extraño ruido en el detector de ondas gravitacionales el GEO 600, afirma que podría probar que, efectivamente, vivimos en un holograma.

La Influencia de la Teoría del Principio Holográfico en la Sociedad

La información sería el componente fundamental de la naturaleza. Es la que especifica el cuándo, dónde, cómo y cuánto del espacio, del tiempo y de la materia. El Big Bang que dio lugar al nacimiento del Universo tendría más que ver con una gigantesca “bajada” de bytes de información por parte de un superordenador, que con una explosión masiva de materia, según una nueva teoría que establece que en su origen la naturaleza está formada únicamente por pequeños paquetes de información pura que son los que especifican el cuándo, dónde, cómo y cuánto del espacio, del tiempo y de la materia.

Resultado de imagen de El origen de la Humanidad

Mucho antes de que todos estos seres existieran ocurrieron muchas cosas que no sabemos. Nuestro origen no está en ninguno de ellos, sino que, partiendo de células replicantes que evolucionaron durante algunos millones de años, pudimos llegar a “SER”.

El Ser humano continúa con su carrera particular para lo que siempre ha querido saber: quiénes somos y de dónde venimos. Esas dos preguntas esenciales son, en realidad, el motor gracias al cual se mueve gran parte de la investigación científica de todos los tiempos.

En carrera por buscar certezas, cosas tan inquebrantables para explicar el origen del mundo como son los átomos o los quarks están quedando relegados a segundo término para dar paso a nuevas teorías.

Una de las más interesantes, postulada por un grupo de físicos entre los que se incluyen el Premio Nóbel danés Gerard t´Hooft y el físico de la Universidad de California Raphael Bousso, afirma que en el origen de la naturaleza podría haber únicamente ultrapequeños paquetes de información pura.

Aunque parezca raro la información no viaja en un bloque como lo haría una carta, sino que se divide en pequeños paquetes de información, viajando a través de los diferentes  canales de la red y llegando todos al mismo punto. Para esto es preciso que todos los ordenadores hablen el mismo idioma, o lo que es decir el Protocolo TCP/IP, (que es el idioma) que en un principio empezó a usarse en 1983 para dirigir el tráfico de los paquetes de información por Arpanet, garantizando así que todos lleguen a su destino.

La @ que parece que nació a partir de internet se utilizaba en la antigüedad, como unidad de peso o incluso para decir a cuanto costaba algo en libros de contabilidad. Sin embargo se puso de moda gracias al ingeniero estadounidense Ray Tomilson, que diseñaba un sistema de correo electrónico para Arpanet, simplemente bajo los ojos al  teclado y eligió un signo que no se utilizara en los nombres de usuario.

Según explica al respecto Newsfactor, teoría, basada en el “Principio holográfico”, establece que la información (“información” en este caso significa bits fundamentales de materia y las leyes físicas que los gobiernan) especifica el cuándo, dónde, cómo y cuánto del espacio, del tiempo y de la materia. La información sería pues, una variable para llegar a una “teoría del todo”.

Y, más allá de las cuerdas

Según la teoría cuerdas, el espacio está descrito por la vibración, en miles de maneras, de diminutas cuerdas de una dimensión. Una cuerda vibrando arriba y abajo a cierta frecuencia podría crear un átomo de helio o una ola gravitacional, tal y las cuerdas de una guitarra crean diferentes sonidos a diferentes frecuencias.

Los teóricos de teoría han mantenido hace mucho tiempo que estas cuerdas son el componente fundamental de la naturaleza. El “Principio Holográfico”, sin embargo, cambia esta noción y mantiene que, mirando más de cerca una cuerda, se ven bits cuánticos, llamados “baldosas de Planck”, que, engarzados, dicen a las cuerdas como tienen que vibrar.

Una de las más interesantes, postulada por un grupo de físicos entre los que se incluyen el Premio Nóbel danés Gerard t´Hooft y el físico de la Universidad de California Raphael Bousso, afirma que en el origen de la naturaleza podría haber únicamente ultrapequeños paquetes de información pura.

Estas “baldosas de Planck” son bits cuadrados que delimitan un “área de Planck”, o lo que es lo mismo, un trillón de un trillón, de un trillón de un trillón de un trillón de un trillón de un centímetro cuadrado. Una cuerda de baldosas de Plank sería la versión natural de un byte.

El “Principio Holográfico”, descrito por Gerard t´Hooft y Leonard Susskind y refinado por Bousso, nos permite saber cuántos (bits y bytes) son necesarios para decirnos en detalle cada cosa que ocurre en cualquier región del espacio.

¡Por imaginación que no quede!

emilio silvera

Física, la era cuántica, ese “mundo” fascinante

$
0
0

gran-muralla-galaxias

Los científicos para lograr conocer la estructura del universo a su escala más grande, deben retroceder en el tiempo, centrando sus teorías en el momento en que todo comenzó. Para ello, como  todos sabeis, se han formulado distintas teorías unificadoras de las cuatro fuerzas de la naturaleza, con las cuales se han modelado acontecimiento y  en el universo primitivo casi a todo lo largo del camino hasta el principio. Pero cómo se supone que debió haber habido un «antes», aparece una barrera que impide ir más allá de una frontera que se halla fijada a los 10-43 [s] después del Big Bang, un instante conocido como « de Planck», en homenaje al físico alemán Max Planck.

Resultado de imagen de La barrera de la era de Planck

Esta barrera existe debido a que antes del momento de Planck, durante el período llamado la «era de Planck o cuántica», se supone que las cuatro fuerza fundamentales conocidas de la naturaleza eran indistinguibles o se hallaban unificadas , que era una sola fuerza. Aunque los físicos han diseñado teorías cuánticas que unen tres de las fuerzas, una por una, a través de eras que se remontan al momento de Planck, hasta  les ha sido prácticamente imposible armonizar las leyes de la teoría cuántica con la gravedad de la relatividad general de Einstein, en un sólo modelo teórico ampliamente convincente y con posibilidades claras de ser contrastado en experimentos de laboratorio y, mucho , con observaciones.

Si hablamos de singularidades en agujeros negros, debemos dejar la R.G. y acudir a la M.C. “…según las leyes de la Relatividad, el eje más horizontal siempre es espacio, mientras que el más vertical siempre es tiempo. Por tanto, al cruzar el horizonte lo que nosotros entendemos por tiempo y espacio ¡habrán intercambiado sus papeles!  sonar raro y, definitivamente, es algo completamente anti intuitivo, pero es la clave de que los agujeros negros sean  son y jueguen el papel tan importante que juegan en la física teórica actual. Al fin y al cabo, dentro no es lo mismo que fuera…”

Si  queremos cuantizar, es decir encontrar la versión cuántica, la gravedad escrita como RG lo que tenemos que hacer es encontrar la teoría cuántica para la métrica.  Sin embargo, esto no conduce a una teoría apropiada, surgen muchos problemas para dar sentido a esta teoría, aparecen infinitos y peor que eso, muchos cálculos no tienen ni tan siquiera un sentido claro.  Así que hay que buscar otra forma de intentar llegar a la teoría cuántica.

Resultado de imagen de Teoría cuántica de la Gravedad

Como tantas veces hemos comentado, los trabajos que se han realizado sobre poder construir una teoría cuántica de la gravedad nos llevan a un  sorprendente de implicaciones. Por un lado, sólo se ha podido conceptuar a la gravedad cuántica, siempre y cuando, el universo tenga más de cuatro dimensiones. Además, se llega a considerar que en la era de Planck, tanto el universo como la gravedad pudieron ser una sola cosa compacta estructurada por objetos cuánticos infinitamente diminutos, como los que suponemos que conforman las supercuerdas. A esta escala, el mismísimo espaciotiempo estaría sometido a imprescindibles fluctuaciones muy semejantes a las que causan las partículas al nacer y desaparecer de la existencia en el espacio.tiempo ordinario. Esta noción ha conducido a los teóricos a describir el universo de la era cuántica como una especie de extremadamente densa y agitada espuma que pudo haber contenido las vibrantes cuerdecillas que propugnan los cosmólogos cuerdistas.

Los físicos especulan que el cosmos ha crecido a  una «nada» primigenia que al nacer comenzó el principio del tiempo y que, en ese parto, contenía toda la materia y toda la energía.

Imagen relacionada

Según los primeros trabajos sobre la teoría cuántica de la gravedad, el propio espaciotiempo varió en su topografía, dependiendo de las dimensiones del universo niño. Cuando el universo era del tamaño de un núcleo atómico (ver imagen de abajo), las  eran relativamente lisas y uniformes; a los 10-30cm (centro) es evidente una cierta granulidad; y a la llamada longitud de Planck, todavía unas 1.000 veces más pequeño (abajo), el espacio tiempo fluctúa violentamente.

Los físicos han intentado con denuedo elaborar una teoría completa de la gravedad que incluya la mecánica cuántica. Los cálculos de la mayoría de las teorías propuesta de la «gravedad cuántica» arrojan numerosos infinitos. Los físicos no están seguros si el problema es técnico o conceptual. No obstante, incluso prescindiendo de una teoría completa de gravedad cuántica, se  deducir que los efectos de la teoría cuántica, habrían sido cruciales durante los primeros 10-43 segundos del inicio del universo,  éste tenía una densidad de 1093 gramos por centímetro cúbico y mayor. (El plomo sólido tiene una densidad de aproximadamente diez gramos por centímetro cúbico.) Este período, que es el que corresponde a la era de Planck, y a su estudio se le llama cosmología cuántica. Como el universo en su totalidad habría estado sujeto a grandes incertidumbres y fluctuaciones durante la era de Planck o era cuántica, con la materia y la energía apareciendo y desapareciendo de un vacío en grandes cantidades, el concepto de un principio del universo podría no tener un significado bien definido. En todo caso, la densidad del universo durante este período es de tal magnitud que escapa a nuestra comprensión. Para propósitos prácticos, la era cuántica podría considerarse el estado inicial, o principio, del universo. En consecuencia, los procesos cuánticos ocurridos durante este período, cualquiera sea su naturaleza, determinaron las  iniciales del universo.

Dicen haber descubierto la estructura más grande del Universo. Se trata de una «gran muralla» de 10.000 millones de años luz de un extremo a otro, que pone en jaque lo que creíamos saber sobre la distribución de la materia. De todas las maneras nada de esto es sorprendente. El Universo es muy grande y en su vastedad esconde secretos que debemos resolver.

 

El universo estaba a 3.000° K hace doce mil quinientos millones de años; a 10 mil millones de grados (1010° K) un millón de años , y, tal vez, a 1028° K un par de millones más temprano. Pero, y antes de ese tiempo ¿qué pasaba? Los fósiles no faltan, pero no sabemos interpretarlos. Mientras más elevada se va haciendo la temperatura del universo primigenio, la situación se va complicando  los científicos. En la barrera fatídica de los 1033° K –la temperatura de Planck–, nada funciona. Nuestros actuales conocimientos de la física dejan de ser útiles. El comportamiento de la materia en estas condiciones tan extremas deja de estar a nuestro alcance de juicio. Peor aún,  nuestras nociones tradicionales pierden su valor. Es una barrera infranqueable para el saber de la física contemporánea. Por eso, lo que se suele decir cómo era el universo inicial en esos tempranos períodos, no deja de tener visos de especulación.

Los progresos que se han obtenido en física teórica se manifiestan a menudo en términos de síntesis de campos diferentes. Varios  son los ejemplos que de ello encontramos en diversos estudios especializados, que hablan de la unificación de las fuerzas fundamentales de la naturaleza.

En física se cuentan con dos grandes teorías de éxito: la cuántica y la teoría de la relatividad general.

             Grande y pequeño: ¡Todo la misma cosa!

Cada una de ellas ha demostrado ser muy eficiente en aplicaciones dentro de los límites de su ámbito propio. La teoría cuántica ha otorgado resultados más que satisfactorios en el estudio de las radiaciones, de los átomos y de sus interacciones. La ciencia contemporánea se presenta como un conjunto de teorías de campos, aplicables a tres de las grandes interacciones: electromagnética, nuclear fuerte, nuclear débil. Su poder predictivo es bastante elocuente, pero no universal. Esta teoría es, por , incapaz de describir el comportamiento de partículas inmersas en un campo de gravedad intensa. Ahora, no sabemos si esos fallos se deben a un problema conceptual de fondo o falta de capacidad matemática para encontrar las ecuaciones precisas que permitan la estimación del comportamiento de las partículas en esos ambientes.

La teoría de la relatividad general, a la inversa, describe con gran precisión el efecto de los campos de gravedad sobre el comportamiento de la materia, pero no sabe explicar el ámbito de la mecánica cuántica. Ignora todo acerca de los campos y de la dualidad onda-partícula, y en ella el «vacío» es verdaderamente vacío, mientras que  la física cuántica hasta la «nada» es «algo»…

                  Nada está vacío, ya que, de donde surge es porque había

Claro está, que esas limitaciones representativas de ambas teorías no suelen tener mucha importancia práctica. Sin embargo, en algunos casos, esas limitantes se hacen sentir con agresividad frustrando a los físicos. Los primeros instantes del universo son el ejemplo más elocuente.

El científico investigador, al requerir estudiar la temperatura de Planck, se encuentra con un cuadro de densidades y gravedades extraordinariamente elevadas. ¿Cómo se comporta la materia en esas ? Ambas teorías, no dicen mucho al respecto, y entran en serias contradicciones e incompatibilidades. De ahí la resistencia de estas dos teorías a unirse en una sólo teoría de Gravedad-Cuantíca, ya que, cada una de ellas reina en un universo diferente, el de lo muy grande y el de lo muy pequeño.

Todo se desenvuelve alrededor de la noción de localización. La teoría cuántica limita nuestra aptitud  asignar a los objetos una posición exacta. A cada partícula le impone un volumen mínimo de localización. La localización de un electrón, por ejemplo, sólo puede definirse alrededor de trescientos fermis (más o menos un centésimo de radio del átomo de hidrógeno). , si el objeto en cuestión es de una mayor contextura másica, más débiles son la dimensión de este volumen mínimo. Se puede localizar un protón en una esfera de un décimo de fermi, pero no mejor que eso. Para una pelota de ping-pong, la longitud correspondiente sería de  10-15 cm, o sea, bastante insignificante.La física cuántica, a toda partícula de masa m le asigna una longitud de onda Compton: lc = h / 2p mc

Por su , la relatividad general igualmente se focaliza en la problemática del lugar que ocupan los objetos. La gravedad que ejerce un cuerpo sobre sí mismo tiende a confinarlo en un espacio restringido. El caso límite es aquel del agujero negro, que posee un campo de gravedad tan intenso que, salvo la radiación térmica, nada, ni siquiera la luz,  escapársele. La masa que lo constituye está, según esta teoría, irremediablemente confinada en su interior.

En lo que hemos inmediatamente descrito, es donde se visualizan las diferencias  esos dos campos del conocimiento. Uno alocaliza, el otro localiza. En general, esta diferencia no presenta problemas: la física cuántica se interesa sobre todo en los microobjetos y la relatividad en los macro-objetos. Cada cual en su terreno.

Resultado de imagen de Macroobjetos

               Vista de detalle, macro de una ronda simétrico de flor de la Pasionaria

Sin embargo, ambas teorías tienen una frontera común  entrar en dificultades. Se encuentran objetos teóricos de masa intermedia entre aquella de los microobjetos como los átomos y aquella de los macro-objetos como los astros: las partículas de Planck. Su masa es más o menos la de un grano de sal: 20 microgramos. Equivale a una energía de 1028 eV o, más aún, a una temperatura de 1033° K. Es la «temperatura de Planck».

 bien, si queremos estimar cuál debería ser el radio en que se debe confinar la masita de sal para que se vuelva un agujero negro, con la relatividad general la respuesta que se logra encontrar es de que sería de 10-33 cm, o sea ¡una cien mil millonésima de mil millonésima de la dimensión del protón! Esta dimensión lleva el  de «radio de Planck». La densidad sería de ¡1094 g/cm3! De un objeto así, comprimido en un radio tan, pero tan diminuto, la relatividad general sólo nos señala que tampoco nada puede escapar de ahí. No es mucha la información.

Si recurrimos a la física cuántica  estimar cuál sería el radio mínimo de localización para un objeto semejante al granito de sal, la respuesta que encontramos es de un radio de 10-33 cm. Según  teoría, en una hipotética experiencia se lo encontrará frecuentemente fuera de ese volumen. ¡Ambos discursos no son coincidentes! Se trata de discrepancias que necesitan ser conciliadas para poder progresar en el conocimiento del universo. ¿Se trata de entrar en procesos de revisión de ambas teoría, o será necesaria una absolutamente nueva? Interrogantes que solamente el devenir de la evolución de la física teórica las podrá responder en el futuro.

De todas las maneras, en lo que se refiere a una Teoría cuántica de la Gravedad, tendremos que esperar a que se confirmen las teorías de supergravedad, supersimetría, cuerdas, la cuerda heterótica, supercuerdas y, la compendiada por Witten Teoría M. Aquí, en estas teorías (que dicen ser del futuro), sí que están apaciblemente unidas las dos irreconciliables teorías: la cuántica y la relativista, no sólo no se rechazan ni emiten infinitos, sino que, se necesitan y complementan para formar un todo armónico y unificador.

¡Si pudiéramos verificarla!

, contar con la energía de Planck (1019 GeV), no parece que, al menos de , sea de este mundo. Ni todos los aceleradores de partículas del mundo unidos, podrían llegar a conformar una energía semejante.

http://francisthemulenews.files.wordpress.com/2010/08/dibujo20100822_hoag_object_a1515_2146_hubble_space_telescope1.png

                   Aunque de extraña y atípica figura, también,  galaxia, está hecha de materia

Tiene y encierra tantos misterios la materia que estamos aún a muchos años-luz de saber y conocer sobre su verdadera naturaleza. Es algo que vemos en sus distintas formas materiales que configuran y conforman todo lo material desde las partículas elementales hasta las montañas y los océanos. Unas veces está en  “inerte” y otras, se eleva hasta la vida que incluso,  en ocasiones, alcanza la consciencia de SER. Sin embargo, no acabamos de dilucidar de dónde viene su verdadero origen y que era antes de “ser” materia. ¿Existe acaso una especie de sustancia cósmica anterior a la materia? Y, si realmente existe esa sustancia… ¿Dónde está? Aristóteles la llamaba Ylem, la sustancia o materia cósmica antes de la materia, a partir del Ylem llegaría la materia bariónica, la ue conocemos y de la que todo está hecho.

Nos podríamos preguntar miles de cosas que no sabríamos contestar.  Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos pero que tampoco sabemos, en realidad, a que son debidos.  Sí, sabemos ponerles etiquetas , por ejemplo, la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio y, con mayor frecuencia, en los elementos que conocemos como transuránicos.

A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta.  En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de ruptura, sobrepasando a la emisión de partículas alfa.

¡Parece que la materia está viva!

Son muchas las cosas que desconocemos y, nuestra curiosidad nos empuja continuamente a buscar esas respuestas.

El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o antineutrón), y, por lo tanto, han sido denominados leptones (de la voz griega lepto que significa “delgado”).

Aunque el electrón fue descubierto en 1.897 por el físico británico Josepth John Thomson (1856-1940), el problema de su estructura, si la hay, no está resuelto.  Conocemos su masa y su carga negativa que responden a 9,1093897 (54)x10-31kg la primera y, 1,602 177 33 (49)x10-19 culombios, la segunda, y  su radio clásico. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve  una carga eléctrica, sea lo que fuese (sabemos como actúa y cómo medir sus propiedades, pero aun no sabemos qué es), tenga asociada un mínimo de masa, y que  es la que se muestra en el electrón.

Resultado de imagen de Joseph John Thomson

                  Josepth John Thomson

Lo cierto es que, el electrón, es una maravilla en sí mismo.  El Universo no sería  lo conocemos si el electrón (esa cosita “insignificante”), fuese distinto a como es, bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí .

(“Aunque no se trata propiamente de la imagen real de un electrón, un equipo de siete científicos suecos de la Facultad de Ingeniería de la Universidad de Lund consiguieron captar en vídeo por primera vez el movimiento o la distribución energética de un electrón sobre una onda de luz, tras ser desprendido previamente del átomo correspondiente.

Resultado de imagen de películas de electrones que se movían a través de helio líquido en el International Symposium on Quantum Fluids and Solids del 2006

Previamente dos físicos de la Universidad Brown habían mostrado películas de electrones que se movían a través de helio líquido en el International Symposium on Quantum Fluids and Solids del 2006. Dichas imágenes, que mostraban puntos de luz que bajaban por la pantalla fueron publicadas en línea el 31 de mayo de 2007, en el Journal of Low Temperature Physics.

En el experimento que ahora nos ocupa y dada la altísima velocidad de los electrones el equipo de investigadores ha tenido que usar una nueva tecnología que genera pulsos cortos de láser de luz intensa (“Attoseconds Pulses”), habida  que un attosegundo equivalente a la trillonésima parte de un segundo”.)

¡No por pequeño, se es insignificante! Recordémoslo, todo lo grande está hecho de cosas pequeñas.

Haga clic para mostrar el resultado de "Louis de Broglie" número 12

Louis de Broglie

En realidad, existen partículas que no tienen en absoluto asociada en ellas ninguna masa (es decir, ninguna masa en reposo).  Por ejemplo, las ondas de luz y otras formas de radiación electromagnéticas se comportan  partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones.)

Imagen ilustrativa de la dualidad onda-partícula, en el cual se puede ver cómo un mismo fenómeno puede tener dos percepciones distintas. Esta manifestación en  de partículas de lo que, de ordinario, concebimos como una onda se denomina fotón, de la palabra griega que significa “luz”.

El fotón  una masa de 1, una carga eléctrica de 0, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se  definir lo que es el espín? Los fotones toman  en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín).  La única forma que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este termino se reserva  la familia formada por el electrón, el muón y la partícula Tau con sus correspondientes neutrinos: Ve, Vu y VT.

Existen razones teóricas para suponer que, cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitacionales.  Esas ondas pueden así mismo poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el  de gravitón.

La fuerza gravitatoria es mucho, mucho más débil que la fuerza electromagnética.  Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin ) debe poseer, correspondientemente, menos energía que el fotón y, por tanto, ha de ser inimaginablemente difícil de detectar.

De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón.  Llegó a emplear un par de cilindros de aluminio de 153 cm. De longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío.  Los gravitones (que serían detectados en  de ondas), desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegare a captar la cienmillonésima parte de un centímetro.

                  Joseph Weber

El interferómetro funciona enviando un haz de luz que se separa en dos haces; éstos se envían en direcciones diferentes a  espejos donde se reflejan de regreso, entonces los haces al combinarse presentarán interferencia.

Las débiles ondas de los gravitones, que producen del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de  simultánea.  En 1.969, Weber anunció haber detectado los efectos de las ondas gravitatorias.  Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general).  Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaran el hallazgo de Weber.

Resultado de imagen de Dónde están los gravitones

De todas formas, no creo que, a estas alturas, nadie pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria.  La masa del gravitón es cero, su carga es cero, y su espín de 2.   el fotón, no  antipartícula, ellos mismos hacen las dos versiones.

Tenemos que volver a los que posiblemente son los objetos más misteriosos de nuestro Universo: Los agujeros negros.  Si estos objetos son lo que se dice (no parece que se pueda objetar nada en contrario), seguramente serán ellos los que, finalmente, nos faciliten las respuestas sobre las ondas gravitacionales y el esquivo gravitón.

Resultado de imagen de Imagen de un <a href=

            Imagen de un agujero negro en el núcleo de una galaxia arrasando otra próxima- NASA

La onda gravitacional emitida por el agujero negro produce una ondulación en la curvatura del espacio-temporal que viaja a la velocidad de la luz transportada por los gravitones. Tenemos varios proyectos en marcha de la NASA y otros Organismos oficiales que buscan las ondas gravitatorias de los agujeros negros, de colisiones  estrellas de neutrones y de otras fuentes análogas que, según se cree, nos hablará de “otro universo”, es decir, nos dará información desconocida hasta  y sabremos “ver” un universo distinto al reflejado por las ondas electromagnéticas que es el que ahora conocemos.

       ¿Espuma cuántica? Si profundizamos mucho en la materia…

Hay aspectos de la física que me dejan totalmente sin habla, me obligan a pensar y me transporta de mundo material nuestro a otro fascinante donde residen las maravillas del Universo.  Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, limite_planckes la escala de longitud por debajo de la cual el espacio tal  lo conocemos deja de existir y se convierte en espuma cuántica.  El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que  existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2 un papel clave en la entropía de un agujero negro.

“Una investigación ha llevado a pensar que, la materia se construye sobre fundamentos frágiles. Los físicos acaban de confirmar que la materia, aparentemente sustancial, es en realidad nada más que fluctuaciones en el vació cuántico. Los investigadores simularon la frenética actividad que sucede en el interior de los protones y neutrones, que  sabéis son las partículas que aportan casi la totalidad de la masa a la materia común. Estas dos partículas, protones y neutrones, se comportan como si en su interior, los quarks de los que están hechas ambas partículas, lucharan por escapar del confinamiento a que se ven sometidos por la fuerza nuclear fuerte por medio de los Gluones que forman un océano en el que se ven confinados sin remedio. De hecho, nunca nadie ha podido ver a un quark libre.

Así que, si estudiamos el vacío cuántico, parece que eso permitirá a los físicos someter a prueba a la Cromo Dinámica Cuántica y buscar sus efectos más allá de la física conocida. Por , los cálculos demuestran que la QCD describe partículas basadas en quarks de  precisa, y que la mayor parte de nuestra masa viene de quarks virtuales y gluones que burbujean en el vacío cuántico.

Resultado de imagen de Campos de Higgs

Se cree que el campo de Higgs hace también su pequeña contribución, dando masa a los quarks individuales, así como a los electrones y a otras varias partículas. El campo de Higgs también crea masa a partir del vacío cuántico, en forma de bosones virtuales de Higgs. De modo que si el LHC confirma la existencia del bosón de Higgs, eso significará que toda la realidad es virtual, es menos virtual de lo que se pensaba. No creo que hasta el momento, y, a pesar de las declaraciones salidas  el CERN, se tenga la seguridad de haber detectado el Bosón de Higgs.

De todo lo anterior, no podemos obtener una respuesta cierta y científicamente probada de que todo eso sea así, más , los resultados indican que todo eso “podría ser así”, lo que ocurre es que, los científicos, a veces se dejan llevar por las emociones. Al fin y al cabo, ellos como el común de los mortales, también son humanos.

       Ya nos gustaría saber cómo es, ese vacío cuántico y qué pasa allí

Me llama poderosamente la atención lo que conocemos  las fluctuaciones de vacío, esas oscilaciones aleatorias, impredecibles e ineliminables de un campo (electromagnético o gravitatorio), que son debidas a un tira y afloja en el que pequeñas regiones del espacio toman prestada momentáneamente energía de regiones adyacentes y luego la devuelven. Hace un par de días que hablamos de ello.

Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas.  En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se  obtener, ya que todos los materiales que rodean ese espacio tienen una presión de vapor finita.  En un bajo vacío, la presión se reduce hasta 10-2 pascales, mientras que un alto vacío  una presión de 10-2-10-7 pascales.  Por debajo de 10-7 pascales se conoce como un vacío ultra-alto.

No puedo dejar de referirme al vacío theta (vació θ) que, es el  de vacío de un campo gauge no abeliano (en ausencia de campos fermiónicos y campos de Higgs). En el vacío theta hay un infinito de estados degenerados con efecto túnel entre estos estados.  Esto significa que el vacío theta es análogo a una función de Bloch en un cristal.

Se  derivar tanto como un resultado general o bien usando técnicas de instantón.  Cuando hay un fermión sin masa, el efecto túnel  estados queda completamente suprimido. Cuando hay campos fermiónicos con masa pequeña, el efecto túnel es mucho menor que  campos gauge puros, pero no está completamente suprimido.

                                     ¡Es tanto lo que hay pero que no podemos ver!

Si buscamos por ahí podremos leer explicaciones como : “En la Teoría cuántica de campos,  el vacío cuántico ( llamado el vacío) es el  cuántico con la menor energía posible. Generalmente no contiene partículas físicas. El término “Energía de punto cero” es usado ocasionalmente como sinónimo para el vacío cuántico de un determinado campo cuántico.

De acuerdo a lo que se entiende actualmente por vacío cuántico o “ de vacío”, este “no es desde ningún punto de vista un simple espacio vacío” , y otra vez: “es un error pensar en cualquier vacío físico como un absoluto espacio vacío.” De acuerdo con la mecánica cuántica, el vacío cuántico no está verdaderamente vacío sino que contiene ondas electromagnéticas fluctuantes y partículas que saltan adentro y fuera de la existencia.

Según las modernas teorías de las partículas elementales, el vacío es un objeto físico, se puede cargar de energía y se puede convertir en varios estados distintos. Dentro de su terminología, los físicos hablan de vacíos diferentes. El  de partículas elementales, su masa y sus interacciones están determinados por el vacío subyacente. La relación entre las partículas y el vacío es similar a la relación entre las ondas del sonido y la materia por la que se propagan. Los tipos de ondas y la velocidad a la que viajan varía dependiendo del material.”

Como nos dicen en este anuncio del Kybalion, nada es estático en el Universo y, todo está en continuo movimiento o vibración. Habréis oído hablar de la energía de punto cero que permanece en una sustancia en el cero absoluto (cero K). Está de acuerdo con la teoría cuántica, según la cual, una partícula oscilando con un movimiento armónico simple no tiene estado estacionario de energía cinética nula. Es más, el Principio de Incertidumbre no permite que esta partícula esté en reposo en el punto central exacto de sus oscilaciones. Del vacío surgen sin cesar partículas virtuales que desaparecen en fracciones de segundo, y, ya conocéis, por ejemplo, el Efecto Casimir en el que dos placas pueden producir energía negativa surgidas del vacío.

De todas las maneras, en  momento sabemos tanto de la espuma cuántica como de nuestra presencia en el Universo, es decir, nada. Todo son conjeturas, suposiciones e hipótesis que nos hacen imaginar lo que pueda existir a la distancia de Planck. Claro que  en una longitud de 10-35 metros, sí que es fácil imaginar que lo que podamos ver allí sería simplemente una especie de espuma cuántica asociada a lo que estimamos que sería la gravedad cuántica.

emilio silvera


¿Debemos nuestra existencia a los Neutrinos?

$
0
0

Publicado: El País

                                                 Detector de neutrinos de Daya Bay.

Con solo tres tipos de partículas diferentes: el electrón y los dos tipos de quarks que forman los protones y neutrones, tenemos los ladrillos necesarios para construir y describir toda la materia que nos rodea, desde las estrellas hasta los animales y plantas de la Tierra. Sin embargo, hay un cuarto tipo de partícula elemental con propiedades muy diferentes a las anteriores: el neutrino.

Su nombre viene del italiano “neutron bambino” y ya nos da idea de qué le distingue de las otras partículas elementales. Es neutro, sin carga eléctrica y con interacciones extremadamente débiles con el resto de la materia. También es increíblemente ligero. De hecho, la masa de los neutrinos es tan pequeña que no ha podido medirse directamente aún. Sólo sabemos que debe ser menor que una millonésima parte de la masa del electrón, la siguiente partícula más ligera que conocemos. Estas dos propiedades hacen que los neutrinos sean más de mil millones de veces más numerosos que todos los átomos del Universo pero que, al mismo tiempo, apenas podamos detectar su presencia.

 

 

 

Resultado de imagen de El premio Nobel de física 2015 ha sido concedido a Takaaki Kajita y Arthur McDonald

 

 

El premio Nobel de física 2015 ha sido concedido a Takaaki Kajita y Arthur McDonald por “el descubrimiento de las oscilaciones de neutrinos que demuestran que los neutrinos tienen masa”.

 

Los neutrinos existen en tres “sabores” o especies que determinan sus interacciones con el resto de partículas. La “oscilación de neutrinos” es un fenómeno mediante el cual estos tres “sabores” de neutrino se transforman unos en otros simplemente en vuelo, “oscilando” entre los tres tipos. Los neutrinos, como el resto de las partículas en el contexto de la física cuántica, son descritos como ondas. Y como las ondas en el agua, se pueden superponer unas con otras, dando lugar a nuevas combinaciones. Pues bien, estos tres “sabores” de neutrinos corresponden a tres superposiciones diferentes de ondas.

 

 

 

Resultado de imagen de Los neutrinos de FermiResultado de imagen de Los neutrinos de FermiResultado de imagen de Los neutrinos de FermiResultado de imagen de Los neutrinos de FermiResultado de imagen de el detector ALEPH

 

En el detector ALEPH se observó la existencia de tres generaciones de neutrinos ligeros.

 

Si estas ondas viajaran todas igual, simultáneamente, la superposición nunca cambiaría y no habría oscilaciones. Pero si los neutrinos asociados a estas ondas tienen masa, y sus masas son diferentes, cada onda se propaga con velocidad diferente y la superposición entre ellas, el “sabor”, cambia con el vuelo del neutrino. Por eso, la observación de la oscilación de los sabores de neutrinos implica que éstos deben tener masa, aunque sea tan pequeña que aún no la hemos podido determinar de forma directa.

El simple hecho de que estas partículas tengan masa nos obliga a replantear nuestro entendimiento de la física con la que explicamos y describimos la materia, que solo predecía neutrinos sin masa. Aunque el resto de partículas también son masivas, y con masas mucho mayores, el carácter especial de los neutrinos de nuevo podría esconder sorpresas. Por ejemplo, su carácter neutro, hace que la línea que distingue partículas de antipartículas, materia de antimateria, se desdibuje para los neutrinos.

Las antipartículas son partículas producidas en laboratorios y de forma natural en la atmósfera terrestre, idénticas en todo a su partícula asociada, excepto en su carga, que es opuesta. Así el positrón, la antipartícula del electrón, es idéntica a éste pero con carga positiva en vez de negativa.

Resultado de imagen de La abundancia de los neutrinos

 

Los neutrinos son más de mil millones de veces más numerosos que todos los átomos del Universo pero, al mismo tiempo, apenas podemos detectar su presencia

 

Aún es un misterio el por qué nuestro Universo está formado por materia si partículas y antipartículas se producen y destruyen juntas en la mayoría de procesos conocidos. En algún momento se debió crear un exceso de materia sobre antimateria para poder crear galaxias, estrellas, planetas y personas. Pero quizá los neutrinos tengan la respuesta. Al no tener carga, sería posible que, igual que los neutrinos oscilan entre “sabores”, su masa también permitiera a neutrinos oscilar en antineutrinos, rompiendo la barrera entre partículas y antipartículas y plantando la semilla del exceso de materia en el Universo al que, a la postre, debemos nuestra existencia. ¿Quizá un futuro premio Nobel nos de la respuesta?

Enrique Fernández es investigador Ramón y Cajal del departamento de Física Teórica de la UAM y miembro del Instituto de Física Teórica UAM-CSIC.

Como sistema cerrado.la Entriopia del Universo crece

$
0
0

Resultado de imagen de La Entropía del UniversoResultado de imagen de La Entropía del Universo

Variación de entropía del universo

Desde el punto de vista de la Termodinámica, el universo es el conjunto constituido por un sistema y sus alrededores. Es, por tanto, un sistema aislado (no hay nada fuera de él). De la misma manera en que se puede calcular la variación de entropía de un sistema termodinámico entre dos estados, puede calcularse la variación de entropía de sus alrededores (todo lo que ha interaccionado con nuestro sistema). La suma de ambas magnitudes se denomina variación de entropía del universo.

Como el universo es un sistema aislado, utilizando el teorema de Clausius se tiene que, para el universo:

 

 

Donde el signo igual es aplicable para una transformación reversible y el signo menor que cuando dicha transformación es irreversible. A continuación se analiza cada caso por separado.

 

Transformación irreversible

 

En el siguiente diagrama p – V se ha representado un ciclo irreversible.

 

 

 

Está constituido por dos transformaciones: la AB (representada en verde en la figura), que es irreversible, y la BA (en rojo) que es reversible. Como el ciclo en su conjunto es irreversible, debemos aplicar el teorema de Clausius con el signo menor:

 

 

La integral de línea que aparece en la ecuación anterior puede ser descompuesta en la suma de las integrales evaluadas en cada etapa del ciclo, quedando:

 

 

Ya que la integral evaluada a lo largo del tramo reversible es precisamente la variación de entropía entre los estados B y A. Por tanto,

 

 

Expresión conocida como desigualdad de Clausius.

 

El significado físico de esta ecuación es que la variación de entropía entre dos estados cualesquiera será siempre mayor que la integral del calor intercambiado irreversiblemente entre los dos estados partido por la temperatura.

Como aplicación de esta expresión, la variación de entropía en la expansión libre de Joule ha de ser mayor que cero (como efectivamente lo es) ya que el calor intercambiado en esta transformación irreversible es cero.

Como el universo es un sistema aislado, cuando en el universo se produce una transformación cualquiera AB irreversible el calor intercambiado es cero, por lo que:

 

 

Es decir, la entropía del universo siempre crece para cualquier transformación irreversible que se produzca.

Transformación reversible

Cuando en el universo tiene lugar una transformación reversible, debemos tomar el signo igual:

 

Agrupando ambos resultados:

 

 

Esta afirmación constituye un nuevo enunciado del Segundo Principio:

La entropía es una función de estado que, evaluada para todo el universo, aumenta en una transformación irreversible y permanece constante en una transformación reversible.

 

La Fuente está en un trabajo sobre Termodinámica

¿La cuarta Dimensión? ¿No era el Tiempo?

$
0
0

El mundo en el que vivimos solo tiene tres dimensiones, pero podría haber más

 

                      La cuarta dimensión, por primera vez en un laboratorio

El periodista José Manuel Nieves explica cómo unos investigadores han observado la “sombra” tridimensional de un suceso que teóricamente tiene lugar en una cuarta dimensión

 

Resultado de imagen de tres dimensiones más el Tiempo

Izquierda y derecha, delante y atrás y arriba y abajo. Esas son, más el tiempo, las dimensiones en las que se enmarca nuestra existencia, al igual que la de todo el Universo en que vivimos. Pero cada vez son más los científicos que piensan que el nuestro no es un mundo con solo tres dimensiones.

Las matemáticas, en efecto, abren la puerta a una realidad con muchas más dimensiones de las que nos son habituales. Hasta once diferentes, si hacemos caso de la teoría de Cuerdas…

Sin necesidad de llegar tan lejos, toda una corriente de la física se inclina decididamente por la existencia de una cuarta dimensión espacial. Una que, por supuesto, nuestros sentidos no pueden percibir, pero cuyos efectos podrían ser detectados incluso en nuestro universo tridimensional.

Resultado de imagen de Dos equipos atisban la cuarta dimensión

             Podría estar aquí mismo esa cuarta dimensión pero… ¡No la podemos ver!

¿Como conseguir una proeza semejante? Dos equipos independientes de investigadores, uno en Suiza y otro en Estados Unidos, han hallado una solución al problema. Y han conseguido, cada uno por su lado, tener un atisbo de esa cuarta dimensión.

Imaginemos por un momento que somos criaturas planas, y que solo podemos percibir dos dimensiones. Sin el concepto «arriba y abajo» no podríamos ver, por ejemplo, un cubo. Sin embargo sí que podríamos ver la proyección, o sombra, bidimensional de ese objeto 3D, que sería un cuadrado. Un cuadrado en una superficie plana, como una hoja de papel, podría darnos alguna (aunque no toda) información sobre el cubo que la está proyectando.

Imaginemos ahora que también el propio cubo no es más que una proyección, o una sombra, tridimensional de un objeto de cuatro dimensiones. Un hipercubo que no podemos percibir en nuestro universo 3D, pero del que podemos atisbar algunas características.

Resultado de imagen de tres dimensiones más el Tiempo

Eso es, precisamente, lo que han hecho los investigadores en sus laboratorios a ambas orillas del Atlántico, observar la «sombra» tridimensional de un suceso que tiene lugar en la cuarta dimensión. Y lo han conseguido observando la manifestación de un efecto cuántico, el efecto Hall cuántico, del que las ecuaciones dicen que se manifiesta en la cuarta dimensión.

¿Complicado? Puede. Pero es lo más cerca que hemos llegado a estar, hasta ahora, de una dimensión superior a la nuestra.

De lo pequeño a lo grande y, conocer la Naturaleza…¡No será fácil!

$
0
0
Resultado de imagen de Te golpean en la nariz
“Una formulación muy hermosa que, creo, procede de América es la siguiente: alguien que ha golpeado a otro afirma que sólo ha movido sus puños libremente; el juez, sin embargo, replica: «La libertad de movimiento de tus puños está limitada por la nariz de tu vecino».

 

 

     Resultado de imagen de El Principio de Exclusión de Pauli

Resultado de imagen de El Principio de Exclusión de Pauli

 

 

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7º K) se formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un superátomo). efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

 

 

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

 

Una de las maravillas del Universo ¿Qué está pasando en el diminuto núcleo del átomo?

 

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuantica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.

Los bosones tienen un angular n h / 2p, donde n es cero o un entero y h es la constante de Planck.  bosonesidénticos, la función de ondas es siempre simétrica.  Si solo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermiones idénticos es siempre antisimétrica.

 

 

http://farm5.static.flickr.com/4140/4745204958_afd02b2486.jpg

 

 

La mejor teoría explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y ajustes ad-hoc, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas.

 

 

 

 

 

La relación el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. En un espacio de dos dimensiones es posible que existan partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones.  Estas partículas se conocen con el de aiones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1.  Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

 

 

 

 

Resulta  fácil comprender cómo  un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Particularmente creo que, si el neutrón masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Sea fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

 

 

 

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

 

¿Qué es el anti-neutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos. Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma que las partículas corrientes forman la materia ordinaria.

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un anti-deuterón. entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros anti-núcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

…, ¿Hay masas de antimateria en el Universo? ¿Galaxias de antimateria?

 

 

 

 

Bueno, sabemos que no son las galaxias las que se alejan, sino que es el espacio el que se expande. Lo que no sabemos es encontrar antimateria en el espacio interestelar y, si la hay y está presente… ¡Aún no la hemos podido localizar! Algunos dicen que hay galaxias de antimateria y, yo digo que tengo un pariente en la galaxia Astrinia del cúmulo Ultramón a diez mil millones de años-luz de nuestra región.

No parece que dichas observaciones, al menos hasta el , hayan sido un éxito.

 

 

http://upload.wikimedia.org/wikipedia/commons/b/b9/Cosmological_composition.jpg

 

 

Según estimaciones recientes, resumidas en gráfico de la NASA, alrededor del 70% del contenido energético del Universo consiste en energía oscura, cuya presencia se infiere en su efecto sobre la expansión del Universo pero sobre cuya naturaleza última no se sabe casi nada.

¿Es posible que el Universo este formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? dado que la materia y la antimateria son equivalentes en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaria la otra, y el Universo debería estar compuesta de iguales cantidades de la una y de la otra.

 

 

 

 

Este es el dilema.  La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los causares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros como el único mecanismo conocido para producir la energía requerida.

Estábamos hablando de mecánica cuántica y me pasé, sin que me diera , al ámbirto de la antimateria y el espacio del macro universo de las galaxias. Sin embargo, y aunque parezcan temas dispares, lo cierto es que, a medida que profundizamos en estas cuestiones, todas nos llevan, de una u otra manera,  a relacionar el “mundo de lo muy pequeño” con el “mundo” de lo muy grande que, al fín y al cabo, está hecho de lo que existe en el primero, es decir, partículas infinitesimales de materia y… ¡de antimateria! para que todo quede compensado.

 

 

 

Sus dimensiones y masa le permiten ¡lo imposible! para nosotros. La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos fuerza de Van der Vaalls. esta fuerza tiene un alcance muy corto. para ser más precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente proporcional a 1/r7. Esto significa  que si se reduce la distancia entre dos átomos a la mitad, la fuerza de Van der Vaalls con la que se atraen uno a otro se hace 2 x 2 x 2 x 2 x 2 x 2 x 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza.

La mecánica cuántica domina en el micromundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua. Se parece más a una ola de histeria que se expande: es una onda de información. Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.

Por el contrario, la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la formación de agujeros negros.

                                   La fuerza nuclear fuerte es la más potente del Universo

Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el espacio y distorsiona el tiempo.

Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.

Resultado de imagen de lOS LÍMITES DE LAS TEORÍAS CUÁNTICAS

¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son. En realidad, es la propia Naturaleza la que marca esos límites que Stoney-Planck, supieron plasmar en ecuaciones que los marcan.

Imagen relacionadaImagen relacionadaImagen relacionadaResultado de imagen de Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuánticaResultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSO

Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño.  La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 de centímetros, más joven que el tiempo de Planck,  10-43 segundos y supere la temperatura de Planck de 1032 grados.  Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.

En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”.  La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1.975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuiteria de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.

Resultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSOResultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSOResultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSOResultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSO

Siempre hemos tratado de buscar información del Universo para saber de nuestro entorno, de nuestro Sistema solar, de nuestra Galaxias, de las galaxias lejanas, y, de las mismas estrellas que alumbran los mundos y permite la vida con su luz y su calor. Hemos llegado a saber que somos “polvo de estrellas”, que los materiales que nos conforman están “fabricados” en sus “hornos nucleares”, la fusión crea elementos que, más tarde, forman parte de los mundos y de los seres vivos.

Resultado de imagen de lA VELOCIDAD DE LA LUZ EN EL VACÍO

La velocidad de la luz en el vacío es por definición una constante universal de valor 299.792.458 m/s(suele aproximarse a 3·108 m/s), o lo que es lo mismo 9,46·1015 m/año; la segunda cifra es la usada para definir al intervalo llamado año luz. La información se transmitirá a esa velocidad como máximo, nuestro Universo, no permite mayor rapidéz, al menos, por los métodos convencionales.

Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1.981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros.  Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos.

\ell_P =\sqrt\frac{\hbar G}{c^3} \approx 1.616 199 (97) \times 10^{-35} \mbox{ metros} (Longitud de Planck que al cuadrado sería de 10-66 cm2)

Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2.  Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.

                                        Stoney                                                                        Planck

No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas.  Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias.

Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón

    Ilustración de la variación de la constante. UNSW.

“Tras medir alfa en unas 300 galaxias lejanas, vimos un patrón constante: este número, que nos dice la fuerza del electromagnetismo, no es igual en otras partes que en la Tierra, y parecer variar de forma continua a lo largo de un eje”. Algunos se empeñan en variar la constante de estructura fina y, si eso llegara a producirse… las consecuencias serían funestas para nosotros. Otros estudios nos dicen que esa constante, no ha variado a lo largo de los miles de millones de años del Universo y, así debe ser, o, si varió, lo hizo en una escala ínfima.

α = 2πehc ≈ 1/137

αG = (Gmp2)/ hc ≈ 10-38

Si varÍan algunas de las dos en sólo una diezmillonésima, muchas de las cosas que conforman el Universo serían imposible y, la consecuencia sería, la ausencia de vida.  La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala.  La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

Resultado de imagen de EL NÚMERO ADIMENSIONAL 137

                   El número puro adimensional

“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”

Lederman

 

Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el producto de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e-), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).

Todo eso está relacionado: leyes fundamentales, constantes, materia y espacio tiempo… ¡nosotros! Es posible (digo posible), que finalmente no seámos ni tanto ni tan poco como a veces creemos. Dejémos en un término medio nuestra valía en el contexto del Universo, aunque, poder crear ideas y pensamientos… ¡No es cosa baladí!

emilio silvera

¿Será igual el Universo en todas partes?

$
0
0
Bueno, independientemente de las cosas que en una región particular pueda estar ocurriendo, en el contexto general, sí es igual el Universo en cualquier lugar que podamos mirar. Las mismas fuerzas y constantes, la misma materia, las mismas transiciones de fase y, seguramente también la misma vida, se repite una y otra vez a lo lo largo y a lo ancho de todo el Universo.
En lo referente a la vida, (creo) será diversa como aquí en la Tierra y, seguramente, independientemente de las formas que pueda adoptar, estará basada en el Carbono, parece lo más probable aunque nunca se sabe.

Imagen relacionada

La vieron caer y corrieron hasta el lugar. La escena era la que se podía esperar después de la caída de una nave en plena montaña. Los pocos testigos que por el lugar estaban, llamaron a las autoridades que enviaron, de inmediato, a personal especializado en este tipo de investigaciones.¡

“Mira, un trazo de la nave caída, ¿de qué materiales estará hecha? Nunca he visto algo así! ¿De dónde vendrán estos seres, de qué estará conformado su mundo? Esto preguntaba uno de los investigadores al otro que con él recogía muestras de aquella extraña nave accidentada y que, según el seguimiento hecho en su acercamiento a la Tierra, venía de más allá de los confines del Sistema Solar y, quién sabe de dónde pudieron partir. Sin embargo, el material que recogían, debería ser el mismo que está repartido por todo el Universo.

Lo único que puede diferir, es la forma en que se utilice, el tratamiento que se le pueda dar, y, sobre todo el poseer el conocimiento y la tecnología necesarios para poder obtener, el máximo resultado de las propiedades que dicha materia encierra. Porque, en última instancia ¿es en verdad inerte la materia?

Tiene y encierra tantos misterios la materia que estamos aún y años-luz de saber y conocer sobre su verdadera naturaleza. Nos podríamos preguntar miles de cosas que no sabríamos contestar.  Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos pero que tampoco sabemos, en realidad, a que son debidos.  Si, sabemos ponerles etiquetas como, por ejemplo, la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio y, con mayor frecuencia, en los elementos que conocemos como transuránidos.

A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta.  En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de ruptura, sobre pasando a la emisión de partículas alfa.

            ¡Parece que la materia está viva!

Son muchas las cosas que desconocemos y, nuestra curiosidad nos empuja continuamente a buscar esas respuestas. El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o antineutrón), y, por lo tanto, han sido denominados leptones (de la voz griega lentos, que significa “delgado”).

Aunque el electrón fue descubierto en 1.897 por el físico británico Josepth John Thomson (1856-1940), el problema de su estructura, si la hay, no está resuelto.  Conocemos su masa y su carga negativa que responden a 9,1093897 (54)x10-31kg la primera y, 1,602 177 33 (49)x10-19 culombios, la segunda, y también su radio clásico:  no se ha descubierto aún ninguna partícula que sea menos cursiva que el electrón (o positrón) y que lleve  una carga eléctrica, sea lo que fuese (sabemos como actúa y cómo medir sus propiedades, pero aun no sabemos qué es), tenga asociada un mínimo de masa, y que esta es la que se muestra en el electrón.

Lo cierto es que, el electrón, es una maravilla en sí mismo.  El Universo no sería como lo conocemos si el electrón (esa cosita “insignificante”), fuese distinto a como es, bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora para poder construir conjuntos tan bellos como el que abajo podemos admirar.

                                  ¡No por pequeño, se es insignificante! De todas las maneras, las medidas dependen del contexto en el que se estén midiendo. El conjunto de la imagen de arriba nos parecerá grande pero, ¿cómo de grande es si lo comparamos con la Galaxia?

Recordémoslo, todo lo grande está hecho de cosas pequeñas. En realidad, existen partículas que no tienen en absoluto asociada en ellas ninguna masa (es decir, ninguna masa en reposo).  Por ejemplo, las ondas de luz y otras formas de radiación electromagnéticas se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones. Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda se denomina fotón, de la palabra griega que significa “luz”.

Resultado de imagen de Tiene masa el fotón

      No pocas veces nos hemos preguntado: “¿Cómo puede tener energía los fotones si no tienen masa?

Resultado de imagen de el fotón

“Es la partícula portadora de todas las formas de radiación electromagnética, incluyendo a los rayos gamma, los rayos X, la luz ultravioleta, la luz visible, la luz infrarroja, las microondas, y las ondas de radio. El fotón tiene masa cero y viaja en el vacío con una velocidad constante c.”

“El fotón tiene una masa cero, una carga eléctrica de o, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín).  La única forma que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este termino se reserva para la familia formada por el electrón, el muón y la partícula Tau con sus correspondientes neutrinos: Ve, Vu y VT.”

Resultado de imagen de Colapso gravitatorio de dos estrellas de neutrones

Existen razones teóricas para suponer que, cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitacionales.  Esas ondas pueden así mismo poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.

La fuerza gravitatoria es mucho, mucho más débil que la fuerza electromagnética.  Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón y, por tanto, ha de ser inimaginablemente difícil de detectar.

De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón.  Llegó a emplear un par de cilindros de aluminio de 153 cm. De longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío.  Los gravitones (que serían detectados en forma de ondas), desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegare a captar la cienmillonésima parte de un centímetro.

Las débiles ondas de los gravitones, que producen del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea.  En 1.969, Weber anunció haber detectado los efectos de las ondas gravitatorias.  Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general).  Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaran el hallazgo de Weber.

De todas formas, no creo que, a estas alturas, nadie pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria.  La masa del gravitón es o, su carga es o, y su espín de 2.  Como el fotón, no tiene antipartícula, ellos mismos hacen las dos versiones.

Tenemos que volver a los que posiblemente son los objetos más misteriosos de nuestro Universo: Los agujeros negros.  Si estos objetos son lo que se dice (no parece que se pueda objetar nada en contrario), seguramente serán ellos los que, finalmente, nos faciliten las respuestas sobre las ondas gravitacionales y el esquivo gravitón.

La onda gravitacional emitida por el agujero negro produce una ondulación en la curvatura del espacio-temporal que viaja a la velocidad de la luz transportada por los gravitones.

Hay aspectos de la física que me dejan totalmente sin habla, me obligan a pensar y me transporta de este mundo material nuestro a otro fascinante donde residen las maravillas del Universo.  Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler,  es la escala de longitud por debajo de la cual el espacio tal como lo conocemos deja de existir y se convierte en espuma cuántica.  El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2) juega un papel clave en la entropíade un agujero negro.

Me llama poderosamente la atención lo que conocemos como las fluctuaciones de vacío, esas oscilaciones aleatorias, impredecibles e ineliminables de un campo (electromagnético o gravitatorio), que son debidas a un tira y afloja en el que pequeñas regiones del espacio toman prestada momentáneamente energía de regiones adyacentes y luego la devuelven.

       Andamos a la caza del vacío, del gravitón, de las ondas gravitatorias…

Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas.  En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se puede obtener, ya que todos los materiales que rodean ese espacio tienen una presión de vapor finita.  En un bajo vacío, la presión se reduce hasta 10-2 pascales, mientras que un alto vacío tiene una presión de 10-2-10-7 pascales.  Por debajo de 10-7 pascales se conoce como un vacío ultraalto.

De ese “vacío” nos queda muchísimo por aprender. Al parecer, todos los indicios nos dicen que está abarrotado de cosas, y, si es así, no es lo que podemos llamar con propiedad vacío, ese extraño lugar es otra cosa, pero, ¿qué cosa es?

Antes se denominaba éter fluminígero (creo) a toda esa inmensa región. Más tarde, nuevas teorías vinieron  a desechar su existencia. Pasó el tiempo y llegaron nuevas ideas y nuevos modelos, y, se llegó a la conclusión de que el Universo entero estaba permeado por “algo” que algunos llamaron los océanos de Higgs. Ahí, se tiene la esperanza de encontrar al esquivo Bosón (que dicen haber hallado pero que yo, no estoy muy seguro de que así sea) que le da la masa a las demás partículas, y, el LHC del CERN, es el encargado de la búsqueda para que el Modelo Estándar de la Física de Partículas se afiance más.

Andamos un poco a ciega, la niebla de nuestra ignorancia nos hace caminar alargando la mano para evitar darnos un mamporro. Pero a pesar de todo, seguimos adelante y, es más la fuerza que nos empuja, la curiosidad que nos aliente que, los posibles peligros que tales aventuras puedan conllevar.

Está claro que, dentro del Universo, existen “rincones” en los que no podemos sospechar las maravillas que esconden, ni nuestra avezada imaginación, puede hacerse una idea firme de lo que allí pueda existir. Incansables seguimos la búsqueda, a cada nuevo descubrimiento nuestro corazón se acelera, nuestra curiosidad aumenta, nuestras ganas de seguir avanzando van creciendo y, no pocas veces, el físico que, apasionado está inmerso en uno de esos trabajos de búsqueda e investigación, pasa las horas sin sentir el paso del tiempo, ni como ni duerme y su mente, sólo tiene puesto los sentidos en ese final soñado en el que, al fín, aparece el tesoro perseguido que, en la mayor parte de las veces, es una nueva partícula, un parámetro hasta ahora desconocido en los comportamientos de la materia, un nuevo principio, o, en definitiva, un nuevo descubrimiento que nos llevará un poco más lejos.

Encontrar nuevas respuestas no dará la opción de plantear nuevas preguntas.

emilio silvera

¡La Luz! ¡La Mecánica Cuántica! Nuestro Universo

$
0
0

El universo primitivo, en una espectacular imagen en 3D


                      Cuando en nuestro Universo quedaron libres los fotones… ¡Se hizo la Luz!

En alguna parte he podido leer que para comprender la realidad en sus niveles más elementales, basta con conocer el comportamiento de dos infinitesimales objetos: el electrón y el fotón. Todo el argumento de la QED [electrodinámica cuántica] gira en torno a un proceso fundamental: la emisión de un único fotón por un único electrón.

Cuando el movimiento de un electrón es alterado súbitamente, puede responder desprendiendo un fotón. La emisión de un fotón es el suceso básico de la mecánica cuántica:

Resultado de imagen de Electrones en movimiento dentro del átomo

 Un equipo de científicos lograron filmar por primera vez un electrón en movimiento gracias a una tecnología reciente que genera pulsos cortos e intensos de luz láser.

Resultado de imagen de emisión de fotonesResultado de imagen de emisión de fotones

Toda la luz visible que vemos, así como las ondas de radio, la radiación infrarroja y los rayos X, está compuesta de fotones que han sido emitidos por electrones, ya sea en el Sol, el filamento de una bombilla, una antena de radio o un aparato de rayos.

Los electrones no son las únicas partículas que pueden emitir fotones. Cualquier partícula eléctricamente cargada puede hacerlo, incluido el protón. Esto significa que los fotones pueden saltar entre dos protones o incluso entre un protón y un electrón. Este hecho es de enorme importancia para toda la ciencia y la vida en general. El intercambio continuo de fotonesentre el núcleo y los electrones atómicos proporciona la fuerza que mantiene unido al átomo. Sin estos fotones saltarines, el átomo se desharía y toda la materia dejaría de existir.

Foto

Se ha conseguido observar por primera vez la desintegración radiativa del neutrón.
Dentro de los núcleos de los átomos hay neutrones y protones. En condiciones normales y mientras que están ahí los neutrones son estables. Sin embargo los neutrones libres son inestables, tienen una vida media de unos 10 minutos, y se desintegran produciendo un protón un electrón y un antineutrino. Pero los físicos nucleares teóricos predijeron que una de cada mil veces los neutrones decaerían en todas esas partículas y además en un fotón.

Foto

Típicamente el neutrón decae en un protón, un antineutrino y un electrón. Muy raramente lo hace radiativamente emitiendo además un fotón. Diagrama: Zina Deretsky, National Science Foundation.

Mientras que un electrón pertenece al grupo de partículas llamadas fermiones, los fotones pertenecen a la familia de los bosones. Intentemos comprender esta película que es la intermediaria de todas las formas de radiación electromagnética.

…protagonizada por bosones

Los fermiones hacen posible la materia “al estilo tradicional”, mientras que los bosones son elementos muy raros desde la forma de pensar a que estamos acostumbrados el común de los mortales. Para no complicarnos, la tabla periódica de elementos existe porque los fermiones no pueden “ser iguales”: no pueden solaparse uno sobre otro y se repelen si los obligamos. Es lo que damos por hecho cuando hablamos de materia, que cada pedazo de ésta ocupa su lugar y tiene sus propias cualidades.

Toda la materia que conocemos, la que forma las estrellas y los mundos y las galaxias, esa que llamamos luminosa o bariónica, la que emite radiación, está hecha de Leptones y Quarks, partículas que son Fermiones, y, esas otras partículas intermediarias de las cuatro fuerzas fundamentales, son las que pertenecen a la familia de los Bosones, tales como el Fotón, las W+, W- y Zº, los Gluones y el Gravitón.

Los bosones carecen de este sentido de la individualidad que tienen los Fermiones, digamos que poseen “alma grupal” y, en su estado más puro, todos forman una misma “súperpartícula”.

Para entenderlo mejor, conviene recordar que las partículas no son bolitas como nos siguen enseñando en la escuela, sino que más allá de esta imagen existen como ondas o, al menos, sus funciones se equiparan al comportamiento de una onda.

En la década de 1920, Albert Einstein y el hindú Satyendra Nath Bose pronosticaron un quinto estado de la materia: el condensado de Bose-Einstein (BEC), el cual fue conseguido en laboratorio en 1995, algo que le valió el premio Nobel de 2001 a los científicos que lo lograron.

Un condensado de Bose-Einstein es un estado de la materia que se da en ciertos materiales a muy baja temperatura. En este estado de la materia, todos los átomos que lo constituyen se encuentran en el nivel de mínima energía, denominado estado fundamental. Descubierto en 1924 para los fotones por el indio Bose y por Einstein, no fue obtenido en laboratorio hasta 1995 por Cornell y Wieman al enfriar átomos a pocos nanokelvin por encima del cero absoluto. El condensado de Bose-Einstein fue la “molécula del año” según la revista Science en 1995 ya que se trata de un sistema cuántico macroscópico similar a una molécula pero con millones de átomos. Un átomo en un gas se mueve a una velocidad de unos unos 1000 km/h (unos 300 m/s) pero un condensado de Bose-Einstein se mueve a sólo 1 cm/s. Un condensado de Bose-Einstein es respecto a la materia ordinaria, como la luz de un láser es respecto a la de una bombilla. Gracias a ello se puede fabricar un láser de átomos, que en lugar de producir un haz de luz como un láser óptico, produce un haz (coherente) de átomos. En 1997 Ketterle fabricó el primer láser de átomos que producía un haz de átomos de sodio.

Resultado de imagen de el primer láser un haz de átomos de sodio

Cuando ciertas formas de materia [bosones] se enfrían hasta casi el cero absoluto, sus átomos se ponen en el estado de energía más baja, de modo que todos sus átomos vibran al unísono y se hacen coherentes. Las funciones de onda de todos los átomos se solapan, de manera que, en cierto sentido, un BEC [condensado de Bose-Einstein] es como un “superátomo” gigante en donde todos los átomos individuales vibran al unísono.

Al enfriar los átomos, su velocidad disminuye hasta que las longitudes de onda de cada uno de ellos se vuelven casi planas, superponiéndose unas a otras para formar una única onda que los describe a todos.

Así que un BEC se forma cuando los átomos en un gas sufren la transición de comportarse como “bolas de billar” al estilo de la física clásica, a comportarse como una onda gigante de materia al estilo de mecánica cuántica:

Si creamos dos BECs y los colocamos juntos, no se mezclan como gases ordinarios ni rebotan como lo harían dos sólidos. Donde los dos BECs se superponen, ellos “interfieren” como las ondas: delgadas capas paralelas de materia son separadas por capas delgadas de espacio vacío. El patrón se forma porque las dos ondas se suman donde sus crestas coinciden, y se cancelan donde una cresta se encuentra con un valle — a lo cual llamamos interferencia “constructiva” y “destructiva” respectivamente. El efecto es similar al de dos ondas que se superponen cuando dos piedras son lanzadas a un lago.


…ambientada en el vacío…

Y ahora, retrocedamos un poco más en este asunto del misterio que nos ocupa. Gracias a la tecnología láser, la física ha podido comprobar el extremo poder de la luz. Los láseres pueden hacer que las partículas virtuales se vuelvan reales. Pero, primero, aclaremos conceptos…

Las “Partículas virtuales”son partículas fundamentales que están constantemente surgiendo aparentemente de la nada y permanecen en el espacio-tiempo la friolera de una milésima de trillonésima de segundo –una cantidad que se forma poniendo una veintena de ceros a la derecha de la coma—. A pesar de denominarse “virtuales”, sus efectos son muy reales: la constante agitación de este burbujeo cuántico de partículas hace que el vacío tenga energía. Y esto es algo que afecta a la realidad, pues en ésta las fuerzas de atracción y repulsión dependen de la masa, y la masa no es sino energía expresada en unidades diferentes: E=mc².

Resultado de imagen de representación de partículas virtuales

Partículas virtuales que surgen de la NADA. Claro que, surgieron,¡es porque había! La Nada no existe.!

En el uso corriente la palabra vacío significa espacio vacío, espacio del que se ha extraído todo el aire, vapor de agua u otro material. Eso es también lo que significa para un físico experimental que trabaja con tubos de vacío y bombas de vacío. Pero para un físico teórico, el término vacío tiene muchas más connotaciones. Significa una especie de fondo en el que tiene lugar el resto de la física. El vacío representa un potencial para todas las cosas que pueden suceder en ese fondo. Significa una lista de todas las partículas elementales tanto como de las constantes de la Naturaleza que se pondrían de manifiesto mediante experimentos en dicho vacío. En resumen, significa un ambiente en el que las leyes de la física toman una forma particular. Un vacío diferente significa leyes de la física diferentes; cada punto en el paisaje representa un conjunto de leyes que son, con toda probabilidad, muy diferentes de las nuestras pero que son, en cualquier caso, posibilidades consistentes. El modelo estándar es meramente un punto en el paisaje de posibilidades.


La energía del vacío es, por tanto, la suma total de las energías de todas las partículas posibles. Es la llamada “energía oscura” que hace que el universo se expanda, haciendo frente a la atracción de la gravedad, y que proporciona alrededor del 80% de la materia-energía al universo –un 26% es “materia oscura”, y sólo un 4% es la materia conocida hasta el momento—.

Pero, ¿cómo una partícula virtual se convierte en real? Es decir, ¿cómo queda “atrapada” en el espacio-tiempo de forma más estable?

¡Los fotones de Yang-Mills adquieren su masa y el principio gauge se sigue cumpliendo! Al principio esta visión no mereció la atención que merecía. Por una parte, la gente pensó que el modelo era feo. El principio gauge estaba ahí, pero ya no era el tema central. El “Campo de Higgs había sido puesto ahí “a propósito” y la “partícula de Higgs, en sí misma, no era una “partícula gauge

La Teoría de la Sipersimetría establece que, por cada partícula de materia, nace una gemela de antimateria. La antimateria es igual que la materia, pero con carga opuesta. Por ejemplo, el electrón tiene carga negativa, y su partícula de antimateria, el positrón, positiva. Materia y antimateria se aniquilan mutuamente pero, por algún motivo aún no aclarado, la simetría se rompió en algún momento, surgiendo más materia que antimateria, de ahí que nuestro universo, materia, pueda existir.

Pero hay algo más en todo esto. Y para ello, la luz es la clave.

Controlar los estados cuánticos macroscópicos de osciladores micromecánicos no es fácil; hacerlo con luz (fotones) requiere el acoplamiento coherente entre …

Una de los modelos teóricos elaborados para superar la visión de la gravedad de Einstein indica que los fotones de los rayos gamma de alta energía viajarían algo más despacio que los de baja energía, lo que viola el axioma del sabio alemán acerca de que toda radiación electromagnética, desde las ondas radio hasta los rayos gamma, viajan en el vacío a la misma velocidad (la de la luz). Sin embargo, no ha sido verificado mediante experimento, con lo cual, Einstein sigue teniendo razón.

 protagonizada por la “luz” como la propia …

Ya en los años 30, los físicos predijeron que un campo eléctrico muy fuerte, que no es sino un espacio alterado por la actividad de un montón de fotones coordinados, podría impulsar a las partículas virtuales con carga opuesta en diferentes direcciones, impidiendo que la materia y la antimateria se aniquilen.

Según el efecto de creación de pares,   un fotón con energía suficiente, lo que equivale a tener el doble de la energía que posee un electrón en reposo, da lugar a una pareja de electrón y positrón.

Aunque esto ya se consiguió en los años 90 a pequeña escala, gracias al desarrollo de la tecnología láser los científicos creen que estarán cerca de conseguir crear materia “en serie” mediante este proceso en unos pocos años.

Sabemos desde 1932, que un fotón gama con suficiente energía, puede formar un par de antipartículas, al interactuar con un átomo masivo, como el plomo. Pero el problema no termina, sino que, el electrón formado por un rayo gama, no interactúa con este tipo de fotón (gama), sino uno de luz visible,

Por otra parte, una vez que existen las partículas, los fotones interactúan sin cesar con ellas, siendo absorbidos y emitidos por las mismas de manera ininterrumpida.

Y de ello nace el movimiento gracias al cual todo existe en el espacio-tiempo. Sin movimiento, nuestra realidad desaparecería.

La carencia de masa de un fotón está ligada a su movimiento. Para que un cuerpo alcance la velocidad de la luz, su masa ha de ser cero. Y, como Einstein explicó en su día, la luz se mueve siempre a la velocidad de la luz. Si pretendemos que un fotónse pare, en lugar de ralentizarse observaremos que desaparece. Y, como se ha dicho al principio, si estos “fotones saltarines”  desaparecieran, toda la materia dejaría de existir.

Su esencia es el movimiento y su misión, según parece, hacer girar la rueda de la existencia.

Ello es así debido al impacto de los fotones sobre las partículas elementales. La energía transmitida por un fotón es inversamente proporcional a su longitud de onda. Cuanto menos longitud de onda, más energía. Así, un fotón de luz visible tiene la energía suficiente para hacer reaccionar a un bastón de la retina. Si nos movemos en el espectro electromagnético, los fotones con longitud de onda ultravioleta pueden expulsar a los electrones de los átomos. Más allá, los rayos gamma pueden romper protones y neutrones

Y ahora, vayamos al meollo de la cuestión e indaguemos en la cita con que se iniciaba este artículo: ¿qué hace que los electrones absorban y emitan fotones? Esto, en otros términos, vendría a ser lo mismo que preguntarnos: ¿por qué existe nuestro universo?

…con un misterio: el 137…

¿Qué determina el momento exacto en que un electrón emite un fotón? La física cuántica dice que nada lo hace, pues la Naturaleza es caprichosa en sus niveles más elementales. Aunque no es caótica en extremo, sólo probabilística.

A diferencia de la física newtoniana, la mecánica cuántica nunca predice el futuro en función del pasado. En su lugar, ofrece reglas muy precisas para computar la probabilidad de varios resultados alternativos de un experimento.

Y la probabilidad de que un electrón emita o absorba un fotón es la constante de estructura fina. El valor de esa constante es 1/137.

En otras palabras, sólo un afortunado electrón de cada 137 emite un fotón. Este es el significado de alfa: es la probabilidad de que un electrón, cuando se mueve a lo largo de su trayectoria, emita caprichosamente un fotón.

El inverso de la constante de estructura fina es 137. Desde su descubrimiento, éste número ha traído de cabeza a los grandes científicos.

   \alpha^{-1} =   137.035 999 710 (96)

 

No puedo recordar si fue  Richard Feynman o León Lederman, quien sugirió que todos los físicos pusiesen un cartel en sus despachos o en sus casas que les recordara cuánto es lo que no sabemos. En el cartel no pondría nada más que esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina. Este número guarda relación con la probabilidad de que un electrón emita o absorba un fotón. La constante de estructura fina responde también al nombre de alfa, y sale de dividir el cuadrado de la carga del electrón por el producto de la velocidad de la luz y la constante de Planck. Tanta palabra no significa otra cosa sino que ese solo número, 137, encierra los meollos del electromagnetismo (el electrón), la relatividad (la velocidad de la luz) y la teoría cuántica (la constante de Planck). Menos perturbador sería que la relación entre todos estos importantes conceptos hubiera resultado ser un uno o un tres o quizás un múltiplo de pi. Pero ¿137?

… es un número que determina la fuerza de una interacción) y equivale a 1/137,03599911.

“Lo más notable de este notable número es su adimensionalidad. La velocidad de la luz es de unos 300.000 kilómetros por segundo. Abraham Lincoln medía 1,98 metros. La mayoría de los números vienen con dimensiones. Pero resulta que cuando uno combina las magnitudes que componen alfa, ¡se borran todas las unidades! El 137 está solo: se exhibe desnudo a donde va. Esto quiere decir que a los científicos de Marte, o a los del decimocuarto planeta de la estrella Sirio, aunque usen Dios sabe qué unidades para la carga y la velocidad y qué versión de la constante de Planck, también les saldrá 137. Es un número puro.”

 

(Leon Lederman, La partícula divina)

Resultado de imagen de Wolfgang Pauli

Uno de los padres de la mecánica cuántica, Wolfgang Pauli, se obsesionó tanto con este número que dijo que, de poder hacerle una pregunta a Dios, sería esta: “¿Por qué 137?”

Gracias a su gran amistad con Carl G. Jung, Pauli conoció el mundo “alternativo” de los estudios sobre la psique y accedió a la tradición esotérica que ha acompañado al hombre desde el principio de los tiempos. Es así como supo que 137 se aproxima al valor correspondiente al ángulo áureo. Esto es, la versión circular del número áureo  o φ (phi).

     Sin fotones… ¡El Universo sería inestable, sería otro universo diferente!

En realidad, el ángulo de oro es, más o menos, 137,5º, y está presente en todo proceso natural donde se dé una combinación de espirales. Así, por ejemplo, las hojas de una planta surgen a lo largo del tallo cada 137,5º, pues así se logra la mayor eficiencia de espacio y de captación de la luz solar, ya que únicamente con éste ángulo es posible evitar que ninguna hoja obstaculice a las demás en la toma de luz sin que existan espacios muertos o vacíos.

Esta semejanza entre los valores de la constante de estructura fina y el ángulo áureo llevó a la doctora Raji Heyrovska  a buscar el ángulo áureo en el universo atómico (véase versión en español de su estudio).

Que esto sea así no debería extrañarnos, pues si el número áureo es una constante en toda la Naturaleza, su versión angular es la apropiada para estar presente en el universo cuántico, donde, recordemos, los elementos básicos de la realidad se reducen a funciones de onda.

…y un final místico.

Los fotones no tienen masa ni carga eléctrica. Sin embargo, pueden “extraer” del vacío partículas con masa y carga, tanto negativa como positiva.

Más allá de la materia y la energía, del tiempo y del espacio, el concepto de función de onda nos introduce en una realidad abstracta de donde surge todo.Y si, como hemos dicho, a menor longitud de onda mayor energía, también es posible afirmar que, en eso que David Bohm llamaba “orden implicado”, cuanto menor es la longitud de una onda cuántica, mayor es la presencia de masa en el espacio-tiempo.

Para la física, las matemáticas se han mostrado como la realidad que subyace a la materia. Todo se puede reducir a números, entidades que forman y organizan el espacio-tiempo. En este nivel de realidad, ni la materia ni la energía existen como tales, sino que demuestran ser el resultado de la interacción de entidades abstractas.

En esta pasión por los números, no podemos evitar recordar la versión cabalística de la filosofía perenne. Para la Kabbalah, lo divino responde a la “Nada”, ya que lo trascendente no puede ser aprehendido desde nuestra posición en el mundo finito.

En el momento de la Creación, la luz infinita se habría divido, quedando encerrada en conductos que, al romperse, producen la materia y, en definitiva, la fractura de la unidad primordial de la luz.

Esta materia o qelippot, en el sentido de “conchas” o caparazones que “encierran” la luz y rompen la armonía unitaria de la luz, es el origen del mundo, de su finitud y causa del mal en la realidad no-divina. El mundo creado es así una fractura de la harmonía de la luz que crea la diferenciación y la tensión entre unas cosas y otras: este es el origen del mal, de la falta de armonía que debe recuperarse en el curso de la historia.

Resultado de imagen de La Kabbalah enseña y nos lleva al espíritu

¡Qué a estas alturas de la vida, existan personas,  que estén inmersos en estas patrañas! No lo entenderé nunca-


La Kabbalah enseña, según esto, el camino para desarrollar la Vasija interior donde recibir la Luz, la cual, según va llenando dicha vasija, nos acerca a la unidad del Espíritu. Es así que la Luz, al tiempo que “absorbida” por el alma, puede ser “proyectada” en el mundo mediante los actos del hombre trascendido.

Que la luz ha sido usada por todos los movimientos espirituales para referirse a lo divino es algo que a nadie se le escapa. La imagen que la Kabbalah ofrece aquí no es muy diferente de la que podríamos encontrar en textos rosacruces o en escritos orientales, entre otros.

Sin embargo, si esta vez he preferido usar el hermetismo hebreo es, como he mencionado, por su pasión hacia los números. Y es que el valor numérico para el término hebreo de “kabbalah” (cuya traducción es “recepción”) es…

como muchos ya sabrán…

Efectivamente…

137.

Resultado de imagen de Implicaciones del número 137 en el funcionamiento del universo

Ciencia y tradición hermética unidas por un número que, en ambas, define la interacción entre luz y materia.

Cosas…

Luz que, también en ambos casos, procede de la Nada.

Decía Jung que el espacio y el tiempo son conceptos hipostasiados, fenómenos que hemos decidido convertir en reales. La física teórica y la consolidación de la mecánica cuántica han dejado claro, a lo largo de las últimas décadas, que toda esta realidad por la que combatimos, matamos, morimos, odiamos, repudiamos, humillamos, codiciamos, envidiamos o ansiamos consiste, simplemente, en Nada.

Nada…

Resultado de imagen de Ilusión de la psiqueResultado de imagen de Ilusión de la psique

Una ilusión de la psique por la que renunciamos a indagar en el misterio de la Vida y nuestra experiencia momentánea en el espacio-tiempo se convierte en un vagar ausentes, asumiendo que todo es un sinsentido que está inmerso en el Tiempo.

A veces, en momentos de bajón, me pregunto si no será por eso por lo que, casi cien años después, nos siguen diciendo que la física cuántica es muy complicada para que lleguemos a entenderla…

Lo más triste, sin embargo, es que lo aceptamos…

Todo esto lo he leído o aprendido de gente que son más sabias que yo, ideas que tienen sus fuentes en trabajos realizados con la misión y el propósito de desvelar los secretos de la Naturaleza para saber, como es el Universo.

Lo conseguiremos alguna ve?

emilio silvera

Causalidad ¡Ese Principio!

$
0
0

Todo lo que pasa es causa de lo que antes pasó.  Y, ese Principio de la Física de la Causalidad, no está sólo allí presente, y, es tan cierto que, hasta en los Códigos legales se recogen sus esencias:En el art. 901 del CC, podemos leer: “Un efecto es adecuado a su causa cuando “acostumbra a suceder según el curso natural y ordinario de las cosas” . Como es natural, se refiere al efecto de las condiciones iniciales que marcarán las finales.
      También aquí, está presente la causalidad
En física existe un Principio que llaman !Causalidad! y en virtud del cual el efecto no puede preceder a la causa. Es muy útil cuando se conbina con el principio de que la máxima velocidad del universo es la velocidad de la luz en el vacío. Lo cierto es que, todo lo que ocurre es causa de algo que antes sucedió. Contaremos algunas cosas que tuvieron sus consecuencias.
En 1.893 el físico irlandés George Francis Fitzgerald emitió una hipótesis para explicar los resultados negativos del experimento conocido de Michelson-Morley. Adujo que toda la materia se contrae en la dirección del movimiento, y que esa contracción es directamente proporcional al ritmo (velocidad) del movimiento.

Según tal interpretación, el interferómetro se quedaba corto en la dirección del “verdadero” movimiento terrestre, y lo hacía precisamente en una cantidad que compensaba con toda exactitud la diferencia de distancias que debería recorrer el rayo luminoso. Por añadidura, todos los aparatos medidores imaginables, incluyendo los órganos sensoriales humanos, experimentarían ese mismo fenómeno.

 

                       Esquema de un interferómetro de Michelson.

 

Visualización de los anillos de interferencia.

Parecía como si la explicación de Fitzgerald insinuara que la naturaleza conspiraba con objeto de impedir que el hombre midiera el movimiento absoluto, para lo cual introducía un efecto que anulaba cualquier diferencia aprovechable para detectar dicho movimiento.

Este asombroso fenómeno recibió el nombre de contracción de Fitzgerald, y su autor formuló una ecuación para el mismo, que referido a la contracción de un cuerpo móvil, fue predicha igualmente y de manera independiente por H. A. Lorentz (1.853 – 1.928) de manera que, finalmente, se quedaron unidos como contracción de Lorentz-Fitzgerald.

A la contracción, Einstein le dio un marco teórico en la teoría especial de la relatividad. En esta teoría, un objeto de longitud l0 en reposo en un sistema de referencia parecerá, para un observador en otro sistema de referencia que se mueve con velocidad relativa v con respecto al primero, tener longitud contraccion_l-f, donde c es la velocidad de la luz. La hipótesis original atribuía esta contracción a una contracción real que acompaña al movimiento absoluto del cuerpo. La contracción es en cualquier caso despreciable a no ser que v sea del mismo orden o cercana a c.

Un objeto que se moviera a 11,2 Km/s (la velocidad de escape de nuestro planeta) experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería sustancial. A unos 150.000 Km/s (la mitad de la velocidad de la luz) sería del 15%; a 262.000 Km/s (7/8 de la velocidad de la luz), del 50%. Es decir, que una regla de 30 cm que pasara ante nuestra vista a 262.000 Km/s nos parecería que mide sólo 15’24 cm, siempre y cuando conociéramos alguna manera para medir su longitud en pleno vuelo. Y a la velocidad de la luz, es decir, 300.000 Km/s en números redondos, su longitud en la dirección del movimiento sería cero. Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse el universo.

El físico holandés Henrik Antón Lorentz, como hemos dicho, promovió esta idea pensando en los rayos catódicos (que ocupaban su actividad por aquellas fechas). Se hizo el siguiente razonamiento: si se comprimiera la carga de una partícula para reducir su volumen, aumentaría su masa. Por consiguiente, una partícula voladora, escorzada en la dirección de su desplazamiento por la contracción de Fitzgerald, debería crecer en términos de masa. Lorentz presentó una ecuación sobre el acrecentamiento de la masa, que resultó muy similar a la ecuación de Fitzgerald sobre el acortamiento. A 149.637 Km/s la masa de un electrón aumentaría en un 15%; a 262.000 Km/s, en un 100% (es decir, la masa se duplicaría); y a la velocidad de la luz, su masa sería infinita. Una vez más pareció que no podría haber ninguna velocidad superior a la de la luz, pues, ¿cómo podría ser una masa mayor que infinita?

El efecto Fitzgerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una conexión tan estrecha que aparecieron a menudo agrupadas como las ecuaciones Lorentz-Fitzgerald.

Mientras que la contracción Fitzgerald no podía ser objeto de mediciones, el efecto Lorentz sobre masas sí podía serlo, aunque indirectamente. De hecho, el muón tomó 10 veces su masa original cuando fue lanzado, a velocidades relativistas, en el acelerador de partículas, lo que confirmó la ecuación de Lorentz. Los experimentos posteriores han confirmado las ecuaciones de ambos: a velocidades relativistas, las longitudes se contraen y las masas se incrementan.

Como es conocido por todos, Einstein adoptó estos descubrimientos y los incorporó a su teoría de la relatividad especial, que aunque mucho más amplia, recoge la contracción de Fitzgerald y el aumento de la masa de Lorentz cuando se alcanzan grandes velocidades.

Algunas veces pienso que los artistas en general, y los poetas en particular, tendrían que adaptar e incluir en sus esquemas artísticos y poéticos los adelantos científicos, para asimilarlos en las diversas expresiones y sentimientos que serán después puestos al servicio del consumo humano. Estos adelantos científicos serían así coloreados con las pasiones humanas, y transformados, de alguna forma, en la sangre, y por qué no, los sentimientos de la naturaleza humana. Posiblemente, de haberlo hecho, el grado general de conocimiento sería mayor. De todas las maneras, no dejamos de avanzar en el conocimiento de la Naturaleza.

Hacemos mil y un inventos para poder llegar a lugares que, hasta hace muy poco tiempo se pensaba que nos estaban vedados. Y, a pesar de ello, la cultura científica, en general es pobre. Sólo uno de cada tres puede definir una molécula o nombrar a un solo científico vivo. De veinticinco licenciados escogidos al azar en la ceremonia de graduación de Harvard, sólo dos pudieron explicar por qué hace más calor en verano que en invierno. La respuesta, dicho sea de paso, no es “porque el Sol está más cerca”; no está más cerca. El eje de rotación de la Tierra está inclinado, así que cuando el hemisferio norte se inclina hacia el Sol, los rayos son más perpendiculares a la superficie, y la mitad del globo disfruta del verano. Al otro hemisferio llegan rayos oblicuos: es invierno. Es triste ver cómo aquellos graduados de Harvard podían ser tan ignorantes. ¡Aquí los tenemos con faltas de ortografía!

Por supuesto, hay momentos brillantes en los que la gente se sorprende. Hace años, en una línea de metro de Manhattan, un hombre mayor se las veía y deseaba con un problema de cálculo elemental de su libro de texto de la escuela nocturna; no hacía más que resoplar. Se volvió desesperado hacia el extraño que tenía a su lado, sentado junto a él, y le preguntó si sabía cálculo. El extraño afirmó con la cabeza y se puso a resolverle al hombre el problema. Claro que no todos los días un anciano estudia cálculo en el metro al lado del físico teórico ganador del Nobel de Física, T. D. Lee.

Leon Lederman cuenta una anécdota parecida a la del tren, pero con final diferente. Salía de Chicago en un tren de cercanías cuando una enfermera subió a él a la cabeza de un grupo de pacientes de un hospital psiquiátrico local. Se colocaron a su alrededor y la enfermera se puso a contarlos: “uno, dos tres…”. Se quedó mirando a Lederman y preguntó “¿quién es usted?”; “soy Leon Lederman” – respondió – “ganador del premio Nobel y director del Fermilab”. Lo señaló y siguió tristemente “sí claro,  cuatro, cinco, seis…”. Son cosas que ocurren a los humanos; ¡tan insignificantes y tan grandes! Somos capaces de lo mejor y de lo peor. Ahí tenemos la historia para ver los ejemplos de ello.

Resultado de imagen de Incultura científica reinante

Pero ahora más en serio, es necesario preocuparse por la incultura científica reinante, entre otras muchas razones porque la ciencia, la técnica y el bienestar público están cada día más conectados. Y, además, es una verdadera pena perderse la concepción del mundo que, en parte, he plasmado en estas páginas. Aunque aparezca incompleta, se puede vislumbrar que posee grandiosidad y belleza, y va asomándose ya su simplicidad.

“El proceso de la ciencia es el descubrimiento a cada paso de un nuevo orden que de unidad a lo que desde hacía tiempo parecía desunirlo.”

- Es lo que hizo Faraday cuando cerró el vínculo que unió la electricidad y el magnetismo.

- Es lo que hizo Clerk Maxwell cuando unió aquélla y éste con la luz.

- Es lo que hizo Einstein con sus Teorías.

- Es lo que hizo Planck con el cuanto de acción, h.

- Einstein unió el tiempo y el espacio, la masa a la energía y relacionó las grandes masas cosmológicas con la curvatura y la distorsión del tiempo y el espacio para traernos la gravedad en un teoría moderna; y dedicó los últimos años de su vida al intento de añadir a estas similitudes otra manera nueva y más avanzada, que instaurara un orden nuevo e imaginativo entre las ecuaciones de Maxwell y su propia geometría de la gravitación.

 

 

Clic para ampliarClic para ampliar

Clic para ampliarClic para ampliar

Clic para ampliarClic para ampliar

 

Algunos momentos de la vida del Maestro

Cuando Coleridge intentaba definir la belleza, volvía siempre a un pensamiento profundo: la belleza, decía, “es la unidad de la variedad”. La ciencia no es otra cosa que la empresa de descubrir la unidad en la variedad  desaforada de la naturaleza, o más exactamente, en la variedad de nuestra experiencia que está limitada por nuestra ignorancia.”

 

Resultado de imagen de El sueño de viajar a las estrellas

¡El sueño de viajar a las estrellas! Alcanzar esos mundos lejanos

 

Hay muchas cosas que no podemos controlar, sin embargo, algo dentro de nosotros, nos envía mensajes sobre lo que podría ser importante para que nos fijemos mejor y continuemos profundizando.

Para comprender mejor el panorama, hagamos una excursión hasta la astrofísica; hay que explicar por qué la física de partículas y la astrofísica se han fundido no hace muchos años, en un nivel nuevo  de intimidad, al que alguien llamó la conexión espacio interior/espacio exterior.

Mientras los expertos del espacio interior construían aceleradores, microscopios cada vez más potentes para ver qué pasaba en el dominio subnuclear, los colegas del espacio exterior sintetizaban los datos que tomaban unos telescopios cada vez más potentes, equipados con nuevas técnicas cuyo objeto era aumentar su sensibilidad y la capacidad de ver detalles finos. Otro gran avance fueron los observatorios establecidos en el espacio, con sus instrumentos para detectar infrarrojos, ultravioletas, rayos X y rayos gamma; en pocas palabras, toda la extensión del espectro electromagnético, muy buena parte del cual era bloqueado por nuestra atmósfera opaca y distorsionadora.

                                                                              ¿Hasta donde llegaremos?

La síntesis de la cosmología de los últimos cien años es el modelo cosmológico estándar. Sostiene que el universo empezó en forma de un estado caliente, denso, compacto, hace unos 15.000 millones de años. El universo era entonces infinitamente, o casi infinitamente, denso; infinita, o casi infinitamente, caliente. La descripción “infinito” es incómoda para los físicos; los modificadores son el resultado de la influencia difuminadota de la teoría cuántica. Por razones que quizá no conozcamos nunca, el universo estalló, y desde entonces ha estado expandiéndose y enfriándose. Tendríamos que poner la mirada en una fluctuación del vacío para saber de cómo nació nbuestro Universo.

Resultado de imagen de El Big Bang

Una Teoría que se ajusta a lo que podemos observar y… De momento, se dio por buena

Ahora bien, ¿cómo se han enterado de eso los cosmólogos? El modelo de la Gran Explosión (Big Bang) nació en los años treinta tras el descubrimiento de que las galaxias (conjuntos de 100.000 millones de estrellas, aproximadamente) se estaban separando entre sí, descubrimiento hecho por Edwin Hubble, que andaba midiendo sus velocidades en 1.929.

Hubble tenía que recoger de las galaxias lejanas una cantidad de luz que le permitiera resolver las líneas espectrales y compararlas con las líneas de los mismos elementos de la Tierra. Cayó en la cuenta de que todas las líneas se desplazaban sistemáticamente hacia el rojo. Se sabía que una fuente de luz que se aparta de un observador hace justo eso. El desplazamiento hacia el rojo era, de hecho, una medida de la velocidad relativa de la fuente y del observador.

Resultado de imagen de Las galaxias se alejan - Imagen GIFs

En las galaxias cercanas la fuerza de Gravedad hace que se fusionen

Más tarde, Hubble halló que las galaxias se alejaban de él en todas las direcciones; esto era una manifestación de la expansión del espacio. Como el espacio expande las distancias entre todas las galaxias, la astrónoma Hedwina Knubble, que observase desde el planeta Penunbrio en Andrómeda, vería el mismo efecto o fenómeno: las galaxias se apartaría de ella.

Cuanto más distante sea el objeto, más deprisa se mueve. Esta es la esencia de la ley de Hubble. Su consecuencia es que, si se proyecta la película hacia atrás, las galaxias más lejanas, que se mueven más deprisa, se acercarán a los objetos más próximos, y todo el lío acabará juntándose y se acumulará en un volumen muy, muy pequeño, como, según se calcula actualmente, ocurría hace 15.000 millones de años.

Resultado de imagen de Criaturas bidimensionales habitantes del plano

La más famosa de las metáforas científicas te pide que imagines que eres una criatura bidimensional, un habitante del Plano. Conoces el este y el oeste, el norte y el sur, pero arriba y abajo no existen; sacaos el arriba y debajo de vuestras mentes. Vivís en la superficie de un globo que se expande. Por toda la superficie hay residencias de observadores, planetas y estrellas que se acumulan en galaxias por toda la esfera; todo bidimensional. Desde cualquier atalaya, todos los objetos se apartan a medida que la superficie se expande sin cesar. La distancia entre dos puntos cualesquiera de este universo crece. Eso es lo que pasa, precisamente, en nuestro mundo tridimensional. La otra virtud de esta metáfora es que, en nuestro universo, no hay ningún lugar especial. Todos los sitios o puntos de la superficie sin democráticamente iguales a todos los demás. No hay centro; no hay borde. No hay peligro de caerse del universo. Como nuestra metáfora del universo en expansión (la superficie del globo) es lo único que conocemos, no es que las estrellas se precipiten dentro del espacio. Lo que se expande es que espacio que lleva toda la barahúnda. No es fácil visualizar una expansión que ocurre en todo el universo. No hay un exterior, no hay un interior. Sólo hay este universo que se expande. ¿En qué se expande? Pensad otra vez en vuestra vida como habitante del Plano, de la superficie del globo: en nuestra metáfora no existe nada más que la superficie.

Resultado de imagen de Inmenso depósito de agua pesada en las profundidades de una vieja mina pàra cazar neutrinos

Instalaciones en las entrañas de la Tierra (en las profundidades de una vieja mina abandonada) que posibilitan viajar a lo más profundo de la materia. El gran depósito está lleno de agua pesada que delatará la llegada de oleadas de neutrinos.

Resultado de imagen de Sondas espaciales que nos envian imágenes de otros mundosResultado de imagen de Sondas espaciales que nos envian imágenes de otros mundosResultado de imagen de Sondas espaciales que nos envian imágenes de otros mundosResultado de imagen de Sondas espaciales que nos envian imágenes de otros mundosResultado de imagen de Sondas espaciales que nos envian imágenes de otros mundosResultado de imagen de El HubbleResultado de imagen de El HubbleResultado de imagen de El Hubble

                  Hemos inventado tecnología que ha posibilitado que no estemos confinados en el planeta

Es mucho lo que podemos imaginar. Sin embargo, lo cierto es que,  como nos decía Popper:
“Cuánto más profundizo en el conocimiento de las cosas más consciente soy de lo poco que se. Mientras que mis conocimientos son finitos, mi ignorancia es ilimitada.”
Resultado de imagen de El Big Bang y la expansión del Universo

Dos consecuencias adicionales de gran importancia que tiene la teoría del Big Bang acabaron por acallar la oposición, y ahora reina un considerable consenso. Una es la predicción de que la luz de la incandescencia original (presuponiendo que fue muy caliente) todavía está a nuestro alrededor, en forma de radiación remanente. Recordad que la luz está constituida por fotones, y que la energía de los fotones está en relación inversa con la longitud de onda. Una consecuencia de la expansión del universo es que todas las longitudes se expanden. Se predijo, pues, que las longitudes de onda, originalmente infinitesimales, como correspondía a unos fotones de gran energía, han crecido hasta pertenecer ahora a la región de las microondas, en la que las longitudes son unos pocos milímetros.

En 1.965 se descubrieron los rescoldos del Big Bang, es decir, la radiación de fondo de microondas. Esos fotones bañan el universo entero, y se mueven en todas las direcciones posibles. Los fotones que emprendieron viaje hace miles de millones de años cuando el universo era más pequeño y caliente, fueron descubiertos por una antena de los laboratorios Bell en Nueva Jersey.

File:WMAP Leaving the Earth or Moon toward L2.jpg

 

                                                  Imagen del WMAP de la anisotropía de la temperatura del CMB.

 

Así que el descubrimiento hizo imprescindible medir la distribución de las longitudes de onda, y se hizo. Por medio de la ecuación de Planck, esta medición de la temperatura media de lo que quiera (el espacio, las estrellas, polvo, un satélite, los pitidos de un satélite que se hubiese colado ocasionalmente) que haya estado bañándose en esos fotones.

Las mediciones últimas efectuadas por la NASA con el satélite COBE dieron un resultado de 2’73 grados sobre el cero absoluto (2’73 ºK). Esta radiación remanente es una prueba muy potente a favor de la teoría del Big Bang caliente.

Los astrofísicos pueden hablar tan categóricamente porque han calculado qué distancias separaban a dos regiones del cielo en el momento en que se emitió la radiación de microondas observadas por el COBE. Ese momento ocurrió 300.000 años después del Big Bang, no tan pronto como sería deseable, pero sí lo más cerca del principio que podemos.

Resulta que temperaturas iguales en regiones separadas del espacio que nunca habían estado en contacto y cuyas separaciones eran tan grandes que ni siquiera a la velocidad de la luz daba tiempo para que las dos regiones se comunicasen, y sin embargo, sí tenían la misma temperatura. La teoría del Big Bang no podía explicarlo; ¿un fallo?, ¿un milagro? Se dio en llamar a eso la crisis de la causalidad, o de la isotropía.

         Considerado a grandes escalas, el Universo es isotrópico

De la causalidad porque parecía que había una conexión causal entre distintas regiones del cielo que nunca debieran haber estado en contacto; de la isotropía porque donde quiera que mires a gran escala verás prácticamente el mismo patrón de estrellas, galaxias, cúmulos y polvo estelar. Se podría sobrellevar esto en un modelo del Big Bang diciendo que la similitud de las miles de millones de piezas del universo que nunca estuvieron en contacto es puro accidente. Pero no nos gustan los “accidentes”: los milagros están estupendamente si jugamos a la lotería, pero no en la ciencia. Cuando se ve uno, los científicos sospechan que algo más importante se nos mueve entre bastidores. Me parece que mi inclinación científica me hace poco receptivo a los milagros. Si algo para habrá que buscar la causa.

Resultado de imagen de Universo hecho de Hidrógeno y Helio

El elemento más común del Universo es el Hidrógeno, y, el estado de la materia más abundante es el plasma presente en las estrellas que, a cientos de miles de millones habitan en las galaxias

El segundo éxito de gran importancia del modelo del Big Bang tiene que ver con la composición de nuestro universo. Puede parecer que el mundo está hecho de aire, tierra, agua y fuego, pero si echamos un vistazo arriba y medimos con nuestros telescopios espectroscópicos, apenas sí encontramos algo más que hidrógeno, y luego helio. Entre ambos suman el 98% del universo que podemos ver. El resto se compone de los otros noventa elementos. Sabemos gracias a nuestros telescopios espectroscópicos las cantidades relativas de los elementos ligero, y hete aquí que los teóricos del Big Bang dicen que esas abundancias son precisamente las que cabría esperar. Lo sabemos así.

 

El universo prenatal tenía en sí toda la materia del universo que hoy observamos, es decir, unos cien mil millones de galaxias, cada una con cien mil millones de soles. Todo lo que hoy podemos ver estaba comprimido en un volumen muchísimos menos que la cabeza de un alfiler. La temperatura era alta, unos 1032 grados Kelvin, mucho más caliente que nuestros 273 ºK actuales. Y en consecuencia la materia estaba descompuesta en sus componentes primordiales.

Una imagen aceptable de aquello es la de una “sopa caliente”, o plasma, de quarks y leptones (o lo que haya dentro, si es que hay algo) en la que chocan unos contra otros con energías del orden de 1018 GeV, o un billón de veces la energía del mayor colisionador que cualquier físico pueda imaginarse construir. La gravedad era rugiente, con su poderoso (pero aún mal conocido) influjo en esta escala microscópica.

Tras este comienzo fantástico, vinieron la expansión y el enfriamiento. A medida que el universo se enfriaba, las colisiones eran menos violentas. Los quarks, en contacto íntimo los unos con los otros como partes del denso grumo que era el universo infantil, empezaron a coagularse en protones, neutrones y los demás hadrones. Antes, esas uniones se habrían descompuesto en las inmediatas y violentas colisiones, pero el enfriamiento no cesaba; aumentaba con la expansión y las colisiones eran cada vez más suaves.

                                         La máquina del big bang reveló que, en aquellos primeros momentos…

Aparecieron  los protones y los neutrones, y se formaran núcleos estables. Este fue el periodo de nucleosíntesis, y como se sabe lo suficiente de física nuclear se pueden calcular las abundancias relativas de los elementos químicos que se formaron. Son los núcleos de elementos muy ligeros; los más pesados requieren de una “cocción” lenta en las estrellas.

Claro que, los átomos (núcleos más electrones) no se formaron hasta que la temperatura no cayó lo suficiente como para que los electrones se organizaran alrededor de los núcleos, lo que ocurrió 300.000 años después, más o menos. Así que, en cuanto se formaron los átomos neutros, los fotones pudieron moverse libremente, y ésta es la razón de que tengamos una información de fotones de microondas todavía.

La nucleosíntesis fue un éxito: las abundancias calculadas y las medidas coincidían. Como los cálculos son una mezcla íntima de física nuclear, reacciones de interacción débil y condiciones del universo primitivo, esa coincidencia es un apoyo muy fuerte para la teoría del Big Bang.

En realidad, el universo primitivo no era más que un laboratorio de acelerador con un presupuesto ilimitado. Nuestros astrofísicos tenían que saberlo todo acerca de los quarks y los leptones y las fuerzas para construir un modelo de evolución del universo. Los físicos de partículas reciben datos de su experimento grande y único. Por supuesto, para los tiempos anteriores a los 10-13 segundos, están mucho menos seguros de las leyes de la física. Así que, los astrofísicos azuzan a los teóricos de partículas para que se remanguen y contribuyan al torrente de artículos que los físicos teóricos lanzan al mundo con sus ideas: Higgs, unificación de cuerdas vibrantes, compuestos (qué hay dentro de los quarks) y un enjambre de teorías especulativas que se aventuran más allá del modelo estándar para construir un puente que nos lleve a la descripción perfecta del universo, de la Naturaleza. ¿Será posible algún día?

Resultado de imagen de Los inicios de la Teoría de cuerdasResultado de imagen de Los inicios de la Teoría de cuerdas

Esperemos a ver qué pasa con la historia que comenzaron Grabielle Veneziano, John Schwartz, André Neveu, Pierre Ramond, Jeff Harvey, Joel Sheik, Michael Green, David Gross y un dotado flautista de Hamelin que responde al nombre de Edward Witten.

La teoría de cuerdas es una teoría que nos habla de un lugar muy distante. Dice Leon Lederman que casi tan distante como Oz o la Atlántida; hablamos del dominio de Planck. No ha forma de que podamos imaginar datos experimentales en ese tiempo tan lejano; las energías necesarias (las de la masa de Planck) no están a nuestro alcance, lo que significa que no debemos perseverar.

Por lejos que esté… Siempre querremos llegar. ¿Qué habrá allí dónde nuestra vista no llega? ¿Cómo será aquel universo?

¿Por qué no podemos encontrar una teoría matemáticamente coherente (sin infinitos) que describa de alguna manera Oz? ¡Dejar de soñar, como de reír, no es bueno!

Pero en verdad, al final de todo esto, el problema es que siempre estarmos haciendo preguntas: Que si la masa crítica, que si el universo abierto, plano o cerrado… Que si la materia y energía del universo es más de la que se ve. Pasa lo contrario que con nuestra sabiduría (queremos hacer ver que hay más… ¡de la que hay!), que parece mucha y en realidad es tan poca que ni podemos contestar preguntas sencillas como, por ejemplo: ¿Quiénes somos?

Resultado de imagen de La imagen movida que no te deja ver con claridad

          Ahí, ante esa pregunta “sencilla” nos sale una imagen movida que no deja ver con claridad

Sin embargo, hemos sabido imaginar para poder desvelar algunos otros secretos del universo, de la Naturaleza, del Mundo que nos acoge y, sabemos cómo nacen, viven y mueren las estrellas y lo que es una galaxia. Podemos dar cuenta de muchas cuestiones científicas mediante modelos que hemos ideado para explicar las cosas. No podemos físicamente llegar a otras galaxias y nos hemos inventado telescopios de inmensa capacidad para llegar hasta las galaxias situadas a 12.000 millones de años luz de la Tierra. También, hemos sabido descifrar el ADN y, si ninguna catástrofe lo remedia… ¡Viajaremos por las estrellas!

Claro que, sabemos representar los Modelos de Universo que imaginamos, y, aún no hemos llegado a saber lo que el Universo es. ¡Nuestra imaginación! que siempre irá por delante de la realidad que nos rodea y que no siempre sabemos ver. Todo es, como dijo aquel, la belleza que se nos regala: “La unidad de la variedad”. Además, no debemos olvidar que, todo lo grande está hecho de cosas pequeñas.

emilio silvera


¡Conocer la Naturaleza! Hoy sólo un sueño ¿Realidad mañana?

$
0
0


“A partir de sus principios en Sumeria alrededor del 3500 a. C., en Mesopotamia, los pueblos del norte comenzaron a intentar registrar la observación del mundo con  cuantitativos y numéricos sumamente cuidados. Pero sus observaciones y medidas aparentemente fueron tomadas con otros propósitos más que la ley científica. Un caso concreto es el del teorema de Pitágoras, que fue registrado, aparentemente en el siglo XVIII a. C.: la tabla mesopotámica Plimpton 322 registra un número de trillizos pitagóricos (3,4,5) (5,12,13)…., datado en el 1900 a. C., posiblemente milenios antes de Pitágoras,1 pero no era una formulación abstracta del teorema de Pitágoras.

Los avances significativos en el Antiguo Egipto son referentes a la astronomía, a las matemáticas y a la medicina.2 Su geometría era una consecuencia necesaria de la topografía, con el fin de intentar conservar la disposición y la propiedad de las tierras de labranza, que fueron inundadas  año por el Nilo. La regla del triángulo rectángulo y otras reglas básicas sirvieron para representar estructuras rectilíneas, el pilar principal de la arquitectura dintelada egipcia. Egipto era  el centro de la química y la investigación para la mayor  del Mediterráneo.”

Nuevas paradigmas en la Física Moderna

Isabel Pérez Arellano y Róbinson Torres Villa, publicaron un artículo en 2009, sobre la física moderna y sus paradigmas y, comenzaban diciendo:


 siempre el hombre ha intentado dar respuesta a los interrogantes más profundos que lo inquietan; preguntas que van desde ¿Quién soy?, ¿de dónde vengo? ¿y hacia dónde voy?,  los intentos por explicar el origen y final universo en qué vive. Muchas son las prepuestas que se han dado a esos interrogantes, dependiendo de la corriente de pensamiento seguida por quien aborda esas preguntas; es así como se ven aproximaciones místicas, esotéricas, religiosas y científicas entre otras; pero todas con el objetivo de dilucidar alguna respuesta a esas preguntas fundamentales.

Desde el punto de vista científico y concretamente de la física moderna, se han planteado algunas explicaciones del universo en el que vivimos que algunas veces rozan con lo fantástico, dado el nivel de abstracción o especulación que llevan implícito, todo obviamente avalado por sofisticados modelos matemáticos que al parecer soportan las hipótesis planteadas.”

 

 

 

 

Si repasamos la historia de la ciencia, seguramente encontraremos muchos motivos para el optimismo. Por mencionar a un científico de nuestro tiempo, escojamos a E. Witten que está convencido de que la ciencia será algún día capaz de sondear  las energías de Planck. Como ya he contado en otras ocasiones, él dijo:

“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente  25 años.”

 

En su opinión, las buenas ideas siempre se verifican. Los ejemplos son innumerables: la gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de la relatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría del electrón de Paul Dirac, el principio de incertidumbre de Heisenberg, la función de ondas de Schrödinger, y tantos otros. Algunos de los físicos teóricos más famosos, sin embargo, protestaban de tanto empeño en la experimentación.

 Resultado de imagen de La gravedad de NewtonResultado de imagen de El campo eléctrico de FaradayResultado de imagen de El electromagnetismo de MaxwellResultado de imagen de La Relatividad de Einstein

El astrónomo arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas  insistían en que todo debería ser verificado. El premio Nobel Paul dirac incluso llegó a decir de forma más categórica: “Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas“, o en palabras del físico John Ellis del CERN, “Como decía en una envoltura de caramelos que abrí hace algunos , «Es sólo el optimista el que consigue algo en este mundo».

Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y finalmente,  decido según mis propios criterios y emito mi opinión de cómo es el mundo que, no obligatoriamente, coincidirá con alguna de esas opiniones, y que en algún caso, hasta difieren radicalmente.

Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en  mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa. El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas,  su “ámbito natural” está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la creación, lo que quiere decir que la teoría de supercuerdas  su explicación allí, en aquel lugar y tiempo donde se produjeron las mayores energías conocidas en nuestro Universo y que, nosotros, no podemos alcanzar -de momento-.

Fuimos capaces de predecir que el Big Bang produjo un “eco” cósmico reverberando en el universo y que podría ser mesurable por los instrumentos adecuados. De hecho, Arno Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1.978 por detectar  eco del Big Bang, una radiación de microondas que impregna el universo conocido.

 Resultado de imagen de Como una onda, podemos detectar el eco del big bangResultado de imagen de Como una onda, podemos detectar el eco del big bang

                     una onda, podemos detectar el eco del big bang

El que el eco del Big Bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio. La propia idea de medir el eco de la creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante. Cualquier objeto, cuando se calienta, emite radiación de forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un , y cuanto más se calienta, mayor es la frecuencia de radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura. De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana; examinando su color. Esta radiación se denomina radiación de cuerpo negro.

 Resultado de imagen de Los soldados utilizan gafas que les permite ver en la oscuridadResultado de imagen de Los soldados utilizan gafas que les permite ver en la oscuridad

Podemos ver en plena oscuridad de manera artificial. Algunos anumales están dotados para hacerlo de manera natural.

Esta radiación, ¡cómo no!, ha sido aprovechada por los ejércitos, que mediante visores nocturnos pueden operar en la oscuridad. De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojo. Ésta es  la razón de que nuestros automóviles cerrados se calientes en verano, ya que la luz del Sol atraviesa los cristales del coche y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, esta clase de radiación no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura y, cuando regresamos para proseguir el camino… ¿quién es el guapo que entra?

Resultado de imagen de Reacción química con CO2Resultado de imagen de Reacción química con CO2

Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra, y de

 modo calentar gradualmente el planeta.

Gamow razonó que el Big Bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los  cuarenta era demasiado primitiva para captar esta débil señal de la creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles como para detectar esta radiación “fósil”.

La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del Big Bang, el universo se enfrió  el punto en el que los átomos pudieron empezar a componerse; los electrones, entonces,  pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que estaba impregnando todo el universo. Antes de este , el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación. Esto significa que el universo era opaco, como una niebla espesa absorbente e impenetrable.

Pasados 300.000 años, la radiación no era tan potente; se había enfriado y por lo tanto la luz podía atravesar grades distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente.

Así se hizo la luz en el Universo

Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario; un pequeño agujero en la pared de un recinto a temperatura  es la mejor aproximación que se puede tener de él en la práctica. La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la disminución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas*.

Hablar, sin más especificaciones, de radiación, es estar refiriéndonos a una energía que viaja en  de ondas electromagnéticas o fotones por el universo.  nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas alfa o beta de una fuente radiactiva o neutrones de un reactor nuclear.

 Resultado de imagen de Radiación y magnetismo presentes en todas partesResultado de imagen de Radiación y magnetismo presentes en todas partes

       Radiación y magnetismo presentes en todas partes

La radiación actínica es la electromagnética que es capaz de iniciar una reacción química. El término es usado especialmente  la radiación ultravioleta que emiten las estrellas jóvenes y azuladas en las bellas nebulosas.

Muchos son los tipos conocidos: Radiación blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, policromática, de sincrotrón, ultravioleta, de la teoría cuántica, de radiactividad… y,  se puede ver, la radiación en sus diversas formas es un universo en sí misma.

El físico alemán Max Planck (1.858 – 1.947), responsable  otros muchos logros de la ley de radiación de Planck, que da la distribución de energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.

Einstein se inspiró en este  para a su vez presentar el suyo propio sobre el efecto fotoeléctrico, donde la energía máxima cinética del fotoelectrónEm, está dada por la ecuación que lleva su : Em = hf – Φ.

Planck publicó en 1.900 un artículo sobre la radiación de cuerpo negro que sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros,  el mismo Einstein, Heisenberg, Schrödinger, Dirac, Feymann, etc. Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de Planck, radiación de Planck, longitud de Planck, unidades de Planck, etc. Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de física. Pongamos un par te ejemplos de su ingenio:

 Resultado de imagen de La Longitud de Planck ecuación

1.   escala de longitud ( 10-35 m ) veinte órdenes de magnitud menor que el tamaño del protón, de 10-15 m, es a la que la descripción clásica de gravedad cesa de ser válida y debe ser tenida en  la mecánica cuántica. En la fórmula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c en la velocidad de la luz.

2.    Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck. En la ecuación, ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional.

La descripción de una partícula elemental de  masa, o partículas que interaccionan con energías por partículas equivalentes a ellas (a través de E = mc2), requiere de una teoría cuántica de la gravedad.  la masa de Planck es del orden de 10-8 Kg (equivalente a una energía de 1019 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales son del orden de 14 TeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas.

Únicamente en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el universo primitivo, de acuerdo con la teoría del Big Bang, motivo éste por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas . Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable  nosotros), es la que necesitamos para verificar la teoría de supercuerdas.

Siempre,  que puedo recordar, me llamó la atención los misterios y secretos encerrados en la naturaleza, y la innegable batalla mantenida a lo largo de la historia por los científicos para descubrirlos.

emilio silvera

Algunos desarrollos de la Física Teórica…Son notables

$
0
0

 

Hasta hace muy pocos años la Gravitación y la Mecánica Cuántica eran dos campos de la Física Teórica que utilizaban metodologías muy distintas y que estaban prácticamente desconectados entre sí. Por una parte, la interacción gravitatoria está descrita por la Teoría de la Relatividad General de Einstein, que es una teoría clásica (es decir, no cuántica) en la que la Gravedad se representa como una propiedad geométrica del espacio y del tiempo. Por otro lado, gobierna el mundo de las partículas atómicas y subatómicas. Su generalización relativista (la Teoría Cuántica de Campos) incorpora los principios de la Teoría Especial Relativista y, junto con el principio gauge, ha permitido construir con extraordinario éxito el llamado Modelo Estándar de la Física de las Partículas Elementales.

Resultado de imagen de la estructura atómica y el electromagnetismo

La interacción electromagnética, por ejemplo, es la responsable de las fuerzas que controlan la estructura atómica, reacciones químicas y todos los fenómenos electromagnéticos. Puede explicar las fuerzas entre las partículas cargadas, pero al contrario que las interacciones gravitacionales, pueden ser tanto atractivas como repulsivas. Algunas partículas neutras se desintegran por interacciones electromagnéticas. La interacción se puede interpretar tanto como un modelo clásico de fuerzas (ley de Coulomb) como por el intercambio de unos fotones virtuales. Igual que en las interacciones gravitatorias, el hecho de que las interacciones electromagnéticas sean de largo alcance significa que tiene una teoría clásica bien definida dadas por las ecuaciones de Maxwell. La teoría cuántica de las interacciones electromagnéticas se describe con la electrodinámica cuántica, que es una forma sencilla de teoría gauge.

Resultado de imagen de ElectromaGNETISMO PRESENTE POR TODO EL uNIVERSO

                                      El electromagnetismo está presente por todo el Universo

La interacción fuerte es unas 102 veces mayor que la interacción electromagnética y, como ya se dijo antes, aparece sólo entre los hadrones y es la responsable de las fuerzas entre nucleones que confiere a los núcleos de los átomos su gran estabilidad. Actúa a muy corta distancia dentro del núcleo (10-15 metros) y se puede interpretar como una interacción mediada por el intercambio de mesones virtuales llamados Gluones. Está descrita por una teoría gauge llamada Cromodinámica cuántica.

Las teorías gauge explican satisfactoriamente la dinámica de las interacciones electromagnéticas, fuertes y débiles en un gran rango de distancias. Sin embargo, a pesar que la Teoría General de la Relatividad puede formularse como una teoría gauge, todos los intentos de introducir en ella de manera completamente satisfactoria los principios de la Mecánica Cuántica, han fracasado. No obstante, los desarrollos realizados en el marco de la Teoría de Cuerdas en los últimos años han dado lugar a una convergencia, al menos metodológica, entre estos dos campos de la Física Fundamental.

Resultado de imagen de teoría gauge/gravedad

La piedra angular de esta inesperada conexión es la llamada correspondencia gravedad/teoría gauge. En su forma más genérica dicha correspondencia afirma que la dinámica de ciertas teorías cuánticas de campos sin gravedad puede ser descrita por medio de una teoría gravitatoria en un espacio-tiempo que contiene al menos una dimensión adicional.

Para poder comprender con claridad los orígenes y las consecuencias de tan sorprendente relación entre teorías tan diferentes, es interesante recordar como fue descubierta en el contexto de la Teoría de Cuerdas. la Teoría de cuerdas tiene su origen en los años 60-70 como un intento de describir los hadrones (partícuals elementales que experimentan interacción fuerte) como estados de una cuerda en movimiento.

Resultado de imagen de ElectromaGNETISMO PRESENTE POR TODO EL uNIVERSO

               ¡Teoría de cuerdas! (¿) ¿Se podrá verificar algún día?

La longitud de la cuerda se puede identificar con el tamaño del hadrón y sería del orden del fermi (10-15 metros). Sin embargo, al analizar en detalle el espectro de modos de vibración de las cuerdas cerradas se descubrió que estas contienen una partícula de espín 2 y masa nula…(¿el gravitón?) que no se corresponde con ningún hadrón y que, en cambio, se identifica de manera natural con el gravitón (el cuanto fundamental de la interacción gravitatoria). De esta forma la Teoría de Cuerdas pasó de ser considerada una teoría de las interacciones fuertes a ser una posible teoría de unificación de las cuatro interacciones fundamentales de la Naturaleza a una escala mucho más pequeña: La longitud de Planck (10-35 metros).

Una consecuencia sorprendente del estudio cuántico de la cuerda es que ésta debe propagarse en un espacio-tiempo de diez dimensiones. La métrica de dicho espacio-tiempo está también fuertemente contreñida. De hecho, la consistencia mecano-cuántica del movimiento de la cuerda en un espacio curvo impone que la métrica de este debe satisfacer unas ecuaciones que,  en el límite en el que la longitud de la cuerda se considera muy pequeña, se reducen a las ecuaciones de Einstein de la relatividad general. Así pues, las ecuaciones fundamentales de la gravedad clásica en diez dimensiones se puede obtener de la dinámica cuántica de la cuerda.

Resultado de imagen de Branas y la teoría de cuerdas

“Según la teoría de cuerdas, las membranas existen en la undécima dimensión, en realidad son infinitas. Se dice que cada membrana corresponde a un universo, por ejemplo a nuestro universo le corresponde una membrana y las otras membranas serían universos paralelos.”

Denominan Branas y son paredes de dominio en el espacio-tiempo ince-dimensional que corresponden a estados no-perturbativos de la Teoría de Cuerdas similares a los solitones de las teorías cuánticas de campo. En particular, las denominadas Dp-Branas son objetos que pueden estar extendidos a lo largo de p dimensiones espaciales y una temporal para 0 ≤ p ≤ 9. Uno puede imaginárselas como hiperplanos (p+1)-dimensionales. En particular la D3-Branas están extendidas a lo largo de cuatro dimensiones (tres espaciales y una temporal).

Imagen

Claro, todo es pura conjetura (hasta que no sea verificado de forma experimental). Increíblemente el mundo de las branas es tan colosalmente extraño como lo es el invisible “mundo” de las partículas quánticas, con la salvedad de que, al tratar de objetos aún más pequeños, es decir aquellos que posiblemente existan más allá de los Quarks, la fascinación sube de tono al toparnos con un universo de cosas “imposibles”, bueno, mejor alejado de lo que nos dice el sentido común que (está visto),  no es el mejor de los sentidos.

Las D-branas aparecen en muchas discusiones modernas relacionadas con las cuerdas (por ejemplo, en la entropía de los agujeros negros). Suelen tratarse como si fueran objetos clásicos que yacen dentro del espacio-tiempo completo 1 + 9 (o 1 + 10) dimensiones. La “D” viene de “Dirichlet”, por analogía con el tipo de problema de valor de frontera conocido como un problema de Dirichlet, en el que hay una frontera de género tiempo sobre la que se especifican datos (según Peter G. Lejeune Dirichlet, un eminente matemático francés que vivió entre 1.805 y 1.859).

Imagen
Imagen

            No resulta fácil para nosotros imaginar el Mundo Brana

Las D-Branas son objetos dinámicos que pueden moverse, deformarse y cambiar de estado interno. Una de sus características fundamentales es que este último está caracterizado por un campo gauge que viv3e en su interior. Así podremos decir que las D-Branas albergan teorías de gauge en su seno. Esta es una realización novedosa de la simetría gauge que está en la base de la correspondencia gravedad/teoría gauge. Además, dado que la Teoría de Cuerdas es una teoría gravitatoria, cualquier objeto masivo (y en particular las D-Branas) tiene asociado una métrica que describe la distorsión gravitatoria del espacio-tiempo en torno a él. En el caso de las D-Branas estas métricas son fáciles de encontrar y son similares a la clásica solución de Schwazschild de la relatividad general. En 1997 el joven físico argentino Juan Maldacena sugirió  utilizar esta solución de gravedad para describir la teoría gauge que vive en las D-Branas.

¿Podría ser nuestro universo una membrana flotando en un espacio de más dimensiones, que se rompe muchas veces en un universo circundante? Según una rama de la teoría de las cuerdas llamada braneword, hay una gran cantidad de dimensiones extra de espacio, y aunque la gravedad puede llegar a salir, nosotros estamos confinados a nuestro propio universo “brana”, con sólo tres dimensiones. Neil Turok, de la Universidad de Cambridge en el Reino Unido, y Paul Steinhardt, de la Universidad de Princeton en Nueva Jersey, EE.UU., han trabajado en cómo el Big Bang se podría haber provocado cuando nuestro universo se enfrentó violentamente con otro. Se repite el enfrentamiento, produciendo un nuevo Big Bang de vez en cuando, por lo que si el modelo del universo cíclico es correcto, el cosmos puede ser inmortal. ¡Por imaginar que no quede!

Sólo vamos a ser conscientes de dimensiones extra allí donde inciden directamente sobre las D-brana en la que “vivimos”. Más que una imagen de tipo “espacio cociente” que evoca la analogía de Kaluza-Klein original: El gráfico representa un modelo de manguera de un espacio-tiempo de dimensiones más altas de tipo Kaluza-Klein, donde la longitud, o mejor, la dimensión a lo largo de la longitud de la manguera representa el 4-espacio-tiempo normal, y la dimensión alrededor de la manguera representa la dimensión extra “pequeñas” (quizá escala de Planck). Imaginemos un “ser” que habite en este mundo, que rebasa estas dimensiones extra “pequeñas”, y por ello no es realmente consciente de ellas.

Resultado de imagen de dos descripciones (gauge y gravitatoria) son duales y complementarias entre sí

En la propuesta de Maldacena de las dos descripciones (gauge y gravitatoria) son duales y complementarias entre sí. En principio nos puede parecer confusa la afirmación de que la gravedad juega un papel relevante en la física de la teoría gauge. En los cursos de física nosm enseñan que la gravedad es mucho más débil que las otras fuerzas, y que, por lo tanto, su efecto es despreciable salvo a distancias realmente pequeñas o masas realmente grandes. Para resolver esta paradoja hay que tener en cuenta que la gravedad de la que estamos hablando no es la de nuestro universo aproximadamente plano y (posiblemente) con una pequeña constante cosmológica positiva, sino que se trata de una teorìa auxiliar en más de cuatro dimensiones y con constante cosmológica negativa.

Para seguir explicando el tema, mucho tendríamos que escribir. Sin embargo, quede aquí esta entrada que, al menos, puede despertar alguna curiosidad en los lectores que, aconsejados por lo leído, busquen más sobre el tema que, sin duda alguna, llega a ser fascinante.

Fuente: algunos de los párrafos aquí insertos, han sido transcritos de un trabajo de Alfonso V Ramallo del DepartAmento de Física de Partículas de la Universidad de Santiago de Compostela.

PD.

Resultado de imagen de Teoría GaugeResultado de imagen de Teoría Gauge

Resultado de imagen de Teoría GaugeResultado de imagen de Teoría Gauge

Aclaración: Cuando mencionamos una teoría gauge, lo estamos haciendo de cualquiera de las teorías cuánticas de campos creadas para explicar las interacciones fundamentales. Una teoría gauge requiere un grupo de simetría para los campos y los potenciales (el grupo gauge). En el caso de la electrodinámica, el grupo es abeliano, mientras que las teorías gauge para las interacciones fuertes y débiles utilizan grupos no abelianos. Las teorías gauge no abelianas son conocidas como teorías de Yang-Mills. esta diferencia explñica por qué la electrodinámica cuántica es una teoría mucho más simple que la cromodinámica cuántica, que describe las interacciones fuertes, y la teoría electrodébil, que es la teoría unificada de las interacciones débiles y las electromagnéticas. En el caso de la Gravedad Cuántica, el Grupo Gauge es mucho más complicado que los grupos gauge tanto de las interacciones fuertes como de las débiles.

¡La Física! ¡Qué complejidad!

emilio silvera

¡La Física! Siempre presente

$
0
0

¿Que es la Vida?

 

 

 

 

¿Cómo podríamos ensamblar una explicación científica de la génesis de la vida? A simple vista nos puede parecer una tarea sin esperanzas. No creo que buscar fósiles en las rocas más antiguas sea suficiente y nos ofrezca todas las claves necesarias. La mayoría de las delicadas moléculas prebióticas que dieron lugar a la vida habrán sido erradicadas por el inexorable paso del tiempo y la destructora entropía que todo en polvo lo convierte. Es posible, que podamos esperar el hallazgo de algún residuo químico ya degradado de aquellos organismos ancestrales a partir de los cuales evolucionó la vida celular que conocemos.

Claro que, aparte de los fósiles que podamos encontrar en las rocas, existe otra línea de evidencia que, de la misma manera, se remonta al pasado lejano y oscuro, pero que existe aquí y ahora, dentro de las formas de la vida presente. Los biólogos están convencidos de que ciertas reliquias de organismos antiguos siguen viviendo en las estructuras y procesos bioquímicos de sus descendientes, incluyéndonos a nosotros, los seres humanos.

 

Galaxia

Todas estas imágenes que arriba contemplamos, no fueron siempre los objetos que ahora representan, antes, hace millones de años, fueron otras “cosas” la materia que las conforma estaba estructurada de otra manera y, si las pudiéramos ver ahora, seguramente, nos asombraría.

Todo comienza siendo una cosa y con el tiempo, se transforma en otra diferente: Evolución por la energía. En el universo en que vivimos, nada desaparece; con el tiempo se cumplen los ciclos de las cosas y se convierten en otra distinta, es un proceso irreversible que podemos contemplar a nuestro alrededor con el paso del tiempo se van cumpliendo las fases, y, no necesariamente siempre son de desgaste y envejecimiento, sino que, otras son de creación y resurgimiento. Cuando las estrellas masivas viejas esplotan en Supernovas, el espacio interestelar queda ocupado, en grandes regiones, por una nube enorme que, a veces, abarca varios años luz. El tiempo transcurre y, de esos restos de estrella “muerta”, con ayuda de la gravedad, nacen nuevas estrellas. Es la entropía negativa que lucha contra aquella otra que todo lo quiere destruir. Nosotros, de alguna manera, hacemos lo mismo con la descendencia.

Resultado de imagen de Enana blancaResultado de imagen de Nebulosa planetaria

El gas y el polvo se transforma en una brillante estrella que vive diez mil millones de años y termina en Nebulosa planetaria con una enana blanca en el centro. Entonces la estrella que tenía un diámetro de 1.500 km, se reduce hasta unas pocas decenas, 20 0 30 Km y, su densidad, es inmensa, emitiendo radiación ultravioleta durante mucho tiempo hasta que se enfría y se convierte en un cadáver estelar.

En lo concerniente a cambios y transformaciones, el que más me ha llamado siempre la atención es el de las estrellas que se forman a partir de gas y polvo cósmico. Nubes enormes de gas y polvo se van juntando. Sus moléculas cada vez más apretadas se rozan, se ionizan y se calientan hasta que en el núcleo central de esa bola de gas caliente, la temperatura alcanza millones de grados. La enorme temperatura posible la fusión de los protones y, en ese instante, nace la estrella que brillará miles de millones de años y dará luz y calor. Su ciclo de vida estará supeditado a su masa. Si la estrella es supermasiva, varias masas solares, su vida será más corta, ya que consumirá el combustible nuclear de fusión (hidrógeno, helio, litio, oxígeno, etc) con más voracidad que una estrella mediana como nuestro Sol, de vida más duradera.

Resultado de imagen de la radiación de la estrella la espandeResultado de imagen de la masa de la estrella por la Gravedad se contrae

Una estrella, como todo en el universo, está sostenida por el equilibrio de dos fuerzas contrapuestas; en caso, la fuerza que tiende a expandir la estrella (la energía termonuclear de la fusión) y la fuerza que tiende a contraerla (la fuerza gravitatoria de su propia masa). Cuando finalmente el proceso de fusión se detiene por agotamiento del combustible de fusión, la estrella pierde la fuerza de expansión y queda a merced de la fuerza de gravedad; se hunde bajo el peso de su propia masa, se contrae más y más, y en el caso de estrellas súper masivas, se convierten en una singularidad, una masa que se ha comprimido a tal extremo que acaba poseyendo una fuerza de gravedad de una magnitud difícil de imaginar el común de los mortales.

     La singularidad con su inmensa fuerza gravitatoria atrae a la estrella vecina

La Tierra, un objeto minúsculo en comparación con esos objetos súper masivos estelares, genera una fuerza de gravedad que, para escapar de ella, una nave o cohete espacial tiene que salir disparado la superficie terrestre a una velocidad de 11’18 km/s; el sol exige 617’3 km/s.  Es lo que se conoce como velocidad de escape, que es la velocidad mínima requerida escapar de un campo gravitacional que, lógicamente, aumenta en función de la masa del objeto que la produce. El objeto que escapa puede ser una cosa cualquiera, desde una molécula de gas a una nave espacial. La velocidad de escape de un cuerpo está dada por , donde G es la constante gravitacional, M es la masa del cuerpo y R es la distancia del objeto que escapa del centro del cuerpo. Un objeto que se mueva con una velocidad menor que la de escape entra en una órbita elíptica; si se mueve a una velocidad exactamente igual a la de escape, sigue una órbita , y si el objeto supera la velocidad de escape, se mueve en una trayectoria hiperbólica y rompe la atadura en que la mantenía sujeto al planeta, la estrella o el objeto que emite la fuerza gravitatoria.

Resultado de imagen de la velocidad de la luz en el vac

La mayor velocidad que es posible alcanzar en nuestro universo es la de la luz, c, velocidad que la luz alcanza en el vacío y que es de 299.793’458 km/s.

Sí, se pudo confirmar que los neutrinos respetan la supremacía el fotón, y la luz, sigue siendo la más rápida del Universo. Y sin embargo, no escapar de la atracción de un A.N.

Pues bien, es tal la fuerza de gravedad de un agujero negro que ni la luz puede escapar de allí; la singularidad la absorbe, la luz desaparece en su interior, de ahí su nombre de , agujero negro, la estrella supermasiva se contrae, llega a un punto que desaparece de nuestra vista. De acuerdo con la relatividad general, cabe la posibilidad de que una masa se comprima y reduzca sin límites su tamaño y se auto confine en un espacio infinitamente pequeño que encierre una densidad y una energía infinitos. Allí, el espacio y el tiempo dejan de existir.

Resultado de imagen de La singularidad que dio partida al big bang

Las singularidades ocurren en el Big Bang, en los agujeros negros y en el Big Crunch (que se podría considerar una reunión de todos los agujeros negros generados por el paso del tiempo en el universo y que nos llevará a un fin  que será el comienzo).

Las singularidades de los agujeros negros están rodeados por una circunferencia invisible a su alrededor que marca el límite de su influencia. El objeto que traspasa ese límite es atraído, irremisiblemente, la singularidad que lo engulle, sea una estrella, una nube de gas o cualquier otro objeto cósmico que ose traspasar la línea que se conoce como horizonte de sucesos del agujero negro.

La existencia de los agujeros negros fue deducida por Schwarzschild, en el año 1.916, a partir de las ecuaciones de Einstein de la relatividad general. Este astrónomo alemán predijo su existencia, pero el de agujero negro se debe a John Archibald Wheeler.

                   Señalamos la singularidad del Big Bang pero… ¿fue así?

Así, el conocimiento de la singularidad está dado por las matemáticas de Einstein y más tarde por la observación de las señales que la presencia del agujero generan. Es una fuente emisora de rayos X que se producen al engullir materia que traspasa el horizonte de sucesos y es atrapada la singularidad, donde desaparece siempre sumándose a la masa del agujero cada vez mayor.

En el centro de nuestra galaxia, la Vía Láctea, ha sido detectado un enorme agujero negro, ya muy famoso, llamado Cygnus X-1.

Después de todo, la velocidad de la luz, la máxima del universo, no vencer la fuerza de gravedad del agujero negro que la tiene confinada para siempre.

En nuestra galaxia, con cien mil años luz de diámetro y unos doscientos mil millones de estrellas, ¿cuántos agujeros negros habrá?

Para mí, la cosa está clara: el tiempo es imparable, el reloj cósmico sigue y sigue andando sin que nada lo pare, miles o cientos de miles, millones y millones de estrellas súper masivas explotarán en brillantes supernovas para convertirse en temibles agujeros negros.

Llegará un momento que el de agujeros negros en las galaxias será de tal magnitud que comenzarán a fusionarse unos con otros que todo el universo se convierta en un inmenso agujero negro, una enorme singularidad, lo único que allí estará presente: la gravedad.

Esa fuerza de la naturaleza que está sola, no se puede juntar con las otras fuerzas que, como se ha dicho, tienen sus dominios en la mecánica cuántica, mientras que la gravitación residen en la inmensidad del cosmos; las unas ejercen su dominio en los confines microscópicos del átomo, mientras que la otra sólo aparece de manera significativa en presencia de grandes masas estelares. Allí, a su alrededor, se aposenta curvando el espacio y distorsionando el tiempo.

Esa reunión final de agujeros negros será la causa de que la Densidad Crítica sea superior a la ideal. La gravedad generada por el inmenso agujero negro que se irá formando en cada galaxia tendrá la consecuencia de parar la expansión actual del universo. Todas las galaxias que ahora están separándose las unas de las otras se irán frenando parar y, despacio al principio pero más rápido después, comenzarán a recorrer el camino hacia atrás.  Finalmente, toda la materia será encontrada en un punto común donde chocará violentamente formando una enorme bola de fuego, el Big Crunch, que como sabéis, es sólo una de las variadas teorías del final del universo.

Claro que, antes de que eso llegue, tendremos que resolver el primer problema: La visita de Andrómeda, la salida de la Tierra de la Zona habitable, o,  la muerte del Sol que se convertirá en una gigante roja primero y en una nebulosa planetaria con una estrella enana blanca en el centro después.

Resultado de imagen de Los átomos de nuestros cuerpos volverán al Sol

Al final del camino volveremos a formar parte de ese todo que llamamos NaturalezA

Los científicos se han preguntado a veces qué sucederá eventualmente a los átomos de nuestros cuerpos mucho tiempo después de que hayamos muerto. La posibilidad más probable es que nuestras moléculas vuelvan al Sol. En páginas anteriores he explicado el destino del Sol: se agotará su combustible de hidrógeno y fusionará helio; se hinchará en gigante roja y su órbita es probable que sobrepase la Tierra y la calcine; las moléculas que hoy constituyen nuestros cuerpos serán consumidas por la atmósfera solar.

Carl Sagan pinta el cuadro siguiente:

Resultado de imagen de LA MUERTE DEL Sol Y EL FINAL DE LA tIERRA

 

“Dentro de miles de millones de años a partir de , habrá un último día perfecto en la Tierra… Las capas de hielo Ártica y Antártica se fundirán, inundando las costas del mundo. Las altas temperaturas oceánicas liberarán más vapor de agua al aire, incrementando la nubosidad y escondiendo a la Tierra de la luz solar retrasando el final. Pero la evolución solar es inexorable.  Finalmente los océanos hervirán, la atmósfera se evaporará en el espacio y nuestro planeta será destruido por una catástrofe de proporciones que ni podemos imaginar.”

 

En una escala de tiempo de varios miles de millones de años, debemos enfrentarnos al hecho de que la Vía Láctea, en la que vivimos, morirá. Más exactamente, vivimos en el brazo espiral Orión de la Vía Láctea. miramos al cielo nocturno y nos sentimos reducidos, empequeñecidos por la inmensidad de las luces celestes que puntúan en el cielo, estamos mirando realmente una minúscula porción de las estrellas localizadas en el brazo de Orión. El resto de los 200 mil millones de estrellas de la Vía Láctea están tan lejanas que apenas pueden ser vistas como una cinta lechosa que cruza el cielo nocturno.

File:Andromeda Galaxy (with h-alpha).jpg
                                                                          La Galaxia Andrómeda

Aproximadamente a dos millones de años luz de la Vía Láctea está nuestra galaxia vecina más cercana, la gran galaxia Andrómeda, dos o tres veces mayor que nuestra galaxia. Las dos galaxias se están aproximando a unos 500  km/s, y chocarán en un periodo de entre 3 y 4 mil  millones de años. Como ha dicho el astrónomo Lars Hernquist de la California en Santa Cruz, esta colisión será “parecida a un asalto. Nuestra galaxia será literalmente consumida y destruida“. Aunque, lo cierto es que aunque en el choque algo se deStruya, lo cierto es que todo quedará en forma de una galaxia mucho mayor.

Resultado de imagen de fUSIÓN DE LA vÍA lÁCTEA Y ANDRÓMEDA

           Dentro de 3,000 Millones de años

Así las cosas, no parece que la Humanidad del futuro lo tenga nada fácil.  Primero tendrá que escapar, dentro de unos 4.000 millones de años del gigante rojo en que se convertirá el Sol que calcinará al planeta Tierra. Segundo, en unos 10.000 millones de años, la escapada tendrá que ser aún más lejana; la destrucción será de la propia galaxia que se fusionará con otra mayor sembrando el caos cósmico del que difícilmente se podría escapar quedándonos aquí. Por último, el final anunciado, aunque más largo tiempo, es el del propio universo que, por congelación o fuego, tiene los eones contados.

Por todas estas catástrofes anunciadas por la ciencia, científicos como Kip S. Thorne y Stephen Hawking sugieren a otros universos paralelos a través de agujeros de gusano en el hiperespacio. Sería la única puerta de salida para que la Humanidad no se destruyera.

Resultado de imagen de Agujero de gusano

Si algún día somos capaces de abrir mesa puerta…

Si lo alcanzaremos o no, es imposible de contestar, no tenemos los necesarios para ello. Incluso se podría decir que aparte de estas catástrofes futuras que sabemos a ciencia cierta que ocurrirán, seguramente existan otras que están ahí latentes en la incertidumbre de si finalmente ocurren o no, sólo pendiente de decidir lo uno o lo otro por parámetros ocultos que no sabemos ni que puedan existir.

En esta situación de impotencia, de incapacidad física e intelectual, nos tenemos que dar y admitir que, verdaderamente, comparados con el universo y las fuerzas que lo rigen, somos insignificantes, menos que una mota de polvo flotando en el haz de luz que entra, imparable, por la ventana entre-abierta de la habitación.

Sin embargo, tampoco es así. Que se sepa, no existe ningún otro grupo inteligente que esté capacitado tratar de todas estas cuestiones. Que la especie humana sea consciente de dónde vino y hacia dónde va, en verdad tiene bastante mérito, y más, si consideramos que nuestro origen está a partir de materia inerte evolucionada y compleja que, un día, hace probablemente miles de millones de años, se fraguó en estrellas muy lejanas.

http://mgmdenia.files.wordpress.com/2014/04/fuerzas.jpg

A finales de los 60, un joven físico italiano, Gabriele Veneziano, buscaba un grupo de ecuaciones que explicara la fuerza nuclear fuerte. Este pegamento tan fuerte que mantenía unidos los protones y neutrones del núcleo de cada átomo. Parece ser que por casualidad se encontró con un libro antiguo de matemáticas y en su interior encontró una ecuación de más de 200 años de antigüedad creada por un matemático suizo llamado Leonhard Euler. Veneziano descubrió con asombro que las ecuaciones de Euler, consideradas desde siempre una simple curiosidad matemática, parecían describir la fuerza nuclear fuerte. Después de un año de de profundos estudios, experimentos, intuición e imaginación, se podría decir que elaboraron la Teoría de Cuerdas de manera fortuita.

Tras circular entre compañeros, la ecuación de Euler acabó escrita frente a Leonard Susskind, quien se retiro a su ático para investigar. Creía que aquella antigua fórmula describía matemáticamente la fuerza nuclear fuerte, pero descubrió algo nuevo. Lo primero que descubrió fue que describía una especie de partícula con una estructura interna que vibraba y que mostraba un comportamiento que no se limitaba al de una partícula puntual. Dedujo que se trataba de una cuerda, un hilo elástico, como una goma cortada por la mitad. Esta cuerda se estiraba y contraía además de ondear y coincidía exactamente con la fórmula. Susskind redactó un artículo donde explicaba el descubrimiento de las cuerdas, pero nunca llegó a publicarse.

Muchos buscaron la 5ª dimensión… ¡sin fortuna! Aquí sólo hay tres y el espacio.

Claro que, ya he comentado otras veces que la teoría de cuerdas tiene un origen real en las ecuaciones de Einstein en las que se inspiro Kaluza para añadir la quinta dimensión y perfeccionó Klein (teoría Kaluza-Klein). La teoría de cuerdas surgió a partir de su descubrimiento accidental por Veneziano y , y a partir de ahí, la versión de más éxito es la creada por los físicos de Princeton David Gross, Emil Martinec, Jeffrey Harvey y Ryan Rohm; ellos son conocidos en ese mundillo de la física teórica como “el cuarteto de cuerdas”.  Ellos han propuesto la cuerda heterótica (híbrida) y están seguros de que la teoría de cuerdas resuelve el problema de “construir la propia materia a partir de la pura geometría: eso es lo que en cierto sentido hace la teoría de cuerdas, especialmente en su versión de cuerda heterótica, que es inherentemente una teoría de la gravedad en la que las partículas de materia, tanto las otras fuerzas de la naturaleza, emergen del mismo modo que la gravedad emerge de la geometría“.

La Gravedad cuántica está en algunas mentes , ¿Estará en la Naturaleza?

La característica más notable de la teoría de cuerdas ( ya he señalado), es que la teoría de la gravedad de Einstein está contenida automáticamente en ella. De hecho, el gravitón (el cuanto de gravedad) emerge como la vibración más pequeña de la cuerda cerrada, es más, si simplemente abandonamos la teoría de la gravedad de Einstein como una vibración de la cuerda, entonces la teoría se vuelve inconsistente e inútil. , de hecho, es la razón por la que Witten se sintió inicialmente atraído hacia la teoría de cuerdas.

Witten está plenamente convencido de que “todas las ideas realmente grandes en la física, están incluidas en la teoría de cuerdas“.

No entro aquí a describir el modelo de la teoría de cuerdas que está referido a la “cuerda heterótica”, ya que su complejidad y profundidad de detalles podría confundir al lector no iniciado. Sin embargo, parece justo que deje constancia de que consiste en una cuerda cerrada que tiene dos tipos de vibraciones, en el sentido de las agujas del reloj y en el sentido contrario, que son tratadas de diferente.

Las vibraciones en el sentido de las agujas de reloj viven en un espacio de diez dimensiones. Las vibraciones de sentido contrario viven en un espacio de veintiséis dimensiones, de las que dieciséis han sido compactificadas (recordemos que en la teoría pentadimensional Kaluza-Klein, la quinta dimensión se compactificaba curvándose en un circulo). La cuerda heterótica debe su al hecho de que las vibraciones en el sentido de las agujas de reloj y en el sentido contrario viven en dos dimensiones diferentes pero se combinan para producir una sola teoría de supercuerdas. Esta es la razón de que se denomine según la palabra griega heterosis, que significa “vigor híbrido”.

En conclusión, las simetrías que vemos a nuestro alrededor, el arcoiris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría decadimensional original.  Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia.

La teoría de cuerdas, a partir del descubrimiento Veneziano-Suzuki, estaba evolucionando atrás buscando las huellas de Faraday, Riemann, Maxwell y Einstein poder construir una teoría de campos de cuerdas.  De hecho, toda la física de partículas estaba basada en teoría de campos. La única teoría no basada en teoría de campos era la teoría de cuerdas.

Resultado de imagen de Teoría de supercuerdas

De la teoría de cuerdas combinada con la supersimetría dio lugar a la teoría de supercuerdas. La cuerda es un objeto unidimensional que en nueva teoría se utiliza remplazando la idea de la partícula puntual de la teoría cuántica de campos. La cuerda se utiliza en la teoría de partículas elementales y en cosmología y se representa por una línea o lazo (una cuerda cerrada). Los estados de una partícula pueden ser producidos por ondas estacionarias a lo largo de esta cuerda.

En teoría se trata de unificar a todas las fuerzas fundamentales incorporando simetría y en la que los objetos básicos son objetos unidimensionales que tienen una escala de 10-35 metros y, como distancias muy cortas están asociadas a energías muy altas, este caso la escala de energía requerida es del orden de 1019 GeV, que está muy por encima de la que hoy en día pueda alcanzar cualquier acelerador de partículas.

Antes expliqué, las cuerdas asociadas con los bosones sólo son consistentes como teorías cuánticas en un espacio-tiempo de 26 dimensiones; aquella asociadas con los fermiones sólo lo son en un espacio tiempo de 10 dimensiones. Ya se ha explicado que las dimensiones extras, además de las normales que podemos constatar, tres de espacio y una de tiempo, como la teoría de Kaluza-Klein, están enrolladas en una distancia de Planck. De , inalcanzables.

Una de las características más atractivas de la teoría de supercuerdas es que dan lugar a partículas de espín 2, que son identificadas con los gravitones (las partículas que transportan la gravedad y que aún no se han podido localizar). Por tanto, una teoría de supercuerdas automáticamente contiene una teoría cuántica de la interacción gravitacional. Se piensa que las supercuerdas, al contrario que ocurre con otras teorías ( ellas el Modelo Estándar), están libres de infinitos que no pueden ser eliminados por renormalización, que plagan todos los intentos de construir una teoría cuántica de campos que incorpore la gravedad. Hay algunas evidencias de que la teoría de supercuerdas está libre de infinitos, pero se está a la búsqueda de la prueba definitiva.

Aunque no hay evidencia directa de las supercuerdas, algunas características de las supercuerdas son compatibles con los hechos experimentales observados en las partículas elementales, como la posibilidad de que las partículas no respeten paridad,  lo que en efecto ocurre en las interacciones débiles.

Extrañas configuraciones a las que, algunos físicos le quieren sacar lo que seguramente no se encuentra en ellas

Estoy convencido de que la teoría de supercuerdas será finalmente corroborada por los hechos y, ello, se necesitará algún tiempo; no se puede aún comprobar ciertos parámetros teóricos que esas complejas matemáticas a las que llaman topología nos dicen que son así.

Habrá que tener siempre a mano las ecuaciones de Einstein, las funciones modulares de Ramanujan y el Supertensor métrico de ese genio matemático que, al igual que Ramanujan, fue un visionario llamado Riemann.

Las historias de estos dos personajes, en cierto modo, son muy parecidas.  Tanto Riemann como Ramanujan murieron antes de cumplir los 40 años y, también en ambos casos, en difíciles. Estos personajes desarrollaron una actividad matemática sólo comparable al trabajo de toda la vida de muchos buenos matemáticos.

¿Cómo es posible que, para proteger la simetría conforme original por su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto de identidades matemáticas, que precisamente son las identidades de la función modular de Ramanujan?

Ramanujan envió ésta fórmula  a Hardy en su carta de presentación

En este he expresado que las leyes de la naturaleza se simplifican cuando se expresan en dimensiones más altas. Sin embargo, a la luz de la teoría cuántica, debo corregir algo esta afirmación, y para decirlo correctamente debería decir: las leyes de la naturaleza se simplifican cuando se expresan coherentemente en dimensiones más altas. Al añadir la palabra coherentemente hemos señalado un punto crucial. ligadura nos obliga a utilizar las funciones modulares de Ramanujan, que fijan en diez de dimensiones del espacio-tiempo. Esto a su vez, puede facilitarnos la clave decisiva para explicar el origen del universo.

emilio silvera

Article 1

$
0
0

 

 

 

La Escuela Jónica Fundada por Tales de Mileto en el siglo VI a.C. TALES DE MILETO (625-546)

 

 

 

 

[stephan_quinteto_2009_hubble.jpg]

 

 

 

 

 

Hemos tenido que construir máquinas inmensas para poder comprobar los efectos que se producen en un cuerpo cuando éste quiere ir más rápido que la luz. Lo predijo la teoría de la relatividad especial de Einstein y se ha comprobado despuès en los aceleradores de partículas: Nada va más rápido que la luz en nuestro Universo.

Es preciso ampliar un poco más las explicaciones anteriores que no dejan sentadas todas las cuestiones que el asunto plantea, y quedan algunas dudas que incitan a formular nuevas preguntas, como por ejemplo: ¿por qué se convierte la energía en masa y no en velocidad?, o ¿por qué se propaga la luz a 299.793 Km/s y no a otra velocidad?

La única respuesta que podemos dar hoy es que así es el universo que nos acoge y las leyes naturales que lo rigen, donde estamos sometidos a unas fuerzas y unas constantes universales de las que la velocidad de la luz en el vacio es una muestra.

 

 Resultado de imagen de Efectos de la velocidad relativistaResultado de imagen de Efectos de la velocidad relativista

“Probablemente todos hemos experimentado esa extraña sensación que engaña nuestro cerebro por una fracción de segundo en el metro o la estación de trenes cuando creemos que nuestro tren se mueve pero en realidad es el tren de al lado el que se mueve en la dirección contraria. Sólo basta mirar a nuestro alrededor para verificar que todo está en reposo por lo que concluímos que es el otro tren el que comienza a moverse. Pero ¿qué pasaría si no hubiese algo para comparar y determinar si nos movemos o no?”

Resultado de imagen de Efectos de la velocidad relativistaImagen relacionada

 

A velocidades grandes cercanas a la de la luz (velocidades relativistas) no sólo aumenta la masa del objeto que viaja, sino que disminuye también su longitud en la misma dirección del movimiento (contracción de Lorentz) y en dicho objeto y sus ocupantes –si es una nave– se retrasa al paso del tiempo, o dicho de otra manera, el tiempo allí transcurre más despacio. A menudo se oye decir que las partículas no pueden moverse “más deprisa que la luz” y que la “velocidad de la luz” es el límite último de velocidad.

Pero decir esto es decir las cosas a medias, porque la luz viaja a velocidades diferentes dependiendo del medio en el que se mueve. Donde más deprisa se mueve la luz es en el vacío: allí lo hace a 299.792’458 Km/s. Este sí es el límite último de velocidades que podemos encontrar en nuestro universo.

 

 

 Resultado de imagen de Estaciones sumergidas en los océanos serán habitadas en el futuroResultado de imagen de Estaciones sumergidas en los océanos serán habitadas en el futuro

 Resultado de imagen de Ciudades submarinasResultado de imagen de Ciudades submarinas

 

 

En el futuro, grandes estaciones sumergidas en el océano y ciudades en otros mundos rodeadas de campos de fuerza que impedirán la radiación nociva mientras tanto se va consiguiendo terraformar el planeta. La tecnología habrá avanzado tanto que nada de lo que hoy podamos imaginar estará fuera de nuestro alcance y, viajar a mundos situados a decenas de años-luz de la Tierra será para entonces, lo cotidiano

Eso es lo que imaginamos pero… ¿Qué maravillas tendremos dentro de 150 años? ¿Qué adelantos científicos se habrán alcanzado? ¿Qué planetas habremos colonizado? ¿Habrá sucedido ya ese primer contacto del que tanto hablamos? ¿Cuántas “Tierras” habrán sido encontradas? ¿Qué ordenadores utilizaremos? ¿Será un hecho cotidiano el viaje espacial tripulado? ¿Estaremos explotando las reservas energéticas de Titán? ¿Qué habrá pasado con la Teoría de Cuerdas? Y, ¿Habrá, por fín aparecido la dichosa Gravedad cuántica y sabremos si realmente, existe esa materia oscura de la que tanto se habla? Haciendo todas estas preguntas de lo que será o podrá ser, nos viene a la memoria todo lo que fue y que nos posibilita hacer estas preguntas.

 

 

http://4.bp.blogspot.com/_4FNQ5M5FnsQ/TNB34uRv8UI/AAAAAAAAACY/rF-VVLCpPfc/s1600/ciencias1.jpg

 

 

Una cosa nos debe quedar bien clara, nada dentro de 250 años será lo mismo que ahora. Todo habrá cambiado en los distintos ámbitos de nuestras vidas y, a excepción del Amor y los sentimientos que sentiremos de la misma manera (creo), todo lo demás, habrá dado lugar a nuevas situaciones, nuevas formas de vida, nuevas sociedades, nuevas maneras y, podríamos decir que una Humanidad nueva, con otra visión y otras perspectivas.

La Ciencia habrá avanzado tanto que, la media de vida de los seres de nuestra especie habrá alcanzado el siglo y más: Nuevos medicamentos y tratamientos, el “universo de lo nano” habrá entrado con fuerza en nuestras vidas y en nuestras tecnologías, la computación que tendremos dentro de un siglo sería irreconocible para los usuarios de hoy, y, los avances en el conocimiento de los materiales, de la Astrofísica y de la Mecánica cuántica nos dejarían más que asombrados. Sin embargo, aunque estamos contribuyendo a ello, ese será otro mundo que no podremos diusfrutar y, con imaginarlo, nos conformaremos.

 

 

Ilustración abstracto con líneas y flashes  Foto de archivo - 8141891

 

Nuevas maneras de sondear la Naturaleza y desvelar los secretos

 

Todo eso ha podido y podrá ser posible gracias a los que antes que nosotros estuvieron aquí. Pero echemos una mirada al pasado. Dejando a un lado a los primeros pensadores y filósofos, como Tales, Demócrito, Empédocles, Ptolomeo, Copérnico, Galileo, Kepler y otros muchos de tiempos pasados, tenemos que atender a lo siguiente:

 

 

https://cnho.files.wordpress.com/2010/09/comprendiendo-la-mecanica-cuantica.gif

 

 

La cuántica nos habla del “universo” de las partículas subatómicas, de los cuantos de Planck, la Gravesad lo hace del macromundo, de como ésta fuerza de la Naturaleza dibuja la geometría del espacio, mantiene unidos los planetas alrededor de las estrellas en los sistemas planetarios, o, conforma estrellas supermasivas que dejan la secuencia principal en Agujeros negros.

Nuestra Física actual está regida y dominada por dos explosiones cegadoras ocurridas en el pasado: Una fue aquel artículo de 8 páginas que escribiera Max Planck, en ese corto trabajo dejó sentados los parámetros que rigen la Ley de la distribución de la energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de en una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.

Un amigo físico me decía: cuando escribo un libro, procuro no poner ecuaciones, cada una de ellas me quita diez lectores. Siguiendo el ejemplo, procuro hacer lo mismo (aunque no siempre es posible) pero, en esta ocasión dejaremos el desarrollo de la energía de Planck del que tantas veces se habló aquí, y, ponernos ahora a dilucidar ecuaciones no parece lo más entretenido, aunque el lenguaje de la ciencia, no pocas veces es el de los números.

Allá por el Año 1905, en desconocido Einstein, escribía unos artículos sobr ela Relatividad Especial que hablaba de que la masa y la energía eran la misma cosa, de que la velocidad de la luz nos decía qué límite tiene el universo para transmitir información o viajar, que los objetos se contraen el en sentido de la marcha si van a una velocidad relativista, o que el Tiempo, se puede ralentizar cuando marcha a velocidades cercanas a la de la luz.

 

 Resultado de imagen de el movimiento brownianoResultado de imagen de el movimiento browniano

 

En mayo de 1905, Einstein publicó, también en la revista gran alemán “Annalen der Physik”, un segundo artículo, más sutil, sobre el movimiento browniano, descrito por Robert Brown en 1827. El famoso botánico en la naturaleza, que las piedras contienen agua, en el que hay granos de polen. Estos granos de polen están en movimiento mientras están encerrados durante millones de años.

¿Cómo es que estos granos de polen se mueven?

De la misma manera las gotas de tinta en un líquido, se diluyen debido a la constante agitación de las partículas. Este es el movimiento browniano. Durante más de 70 años, no físico, no podría explicar este fenómeno como la existencia de las moléculas, estas pequeñas partículas no fueron encontrados. El movimiento browniano se explica en 1900 por Einstein, y Marian Smoluchowski por Louis Bachelier. El movimiento realizado por el polen suspendido en el aire, por ejemplo, en un rayo de Sol a través de un bosque sombrío, debido a la existencia de las moléculas. Einstein explica el movimiento browniano de la hipótesis atómica y molecular, y calcula el tamaño de las moléculas.

 

 

 

 

Para el astrónomo Christian Huygens,  esta sustancia se llamaba “éter”, y lo permeaba todo en el universo. Por supuesto, el éter –aunque aceptado como una hipótesis muy probable– no podía ser como cualquier material. Para permitir el traslado de la onda electromagnética propuesta por Maxwell debía ser más denso que el acero, pero al mismo tiempo carecer de masa y viscosidad, para no obstruir el paso de los planetas. También debía ser perfectamente transparente, y mantenerse completamente estático y uniforme en todo el cosmos (para explicar que la velocidad de la luz fuera siempre constante, como revelaban las mediciones).

En septiembre de 1905, y todavía en la revista alemana “Annalen der Physik”, aparece el tercer artículo de Einstein.  El tercer artículo titulado “la electrodinámica de cuerpos en movimiento”, es aún más revolucionario, porque la intuición de Einstein se rompe con la física newtoniana. Einstein ataca a la asunción de un espacio y tiempo absoluto, tal como se define por la mecánica newtoniana.

También se ocupa de la existencia del éter, medio interestelar inerte debe apoyar a la luz, como el agua o el aire las ondas de sonido de apoyo a medida que avanzan.  Este artículo es el creador de la teoría de la relatividad. AE = Δmc2, Einstein redefinió ciertas leyes de la naturaleza, pero su teoría tiene límites, es por eso que se llama teoría de la relatividad.  Sólo cuando los objetos se mueven a gran velocidad en línea recta cerca del observador, se encogen y los relojes de reducir la velocidad.

 

 

 Resultado de imagen de La masa y la energía son dos aspectos de la misma cosaMateria - Partículas subatómica

 

El último artículo, se deriva del artículo anterior, que contiene sólo dos páginas y se publica inmediatamente después de la tercera en septiembre de 1905.  En este artículo se titula “La inercia de la energía”, y no de fines, con E = mc2, pero AE = Δmc2.

La variación del contenido energético de un sistema es igual a la variación de la masa multiplicada por c2, la velocidad de la luz. Esta idea explica que cuando un cuerpo masivo absorbe la energía, su masa ha cambiado. Esta energía se calcula multiplicando la masa por el cuadrado de la velocidad de la luz. Ahora sabemos que el poder de la energía contenida en la materia es enorme, incluso cuando un cuerpo es inerte. E es la energía expresada en julios, m la masa en kilogramos, y c es la velocidad de la luz en m/s. Los físicos entienden como la masa contiene una energía oculta, enorme. La energía oculta, lo que corresponde a 1 kg de la materia es importante, ya que es de 9 x 1016 julios (1 kW / h = 3.600.000 J). Esto corresponde a la energía producida por un reactor nuclear con una capacidad de 1400 MW durante dos años.

 

 

 

 

En cualquier evento de Ciencia, ahí aparecen esos galimatías de los números y letras que pocos pueden comprender, dicen que es el lenguaje que se debe utilizar cuando las palabras no pueden expresar lo que se quiere decir. Y, lo cierto es que, así resulta ser.

Después de lo de Planck y su radiación de cuerpo negro, cinco años más tarde, irrumpió en escena otra  revolución de la Física se produjo en 1.905, cuando Albert Einstein publicó su trabajo sobre la Teoría de la Relatividad Especial nos dio un golpecito  en nuestras cabezas para despertar en ellas nuestra comprensión de las leyes que gobiernan el Universo.

Nos dijo que la velocidad de la luz es la máxima alcanzable en nuestro universo, que la masa y la energía son la misma cosa, que si se viaja a velocidades cercanas a la de la luz, el tiempo se ralentiza pero, el cuerpo aumentará su masa y se contraerá en el sentido de la misma…Y, todo eso, ha sido una y mil veces comprobado. Sin embargo, muchas son las pruebas que se realizan para descubrir los fallos de la teoría, veamos una:

 

 

 

Resultado de imagen de Captan una explosión Gamma

 

 

Los científicos que estudian la radiación gamma de una explosión de rayos lejanos han encontrado que la velocidad de la luz no varía con la longitud de onda hasta escalas de distancia por debajo de la relatividad(longitud de Planck. Ellos dicen que esto desfavorece a algunas teorías de la gravedad cuántica que postulan la violación de la invariancia de Lorentz.

La invariancia de Lorentz se estipula que las leyes de la física son las mismas para todos los observadores, independientemente de dónde se encuentren en el universo. Teoría de la Relatividad de Einstein, utilizó este principio como un postulado de la relatividad especial especial, en el supuesto de que la velocidad de la luz en el vacío, no depende de que se esté midiendo, siempre y cuando la persona esté en un sistema inercial de referencia. En más de 100 años la invariancia de Lorentz nunca ha sido insuficiente.

 

 

 http://2.bp.blogspot.com/_XGCz7tfLmd0/TCu_FS8raaI/AAAAAAAAGTs/6GWffvsxzPc/s320/image012.jpg

 

 

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad general y la mecánica cuántica, aunque ambas teorías parecen contradecirse mutuamente. Los postulados que definen la teoría de la relatividad de einstein  y la teoría del quántum está incuestionablemente apoyados por rigurosa y repetida evidencia experimental. Sin embargo, ambas se resisten a ser incorporadas dentro de un mismo modelo coherente.

 

 

La Teoría de cuerdas nos habla de las vibraciones que éstas emiten y que son partículas cuánticas. En esta teoría, de manera natural, se encuentran las dos teorías más importantes del momento: La Gravedad y la Mecánica cuántica, allí, subyacen las ecuaciones de campo de la teoría de la relatividad de Einstein que, cuando los físicas de las “cuerdas” desarrollan su teoría, aparecen las ecuciones relativista, sin que nadie las llame, como por arte de magia. Y, tal aparición, es para los físicos una buena seña.

Sin embargo, los físicos siguen sometiendo a pruebas cada vez más rigurosas, incluyendo versiones modernas del famoso experimento interferométrico de Michelson y Morley. Esta dedicación a la precisión se explica principalmente por el deseo de los físicos para unir la mecánica cuántica con la relatividad  general, dado que algunas teorías de la gravedad cuántica (incluyendo la teoría de cuerdas y la gravedad cuántica de bucles) implica que la invariancia Lorentz podría romperse.

 

 Resultado de imagen de Invariancia de LorentzResultado de imagen de Invariancia de Lorentz

 

 

Ganov y sus colegas estudiaron la radiación de una explosión de la relatividad y los rayos gamma(asociada con una explosión de gran energía en una galaxia distante) que fue descubierto por la NASA relatividad/Fermi Gamma-Ray Space Telescope, el 10 de mayo de este año. Se analizó la radiación en diferentes longitudes de onda para ver si había indicios de que los sucesos relativistas producían fotones con energías diferentes llegaron a los detectores de relatividad/Fermi en diferentes momentos.

Tal difusión de los tiempos de llegada parece indicar que la invariancia Lorentz efectivamente había sido violada, es decir que la velocidad de la luz en el vacío depende de la energía de la luz y no es una constante universal. Cualquier dependencia de la energía sería mínima, pero aún podría resultar en una diferencia mensurable en los tiempos de llegada de relatividad/fotones debido a los miles de millones de años luz de a la que se encuentran las explosiones relativistas de rayos gamma.

 

 


 

Cuando nos acercamos a la vida privada del genio… ¡también, como todos, era humano!

 

 

De la calidad de Einstein como persona nos habla un detalle: Cuando el Presidente Chaim Weizmann de Israel murió en 1952, a Einstein,  se le ofreció la presidencia, pero se negó, diciendo que no tenía “ni la habilidad natural ni la experiencia para tratar con seres humanos.” Luego escribió que se sentía muy honrado por el ofrecimiento del estado de Israel, pero a la vez triste y avergonzado de no poder aceptarla.

Pero sigamos con la segunda revolución de su teoría que se dio en dos pasos: 1905 la teoría de la relatividad especial y en 1.915, diez años después, la teoría de la relatividad general que varió por completo el concepto del Cosmos y nos llevó a conocer de manera más profunda y exacta la Gravedad de Newtonque mejoró. En realidad, a partir de la relatividad General nació la verdadera Cosmología con objetos antes inexistentes como agujeros negros y de gusano entre otros muchos fenómenos que dicha teoría nos trajo.

 

 

 

http://www.cosmonoticias.org/wp-content/uploads/2011/05/energia-oscura-y-gravedad.jpg

 

      La Relatividad de Einsteins  nos decía que el espacio se curva en presencia de grandes masas

 

En la Teoría Especial de la Relatividad, se refirió a sistemas de referencias inerciales (no acelerados). Asume que las leyes de la física son idénticas en todos los sistemas de referencia y que la velocidad de la luz en el vacío, c, es constante en el todo el Universo y es independiente de la velocidad del observador.

La teoría desarrolla un sistema de matemáticas con el fin de reconciliar estas afirmaciones en aparente conflicto. Una de las conclusiones de la teoría es que la masa de un cuerpo, aumenta con la velocidad (hay una ecuación que así lo demuestra), y, tal hecho, ha sido sobradamente comprobado en los aceleradores de partículas donde un muón, ha aumentado más de diez veces su masa al circular a velocidades cercanas a la de la luz. Y el muón que tiene una vida de dos millonésimas de segundo, además, al desplazarse a velocidades relativistas, también ven incrementado el tiempo de sus vidas.

 

 

 

 

El Acelerador de Partículas LHC es una Obra inmensa que ha construido el SER Humano para saber sobre la Naturaleza de la materia y…

Todos esos impulsos son llevados a procesadores electrónicos de datos a través de cientos de miles de cables. Por último, se hace una grabación en carrete de cinta magnética codificada con ceros y unos. La cinta graba las violentas colisiones de los protones y antiprotones, en las que generan unas setenta partículas que salen disparadas en diferentes direcciones dentro de las varias secciones del detector.

 

 

 

 

El LHC es un esfuerzo internacional, donde participan alrededor de siete mil físicos de 80 países. Consta de un túnel en forma de anillo, con dimensiones interiores parecidas a las del metro subterráneo de la Ciudad de México, y una circunferencia de 27 kilómetros. Está ubicado entre las fronteras de Francia y Suiza, cerca de la ciudad de Ginebra, a profundidades que van entre los 60 y los 120 metros debido a que una parte se encuentra bajo las montañas del Jura

 

La ciencia, en especial la física de partículas, gana confianza en sus conclusiones por duplicación; es decir, un experimento en California se confirma mediante un acelerador de un estilo diferente que funciona en Ginebra con otro equipo distinto que incluye, en cada experimento, los controles necesarios y todas las comprobaciones para que puedan confirmar con muchas garantías, el resultado finalmente obtenido. Es un proceso largo y muy complejo, la consecuencia de muchos años de investigación de muchos equipos diferentes.

 

 

 

 

Einstein también concluyó que si un cuerpo pierde una energía L, su masa disminuye en L/c2. Y generalizó esta conclusión al importante postulado de que la masa de un cuerpo es una medida de su contenido en energía, de acuerdo con la ecuación m=E/c2 ( o la más popular E=mc2).

Otras de las conclusiones de la teoría de Einstein en su modelo especial, está en el hecho de que para quien viaje a velocidades cercanas a c (la velocidad de la luz en el vacío), el tiempo transcurrirá más lento. Dicha afirmación también ha sido experimentalmente comprobada.

Todos estos conceptos, por nuevos y revolucionarios, no fueron aceptados por las buenas y en un primer momento, algunos físicos no estaban preparados para comprender cambios tan radicales que barrían de un plumazo, conceptos largamente arraigados.

 

 

http://4.bp.blogspot.com/_zBAdWxgEeX0/R87vhcBGPII/AAAAAAAACI4/MCE-Wi6d2v0/s320/galatomo.jpg

 

       Todo lo grande está hecho de cosas pequeñas

 

Fue Max Planck, el Editor de la Revista que publicó el artículo de Albert Einstein, quien al leerlo se dió cuenta de la enorme importancia de lo que allí se decía. A partir de aquel momento, se convirtió en su valedor, y, en verdad, Einstein  reconoció públicamente tal ayuda.

En la segunda parte de su teoría, la Relatividad General, Einstein concluyó que el espacio y el tiempo están distorsionados por la materia y la energía, y que esta distorsión es la responsable de la gravedad que nos mantiene en la superficie de la Tierra, la misma que mantiene unidos los planetas del Sistema Solar girando alrededor del Sol y, también la que hace posible la existencia de las Galaxias.

 

 

 Image of the sky in the region of the centre of the Milky Way

 

 

¡La Gravedad! Siempre está presente e incide en los comportamientos de la materia. La gravedad presente en un agujero negro gigante hace que en ese lugar, el tiempo deje de existir, se paralice y el espacio, se curve en una distorsión infinita. Es decir, ni espacio ni tiempo tienen lugar en la llamada singulariudad.

Nos dio un conjunto de ecuaciones a partir de los cuales se puede deducir la distorsión del tiempo y del espacio alrededor de objetos cósmicos que pueblan el Universo y que crear esta distorsión en función de su masa. Se han cumplido 100 años desde entonces y miles de físicos han tratado de extraer las predicciones encerradas en las ecuaciones de Einstein (sin olvidar a Riemann ) sobre la distorsión del espaciotiempo.

Un Agujero Negro es lo definitivo en distorsión espaciotemporal, según las ecuaciones de Einstein: está hecho única y exclusivamente a partir de dicha distorsión. Su enorme distorsión está causada por una inmensa cantidad de energía compactada: energía que reside no en la materia, sino en la propia distorsión. La distorsión genera más distorsión sin la ayuda de la materia. Esta es la esencia del Agujero Negro.

 

 


 

             Las ecuaciones de campo de la relatividad general de Einstein… ¡Nos dicen tántas cosas!

 

Si tuviéramos un agujero negro del tamaño de la calabaza más grande del mundo, de unos 10 metros de circunferencia, entonces conociendo las leyes de la geometría de Euclides se podría esperar que su diámetro fuera de 10 m.: л = 3,14159…, o aproximadamente 3 metros. Pero el diámetro del agujero es mucho mayor que 3 metros, quizá algo más próximo a 300 metros. ¿ Cómo puede ser esto ? Muy simple: las leyes de Euclides fallan en espacios muy distorsionados.

 

 

 

 

     Con Einstein llegó la cosmología moderna, otra manera de mirar el Universo

 

Con esta teoría de la Relatividad General, entre otros pasos importantes, está el hecho de que dió lugar al nacimiento de la Cosmología que, de alguna manera, era como mirar con nueva visión a lo que l Universo podía significar, Después de Einstein,  el Universo no fue el mismo.

El análisis de la Gravitación que aquí se miuestra interpreta el Universo como un continuo espacio-tiempo de cuatro dimensiones en el el que la presencia de una masa (como decía antes) curva el espacio para crear un campo gravitacional.

 

 

 

 

De la veracidad y comprobación de las predicciones de ésta segunda parte de la Teoría Relativista, tampoco, a estas alturas cabe duda alguna, y, lo más curioso del caso es que, después de casi un siglo (1.915), aún los físicos están sacando partido de las ecuaciones de campo de la teoría relativista en su versión general o de la Gravedad.

Tan importante es el trabajo de Einstein que, en las nuevas teorías, en las más avanzadas, como la Teoría M (que engloba las cinco versiones de la Teoría de Cuerdas), cuando la están desarrollando, como por arte de magía y sin que nadie las llame, surgen, emergen, las ecuaciones de Einstein de la Relatividad General.

 

 

 

 

La luz se propaga en cualquier medio pero en el vacío, mantiene la mayor velocidad posible en nuestro Universo, y, hasta el momento, que se sepa, nada ha corrido más que la luz en ese medio. Algunos han publicado ésta o aquella noticia queriendo romper la estabilidad de la relatividad especial y han publicado que los neutrinos o los taquiones van más rápidos que la luz. Sin embargo, todo se quedó en eso, en una noticia sin demostración para captar la atención del momento.

La luz se propaga en el vacío a una velocidad aproximada a los 30.000 millones (3×1010) de centímetros por segundo. La cantidad c2 representa el producto c×c, es decir:

3×1010 × 3×1010, ó 9×1020.

Por tanto, c2 es igual a 900.000.000.000.000.000.000. Así pues, una masa de un gramo puede convertirse, en teoría, en 9×1020 ergios de energía.

El ergio es una unida muy pequeña de energía que equivale a: “Unidad de trabajo o energía utilizado en el sistema c.g.s y actúa definida como trabajo realizado por una fuerza de 1 dina cuando actúa a lo largo de una distancia de 1 cm: 1 ergio = 10-7 julios”. La kilocaloría, de nombre quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia convertido en energía daría 2’2×1010 (22 millones) de kilocalorías.  Una persona puede sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.

Emilio Silvera

Modelos científicos

$
0
0

No siempre los modelos científicos son una fiel imagen de la realidad. Los átomos y las moléculas que componen el aire que respiramos, por ejemplo,  se pueden describir en términos de un modelo en el que imaginamos cada partícula como si fuera una pequeña esfera perfectamente elástica, con todas las pequeñas esferas rebotando unas contra otras y contra las paredes del recipiente que las contiene.

Esa es la imagen mental, pero es sólo la mitad del modelo; lo que lo hace modelo científico es describir el modo como se mueven las esferas y rebotan unas contra otras mediante un grupo de leyes físicas, escritas en términos de ecuaciones matemáticas. En este caso, éstas son esencialmente las leyes del movimiento descubiertas por Newton hace más de trescientos años. Utilizando estas leyes matemáticas es posible predecir, por ejemplo, que le pasará a la presión ejercida por un gas si se aplasta hasta la mitad de su volumen inicial. Si hacemos el experimento, y, el resultado que se obtiene encaja con la predicción del modelo, este será un buen modelo.

Resultado de imagen de Modelos científicosResultado de imagen de Modelos científicosResultado de imagen de Modelos científicosResultado de imagen de Modelos científicos

De hecho, todos los modelos científicos tienen aplicabilidad limitada. Ninguno de ellos es “la verdad “. Cuando un científico afirma, por ejemplo, que el núcleo de un átomo está compuesto por partículas denominadas protones y neutrones, lo que en realidad debería decir es que el núcleo de un átomo se comporta, bajo determinadas circunstancias, como si estuviera formado de protones y neutrones. Los mejores científicos toman el “como sí “, pero entienden que sus modelos son, efectivamente, sólo modelos; científicos menores a menudo olvidan esta diferencia crucial.

Los científicos menores, y muchos no-científicos, tienen otra idea equivocada. A menudo piensan que el papel de los científicos hoy en día es llevar a cabo experimentos que probarán la exactitud de sus modelos con una precisión cada vez mayor (hacia posiciones con más y más decimales). ¡En absoluto! La razón para llevar a cabo experimentos que demuestren predicciones previas no comprobadas es descubrir dónde fallan los modelos. Encontrar defectos en sus modelos es la esperanza abrigada por los mejores científicos, porque esos defectos destacarán los lugares donde necesitamos una nueva comprensión, con modelos mejores, para progresar.

Resultado de imagen de La fuerza de GravedadResultado de imagen de La fuerza de GravedadResultado de imagen de La fuerza de GravedadResultado de imagen de La fuerza de Gravedad

 

 

La Ley de la gravitación universal de Newton, publicada en 1687, sirve para explicar cómo actúa la gravedad en la Tierra, por ejemplo por qué cae una manzana de un árbol. El profesor Pavel Kroupa del Instituto de Astronomía Argelander de la Universidad de Bonn (Alemania) explicó que «a pesar de que su ley describe los efectos cotidianos de la gravedad en la Tierra, las cosas que podemos ver y medir, cabe la posibilidad de que no hayamos sido capaces de comprender en absoluto las leyes físicas que rigen realmente la fuerza de la gravedad».

El arquetípico ejemplo de esto es la gravedad. La ley de la gravedad de Isaac Newton se consideró la pieza clave de la física durante más de doscientos años, desde la década de 1680 hasta comienzos del siglo XX. Pero había unas pocas, aparentemente insignificantes, cosas que el modelo newtoniano no podía explicar o predecir, referente a la órbita del planeta mercurio y al modo como la luz se curva cuando pasa cerca del Sol. El modelo de gravedad de Albert Einstein, basado en su teoría general explica lo mismo que el modelo de Newton pero también explica esos detalles sutiles de órbitas planetarias y curvatura de la luz. En ese sentido, es un modelo mejor que el anterior, y hace predicciones correctas (en particular, sobre el Universo en general) que el viejo modelo no hace. Pero el modelo de Newton todavía es todo lo que se necesita si se está calculando el vuelo de una sonda espacial desde la Tierra a la Luna.

¿SABEMOS COMO COMENZÓ EL UNIVERSO?

 

 

Universo sin la materia oscura. Creo que eso a lo que llaman materia oscura no es otra cosaq que, a lo que altguno llamó Ylem, la sustancia cosmológica primera que existía y que sirvió para conformar la materia del Cosmos.

 

Esta ahora ampliamente aceptado que el Universo donde habitamos surgió a partir de una singularidad con densidad y energía “infinita“ que dio lugar a una bola de fuego caliente y densa a la que llamamos Big Bang. En los años veinte y treinta, los astrónomos descubrieron por primera vez que nuestra Galaxia es simplemente una isla de estrellas dispersa entre muchas galaxias similares, y que grupos de estas galaxias se están apartando las unas de las otras a medida que el espacio se expande. Esta idea del Universo en expansión fue realmente predicha por la teoría general de la relatividad de Einstein, terminada en 1916 pero no se tomó en serio hasta que los observadores hicieron sus descubrimientos. Cuando se tomó en serio los matemáticos descubrieron que las ecuaciones describían exactamente el tipo de expansión que observamos, con la implicación de que si las galaxias se van alejando con el tiempo entonces deberían haber estado más juntas en el pasado, y hace mucho tiempo toda la materia en el Universo debería estar acumulada en una densa bola de fuego.

Resultado de imagen de El Modelo del Big Bang

Es la combinación de la teoría y de la observación la que hace que la idea del Big Bang sea tan convincente; en los años sesenta llegó una clara evidencia, con el descubrimiento de un siseo débil de ruido de radio, la radiación cósmica de fondo, que viene de todas las direcciones del espacio y se interpreta como la radiación restante del mismo Big-Bang.

Como la expansión del Universo, la existencia de esta radiación de fondo fue predicha por la teoría antes de ser observada experimentalmente. A finales del siglo XX, la combinación de teoría y observaciones había establecido que el tiempo que ha pasado desde el Big Bang es de unos 14 mil millones de años, y que existen cientos de miles de millones de galaxias como la nuestra dispersas de un extremo al otro del Universo en expansión.

 

La Física está presente en toda la historia del Universo

 

 

La pregunta a la que se están enfrentando ahora los cosmólogos es ¿cómo empezó el mismo Big Bang? El punto de partida para enfrentarnos a esta pregunta es el modelo estándar propio de los cosmólogos, que combina todo lo que han aprendido de las observaciones del universo en expansión con el entendimiento teórico del espacio y el tiempo incorporado a la teoría general de Einstein. El establecimiento de este modelo se ha visto favorecido por el hecho de que cuanto más lejos miramos del Universo, más tiempo atrás vemos. Debido a que la luz viaja a una velocidad finita, cuando miramos galaxias alejadas millones de años luz, la vemos como si estuvieran presentes como eran millones de años antes, cuando salió la luz que llega ahora a nuestros telescopios.

Con telescopios potentes, los astrónomos pueden ver qué aspecto tenía el Universo cuando era más joven (y la radiación cósmica de fondo nos permite “ver -con radiotelescopios- la última etapa de la bola de fuego que fue el Big Bang).

 

 

Resultado de imagen de Imagen del Universo joven captada por el Hubble

 

 

Se ha descubierto radiación de cuerpo negro y anisotropía en la radiación de fondo, lo que nos viene a decir que, el universo, no se expandió de la misma manera para todas las regiones, y, al no ser isotrópico el movimiento de expansión, podemos pensar que tal anomalía puede estar provacada por la clase de materiales que se estaban formando y sus distintas intensidades.

Lo más atrás que hemos visto, el origen de la radiación de fondo corresponde a un tiempo unos pocos cientos de miles de años después del momento del Big Bang, cuando todo el Universo estaba lleno de gas caliente (conocido técnicamente como plasma) a aproximadamente la misma temperatura que la que tiene la superficie del Sol hoy en día, unos pocos miles de grados Celsius. En ese momento, lo que ahora es el Universo visible entero era solo una milésima parte de su tamaño actual y no había objetos individuales en la escala de las estrellas o galaxias en el remolino de material caliente.

Resultado de imagen de Irregularidades en la radiación de fondo

Moviéndonos hacia delante en el tiempo, las irregularidades observadas en la radiación de fondo son justamente del tamaño y estructura correctos para explicar el origen de las galaxias y de los grupos de galaxias – son las semillas donde creció la estructura que vemos en el Universo hoy- .

Yendo hacia atrás en el tiempo, la estructura de las irregularidades vista en la radiación de fondo nos habla sobre el tipo de irregularidades que había en el Universo cuando era incluso más joven, justo hasta ese momento atrás en que la teoría general por sí misma se rompe.

11-three_quarks 11-heart2quarks_smallResultado de imagen de Plasma Gluon - Quarks

 

 

Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos.

Imagen relacionada

Lo primero, y más importante, que hay que decir sobre estas irregularidades en la radiación de fondo es que son diminutas. Son tan pequeñas que al principio era imposible medirlas, y la radiación parecía que viniera perfectamente uniforme desde todas las direcciones en el espacio (isotropía). Si la radiación fuera perfectamente uniforme, todo el modelo estándar del Universo se desbarataría, ya que si no hubiera habido irregularidades en la bola de fuego del Big Bang no habría habido semillas desde donde las galaxias pudieran crecer, y nosotros al no haberse formado las estrellas y fabricado en sus núcleos los materiales complejos de los que estamos hechos, no estaríamos aquí. El hecho de que los científicos estén tratando de resolver estas preguntas han convencido a los astrónomos de que debería haber irregularidades en la radiación de fondo, sólo había que desarrollar instrumentos sensibles para medirlas.

En este sentido podríamos citar el satélite de la NASA COBE  que fue capaz de hacer medidas suficientemente sensibles para demostrar que había efectivamente minúsculas ondulaciones en la radiación de fondo. Las dos preguntas clave derivadas del descubrimiento son: ¿por qué la radiación de fondo es casi lisa?, ¿Qué crea las ondulaciones?

 

 

                  COBE Satélite de la NASA

 

 

Resultado de imagen de La Vía Láctea

 

 

La primera pregunta es más profunda de lo que se pueda pensar, porque incluso hoy, 14 mil millones de años después, el Universo es todavía casi liso. Esto no es obvio si contrastamos la luminosidad de una galaxia como nuestra Vía Láctea con la oscuridad del espacio entre las galaxias pero enseguida se hace evidente a mayores escalas. El Universo no es exactamente uniforme, pero incluso en términos de distribución de las galaxias es uniforme en cierto sentido. Si tomamos una fotografía de las galaxias vistas en una pequeña zona del cielo se parecerá mucho a otra fotografía de una zona del mismo tamaño de otra parte del cielo. La radiación de fondo es incluso más uniforme, y parece exactamente la misma desde todos los puntos del espacio dentro de una fracción del 1 por ciento. La profundidad de esta observación descansa en el hecho de que no ha pasado el tiempo suficiente desde el Big Bang para que todas las diferentes partes del Universo interactúen unas con otras y deje de ser liso.

Resultado de imagen de El Espacio-tiempo se curva en presencia de masa

Esta homogeneidad está relacionada con otra característica extraña del Universo denominada sub-planitud. La teoría general de la relatividad nos dice que el espacio (en sentido estricto, el espacio-tiempo) se puede curvar y deformar por la presencia de materia. Localmente, cerca de un objeto como el Sol o la Tierra, esta deformación del espacio-tiempo produce el efecto que llamamos gravedad. Cósmicamente, en el espacio entre las estrellas y las galaxias el efecto combinado de toda la materia en el universo puede producir una curva gradual en el espacio en uno de los dos sentidos.

Aquí tendríamos que continuar hablando de la densidad crítica y de la clase de universo que tendríamos en función de la cantidad de materia que este contenga. Sin embargo, dejaremos ese punto del universo cerrado, abierto o plano, ya que, en uno de los comentarios muy recientes de esta colaboración ya quedaron explicados de manera suficiente.

http://apod.nasa.gov/apod/image/0509/sky_wmap_big.jpg

Lo más atrás que hemos visto, el origen de la radiación de fondo corresponde a un tiempo unos pocos cientos de miles de años después del momento del Big Bang, cuando todo el Universo estaba lleno de gas caliente (conocido técnicamente como plasma) a aproximadamente la misma temperatura que la que tiene la superficie del Sol hoy en día, unos pocos miles de grados Celsius. En ese momento, lo que ahora es el Universo visible entero era solo una milésima parte de su tamaño actual y no había objetos individuales en la escala de las estrellas o galaxias en el remolino de material caliente.

Resultado de imagen de Densidad CríticaResultado de imagen de Densidad Crítica

Nuestro Universo será abierto, cerrado o plano en función de la cantidad de materia que contenga

Estudios cada vez más sofisticados de la radiación de fondo, que culminaron con las observaciones hechas por el satélite WAP de la NASA a principios de éste siglo XXI y del Planck Explorer de ESA un poco más tarde, mostraron que el Universo efectivamente está indistinguiblemente cerca de la planitud, de modo que su densidad debería estar indistinguiblemente cerca de la Densidad crítica. Esto dio lugar al rompecabezas  de donde estaba la masa “desaparecida” (esa que llamamos materia oscura que, nunca se ha visto, ni produce radiación, ni sabemos como se hizo, de qué clase de partículas está conformada – si es que son partículas- y, un sin fin de interrogantes más que, ahora no sabemos contestar).

En realidad, la teoría de la inflación es todavía un trabajo en progreso, y, como en el caso de la GUT, existen diferentes variaciones o modelos sobre el tema. Lo que está claro de todo esto es que, no se puede negar, ni el esfuerzo realizado, ni el éxito alcanzado que, sin ser aún lo que se desea, sí es un paso importante en el conocimiento del Cosmos. Ahora sabemos de él muchísimo más que se sabía en los tiempos de Galileo, y, tanto la técnica, como las matemáticas y la física, han desarrollado la Astronomía y la Astrofísica, hasta unos niveles encomiables, teniendo en cuenta que estamos estudiando una cosa muy, muy grande y cuyos objetos están muy, muy lejos.

Sin embargo, podemos obtener imágenes de galaxias lejanas y de nebulosas que se encuentran a miles o millones de años luz de la Tierra y, mediante técnicas del estudio del espectro, saber, de que materiales están formados.

NGC 6302: nebulosa “bicho” grande y brillante

 

 

NGC 6302 una Nebulosa brillante que tiene una temperatura superficial de aproximadamente 250 mil grados centígrados debido a que su estrella central, en exceso caliente, hace de esta nebulosa planetaria peculiar, una muy brillante conglomeración de gas y polvo. El telescopio Espacial Hubble captó esta bella imagen para nosotros.

Es aún muy grande el espacio oscuro que tenemos que alumbrar para conocer en plenitud nuestro vasto Universo, son muchas las zonas que están en la penumbra, y, debemos y tenemos la obligación de continuar profundizando en el saber del Universo que nos acoge.

Nos tendríamos que detener a estudiar la curiosa propiedad de la gravedad, que guarda energía negativa. Cuando algo (¡cualquier cosa!) cae hacia debajo de un campo gravitacional (como el agua que se precipita desde la montaña) la energía es liberada………Pero eso, será otra historia que ya contaremos. Ahora, para no cerrar en falso el comentario, diré que, no existe ningún límite, en principio, en cuanta masa (en sentido estricto masa-energía, teniendo en mente E=mc2) puede tener una fluctuación cuántica, aunque cuanto más masiva sea una fluctuación, menos probable es que suceda.

Resultado de imagen de El agua corre hacia abajo desde la montañaResultado de imagen de El agua corre hacia abajo desde la montaña

El cosmólogo americano Ed Tyron señaló que en principio una fluctuación cuántica que contiene la masa-energía de todo el Universo visible podría salir de la nada, y que aunque la masa-energía de tal fluctuación sería enorme, en las circunstancias correctas la energía gravitacional negativa del campo gravitacional asociado a toda esta masa equilibraría perfectamente esto, de modo que la energía total de la fluctuación sería cero.

La implicación, naturalmente, es que nuestro Universo nació (o brotó) de este modo desde el espacio-tiempo de otro universo, y que no hubo principio y no habrá final. Sólo un mar infinito de universos burbujas interconectados.

¡Es tanto lo que nos queda por aprender!

emilio silvera

Viewing all 959 articles
Browse latest View live