Quantcast
Channel: Física – Blog de Emilio Silvera V.
Viewing all 959 articles
Browse latest View live

Acercarse a la velocidad de la luz… trae consecuencias

$
0
0

Todos sabemos de los fenómenos que se pueden producir en algunos aspectos de la relatividad especial de Einstein. Él no quiso llamarla de esa manera y, había pensado que “teoría de la invariabilidad” que reflejaba el carácter invariable de la velocidad de la luz, entre otras cosas, estaría bien. Sin embargo, finalmente se quedó como la Teoría de la Relatividad Especial. La obra de Eintein demostraba que conceptos tales como espacio y tiempo, que anteriormente parecían estar sepados y ser absolutos, en realidad están entrelazados y son relativos. Einstein demostró además que otras propiedades físicas del universo, sorprendentemente, también están interrelacionadas. La más famosa de sus fórmulas constituye uno de los ejemplos más importantes.

En esta escueta fórmula Einstein afirma que la energía (E) de un objeto y su masa (m) son conceptos independientes; podemos determinar la energía a partir de la masa del objeto (multiplicando esta dos veces por la velocidad de la luz, o sea por c2) o podemos determinar la masa conociendo su energía (dividiendo esta úlñtima dos veces por la velocidad de la luz). En otras palabras, la energía y la masa son las caras de una misma moneda. Claro que, el tipo de cambio es grande (c2 es una cantidad considerable). Una masa pequeña llega a producir una cantidad considerable de energía.

Nube de hongo sobre Hiroshima después de haber soltado la bomba Little Boy.
La nube de hongo creada por la bomba Fat Man como resultado de la explosión nuclear sobre Nagasaki.
   Nube del hongo sobre Hirosima y
   Nube del hongo sobre Nagasaki
En Hirosima se utilizó como arma el devastador poder destructivo obtenido de la conversión en energía de menos del uno por ciento de 900 gramos de uranio; algún día,  en centrales energéticas de fusiòn podremos utilizar productivamente la fórmula de Eisntein para bien de la Humanidad y satisfacer la demanda de energía del mundo moderno aprovechando la materia prima inagotable que tenemnos en el agua de los mares y océanos de la Tierra.
Los conceptos que ponen de relieve la Teoría de la Relatividad Especial, ponen de relieve principios fundamenteles y una de las cosas que nunca podremos hacer es ir más rápido que la velocidad de la luz. Algunos de ustedes se podrá preguntar ¿por qué no podemos coger un objeto, por ejemplo un muón, que un acelerador de partículas haya impulsado hasta conseguir que se mueva a 298 168 Km/s -el 99,5 por ciento de la velocidad de la luz- y “empujarlo un poco más”, consiguiendo que vaya al 99,9 por ciento de la velocidad de la luz, y entonces”empujarlo realmente un poco más” para tratar de que cruce la barrera de la velocidad de la luz.

La energía que se comunica a un cuerpo libre puede integrarse en él de dos maneras distintas:

  1. En forma de velocidad, con lo cual aumenta la rapidez del movimiento.
  2. En forma de masa, con lo cual se hace “más pesado”.

La división entre estas dos formas de ganancia de energía, tal como la medimos nosotros, depende en primer lugar de la velocidad del cuerpo (medida, una vez más, por nosotros).

 

Resultado de imagen de http://www.fondospantallagratis.es/wp-content/uploads/2010/09/acelerador-de-particulas.jpg

 

Captamos imágenes de galaxias situadas a 12 millones de años luz, y, desde luego, la podemos ver como eran entonces, hace 12 millones de año que es el Tiempo que tardó la luz de la galaxia en llegar a nosotros

 

Estamos tratando de cruzar la barrera de la velocidad de la luz pero, Einstein, en su fórmula nos explica que tal cosa no es posible, y, el esfuerzo no tendría éxito precisamente por lo que antes hemos explicado para las dos maneras en que se transmite la energía y se puede incorporar a un cuerpo libre.

 

¿por qué la masa de un objeto aumenta a medida que incrementa su velocidad y de dónde sale esa masa que se suma.?

¿Cómo que la masa aumenta con la velocidad? ¿Ahora resultará que salir a correr engorda?

 

Resultado de imagen de Un objeto a mucha velocidad gana masa
En esta ecuación, el término pc representa el momento del objeto (o, lo que es lo mismo, el producto de su masa por la velocidad a la que se desplaza), …
Cuanto más rápido se mueve un objeto, más energía tiene y, a partir de la fórmula de Einstein, vemos que cuanta más energía tiene un objeto, más masa posee. Por ejemplo, los muones que se desplacen al 99,9 por ciento de la velocidad de la luz pesan más que los muónes inmóviles. De hecho, la vrdad es que se vuelven 22 veces más pesados.
Pero, cuanto más masa tiene un objeto, más difícil es incrementar su velocidad. Una cosa es empujar una ligera bicleta  y otra muy distinta, empujar a un pesado camión. Así, a medida que un muón se mueve más rápido, se hace cada vez más difícil aumentar aún más su velocidad. Cuando se desplaza a un 99,999 por ciento de la velocidad de la luz, la masa de un muón se multiplica por 224; a un 99,99999999 por ciento de la velocidad de la luz se multiplica por un factor que es más de 70 000. Como la masa del muón aumenta sin limite a medida que su velocidad se aprocima a la de la luz, sería necesario un impulso dado con una cantidad infinita de energía para alcanzar o superar la barrera de la velocidad de la luz. Por supuesto, esto es imposible de alcanzar y, en consecuencia, nignún objeto puede (en nuestro unhiverso) moverse más rápido que la luz (llegaría a tener una masa infinita) que es el limite de velocidad que podemos alcanzar y también, el limite para poder transmitir información.
La velocidad de la luz es de 300.000 kilómetros por segundo. Podría rodear la Tierra casi 7 veces cada segundo. Es una barrera, un límite en el Universo. Nada puede viajar a más velocidad. Además de ser insuperable, la velocidad de la luz parece ser uno de los fundamentos sobre los que se ha construido nuestro Universo.

La luz se propaga en el vacío a una velocidad aproximada a los 30.000 millones (3×1010) de centímetros por segundo. La cantidad c2 representa el producto c×c, es decir: 3×1010 × 3×1010, ó 9×1020. Por tanto, c2 es igual a 900.000.000.000.000.000.000. Así pues, una masa de un gramo puede convertirse, en teoría, en 9×1020 ergios de energía.

El ergio es una unida muy pequeña de energía que equivale a: “Unidad de trabajo o energía utilizado en el sistema c.g.s y actúa definida como trabajo realizado por una fuerza de 1 dina cuando actúa a lo largo de una distancia de 1 cm: 1 ergio = 10-7 julios”. La kilocaloría, de nombre quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia convertido en energía daría 2’2 × 1010 (22 millones) de kilocalorías.  Una persona puede sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.

Resultado de imagen de Una bombilla de 100 vatios encendida

O dicho de otro modo: si fuese posible convertir en energía eléctrica la energía representada por un solo gramo de materia, bastaría para tener luciendo continuamente una bombilla de 100 vatios durante unos 28.200 años.

Resultado de imagen de La luz roja longitud de onda más larga

Claro que la luz, también es mucho más que todo eso y es una manisfestación electromagnetica como el resto de las radiaciones. A medida que la luz va desde una galaxia a otra más distante, esa luz se extiende como lo hace el espacio y eso hace que la luz, cuya longitud de onda es intrínsecamente corta, se convierta gradualmente en luz roja de longitud de onda más larga. Esa es la causa del desplazamiento hacia el rojo de los espectros de luz de las galaxias distantes.

¿Cómo se convierte el  “desplazamiento hacia el rojo” en una manera para medir distancias en el Universo? Todo se debe a un sorprendente descubrimiento realizado en 1926 en el observatorio del monte Wilson, cerca de Los Ángeles. Allí Edwin Hubble descubrió que el Universo se está expandiendo. Fue un hallazgo increíble, pues nadie se esperaba algo así. Al haber  “desplazamientos hacia el rojo” en todas direcciones, Hubble descubrió que todas las galaxias distantes del Universo se estaban separando entre sí, algo que hoy sabemos que está causado por la expansión del propio espacio.

Efecto  Doppler: La luz que se acerca es azul, la que se aleja es roja

Vista desde la Tierra una galaxia no parece alejarse, pero sabemos que sí ocurre porque su luz en espectro aparece más desplazada hacia la zona del rojo de lo habitual para los elementos químicos que nos llegan de la misma. Una galaxia que se aleje a poca velocidad adquirirá un ligero tono rojizo, pero una galaxia que se aleje más rápidamente adquirirá un rojo más intenso, un mayor “desplazamiento hacia el rojo”. Pero Hubble también descubrió que las galaxias que se mueven a mayor velocidad, también son las que están más alejadas. Eso significa que cuanto mayor sea el  “desplazamiento hacia el rojo”, más lejos estará la galaxia.

Averiguando la velocidad de expansión del espacio y realizando los cálculos inversos, los cosmólogos han podido estimar la edad del Universo en unos 13700 millones de años. Así que lo más lejos que podemos observar en cualquier dirección es 13700 millones de años luz. La luz no ha podido viajar más. Es el denominado “Universo observable”. Una esfera de poco menos de 13700 millones de años luz en todas direcciones que contiene todo lo que podemos ver. No hay razón para considerar que el “Universo observable” abarque todo el tamaño del Universo. Podría ser mayor, pero eso es lo que podríamos ver dado el tiempo que la luz ha viajado.
Un astrónomo situado en una galaxia del extremo del horizonte no puede ver ninguna de las galaxias situadas en el otro extremo de nuestro Universo. Pero puede ver galaxias situadas a unos 13.7000 millones de años luz en la otra dirección y así sucesivamente. Por lo que respecta a los astrónomos de la Tierra, el límite de la velocidad de la luz los tiene atrapados. Si nos preguntáramos que está ocurriendo más allá de nuestro “Universo observable” tendríamos que afrontar el hecho de que la velocidad de la luz es realmente una barrera.

 El GPS consta de una red de 24 satélites, que orbitan en la Tierra a una altura de 20000 km sobre la superficie. En cualquier momento, cualquier vehículo donde se halle instalado recibe la señal de al menos 4 satélites y compara la duración de las distancias a que se encuentran, a la velocidad de la luz, para calcular su ubicación exacta  en la superficie. Todo el sistema depende de relojes extraordinariamente precisos y cuando los ingenieros los diseñaron sabían que los satélites se moverían a casi 11300 km/h, una velocidad suficiente para ralentizar sus relojes una diminuta fracción de segundo. Los ingenieros incluyeron en el sistema todas las diferencias de tiempo relativistas y eso les ha conferido una precisión impresionante. Como los relojes de los satélites avanzan a unas velocidades diferentes que los relojes situados sobre la Tierra, sin estas correcciones relativistas la posición del vehículo sería errónea.

                                                             Sistema  GPS

La distorsión del tiempo es sólo una de las extrañas consecuencias de viajar con velocidades próximas a las de la luz. Imaginemos que  continuamos con la “bici” pedaleando a velocidades próximas a las de la luz, entonces el espacio comienza a hacer cosas extrañas para el ciclista y para la bicicleta. Un observador apreciaría que la longitud de la bicicleta disminuye en la dirección del movimiento, que se encoge en dicha dirección. Este efecto se conoce como  “contracción de la longitud” y junto con la  “dilatación del tiempo” son percibidos así por un observador inmóvil cuando ve algo que se mueve con velocidades próximas a la de la luz.

Pero también el ciclista que se mueve a esta velocidad experimenta los efectos relativistas y su visión del mundo cambia radicalmente conforme su velocidad se aproxima a la de la luz. Las formas de las cosas comienzan a distorsionarse, todo se curva formándose una especie de túnel y los colores se van deformando también. Los cambios de color se explican por el fenómeno físico denominado  “efecto Doppler”, mientras que la distorsión de la forma ocurre por un fenómeno óptico denominado “aberración”.
La velocidad de la luz tiene otras peculiaridades en el lento movimiento de nuestro mundo. Peculiaridades que sí percibimos muy bien. La velocidad de la luz es constante, pero únicamente en el vacío del espacio. Cuando la luz atraviesa otros medios como el vidrio o algún fluido se ralentiza considerablemente. Si no lo hiciese así los telescopios o la visión humana, por ejemplo, no funcionarían.

La luz viaja más lentamente a través del agua, por eso vemos que la luz se refracta, se curva y se ondula cuando estamos bajo el agua. La vida tal y como la conocemos sería muy diferente si la luz no se propagara a velocidades diferentes a través de materiales diferentes. No podríamos ver y nuestros ojos no funcionarían igual. En un universo donde la luz se moviese a igual velocidad a través de todos los materiales, sabríamos muy poco del mundo que nos rodeara, sólo veríamos vagas manchas de luz y oscuridad. Esto ocurriría porque nuestros ojos dependen de unas lentes biológicas, los cristalinos, para enfocar las imágenes en nuestras  retinas. Al igual que las lentes de cristal funcionan porque la luz se ralentiza cuando las atraviesan. Pero, ¿por qué ocurre eso?. Porque la luz es absorbida por los átomos de cristal que la vuelven a irradiar a continuación, de manera que existe un retardo. La luz golpea un átomo que vibra y entonces reenvía la luz, de ahí viene el retardo. Este retardo también hace que la luz se curve cuando encuentra un cristal en forma de lente. Si se curva de forma adecuada la luz puede ser enfocada, recogida y ampliada. Para los astrónomos nada puede ser más importante. Menos mal que la luz se ralentiza cuando pasa a través del cristal, porque esa es la razón de que poseamos telescopios. Los tenemos gracias a que la luz se curva cuando atraviesa el cristal, así podemos concentrar grandes cantidades de luz en un solo punto y eso nos permite contemplar las lejanas maravillas del Universo. La luz pasa a través de la lente del telescopio a 200000 km/s, 2/3 de su velocidad en el vacío.

Aún nos enfrentamos a la velocidad de la luz como un muro impenetrable. Una velocidad que según Einstein nunca podrá ser rebasada. Sin embargo la Historia está llena de imposibles que se hicieron realidad. Por ejemplo, ¿seremos capaces de alcanzar las estrellas en naves que viajen más rápidas que la velocidad de la luz? Y si es así, ¿cuándo?

Esa es la idea básica del concepto de  “Agujero de gusano”, plegar el espacio sobre sí mismo y tomar un atajo a través del Universo. Hoy, naturalmente, esta idea pertenece aún al ámbito de la ciencia ficción. ¿Pero que aspecto tendría una máquina de agujeros de gusano? Probablemente sería enorme y su equipamiento podría estar situado sobre un gran número de asteroides, dispuestos sobre una esfera gigantesca. Una gran batería de rayos láser concentraría una enorme cantidad de energía sobre un solo punto. Habría que alcanzar una temperatura increíble con el fin de abrir un agujero, una burbuja o puerta que quizás nos llevase a otra parte del  Universo.
                            Nave interestelar de ficción
       
Otra estrategia diferente que nos permitiría viajar por el espacio a mayor velocidad que la luz es el  “Impulso por deformación” que en la literatura de ciencia ficción también se denomina “motor de curvatura”. ¿Qué puede frenar o poner límites a nuestra imaginación.
En realidad, yo estaba hablando de que la masa y la energía son dos aspectos de la misma cosa y de que, la velocidad de la luz produce extraños efectos para los objetos que tratan de sobrepasarlas, ?que digo? que tratan de acercarse a ella. Ya lo hemos visto más arriba con los muones que se transforman en otra cosa a medida que la velcoidad de la luz está más cerca de la que ellos llevan.
                                           Hay cuestiones que aún no podemos explicar
También aquí, en nuestro Sol, está presente la famosa ecuación de Einstein, por medio de lo que ella explica, es posible que lñas estrellas brillen en el cielo, que la Tierra tenga la luz y el calor necesarios para la vida y que las plantas puedan realizar su necesaria fotosíntesis.
emilio silvera

Conjeturar… ¡Tratando de saber!

$
0
0

El principio antrópico y otras cuestiones

Resultado de imagen de El principio antrópico

¡El Universo! ¿Sabía que nosotros íbamos a venir? De todas las maneras, pensar como nos dice la imagen de arriba de que el universo estaba pensando en nosotros para conformar unas leyes y unas constantes que hicieran posible nuestra presencia… ¡Parece muy presuntuoso! ¿Cuantas criaturas inteligentes podrán habitar en otros mundos? Y, aquí mismo, en nuestro planeta, ¿cuantas especies existen? Nosotros sólo somos una más que, en este mundo, nos tocó el premio de ser la dominante.

Imagen relacionada

¿El Principio Antrópico? DE todas las maneras, parece conveniente hacer una pequeña reseña que nos explique que es un principio en virtud del cual la presencia de la vida humana está relacionada con las propiedades del Universo.  Como antes hemos comentado de pasada, existen varias versiones del principio antrópico.  La menos controvertida es el principio antrópico débil, de acuerdo con el cual la vida humana ocupa un lugar especial en el Universo porque puede evolucionar solamente donde y cuando se den las condiciones adecuadas para ello.  Este efecto de selección debe tenerse en cuenta cuando se estudian las propiedades del Universo.

Resultado de imagen de Principio antrópico: La Vida en el Universo

Una versión más especulativa, el principio antrópico fuerte, asegura que las leyes de la física deben tener propiedades que permitan evolucionar la vida.  La implicación de que el Universo fue de alguna manera diseñado para hacer posible la vida humana hace que el principio antrópico fuerte sea muy controvertido, ya que, nos quiere adentrar en dominios divinos que, en realidad, es un ámbito incompatible con la certeza comprobada de los hechos a que se atiene la ciencia, en la que la fe, no parece tener cabida. Sin embargo, algunos han tratado de hacer ver lo imposible.

“Basado en las propuestas del premio Nobel de física Paul Dirac sobre los ajustados, sincronizados y muy precisos valores de las constantes de la naturaleza, los físicos actuales comienzan a valorar aquello que han denominado el “principio antrópico¨, es decir, poco a poco, a lo largo de los años han entendido que siempre quedará un espacio de información faltante cuando intentamos teorizar o conceptualizar los inicios del universo supeditados exclusivamente sobre la capacidad contenida en las leyes de la física para explicar dichos inicios.”

 

El principio antrópico nos invita al juego mental de probar a “cambiar” las constantes de la Naturaleza y entrar en el juego virtual de ¿Qué hubiera pasado si…? Especulamos con lo que podría haber sucedido si algunos sucesos no hubieran ocurrido de tal a cual manera para ocurrir de ésta otra. ¿Qué hubiera pasado en el planeta Tierra si no aconteciera en el pasado la caída del meteorito que acabó con los dinosaurios? ¿Habríamos podido estar aquí hoy nosotros? ¿Fue ese cataclismo una bendición para la Humanidad y nos quitó de encima a unos terribles rivales?

Resultado de imagen de El principio antrópico

Fantasean con lo que pudo ser…. Es un ejercicio bastante habitual, solo tenemos que cambiar la realidad de la historia o de los sucesos verdaderos para pretender fabricar un presente distinto.  Cambiar el futuro puede resultar más fácil, nadie lo conoce y no pueden rebatirlo con certeza ¿Quién sabe lo que pasará mañana?

El problema de si las constantes físicas son constantes se las trae. Aparte del trabalenguas terminológico arrastra tras de sí unas profundas consecuencias conceptuales. Lo primero, uno de los pilares fundamentales de la relatividad especial es el postulado de que las leyes de la física son las mismas con independencia del observador. Esto fue una generalización de lo que ya se sabía cuando se comenzó a estudiar el campo electromagnético, pero todo lo que sabemos en la actualidad nos lleva a concluir que este postulado es bastante razonable.

Imagen relacionada

Lo que ocurra en la Naturaleza del Universo está en el destino de la propia Naturaleza del Cosmos, de las leyes que la rigen y de las fuerzas que gobiernan sus mecanismos sometidos a principios y energías que, en la mayoría de los casos, se pueden escapar a nuestro actual conocimiento.

Lo que le pueda ocurrir a nuestra civilización además de estar supeditado al destino de nuestro planeta, de nuestro Sol y de nuestro Sistema Solar y la galaxia, también está en manos de los propios individuos que forman esa civilización y que, con sensibilidades distintas y muchas veces dispares, hace impredecibles los acontecimientos que puedan provocar individuos que participan con el poder individual, es decir, esa parcial disposición que tenem0s  del “libre albedrío”.

                 ¿Cómo sería nuestro mundo si las constantes universales fueran diferentes?

Siempre hemos sabido especular con lo que pudo ser o con lo que podrá ser  si….,  lo que, la mayoría de las veces, es el signo de cómo queremos ocultar nuestra ignorancia. Bien es cierto que sabemos muchas cosas pero, también es cierto que son más numerosas las que no sabemos.

Sabiendo que el destino irremediable de nuestro mundo, el planeta Tierra, es de ser calcinado por una estrella gigante roja en la que se convertirá el Sol cuando agote la fusión de su combustible de Hidrógeno, Helio, Carbono, etc.,  para que sus capas exteriores de materia exploten y salgan disparadas al espacio exterior, mientras  que, el resto de su masa se contraerá hacia su núcleo bajo su propio peso, a merced de la Gravedad, convirtiéndose en una estrella enana blanca de enorme densidad y de reducido diámetro.  Sabiendo eso, el hombre está poniendo los medios para que, antes de que llegue ese momento (dentro de algunos miles de millones de años), poder escapar y dar el salto hacia otros mundos lejanos que, como la Tierra ahora, reúna las condiciones físicas y químicas, la atmósfera y la temperatura adecuadas para acogernos.

                                   El Sol será una Gigante roja y, cuando eso llegue, la Tierra…

Pero el problema no es tan fácil y, se extiende a la totalidad del Universo que, aunque mucho más tarde, también está abocado a la muerte térmica,  el frío absoluto si se expande para siempre como un Universo abierto y eterno. A estas alturas se ha descartado el Big Chunch y se saber que la expansión del Universo es imparable y que con el paso del tiempo las galaxias estarán más alejadas las unas de las otras hasta que, la energía, las temperaturas sean -273 ºC, un ámbito de quietud y “muerte”, allí nada -ni siguiera los átomos-, absolutamente nada se moverá.

Ese es un escenario posible con los datos que tenemos pero, y, ¿qué pasa con esos otros datos que no tenemos? No podrá el Universo expandirse tanto que alcanzará la unión con otro universo con el que terminará fundiéndose para conformar un universo mayor?

Imagen relacionada

Muerte térmica del Universo: De acuerdo con las leyes de la termodinámica, en el que toda la materia alcanzará finalmente la misma temperatura. En estas condiciones no existe energía disponible para realizar trabajo y la entropía del Universo se encuentra en su máximo. Este resultado fue predicho por el físico alemán Rudolf Julius Emmanuel Clausius (1822-1888), quien introdujo el concepto de entropía.

Resultado de imagen de La muerte térmica del Universo

        Y, nuevos cálculos sugieren que el cosmos puede estar un poco más cerca a una muerte térmica.

Para tener todo ese tumulto —estrellas en erupción, galaxias que se funden las unas con las otras,  agujeros negros que colapsan– el Cosmos es un lugar sorprendentemente ordenado. Los cálculos teóricos han demostrado desde hace mucho que la entropía del universo –una medida de su desorden– no es más que una diminuta fracción de la cantidad máxima permitida.

Un nuevo cálculo de la entropía mantiene este resultado general pero sugiere que el universo está más desordenado de lo que los científicos habían pensado y ha llegado ligeramente más lejos en su gradual camino hacia la muerte, según concluyen dos cosmólogos australianos.

Imagen relacionada

Al igual que sucede con las teorías sobre el origen del universo, donde el consenso general está a favor de la del Big Bang frente a otras propuestas alternativas, las teorías sobre el final del universo son variadas y ello es debido a que no sabemos cual podrá ser, todo se vuelven conjeturas.

“Un análisis de Chas Egan de la Universidad Nacional Australiana en Canberra y Charles Lineweaver de la Universidad de Nueva Gales del Sur en Sydney indica que la entropíacolectiva de todos los agujeros negros supermasivos en el centro de las galaxias es unas 100 veces mayor de lo anteriormente calculado. Debido a que los agujeros negros supermasivos son los mayores contribuyentes a la entropía cósmica, el hallazgo sugiere que la entropíadel universo también es 100 veces mayor que la anterior estimación, según informaban los científicos el 23 de septiembre en ArXiv.org.”

El irreversible final está entre los tres modelos que se han podido construir para el futuro del Universo, de todas las formas  que lo miremos es negativo para la Humanidad -si es que puede llegar tan lejos-.  En tal situación, algunos ya están buscando la manera de escapar. Stephen Hawking ha llegado a la conclusión de que estamos inmersos en un multiuniverso. Como algunos otros él dice que existen múltiples universos conectados los unos a los otros.  Unos tienen constantes de la Naturaleza que permiten vida igual o parecida a la nuestra, otros posibilitan formas de vida muy distintas y otros muchos no permiten ninguna clase de vida.

Este sistema de inflación autorreproductora nos viene a decir que cuando el Universo se expande (se infla) a su vez, esa burbuja crea otras burbujas que se inflan y a su vez continúan creando otras nuevas más allá de nuestro horizonte visible.  Cada burbuja será un nuevo Universo, o mini-universo en los que reinarán escenarios diferentes o diferentes constantes y fuerzas.

El escenario que describe la imagen, ha sido explorado y el resultado hallado es que en cada uno de esos universos, como hemos dicho ya, pueden haber muchas cosas diferentes, pueden terminar con diferentes números de dimensiones espaciales o diferentes constantes y fuerzas de la Naturaleza, pudiendo unos albergar la vida y otros no. Claro que, sólo son pensamientos y conjeturas de lo que podría ser.

Imagen relacionada

También podría ser que los universos estuvieran dentro de burbujas que se van inflando hasta que se encuentran las unas con las otras y explotan para formar un universo mayor… ¡Cualquier cosa que pensemos podría ser posible! Es tan grande la baraja de posibilidades.

El reto que queda para los cosmólogos es calcular las probabilidades de que emerjan diferentes universos a partir de esta complejidad inflacionaria ¿Son comunes o raros los universos como el nuestro? Existen, como para todos los problemas planteados diversas conjeturas y consideraciones que influyen en la interpretación de cualquier teoría cosmológica futura cuántico-relativista.  Hasta que no seamos capaces de exponer una teoría que incluya la relatividad general de Einstein (la Gravedad-Cosmos y la Mecánica Cuántica-Átomo, no será posible  contestar a ciertas preguntas.

Existen en realidad, en nuestro Universo las cuerdas vibrantes de la Teoría M, o, simplemente se trata de un ejercicio mental complejo

Todas las soluciones que buscamos parecen estar situadas en teorías más avanzadas que, al parecer, solo son posibles en dimensiones superiores, como es el caso de la teoría de supercuerdas situada en 10 ó 26 dimensiones, allí, si son compatibles la relatividad y la mecánica cuántica, hay espacio más que suficiente para dar cabida  a las partículas elementales, las fuerzas gauge de Yang-Mill, el electromagnetismo de Maxwell y, en definitiva, al espacio-tiempo y la materia, la descripción verdadera del Universo y de las fuerzas que en el actúan.

Científicamente, la teoría del Hiperespacio lleva los nombres de teoría de Kaluza-Klein y súper gravedad.  Pero en su formulación más avanzada se denomina teoría de supercuerdas, una teoría que desarrolla su potencial en nueve dimensiones espaciales y una de tiempo, diez dimensiones.  Así pues, trabajando en dimensiones más altas, esta teoría del Hiperespacio puede ser la culminación que conoce dos milenios de investigación científica: la unificación de todas las fuerzas físicas conocidas.  Como el Santo Grial de la Física, la “teoría de todo” que esquivó a Einstein que la buscó los últimos 30 años de su vida.

Resultado de imagen de Los científicos mexicanos y italianos han encontrado cómo se curva el espacio por la presencia de masas directamente de observaciones astronómicas, a diferencia de las aproximaciones puramente teóricas propias de otras teorías gravitacionales, como las supercuerdas o la gravitación cuántica.

Parece que algo no va, algunos parámetros se presentan difusos, la Gravedad no acabamos de entenderla, el mundo infinitesimal… es raro y allí suceden cosas muy extrañas.

Durante el último medio siglo, los científicos se han sentido intrigados por la aparente diferencia entre las fuerzas básicas que mantienen unido al al Universo: la Gravedad, el electromagnetismo y las fuerzas nucleares fuerte y débil.  Los intentos por parte de las mejores mentes del siglo XX para proporcionar una imagen unificadora de todas las fuerzas conocidas han fracasado.  Sin embargo, la teoría del Hiperespacio permite la posibilidad de explicar todas las fuerzas de la Naturaleza y también la aparentemente aleatoria colección de partículas subatómicas, de una forma verdaderamente elegante.  En esta teoría del Hiperespacio, la “materia” puede verse también como las vibraciones que rizan el tejido del espacio y del tiempo.  De ello se sigue la fascinante posibilidad de que todo lo que vemos a nuestro alrededor, desde los árboles y las montañas a las propias estrellas, no son sino vibraciones del Hiperespacio.

Resultado de imagen de Vibraciones del Hiperespacio

No, no será fácil llegar a las respuestas de éstas difíciles preguntas que la física tiene planteadas. Y, sin embargo, ¿cómo podríamos describir lo que en estas teorías han llegado a causar tanta pasión en esos físicos que llevan años luchando con ellas? Recuerdo haber leído aquella conferencia apasionante que dio E. Witten en el Fermilab. Su pasión y forma de encausar los problemas, sus explicaciones, llevaron a todos los presentes a hacerse fervientes y apasionados fans de aquella maravillosa teoría, la que llaman M. Todos hablaban subyugados mucho después de que el evento hubiera terminado. Según contó León Lederman, que asistió a aquella conferencia: “Yo nunca había visto nada igual, cuando Witten concluyó su charla, hubo muchos segundos de silencio, antes de los aplausos y, tal hecho, es muy significativo.

Claro que, a medida que la teoría ha ido topándose con unas matemáticas cada vez más difíciles y una proliferación de direcciones posibles, el progreso y la intensidad que rodeaban a las supercuerdas disminuyeron hasta un nivel más sensato, y ahora, sólo podemos seguir insistiendo y esperar para observar que nos puede traer el futuro de esta teoría que, es posible (y digo sólo posible) que se pueda beneficiar, de alguna manera, de las actividades del LHC que, en algunas de sus incursiones a ese mundo fantasmagórico de lo infinitesimal, podría -y digo podría- atisbar las sombras que puedan producir las supercuerdas.

Resultado de imagen de Los físicos se empeñan en demostrar la teoría de cuerdas

En esta teoría se identifican 11 dimensiones, en donde la supergravedad interactúa entre membranas de 2 a 5 dimensiones (branas). Cuando E. Witten dió su conferencia de la teoría M ante sus compañeros físicos, todos quedaron fascinados por los conceptos y escenarios que les mostró, y, la única dificultad para verificar dicha teoría (que recoge los todos los modelos de cuerdas existentes), es que se necesita la energía de Planck (1019 GeV) para poder llegar hasta las cuerdas, y, dicha energía sólo estaba presente en el momento de la “creación”, con lo cual… ¡Será difícil confirmarla!

No son pocos los físicos capaces que están empeñados en demostrar esa teoría. Por ejemplo, Físicos de SLAC desarrollan una prueba de marco de trabajo dependiente para la Teoría de Cuerdas Crítica. La Teoría de Cuerdas resuelve muchas de las cuestiones que arruinan la mente de los físicos, pero tiene un problema importante (como arriba señalamos) no hay actualmente ningún método conocido para comprobarla y, si las energías requeridas para ello, es la de Planck  (1019 GeV), la cosa se pone fea, ya que, no está a nuestro alcance.

Está claro que, al tratar todas estas hipotéticas teorías, no pocos, han pensado que, algún día, se podría realizar el sueño de viajar por el Hiperespacio y, de esa manera, se habría logrado el medio para escapar de la Tierra cuando el momento fatídico, en el cual el Sol se convierta en gigante roja, no podamos seguir aquí.

Aunque muchas consecuencias de esta discusión son puramente teóricas, el viaje en el Hiperespacio (El Hiperespacio en ciencia ficción es una especie de región conectada con nuestro universo gracias a los agujeros de gusano, y a menudo sirve como atajo en los viajes interestelares para viajar más rápido que la luz), si llegara a ser posible, podría proporcionar eventualmente la aplicación más práctica de todas: salvar la vida inteligente, incluso a nosotros mismos de la muerte de este Universo cuando al final llegue el frío o el calor.

Resultado de imagen de Gravedad cuántica

        También en la teoría de supercuerdas está incluída ¡la Gravedad-Cuántica! Otra Ilusión

Esta nueva teoría de supercuerdas, tan prometedora del hiperespacio es un cuerpo bien definido de ecuaciones matemáticas, podemos calcular la energía exacta necesaria para doblar el espacio y el tiempo o para cerrar agujeros de Gusano que unan partes distantes de nuestro Universo.  Por desgracia, los resultados son desalentadores.  La energía requerida excede con mucho cualquier cosa que pueda  existir en nuestro planeta.  De hecho, la energía es mil billones de veces mayor que la energía de nuestros mayores colisionadores de átomos.  Debemos esperar siglos, o quizás milenios, hasta que nuestra civilización desarrolle la capacidad técnica de manipular el espacio-tiempo  utilizando la energía infinita que podría proporcionar un agujero negro para de esta forma poder dominar el Hiperespacio que, al parecer, es la única posibilidad que tendremos para escapar del lejano fin que se avecina. ¿Qué aún tardará mucho? Sí, pero el tiempo es inexorable y….,  la debacle llegará.

  Sí, hemos logrado mucho. Arriba tenemos la  imagen de la emisión en radio de un magnetar

No existen dudas al respecto, la tarea que nos hemos impuesto es descomunal, imposible para nuestra civilización de hoy pero, ¿y la de mañana, no habrá vencido todas las barreras? Creo que, el hombre es capaz de plasmar en hechos ciertos todos sus pensamientos e ideas, solo necesita tiempo y, como nos ha demostrado DA14 en el presente, ese tiempo que necesitamos, está en manos de la Naturaleza y, nosotros, nada podemos hacer si ella, no nos lo concede. Y, si por desventura es así, todo habrá podido ser, un inmenso sueño ilusionantede lo que podría haber sido si…

¿Dónde estará el límite? ¡No hay límites!

emilio silvera

Gravedad cuántica, fluctuaciones de vacío…

$
0
0

Sabemos del Universo que no sabemos cómo surgió, si está sólo o acompañado, si es cíclico y se reproduce una y otra vez, si cada vez que surge también viene acompañado por los mismos procesos que nos llevan hacia la vida…

La imagen de arriba, fue cedida en su día por la NASA y, en ella, podemos contemplar la inmensidad de un Universo que no hemos llegado a conocer y, como nos pasa en tantas otras cuestiones, nos tenemos que conformar construyendo Modelos que nos aproximen a lo que pudo ser y que no reflejan, necesariamente, lo que fue.

  

“A partir de sus principios en Sumeria alrededor del 3500 a. de C., en Mesopotamia, los pueblos del norte comenzaron a intentar registrar la observación del “mundo” con cuantitativos y numéricos sumamente cuidados. Pero sus observaciones y medidas aparentemente fueron tomadas con otros propósitos más que la ley científica. Un caso concreto es el del teorema de Pitágoras, que fue registrado, aparentemente en e siglo XVIII a,C.: la tabla mesopotámica Plimpton 322 registra un número de trillizos pitagóricos (3,4,5) (5,12,13)…., datado en el 1900 a. C., posiblemente milenios antes de Pitágoras, pero no era una formulación abstracta del teorema de Pitágoras.

¿Qué nos espera en los próximos 10 años?

Lo cierto es que, cada vez que ha salido alguien, que como el precursor de la ciencia ficción, el entrañable Julio Verne, nos hablaba de viajes imposibles y de mundos insólitos, nadie pudo creer, en aquellos momentos, que todas aquellas “fantasías” serían una realidad en el futuro más o menos lejano. Todo lo que él imagino hace tiempo que se hizo realidad y, en algunos casos, aquellas realidades fantásticas, han sido sobrepasadas como podemos contemplar, en nuestras vidas cotidianas. Ingenios espaciales surcan los espacios siderales y, otros, lo hacen por el misterioso fondo oceánico como fue predicho hace ahora más de un siglo.

Ahora, los profetas modernos resultan ser Físicos que nos hablan de sucesos cuánticos que no llegamos a comprender y que, son ¡tan extraños! que nos resultan poco familiares y como venidos de “otro mundo”, aunque en realidad, son fenómenos que ocurren en las profundidades del mundo de la materia.

  

 

 

 

 

 

Sí, a veces, el mundo cuántico, nos puede parecer de fantasía.

 

Mi fascinación por la Ciencia en general y por la Física y la Astronomía en particular, me lleva a bucear en cuántos libros, revistas especializadas, conferencias, y seminarios caen en mis manos o puedo asistir. Tomo nota de todo en libretas que tengo para ello, y, más tarde, haciendo trabajos donde pueden ir mezclados unos con otros, disfruto al ofrecer a otros lo que grandes especialistas nos han contado sobre temas que, no sólo deben interesarnos, sino que, no en pocas ocasiones, nuestro futuro depende de ellos. Este es, uno de esos casos.

No es fácil adentrarse en este universo de lo definitivamente pequeño, o incluso hablar de ello, exige un conocimiento muy profundo de las leyes de la naturaleza que rigen el mundo y que no tenemos. Las fuerzas que encontramos allí determinan la forma en la cual se mueven las partículas pequeñísimas y también le dan sus propiedades por medio de unos mecanismos que no siempre llegamos a comprender.

 

Resultado de imagen de El "mundo" de lo muy pequeño cuanta fantasia encierra
            Este sería el mundo cuántico de nuestra imaginación, donde cualquier cosa es posible

Dibujo20150127 entanglement - stories by williams com

 

 

“Hay que leer el artículo de Bruschi. En la introducción afirma que el entrelazamiento cuántico es una correlación que no se sabe si interacciona con la gravedad (“Quantum entanglement is a type of correlation that, to date, is not known to interact with gravity”). Obviamente se refiere a nivel experimental, pues a nivel teórico nadie lo duda desde los primeros trabajos de Einstein (1935).”

Veamos ahora qué pasa en ese “mundo cuántico” que nos resulta tan extraño donde ocurren cosas que no son de nuestro “mundo” cotidiano. Muchas son las cosas que aún nos resultan misteriosas pero, ¿Qué alcanzaremos en el futuro? ¿Podremos realmente dominar y disponer de la energía de Planck que nos lleve hasta lugares inimaginables? ¿Serán nuestras mentes capaces de evolucionar hasta el extremo de que, algún día muy lejano en el futuro pudiéramos estar conectados con el ritmo vital del Universo, la energía pura que todo lo rige? Manejar esas potentes energías sería manejar los mundos, el espacio y, sobre todo, el Tiempo tan vital para nosotros.

 

Las partículas recorren todos los caminos posibles para ir de un punto a otro. Así lo dice la hipótesis de múltiples historias. Dos partículas alejadas por miles de años luz pueden estar conectadas, otras se trasladan de un punto a otro del espacio sin recorrer las distancias que separan esos dos puntos (Efecto túnel) y, así, podríamos contar historias cuánticas alucinantes.

  Por otra parte, existen hipótesis de todo tipo sobre lo que pudo pasar en aquellos primeros momentos.

El Papa Francisco y la Teoría del Big Bang

 

 

“La hipótesis de la dimensión transicional que explica la gravitación y la materia oscura no conceptúa la hipótesis del Big-Bang en el sentido que el universo se crea a través de la explosión de un super-átomo, que crea la materia y el tiempo a partir de un punto único en el Universo. Y que ésta materia y tiempo se expanden en el espacio a partir de éste punto, en todas direcciones.

Esta hipótesis sólo puede conceptuar el Big-Bang como un evento simultáneo de creación de materia y tiempo en todo el Universo. Es decir, que no hubo ninguna explosión focal y dispersión de materia y energía en todas direcciones, sino que la materia y energía se creó instantáneamente en infinitos puntos del Universo. ( Un Big-Bang Multiple y simultaneo.).

Casi inmediatamente, por la acción de las fuerzas de la gravedad y el tiempo, se crearon los elementos y la materia como tal, así como la formación de Galaxias, Soles, Planetas y otros cuerpos celestes.

Todos los fenómenos que se dieron en ese momento y que aún se dan, obedecen a las Leyes de la Física Clásica, incluyendo la Expansión o Contracción de sectores del Universo, y no están directamente relacionados con el Big-Bang.”

 

 

Resultado de imagen de fascinante mecánica cuçanticaResultado de imagen de fascinante mecánica cuçantica

Hay aspectos de la física que me dejan totalmente sin habla y quedan fuera de nuestra realidad inmersa en lo cotidiano de un mundo macroscópico que nos aleja de ese otro mundo misterioso e invisible donde residen los cuantos que, con su comportamiento, me obligan a pensar y me transportan de este mundo nuestro a ese otro que parece de fantasía siendo tan real cuando se accede a él. Allí moran las maravillas que la Naturaleza realiza para conseguir sus fines.

 

      En el mundo cuántico se pueden contemplar cosas más extrañas

Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, = 1’62 × 10-33 cm, es la escala de longitud por debajo de la cual es espacio, tal tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler, o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que longitud de Planck-Wheeler, es decir, 2’61 × 10-66 cm2) juega un papel clave en la entropía de un agujero negro.

De todas las maneras, en este Universo:

 

Como nos dicen en este anuncio del Kybalion, nada es estático en el Universo y, todo está en continuo movimiento o vibración. Habreis oido hablar de la energía de punto cero que permanerce en una sustancia en el cero absoluto (cero K). Está de acuerdo con la teoría cuántica, según la cual, una partícula oscilando con un movimiento armónico simple no tiene…

 

                         Efecto Casimir

Me llama poderosamente la atención lo que conocemos como efecto Casimir… ¿De dónde sale esa energía exótica? Kip Thorne, el físico que asesoró en las películas de Contac y también en Interetellar, y, que es uno de los precursores de LIGO en persecución de las Onfas Gravitatorias, nos dice que utilizando energía exótica podremos abrir un agujero de gusano que nos lleve a otras galaxias.

¿Sabremos algún día conseguir eso?

 

Algunos han postulado que el Universo pudo surgir de una fluctuación del vacío que rasgó el espacio tiempo de otro universo.

Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas. En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se vacío theta (vacío θ), que es el gauge no abeliano (en ausencia de campos fermiónicos y campos de Higgs). En el vacío theta hay un vacío theta es análogo a una función de Bloch* en un cristal. Cuando hay un fermión sin masa, el efecto túnel fermiónicos con masa pequeña, el efecto túnel es mucho menor que gauge puros, pero no está completamente suprimido. El vacío theta es el punto de partida para comprender el estado de vacío de las teoría gauge fuertemente interaccionantes, como la cromodinámica cuántica.

 

En astronomía, el vacío está referido a regiones del espacio con

 

El primer gran vacío en ser detectado fue el de Boötes en 1.981; tiene un radio de Sabemos referirnos al producto o cociente de las unidades físicas básicas, elevadas a las potencias adecuadas, en una cantidad física derivada. Las cantidades físicas básicas de un sistema mecánico son habitualmente la masa (m), la longitud (l) y el tiempo (t). Utilizando estas dimensiones, la velocidad, que es una unidad física derivada, tendrá dimensiones l/t, y la aceleración tendrá dimensiones l/t2SI, la corriente, IPero volvamos…

 http://francisthemulenews.files.wordpress.com/2008/02/dibujo26ene2008a.jpg

Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio. El aspecto de partícula está incorporado en el concepto de partículas virtuales, es decir, partículas que pueden nacer en pares (dos partículas a un tiempo), viviendo temporalmente de la energía fluctuacional tomada prestada de regiones “vecinas” del espacio, y que luego se aniquilan y desaparecen, devolviendo la energía a esas regiones “vecinas”. Si hablamos de fluctuaciones electromagnéticas del vacío, las partículas virtuales son fotonesvirtuales; en el caso de fluctuaciones de la gravedad en el vacío, son gravitones virtuales.

Claro que, en realidad, sabemos poco de esas regiones vecinas de las que tales fluctuaciones toman la energía. ¿Qué es lo que hay allí? ¿Está en esa región la tan buscada partícula de Higgs? Sabemos que las fluctuaciones de vacío son, para las ondas electromagnéticas y gravitatorias, lo que los movimientos de degeneración claustrofóbicos son para los electrones. Si confinamos un electrón a una pequeña región del espacio, entonces, por mucho que uno trate de frenarlo y detenerlo, el electrón está obligado por las leyes de la mecánica cuántica a continuar moviéndose aleatoriamente, de forma impredecible. Este movimiento de degeneración claustrofóbico que produce la presión mediante la que una estrella enana blanca se mantiene contra su propia compresión gravitatoria o, en el mismo caso, la degeneración de neutrones mantiene estable a la estrella de neutrones, que obligada por la fuerza que se genera de la degeneración de los neutrones, es posible frenar la enorme fuerza de gravedad que está comprimiendo la estrella.

 

La degeneración de los electrones impide que la gravedad continúe comprimiendo a una estrella electrones se degeneran y, “protestan” porque no quieren estar tan juntos (son fermiones), y, es la fuerza de esa degeneración la única que frena la implosión de la estrella y queda convertida en una enana blancaque, en el centro de la nueva Nebulosa radia con fuerza.

De manera similar ocurre cuando la estrella es más masiva que nuestro Sol. Entonces, llegado el final de su vida y quedando a merced de la fuerza de Gravedad, ésta trata de comprimir la masa estelar al máximo. protones y electrones se  fusionan neutrones que, al verse tan comprimidos “protestan” y se degeneran para neutrones estable. Si la estrella es demasiado masivo, ni el Principio de exclusión de Pauli para los fermiones, puede frenar la inmensa gravedad que genera y, el final del proceso es un Agujero Negro.

De la misma manera…

 

Hace tiempo que sabemos (Einstein y así se desprende de L/V2 que podríamos expresar como m = E/c2. Si despejamos la energía, adquiere una Decir lo que pueda haber en ese “espacio vacío, no será nada fácil, sin embargo, parece que no sería un disparate pensar en la existencia allí de alguna clase de materia que, desde luego, al igual que la bariónica que sí podemos ver, genera energía y ondas gravitacionales que, de alguna manera que aún se nos oculta, escapa a nuestra vista y sólo podemos constatar sus efectos al medir las velocidades a las que se alejan las galaxias unas de otras: velocidad de expansión del universo, que no se corresponde en absoluto con la masa y la energía que podemos ver.

Hay que seguir atando cabos sueltos, uniendo piezas y buscando algunas que están perdidas de tal manera que, algún día, cuando podamos disponer de la energía necesaria, podamos llegar más allá de los Quarks.

 

¡Quién sabe! Quizá sea el LHC el que, con sus resultados, nos pueda dar una respuesta de lo que realmente existe en ese mal llamado vacío y que, según parece, está lleno a rebosar. Sí, pero ¿de qué está lleno? Ya veremos. De Higgs, ese Bosón que le da la masa a las partículas y que fue prsentado a bombo y platillo a todos los medios en 2012. Ahora, el LHC con más potencia energética, tratará de descubrir las partículas supersimétricas que supuestamente son las componentes de la “materia oscura” y también, intentará otras cosas que los físicos intuyen están ahí sin que se dejen ver como, por ejemplo… ¿El Gravitón?

Estamos en un momento crucial de la física, las matemáticas y la cosmología, y debemos, para poder materia oscura o a una teoría cuántica de la gravedad, que también está implícita en la teoría M. Estamos anclados; necesitamos nuevas y audaces ideas que puedan romper las cadenas virtuales que atan nuestras mentes a ideas del pasado. En su momento, esas ideas eran perfectas y cumplieron su misión. Sin embargo, ahora no nos dejan continuar y debemos preparar nuestras mentes.

emilio silvera

Creemos cosas que…, ¿serán ciertas?

$
0
0

  

Diagrama de la trayectoria del sistema de Lorenz para los valores r = 28, σ = 10, b = 8/3.

Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras disciplinas científicas que trata ciertos tipos de sistemas dinámicos  muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro, imposibilitando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinísticos, es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.

Foto

Montaje experimental. Foto: HZB, D.J.P. Morris y A. Tennant. .

Hubo un tiempo, el el Universo muy temprano, en el que la temperatura estaba encima de algunos cientos de veces la masa del protón, cuando la simetría aún no se había roto, y la fuerza débil y electromagnética no sólo eran la misma matemáticamente, sino realmente la misma. Un físico que hubiera podido estar allí presente, en aquellos primeros momento, no habría podido observar ninguna diferencia real entre las fuerzas producidas por el intercambio de estas cuatro partículas: las W, la Z y el Fotón.

Imagen relacionada

Muchas son las sorpresas que nos podríamos encontrar en el universo primitivo, hasta la presencia de agua ha sido detectada mediante la técnica de lentes gravitacionales en la galaxia denominada MG J0414+0534 que está situada en un tiempo en el que el Universo sólo tenía dos mil quinientos millones de años de edad. El equipo investigador pudo detectar el vapor de agua presente en los chorros de emisión de un agujero negro supermasivo. Este tipo de objeto es bastante raro en el universo actual. El agua fue observada en forma de mases, una emisión de radiación de microondas provocada por las moléculas (en este caso de agua) al ser amplificadas por una onda o un campo magnético.

Resultado de imagen de El equipo investigador pudo detectar el vapor de agua presente en los chorros de emisión de un agujero negro supermasivoResultado de imagen de Las fuerzas de la naturaleza que gobiernan la electricidad, el magnetismo, la radiactividad y las reacciones nucleares están confinadas a un “mundobrana” tridimensional

Siguiendo con el trabajo, dejemos la noticia de más arriba (sólo insertada por su curiosidad y rareza), y, sigamos con lo que hemos contado repetidas veces aquí de las fuerzas y la simetría antes de que, el universo se expandiera y enfriara para que, de una sóla, surgieran las cuatro fuerzas que ahora conocemos: Gravedad que campa sola y no quiere juntarse con las otras fuerzas del Modelo Estándar, el electromagnetismo y las nucleares débil y fuerte.

mundo brana

Las fuerzas de la naturaleza que gobiernan la electricidad, el magnetismo, la radiactividad y las reacciones nucleares están confinadas a un “mundobrana” tridimensional, mientras que la gravedad actúa en todas las dimensiones y es consecuentemente más débil. Seguramente ese será el motivo por el cual, encontrar  al Bosón mediador de la fuerza, el Gravitón, resulta tan difícil.

Resultado de imagen de Supersimetrias

De manera similar, aunque menos clara, las teorías de supersimetrías conjeturaban que las cuatro fuerzas tal vez estaban ligadas por una simitría que se manifestaba en los niveles de energía aún mayores que caracterizaban al universo ya antes del big bang. La intodución de un eje histórico en la cosmología y la física de particulas (como decía en uno de los trabajos que aquí presento), benefició a ambos campos. Los físicos proporcionaron a los cosmólogos una amplia gama de herramientas útiles para saber cómo se desarrolló el universo primitivo. Evidentemente, el Big Bang no fue una muralla de fuego de la que se burló Hoyle, sino un ámbito de suscesos de altas energías que muy posiblemente pueden ser comprensibles en términos de teoría de campo relativista y cuántica.

La cosmología, por su parte, dio un tinte de realidad histórica a las teorías unificadas. Aunque ningún acelerador concebible podrían alcanzar las titánicaqs energías supuestas por las grandes teorías unificadas y de la supersimetría, esas exóticas ideas aún  pueden ser puestas a prueba, investigando su las partículas constituyentes del universo actual son compatibles con el tipo de historia primitiva que implican las teorías.

Gell-Mann, el premio Nobel de física, al respeto de todo esto decía: “Las partículas elementales aparentemente proporcionan las claves de algunos de los misterios fundamentales de la Cosmología temprana… y resulta que la Cosmología brinda una especia de terreno de prueba para alguna de las ideas de la física de partículas elementales.” Hemos podido llegar a descubrir grandes secretos de la naturaleza mediante los pensamientos que, surgidos de la mente desconocida y misteriosa de algunos seres humanos, han podido ser intuidos mediante ráfagas luminosas que nunca sabremos de dónde pudieron surgir )Lorentz, Planck, Einstein, Heisenmberg, Dirac, Eddigton, Feymann, Wheeler… Y, una larga lista de privilegiados que pudieron ver, lo que otros no podían.

http://lamemoriacelular.com/blog/wp-content/uploads/2010/04/celula.png

              Moléculas, átomos y conexiones para formar pensamientos

Hemos llegado a poder discernir la relación directa que vincula el tamaño, la energía de unión y la edad de las estructuras fundamentales de la Naturaleza. Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene. La cosmología sugiere que esta relación resulta del curso de la historia cósmica, que los quarks se unieron primero en las energías extremadamente altas del big bang original  y que a medida que el Universo se expandió, los protones y neutrones compuestos de quarks se unieron para formar núcleos de átomos, los cuales, cargados positivamente, atrajeron a los electrones cargados con electricidad negativa estableciéndose así como átomos completos, que al unirse formaron moléculas.

Si es así (que lo es), cuanto más íntimamente examinemos la Naturaleza, tanto más lejos hacia atrás vamos en el tiempo.   Alguna vez he puesto el ejemplo de mirar algo que no es familiar, el dorso de la mano, por ejemplo, e imaginemos que podemos observarlo con cualquier aumento deseado.

Resultado de imagen de células de la piel vistas al microscopio electrónico

Con un aumento relativamente pequeño, podemos ver las células de la piel, cada una con un aspecto tan grande y  complejo como una ciudad, y con sus límites delineados por la pared celular.  Si elevamos el aumento, veremos dentro de la célula una maraña de ribosomas serpenteando y mitocondrias ondulantes, lisosomas esféricos y centríolos, cuyos alrededores están llenos de complejos órganos dedicados a las funciones respiratorias, sanitarias y de producción de energía que mantienen a la célula.

Ya ahí tenemos pruebas de historia. Aunque esta célula particular solo tiene unos pocos años de antigüedad, su arquitectura se remonta a más de mil millones de años, a la época en que aparecieron en la Tierra las células eucariota o eucarióticas como la que hemos examinado.

Abajo Crestas epidérmicas

Resultado de imagen de células de la piel vistas al microscopio electrónico

Para determinar dónde obtuvo la célula el esquema que le indicó como formarse, pasemos al núcleo y contemplemos los delgados contornos de las macromoléculas de ADN segregadas dentro de sus genes.  Cada una contiene una rica información genética acumulada en el curso de unos cuatro mil millones de años de evolución.

Almacenado en un alfabeto de nucleótidos de  cuatro “letras”- hecho de moléculas de azúcar y fosfatos, y llenos de signos de puntuación, reiteraciones para precaver contra el error, y cosas superfluas acumuladas en los callejones sin salida de la historia evolutiva-, su mensaje dice exactamente cómo hacer un ser humano, desde la piel y los huesos hasta las células cerebrales.

Si elevamos más el aumento veremos que la molécula de ADN está compuesta de muchos átomos, con sus capas electrónicas externas entrelazadas y festoneadas en una milagrosa variedad de formas, desde relojes de arena hasta espirales ascendentes como largos muelles y elipses grandes como escudos y fibras delgadas como puros.  Algunos de esos electrones son recién llegados, recientemente arrancados a átomos vecinos; otros se incorporaron junto a sus núcleos atómicos hace más de cinco mil millones de años, en la nebulosa de la cual se formó la Tierra.

Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene. Sion embargo, nos queda la duda de: ¿qué podrá haber más allá de los Quarks?

¿Qué no podremos hacer cuando conozcamos la naturaleza real del átomo y de la luz? El fotón,  ese cuánto de luz que parece tan insignificante, nos tiene que dar muchas satisfacciones y, en él, están escondidos secretos que, cuando sean revelados, cambiará el mundo. Esa imagen de arriba que está inmersa en nosotros en en todo el Universo, es la sencillez de la complejidad. A partir de ella, se forma todo: la muy pequeño y lo muy grande.

Resultado de imagen de El núcleo del átomo al microscopio

Estas imágenes muestran (por primera vez en la historia) la órbita de un electrón en un átomo de hidrógeno (el átomo más sencillo de todos).

Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión.   Tales núcleos y átomos se formaron dentro de una estrella que estalló mucho antes de que naciera el Sol.  Si podemos aumentar aún más, veremos los tríos de quarks que constituyen protonesneutrones. Los quarks han estado unidos desde que el Universo sólo tenía unos pocos segundos de edad.

Al llegar a escalas cada vez menores, también hemos entrado en ámbitos de energías de unión cada vez mayores.  Un átomo puede ser desposeído de su electrón aplicando sólo unos miles de electrón-voltios de energía.  Sin embargo, para dispersar los nucleones que forman el núcleo atómico se requieren varios millones de electrón-voltios, y para liberar los quark que constituyen cada nucleón.

Uno de los misterios de la naturaza, están dentro de los protones y neutrones que, conformados por Quarks, resulta que, si estos fueran liberados, tendrían independientemente, más energía que el protónque conformaban. ¿cómo es posible eso?

Introduciendo el eje de la historia, esta relación da testimonio del pasado de las partículas: las estructuras más pequeñas, más fundamentales están ligadas por niveles de energía mayores porque las estructuras mismas fueron forjadas en el calor del big bang. Esto implica que los aceleradores de partículas, como los telescopios, funcionen como máquinas del tiempo.  Un telescopio penetra en el pasado en virtud del tiempo que tarda la luz en desplazarse entre las estrellas; un acelerador recrea, aunque sea fugazmente, las condiciones que prevalecían en el Universo primitivo. El acelerador de 200 Kev diseñado en los años veinte por Cockroft y Walton reproducía algunos de los sucesos que ocurrieron alrededor de un día después del comienzo del big bang. Los aceleradores construidos en los años cuarenta y cincuenta llegaron hasta la marca de un segundo.  El Tevatrón del Fermilab llevó el límite a menos de una milmillonésima de segundo después del comienzo del Tiempo.  El nuevo LHC proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

Resultado de imagen de El nuevo LHC proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

      Tuvieron que pasar más de doscientos millones de años para que se formaran las primeras estrellas

Esta es una edad bastante temprana: una diez billonésima de segundo es menos que un pestañeo con los párpados en toda la historia humana registrada.  A pesar de ello, extrañamente, la investigación de la evolución del Universo recién nacido indica que ocurrieron muchas cosas aún antes,  durante la primera ínfima fracción de un segundo.

Todos los teóricos han tratado de elaborar una explicación coherente de los primeros momentos de la historia cósmica.  Por supuesto, sus ideas fueron esquemáticas e incompletas, muchas de sus conjeturas, sin duda, se juzgaran deformadas o sencillamente erróneas, pero constituyeron una crónica mucho más esclarecedora del Universo primitivo que la que teníamos antes.

A los cien millones de años desde el comienzo del tiempo, aún no se habían formado las estrellas, si acaso, algunas más precoces.  Aparte de sus escasas y humeantes almenaras, el Universo era una sopa oscura de gas hidrógeno y helio, arremolinándose aquí y allá para formar protogalaxias.

Anti-hidrógeno

He aquí la primera imagen jamás obtenida de antimateria, específicamente un “anti-átomo” de anti-hidrógeno. Este experimento se realizó en el Aparato ALPHA de CERN, en donde los anti-átomos fueron retenidos por un récord de 170 milisegundos (se atraparon el 0.005% de los anti-átomos generados).

Resultado de imagen de La joven Vía Láctea en formación

Nuestro Sistema Solar se formó en la periferia, a cerca de 30.000 años luz del centro galáctico unos 9.000 millones de años más tarde, en una Nebulosa molecular en la que, una anomalía gravitatoria formó un grumo que se convirtió en un disco protoplanetario del que surgió el Sol, los planetas y demás objetos que lo conforman.

A la edad de mil millones de años, el Universo tiene un aspecto muy diferente.  El núcleo de la joven Vía Láctea arde brillantemente, arrojando las sobras de cumulonimbos galácticos a través del oscuro disco; en su centro brilla un quasar blanco-azulado.  El disco, aún en proceso de formación, es confuso y está lleno de polvo y gas; divide en dos partes un halo esférico que será oscuro en nuestros días, pero a la sazón corona la galaxia con un brillante conjunto de estrellas calientes de primera generación.

Para determinar dónde obtuvo la célula es esquema que le indicó como formarse, pasemos al núcleo y contemplemos los delgados contornos de las macromoléculas de ADN segregadas dentro de sus genes. Cada una contiene una rica información genética acumulada en el curso de unos cuatro mil millones de años de evolución.

Claro que, nuestra historia está relacionada con todo lo que antes de llegar la vida al Universo pudo pasar. ¡Aquella primera célula! Se replicó en la sopa primordial llamada Protoplasma vivo y, sigguió evolucionando hasta conformar seres de diversos tipos y, algunos, llegaron a adquirir la conciencia.

                   Macromolécula

Almacenado en un alfabeto de nucleótidos de cuatro “letras”- hecho de moléculas de azúcar y fosfatos, y llenos de signos de puntuación, reiteraciones para precaver contra el error, y cosas superfluas acumuladas en los callejones sin salida de la historia evolutiva-, su mensaje dice exactamente cómo hacer un ser humano, desde la piel y los huesos hasta las células cerebrales.

  célula cerebral

Si elevamos más el aumento veremos que la molécula de ADN está compuesta de muchos átomos, con sus capas electrónicas externas entrelazadas y festoneadas en una milagrosa variedad de formas de una rareza y de una incleible y extraña belleza que sólo la Naturaleza es capaz de conformar.

        Molécula de ADN

Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión. Tales núcleos átomos se formaron dentro de una estrella que estalló mucho antes de que naciera el Sol. Si podemos aumentar aún más, veremos los tríos de quarks que se  constituyen en protones y neutrones.

                                 Átomo de Carbono

Los quarks han estado unidos desde que el Universo sólo tenía unos pocos segundos de edad. Una vez que fueron eliminados los antiquarks, se unieron en tripletes para formar protones y neutrones que, al formar un núcleo cargado positivamente, atrayeron a los electrones que dieron lugar a formar los átomos que más tarde, conformaron la materia que podemos ver en nuestro unioverso.

Al llegar a escalas cada vez menores, también hemos entrado en ámbitos de energías de unión cada vez mayores. Un átomo puede ser desposeído de su electrón aplicando sólo unos miles de electrón-voltios de energía. Sin embargo, para dispersar los nucleaones que forman el núcleo atómico se requieren varios millones de electrón-voltios, y para liberar los quarks que constituyen cada nucleón se necesitaría cientos de veces más energía aún.

Resultado de imagen de Los Quarks y la interacción fuerte

Los Quarks dentro del núcleo están sometidos a la Interacción fuerte, es decir, la más potente de las cuatro fuerzas fundamentales del Universo, la que mantiene a los Quarks confinados dentro del núcleo atómico por medio de los Gluones que actúan como si de un fuerte pegamento se tratara de ahí su nombre (Glue en inglés es pegamento).

Introduciendo el eje de la historia, esta relación da testimonio del pasado de las partículas: las estructuras más pequeñas, más fundamentales están ligadas por niveles de energía mayores porque las estructuras mismas fueron forjadas en el calor del big bang.

 

Haces de protones que chocan cuando viajan a velocidad relativista en el LHC

Esto implica que los aceleradores de partículas, como los telescopios, funcionen como máquinas del tiempo. Un telescopio penetra en el pasado en virtud del tiempo que tarda la luz en desplazarse entre las estrellas; un acelerador recrea, aunque sea fugazmente, las condiciones que prevalecían en el Universo primitivo.

El acelerador de 200 kev diseñado en los años veinte por Cockroft y Walton reproducía algunos de los sucesos que ocurrieron alrededor de un día después del comienzo del big bang.

foto

        Aquel acelerador nada tenía que ver con el LHC de ahora, casi un siglo los separa

Los aceleradores construidos en los años cuarenta y cincuenta llegaron hasta la marca de un segundo. El Tevatrón del Fermilab llevó el límite a menos de una milmillonésima de segundo después del comienzo del Tiempo. El nuevo supercolisionador superconductor proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

El Tevatrón del Fermilab ya estaba en el camino de la modernidad en los avances de la Física

Esta es una edad bastante temprana: una diez billonésima de segundo es menos que un pestañeo con los párpados en toda la historia humana registrada. A pesar de ello, extrañamente, la investigación de la evolución del Universo recién nacido indica que ocurrieron muchas cosas aún antes, durante la primera ínfima fracción de un segundo.

Todos los teóricos han tratado de elaborar una explicación coherente de los primeros momentos de la historia cósmica. Por supuesto, sus ideas fueron esquemáticas e incompletas, muchas de sus conjeturas, sin duda, se juzgaran deformadas o sencillamente erróneas, pero constituyeron una crónica mucho más aclaradora del Universo primitivo que la que teníamos antes.

                                             Recreación del Universo primitivo

 Bueno amigos, el trabajo era algo más extenso y entrábamos a explicar otros aspectos y parámetros implicados en todo este complejo laberinto que abarca desde lo muy grande hasta la muy pequeño, esos dos mundos que, no por ser tan dispares, resultan ser antagónicos, porque el uno sin el otro no podría existir. Otro día, seguiremos abundando en el tema apasionante  que aquí tratamos.

emilio silvera

La Física es la llave del futuro

$
0
0

  

 

 

Pero nos empeñamos en saber donde estamos

 

 

 

Hace mucho Tiempo que la Humanidad sueña con viajar al Espacio, miramos las estrellas en la noche oscura y, su titilar que parece decirnos alguna cosa, es engañoso, el fenómeno lo produce la atmósfera del planeta y nos da esa sensación. Sin embargo, nosotros, mirando esos pequeños puntitos brillantes, dentro de nuestras mentes constrímos mil historias…

 

 

Sí, el sabio llegó a la conclusión que la pequeña, perfumada, fragante y bella rosa, estaba hecha de los mismos ingredientes que una galaxia, es decir, eran los átomos que se unieron para formar moléculas y el cuerpo de la rosa, los mismos que lo harían para formar una gran galaxia. Precisamente por eso, hablar de lo grande o lo pequeño…

 Nadie sabe lo que nos podemos encontrar ahí fuera. El día que se produzca ese primer contacto. ¿Cómo serán ellos? ¿Podremos entablar amistad? ¿Hasta donde llevaremos las relaciones? Pero, lo más importante… ¿Cómo llegaremos “allí”?

Alguna vez he leído alguna historia en las que había hadas en el frondoso jardín. Es cierto, no existen pruebas de que así pudiera ser. Sin embargo, tampoco las hay de que no las haya, y, el hecho cierto de que nosotros, los humanos, no la hayamos podido ver, no es prueba de su inexistencia. Hay que tener una imaginación abierta a todo y, de esa manera, evitamos sobresaltos y sorpresas inesperadas que, dicho sea de paso, pueden estar a cada paso que damos. El Universo es eso, un océano de maravillosas sorpresas que nos habla del comportamiento de las grandes energías y de la materia, unas veces disfrazada de estrella, otras de emisiones gamma y no en pocas ocasiones de agujeros negros y púlsares.

https://acelerandolaciencia.files.wordpress.com/2014/01/standard-model-particles-and-their-interactions.jpg

El modelo estándar de partículas fundamentales y sus interacciones

Esta imagen representa todo lo que conocemos, y que se ha podido verificar experimentalmente, sobre la estructura de la materia de la que estamos hechos nosotros y todo lo que hasta ahora hemos observado en el universo, con el nivel de precisión que podemos alcanzar utilizando los instrumentos que tenemos.

 

 

 

 

 

 

 

Resultado de imagen de http://www.scienceinschool.org/%2Frepository/images/issue10lhcwhy10_xl.jpg

 

La materia ha evolucionado hasta límites increíbles: ¡la vida! y, aún no sabemos, lo que más allá pueda esperar. Los nuevos conocimientos y los que la humanidad tendrá dentro de un siglo (por ejemplo), nos permitirá vivir hasta cerca de los 200 años, habremos aprendido a luchar contra la entropía destructura.

 

Por ahí deambula uno de mis trabajos sobre este mismo tema que titulé ¡La perfección imperfecta! En referencia al Modelo Estándar que no incorpora la Gravedad, y, se ha construido un edificio que nos habla de cómo funciona el universo y, sin embargo, le falta uno de sus pilares, precisamente, ese que nos dice como es su geometría espacial en presencia de grandes masas.

 

 

 

 

 

“Colisión del Bosón de Higgs desintegrándose en fermiones”. Primeras evidencias de un nuevo modo de desintegración del bosón de Higgs. Las primeras evidencias de la desintegración del recién descubierto bosón de Higgs en dos partículas denominadas tau, pertenecientes a la familia de partículas que compone la materia que vemos en el Universo. Hasta ahora los experimentos del LHC habían detectado la partícula de Higgs mediante su desintegración en otro tipo de partículas denominadas bosones, portadoras de las fuerzas que actúan en la Naturaleza, mientras las evidencias de desintegraciones en fermiones no eran concluyentes. Esta es la primera evidencia clara de este nuevo modo de desintegración del bosón de Higgs.”

 

 

 

Resultado de imagen de Colisiones en el LHC a energías de 14 TeV

 

 

La regla universal en la física de partículas es que cuando las partículas chocan con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez menores, más pequeñas en el espacio y en el tiempo. Supongamos por un momento que tenemos a nuestra disposición un Acelerador de Partículas 10.000 veces más potente que el LHC, donde las partículas pueden adquirir esas tantas veces más energías de las alcanzadas actualmente. Las colisiones que tendrían lugar nos dirían algo acerca de los detalles estructurales de esas partículas que ahora no conocemos, que serían mucho más pequeñas que las que ahora podemos contemplar.

 

 

 

 

 

Ahora el LHC se prepara para nuevas aventuras y experimentos mayores, con mayores energías. ¿Podeis imaginar conseguir colisiones a 70.000 TeV? ¿Que podríamos ver? Y, entonces, seguramente, podríamos oir en los medios la algarada de las protestas de algunos grupos:  “Ese monstruo creado por el hombre puede abrir en el espacio tiempo agujeros de gusano que se tragará el mundo y nos llevará hacia otros universos”

 

 

 

 

 

¿Justifica el querer detectar las partículas que conforman la “materia oscura”, o, verificar si al menos, podemos vislumbrar la sombra de las “cuerdas” vibrantes de esa Teoria del Todo, el que se gasten ingentes cantidades de dinero en esos artilugios descomunales? Bueno, a pesar de todos los pesares, la respuesta es que SÍ, el rendimiento y el beneficio que hemos podido recibir de los aceleradores de partículas, justifica de manera amplia todo el esfuerzo realizado, toda vez que, no solo nos ha llevado a conocer muchos secretos que la Naturaleza celosamente guardaba, sino que, de sus actividades hemos tenido beneficios muy directos en ámbitos como la medicina, las comunicaciones y otros que la gente corriente desconocen.

 

 

 

 

¿Implica el ajuste fino un diseño con propósito? ¿Hay tantos parámetros que deben tener un ajuste fino y el grado de ajuste fino es tan alto, que no parece posible ninguna otra conclusión?

Hoy, el Modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero tenemos algunas razones para sospechar que tales predicciones resultan estar muy alejadas de la realidad, o, incluso, ser completamente falsas. Cuando tenemos la posibilidad de llegar más lejos, con sorpresa podemos descubrir que aquello en lo que habíamos creído durante años, era totalmente diferente. El “mundo” cambia a medida que nos alejamos más y más de lo grande y nos sumergimos en ese otro “mundo” de lo muy pequeño, allí donde habitan los minúsculos objetos que conforman la materia desde los cimientos mismos de la creación.

 

 

 

 

Así el modelo que tenenos de la física de partículas se llama Modelo Estándard y, nos habla de las interacciones entre partículas y las fuerzas o interrelaciones que están presentes, las leyes que rigen el Universo físico y que, no hemos podido completar al no poder incluir una de las fuerzas: La Gravedad. Claro que, no es esa la única carencia del Modelo, tiene algunas más y, a estas alturas, se va necesitando un nuevo Modelo, más completo y audaz, que incluya a todas las fuerzas y que no tengá parámetros aleatorios allí donde nuestros conocimientos no llegan.

 

Resultado de imagen de El Modelo Estandar

 

 

La fealdad del Modelo Estándar puede contrastarse con la simplicidad de las ecuaciones de Einstein, en las que todo se deducía de primeros principios. Para comprender el contraste estético entre el Modelo Estándar y la teoría de la relatividad general de Einstein debemos comprender que, cuando los físicos hablan de “belleza” en sus teorías, realmente quieren decir que estas “bellas” teorías deben poseer al menos dos características esenciales:

 

  1. Una simetría unificadora.
  2. La capacidad de explicar grandes cantidades de datos experimentales con las expresiones matemáticas más económicas.

 

E = mc2 . Esta es la mejor prueba de lo que decimos arriba.

 

 

 

 

El Modelo Estándar falla en ambos aspectos, mientras que la relatividad general los exhibe, ambos, de manera bien patente. Nunca una teoría dijo tanto con tan poco; su sencillez es asombrosa y su profundidad increíble.De hecho, desde que se publicó en 1.915, no ha dejado de dar frutas, y aún no se han obtenido de ella todos los mensajes que contiene.

El principio director del modelo estándar dicta que sus ecuaciones son simétricas. De igual modo que una esfera ofrece el mismo aspecto desde cualquier punto de vista, las ecuaciones del modelo estándar subsisten sin variación al cambiar la perspectiva desde la que son definidas. Las ecuaciones permanecen invariables, además, cuando esta perspectiva se desplaza en distinta magnitud a diferentes puntos del espacio y el tiempo.

 

Resultado de imagen de La fealdad del Modelo Estándar

 

Se extraña la ausencia de la cuarta fuerza, la Gravedad y hace que Modelo incompleto

 

Al contrario de la relatividad general, la simetría del Modelo Estándar, está realmente formada empalmando tres simetrías más pequeñas, una por cada una de las fuerzas; el modelo es espeso e incómodo en su forma. Ciertamente no es económica en modo alguno. Por ejemplo, las ecuaciones de Einstein, escritas en su totalidad, sólo ocupan unos centímetros y ni siquiera llenaría una línea de esta página. A partir de esta escasa línea de ecuaciones, podemos ir más allá de las leyes de Newton y derivar la distorsión del espacio, el Big Bang y otros fenómenos astronómicos importantes como los agujeros negros. Por el contrario, sólo escribir el Modelo Estándar en su totalidad requeriría, siendo escueto, un par de páginas  y parecería un galimatías de símbolos complejos sólo entendibles por expertos.

 

 

 

Los científicos quieren creer que la naturaleza prefiere la economía en sus creaciones y que siempre parece evitar redundancias innecesarias al crear estructuras físicas, biológicas y químicas.

 

 

 

 

 

La luz antigua absorbida por átomos de hidrógeno neutro podría usarse para probar ciertas predicciones de la Teoría de Cuerdas, dicen los cosmólogos de la Universidad de Illinois. Realizar tales medidas, sin embargo, requeriría que se construyese un gigantesco conjunto de radio telescopios en la Tierra, el espacio, o la Luna.

 

 

Resultado de imagen de La naturaleza es bella

 

 

El matemático francés Henri Poincaré lo expresó de forma aún más franca cuando escribió: “El científico no estudia la Naturaleza porque es útil; la estudia porque disfruta con ello, y disfruta con ello porque es bella

 

 

Resultado de imagen de Las matemáticas en la física

 

Cuando las palabras no pueden explicar alguna cuestión compleja… ¡Ahí aparecen las matemáticas!

 

E. Rutherford, quien descubrió el núcleo del átomo (entre otras muchas cosas), dijo una vez: “Toda ciencia es o física o coleccionar sello”.Se refería a la enorme importancia que tiene la física para la ciencia, aunque se le olvidó mencionar que la física está sostenida por las matemáticas que la explica.

Pero, a pesar de todos sus inconvenientes, el Modelo Estándar, desde su implantación, ha cosechado un éxito tras otro, con sus inconvenientes y sus diecinueve parámetros aleatorios, lo cierto es que es lo mejor que tenemos por el momento para explicar las familias de partículas que conforman la materia y cómo actúan las fuerzas de la naturaleza, todas las fuerzas menos la gravedad; esa nos la explica a la perfección y sin fisuras las ecuaciones de Einstein de la relatividad general.

 

 

 

 

Hace tiempo que los físicos tratan de mejorar el Modelo Estándar con otras teorías más avanzadas y modernas que puedan explicar la materia y el espacio-tiempo con mayor amplitud y, sobre todo, incluyendo la gravedad.Así que retomando la teoría de Kaluza de la quinta dimensión, se propuso la teoría de supergravedad en 1.976 por los físicos Daniel Freedman, Sergio Ferrara y Peter van Nieuwenhuizen, de la Universidad del Estado de Nueva York en Stoney Brook que desarrollaron esta nueva teoría en un espacio de once dimensiones.

Para desarrollar la superteoría de Kaluza-Klein en once dimensiones, uno tiene que incrementarenormemente las componentes del interior del Tensor métrico de Riemann (que Einsteinutilizó en cuatro dimensiones, tres de espacio y una de tiempo para su relatividad general y más tarde, Kaluza, añadiendo otra dimensión de espacio, la llevó hasta la quinta dimensión haciendo así posible unir la teoría de Einstein de la gravedad, con la teoría de Maxwell del electromagnetismo), que ahora se convierte en el supertensor métrico de Riemann.

 

 

 

 

Hasta hoy, no se ha logrado, ni mucho menos, inventar una teoría de campo consistente totalmente unificadora que incluya la gravedad. Se han dado grandes pasos, pero las brechas «científicounificantes» siguen siendo amplias. El punto de partida ha sido siempre la teoría de la relatividad general y conceptos con ella relacionados, por la excelencia que manifiesta esa teoría para explicar la física gravitatoria macrocósmica. El problema que se presenta surge de la necesidad de modificar esta teoría sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo los problemas de la gravedad cuántica en distancias cortas y de la unificación de la gravedad con las otras fuerzas de la naturaleza.

 

 

 

 

 

 

Su tensor métrico es un tensor de rango 2 que se utiliza para definir … Sin embargo, en otras teorías se ha elevado el rango y se pueden definir múltiples universos de dimensiones más altas.

 

 

 

 

El tensor métrico se podría adaptar a las necesidades de la búsqueda estableciendo la multiplicidad de dimensiones que la teoría exigía para su desarrollo.

 

 

 

 

Más allá de lo que nos permiten captar nuestros sentidos físicos, hay que tener nuestra mente abierta a la posibilidad de que puedan existir otras realidades diferentes a lo que nos dicta nuestra experiencia, realidades capaces de ser descubiertas por la fuerza del intelecto cuando nos atrevemos a cuestionar aquello que creíamos como absoluto.

Esta nueva teoría de supergravedad pretendía la unificación de todas las fuerzas conocidas con la materia, y, como en un rompecabezas, encajarlas en el Tensor de Riemann tan solo con elevar el número de dimensiones que exigía más componentes y nos daba el espacio necesario para poder ubicar en sus apartados correspondientes, todas las fuerzas fundamentales y también la materia, la que podía satisfacer, casi en su totalidad, el sueño de Einstein.

 

 

 

 

A partir de aquí, de estas ecuaciones, surgió todo. Este fue el puerto de donde salió el bajel de la de Kaluza-Gleim, la supergravedad y supersimetría, la cuerda heterótica y la Teoría de cuerdas, todo ello, rematado con la finalmente expuesta, teoría M.

 

 

Resultado de imagen de Supergravedad

 

 

La supergravedad casi consigue satisfacer el sueño de Einstein de dar una derivación puramente geométrica de todas las fuerzas y partículas del universo. Al añadir la supersimetría al Tensor métrico de Riemann, la métrica se duplica en tamaño, dándonos la supersimetría de Riemann. Las nuevas componentes del súper tensor de Riemann corresponden a quarks y leptones, casi todas las partículas y fuerzas fundamentales de la naturaleza: la teoría de la gravedad de Einstein, los campos de Yang-Mills y de Maxwell y los quarks y leptones. Pero el hecho de que ciertas partículas no estén en esta imagen nos obliga a buscar un formalismo más potente:

 

La materia con todas las fuerzas fundamentales de la naturaleza. Los bosones intermediarios o partículas portadoras de las fuerzas como el fotón para el electromagnetismo, los gluones para la fuerza nuclear fuerte, las partículas W y Z para la nuclear débil y, en la partícula portadora de la gravedad, el gravitón, ponemos el signo de interrogación, ya que se sabe que esta ahí en algún sitio pero hasta la fecha no ha sido detectado.

 

Antes de continuar con la teoría de súper cuerdas, o con su versión más avanzada la teoría M, parece conveniente recordar que hasta el momento los ladrillos del universo eran los quarks, las partículas más pequeñas detectadas en los aceleradores del CERN y FERMILAB. Pero ¿están hechos de cosas más pequeñas?, eso no lo sabemos. El Modelo Estándar, menos avanzado que las otras teorías, nos dice que los quarks son las partículas más pequeñas y forman protones y neutrones constituyendo la formación interna del átomo, el núcleo. En la actualidad, nuestros aceleradores de partículas no tienen capacidad para ahondar más allá de los quarks y averiguar si a su vez, éstos están formados por partículas aún más pequeñas.

 

 

 

No podemos saber (aún) que es lo que pueda haber (si es que lo hay) más allá de los Quarks, los constituyentes de la materia más pequeños conocidos hasta el momento actual. Sin embargo, no se descarta que puedan existir partículas más simples dentro de los Quarks que, al fin y al cabo, no serían tan elementales.

Por otro lado, los físicos están casi seguros de que los leptones no están compuestos de partículas más pequeñas. Sin embargo, esta sospecha no se tiene en el caso de los quarks; no se sabe qué puede haber detrás de ellos. Tan sólo se ha llegado a desconfinarlos junto con los gluones y por un breve periodo de tiempo de los protones y neutrones que los mantenían aprisionados, formando – en esos breves instantes – una materia plasmosa. No es raro oir dentro de la comunidad científica a los físicos teóricos hablando de prequarks.

Como antes hemos comentado de pasada, el Modelo Estándar agrupa las partículas en familias:

 

 

Resultado de imagen de Fermiones y Bosones

 

Fermiones y Bosones

Cada leptón grande, es decir, el electrón, el muón y el tau, tiene un primo pequeño. Así el electrón tiene un neutrino electrónico, el muón un neutrino muónico y el tau un neutrino tau. Como se puede ver en la tabla anterior la única diferencia entre el electrón, el muón y el tau es la masa, que va creciendo. Todos tienen carga eléctrica negativa. Los neutrinos en cambio no tienen carga y tienen una masa muy pequeña (pero tienen y es una de las razones por la que se dice que los neutrinos cambian de sabor, es decir cuando salen, por ejemplo, del sol salen en forma de neutrinos electrónicos pero cuando los detectamos en la tierra, vemos que llegan menos neutrinos electrónicos de los que deberían, porque durante el viaje han cambiado de sabor y se han convertido en neutrinos muónicos o tau).

 

 

 

Los bariones se componen de tres quarks o tres antiquarks. En este último caso se denominan antibariones.

Los mesones se componen de dos quarks y obligatoriamente uno es un quark y el otro un antiquark.

 

Claro, son muchos más. Además de los Bariones, también forman parte de la familia hadrónica los mesones y la lista de unos y otros es larga y cada individuo, como es natural, tiene sus propias características que lo hacen único.

Los bariones se componen de tres quarks o tres antiquarks. En este último caso se denominan antibariones.Los mesones se componen de dos quarks y obligatoriamente uno es un quark y el otro un antiquark.
Resultado de imagen de Estadística Bose-Einstein
Resultado de imagen de Condensación Bose-Einstein
Resultado de imagen de Estadística Bose-Einstein

Se llaman bosones porque, al contrario que los fermiones, éstos obedecen la estadística de Bose-Einsteinque dice que pueden existir en el mismo estado cuántico muchas bosones al mismo tiempo (recordad que en el caso de los fermiones sólo podía haber dos en el mismo estado cuántico). Algunos bosones tienen la peculiaridad de que son los portadores de las fuerzas fundamentales de la naturaleza, es decir, cada vez que ocurre una interacción entre dos partículas, lo que realmente ocurre es que intercambian un bosón. Estas fuerzas son el electromagnetismo, la fuerza débil y la fuerza fuerte (vienen a continuación). Existe otro bosón, aunque sólo a nivel teórico, conocido como el gravitón que sería el responsable de la fuerza gravitatoria. La fuerza gravitatoria no está explicada por el modelo estándar y por lo tanto el gravitón, no forma parte del mismo.

Resultado de imagen de La fuerza débil

La fuerza débil es la responsable de las desintegraciones radiactivas, es decir, que una partícula se convierta en otra a través de la emisión de una o más partículas adicionales. Esta interacción es mediada por los bosones W+, W- y Z0. Estos bosones tienen la particularidad de que tienen masa, al contrario que el resto de bosones.

La fuerza fuerte hace que los quarks que componen los núcleos atómicos se mantengan unidos y no se rompan espontáneamente. El bosón encargado de hacer esto es el gluón.

La fuerza electromagnética es la que más conocemos todos, ya que se compone de la fuerza eléctrica y la fuerza magnética (en realidad es una única fuerza que se manifiesta de dos maneras diferentes, de ahí que reciba el nombre de fuerza electromagnética). El bosón portador de esta fuerza es el fotón. Nuestra experiencia diaria se basa principalmente en sufrir los efectos de esta fuerza y cada vez que vemos la luz, sentimos calor, calentamos la comida en el microondas, etc., lo que estamos haciendo es interaccionar con fotones de diversas energías.

https://acelerandolaciencia.files.wordpress.com/2014/01/decaimientos.jpg

                                                                           Interacciones entre partículas

En la imagen de la izquierda se representa como un neutrón se desintegra para dar un protón, un electróny un antineutrino electrónico. Esta desintegración es conocida como desintegración beta.

En la imagen central se muestra la colisión entre un electrón y un positrón que da lugar a una desintegración de materia en energía pura, otra vez a través de la ecuación de Einstein E=mc2. La energía se convierte, por la misma ecuación, otra vez en otras partículas diferentes. En este caso se forma un mesón B0 y un antimesón B0.

Por último, en la imagen de la derecha aparece la colisión de dos protones (como los que ocurren en el LHC del CERN) para dar lugar a dos bosones Z0 y varios hadrones, es decir, varias partículas compuestas de diferentes quarks (mesones y bariones).

… Han dejado fuera del Modelo estándar a la Gravedad que se resiste a estar junto a las otras tres fuerzas. Así, continúan persiguiendo ese sueño llamado… ¡Teoría cuántica de la gravedad o Gravedad cuántica!

Y describe las interacciones que estas partículas tienen con las cuatro fuerzas fundamentales de la naturaleza, sobre todo con las nucleares fuerte y débil y la electromagnética; la gravedad se queda aparte del Modelo Estándar, ya que su incidencia con las partículas elementales es inapreciable como consecuencia de las infinitesimales masas de éstas, y ya sabemos que la gravedad se deja sentir y se hace presente cuando aparecen las grandes masas como planetas, estrellas y galaxias.

Resultado de imagen de Grandes Galaxias

Grandes estructuras que vienen a ser como pequeños ”universos islas” en los que podemos estudiar, a menos tamaño, todo lo que en el Gran Universo puede pasar. Partiendo de la base de que las leyes del universo son las mismas en todas partes, podemos tomar cualquier región del mismo y ver que, allí está ocurriendo lo mismo que aquí ocurre, es decir, están presentes las fuerzas fundamentales: nucleares débiles y fuertes, electromagnetismo y Gravedad y, todo, absolutamente todo, funciona al ritmo que dichas leyes nos marcan.

Como el Modelo Estándar es limitado, los físicos buscan desesperadamente nuevas teorías que puedan corregir y perfeccionar este modelo. Así aparecieron las teorías de súper simetría, súper gravedad, súper cuerdas, y ahora por último, la teoría M propuesta por Edward Witten en 1.995 y que nos quiere explicar, de manera más perfecta, el universo desde su origen, cómo y por qué está conformado ese universo, las fuerzas que lo rigen, las constantes de la naturaleza que establecen las reglas, y todo ello, a partir de pequeños objetos infinitesimales, las cuerdas, que sustituyen a las partículas del modelo estándar que creíamos elementales.

Esas partículas súper simétricas que pronostican algunas teorías, aún no han sido observadas y se espera que en el LHC puedan aparecer algunas que, desde luego, si así ocurre, sería un buen adelanto para conocer el mundo que nos acoge y la Naturaleza del Universo.

Esta nueva teoría, permite además, unificar o incluir la gravedad con las otras fuerzas, como teoría cuántica de la gravedad, todo ello mediante una teoría estructurada y fundamentada con originalidad y compactificación de las cuatro fuerzas de la naturaleza y dejando un gran espacio matemático para eliminar anomalías o perturbaciones, y se propugna con coherencia quela cuerda es el elemento más básico de la estructura de la materia; lo que estaría bajo los quarks serían unas diminutos círculos semejantes a una membrana vibrante circular y de diferentes conformaciones.

Universos Paralelos, Teorías de Cuerdas, Súper gravedad, La Teoría M, y ¿Los pensamientos de la Mente, podrán dar para tanto?

La cuerda siempre ha sido importante en la música una especie de lenguaje subliminal que nos eleva, y, los físicos con sus teorías quisieron incorporar la cuerda “vibrante” a los cimientos del Universo.

Una vez se escucha sobre los fundamentos de la teoría cuántica uno no puede mas que sobrecogerse, ampliar la mente y galopar entre las múltiples posibilidades acerca de lo real e imaginario que por momentos y depende que conceptos se entrelazan intercambiables. Lo que llama la atención es que por mucho que hayan sido los físicos cuánticos más prestigiosos entre la sociedad científica los que hayan puesto sobre la mesa conceptos cuanto menos rimbombantes e inverosímiles como las multi-dimensiones, los universos paralelos, los efectos túneles y demás, sean los propios miembros  de la academia los que grandilocuentemente se ofenden cuando se hace alusión al paralelismo evidente del comportamiento y extensión de la energía  en referencia al universo preconizado por los místicos de muchas culturas. No tenemos los conocimientos necesarios para poder decir que no a esto o aquello, cada cosa tiene su lugar y tendremos que analizarlas muy a fondo y adentrarnos en esos mundos de misterio para poder decidir lo que es y lo que no puede ser.

Aquí hemos llegado a una región de la Física de las partículas donde la energía (por partícula) es mucho mayor de la que actualmente podemos estudiar en nuestros laboratorios. Claro que especulamos, pero con los datos de los que disponemos, la realidad estará muy cerca de la expuesta en el gráfico, y, en él se señalan energía que no están a nuestro alcance para conseguir lo que se quiere saber.

Ed Witten, en su trabajo, presentó amplias evidencias matemáticas de que las cinco teorías obtenidas de la primera revolución, junto con la más reciente conocida como la súper gravedad (súper cuerda después), en 11 dimensiones, eran de hecho parte de una teoría inherentemente cuántica y no perturbativa conocida como teoría M. Las seis teorías están conectadas entre sí por una serie de simetrías de dualidad T, S, y U. Además, de la teoría propuesta por Witten se encuentran implícitas muchas evidencias de que la teoría M no es sólo la suma de las partes, sino que se vislumbra un alentador horizonte que podría concluir como la teoría definitiva tan largamente buscada.

 

Los resultados de la segunda revolución de las súper cuerdas han demostrado que las cinco teorías de cuerdas forman parte de un solo marco unificado, llamado Teoría M.

Las súper cuerdas, en realidad, sólo es otra manera utilizada por los científicos a la búsqueda de la verdad que la Humanidad necesita y reclama para continuar con su propia evolución que, sin esos conocimientos, quedaría estancada.

Como se puede ver, las partículas implicadas en el Modelo Estándar están en un mundo microscópico de 10-17cm que sí dominan nuestros aceleradores, mientras que la cuerda está en una distancia de 10-33 cm que les está prohibida, allí no podemos llegar, no disponemos de la energía suficiente para ello.

Igual que con la energía disponible por el momento, nos pasa con las distancias, que también nos tiene paralizados en nuestros deseos de visitar mundos lejanos, no podemos, al no disponer de los medios necesarios para poder soslayar las distancias de tantos años-luz como tendríamos que recorrer. ¿Habrá otro camino?

Está muy claro para los físicos que, aunque teóricamente, en la Teoría de Súper cuerdas se pueden unir todas las fuerzas, todavía tenemos que seguir sosteniendo que la gravedad resulta una fuerza solitaria para todos los efectos, ya que ha resistido todos los intentos para saber, con certeza, si finalmente se podrá unir a las otras fuerzas de la Naturaleza. La gravedad está descrita por la teoría de la relatividadgeneral de Einstein y tiene una naturaleza esencialmente geométrica. Se entiende como la curvatura del espacio-tiempo alrededor de un objeto masivo. En los gráficos, generalmente, se representa como un objeto pesado sobre una superficie fina y tensa (una pelota o bola pesada de jugar a los bolos que dejamos encima de una sábana extendida tirando de las cuatro esquinas). El peso de la bola (materia) hundirá la sábana (espacio-tiempo) con mayor intensidad en la distancia más cercana a donde se encuentre masa.

Resultado de imagen de El espaciotiempo se distorsiona en presencia de grandes masasResultado de imagen de Un bello paisaje

 Aquí en la región que circunda al agujero negro, las cosas no son iguales que aquí. Un visitante a los dos lugares notaria grandes diferencias físicas que afectarían al curioso de muy distintas maneras en uno y otro lugar

El espacio tiempo se distorsiona allí donde residen objetos pesados como los planetas, las estrellas, galaxias y cualesquiera otros cuerpos masivos.

La teoría de Einstein goza de una amplia aceptación debido a los aciertos macroscópicos que han sido verificados de manera experimental. Los más recientes están referidos a los cambios de frecuencia de radiación en púlsares binarios debido a la emisión de ondas gravitacionales, que actualmente estudia Kip S. Thorne, en relación a los agujeros negros. Entre las predicciones que Einstein propugna en su teoría se encuentran, por ejemplo, la existencia de ondas gravitacionales, que el universo está en constante expansión y que, por lo tanto, tuvo un inicio: el Big Bang o los agujeros negros.

 

Se trata de regiones donde la gravedad es tan intensa que ni siquiera la luz puede escapar de su atracción. Estas regiones se forman por el colapso gravitatorio de estrellas masivas en la etapa final de su existencia como estrella, acabado el combustible nuclear y no pudiendo fusionar hidrógeno en helio, fusiona helio en carbono, después carbono en neón, más tarde neón en magnesio y así sucesivamente hasta llegar a elementos más complejos que no se fusionan, lo que produce la última resistencia de la estrella contra la fuerza de gravedad que trata de comprimirla, se degeneran los neutrones como último recurso hasta que, finalmente, la estrella explota en supernova lanzando al espacio las capaz exteriores de su material en un inmenso fogonazo de luz; el equilibrio queda roto, la fuerza de expansión que contrarrestaba a la fuerza de gravedad no existe, así que, sin nada que se oponga la enorme masa de la estrella supermasiva, se contrae bajo su propio peso, implosiona hacia el núcleo, se reduce más y más, su densidad aumenta hasta lo inimaginable, su fuerza gravitatoria crece y crece, hasta que se convierte en una singularidad, un lugar en el que dejan de existir el tiempo y el espacio.

Resultado de imagen de el nacimiento de un agujero negro

Allí no queda nada, ha nacido un agujero negro y a su alrededor nace lo que se ha dado en llamar el Horizonte de Sucesos, que es una región del espacio, alrededor del agujero negro que una vez traspasada no se podrá regresar; cualquier objeto que pase esta línea mortal, será literalmente engullida por la singularidad del agujero negro. De hecho, el telescopio espacial Hubble, ha enviado imágenes captadas cerca de Sagitario X-1, en el centro de nuestra galaxia, donde reside un descomunal agujero negro que, en las fotos enviadas por el telescopio, aparece como atrapa la materia de una estrella cercana y se la engulle.

 

Ondas gravitacionales que se forman a partir de los agujeros negros que, en su dinámica cotidiana y que, actualmente, estamos tratando de captar para saber de un njhuevo Universo que nos diría muchas cosas de las que ocurren a partir de fenómenos que sabemos existen pero, que hasta el momento no hemos podido “leer”.

Esta es la fuerza que se pretende unir a la Mecánica Cuántica en la teoría de supercuerdas, es decir, que Einstein con su relatividad general que nos describe el cosmos macroscópico, se pueda reunir con Max Planck y su cuanto infinitesimal del universo atómico, lo muy grande con lo muy pequeño.

Relatividad y Gravedad Cuántica. Universidad de Cambridge.
Relatividad y Gravedad Cuántica. Universidad de Cambridge.

La llamada gravedad cuántica trata de fundir en una sola las dos teorías físicas más soberbias con las que contamos, la relatividad general y la mecánica cuántica, que en el estado actual de nuestro conocimiento parecen incompatibles. Su estudio, ahora mismo, es en algunos aspectos análogo a la física de hace cien años, cuando se creía en los átomos, pero se ignaraban los detalles de su estructura.

Resultado de imagen de La Gravedad no quiere entrar en el Modelo Estándar

     La Gravedad se reserva para otros ámbitos

Hasta el momento, Einstein se ha negado a esta reunión y parece que desea caminar solo. Las otras fuerzas están presentes en el Modelo Estándar, la gravedad no quiere estar en él, se resiste.

De hecho, cuando se ha tratadode unir la mecánica cuántica con la gravedad, aunque el planteamiento estaba muy bien formulado, el resultado siempre fue desalentador; las respuestas eran irreconocibles, sin sentido, como una explosión entre materia y antimateria, un desastre.

Sin embargo, es preciso destacar que las nuevas teorías de súper-simetría, súper-gravedad, súper-cuerdas o la versión mas avanzada de la teoría M de Ed Witten, tienen algo en común: todas parten de la idea expuesta en la teoría de Kaluza-Klein de la quinta dimensión que, en realidad, se limitaba a exponer la teoría de Einstein de la relatividad general añadiendo otra dimensión en la que se incluían las ecuaciones de Maxwell del electromagnetismo.

Hasta hoy no se ha logrado, ni mucho menos, inventar una teoría de campo que incluya la gravedad. Se han dado grandes pasos, pero la brecha “científicounificante” es aún muy grande. El punto de partida, la base, ha sido siempre la relatividad y conceptos en ella y con ella relacionados, por la excelencia que manifiesta esa teoría para explicar la física gravitatoria cósmica. El problema que se plantea surge de la necesidad de modificar esta teoría de Einstein sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo el problema de la gravedad cuántica en distancias cortas y de la unificación de la gravedad con las otras fuerzas de la naturaleza. Desde la primera década del siglo XX se han realizado intentos que buscan la solución a este problema, y que han despertado gran interés.

Después de la explosión científica que supuso la teoría de la relatividad general de Einstein que asombró al mundo, surgieron a partir e inspiradas por ella, todas esas otras teorías que antes he mencionado desde la teoría Kaluza-Klein a la teoría M.

Resultado de imagen de El espíritu de la luz en la Física

Esas complejas teorías cuánticas nos quieren acercar al misterio que encierra la materia: ¡el Espíritu de la Luz! Tendremos que adentrarnos más y más en la luz, llegar a comprender lo que es, ¿qué misterios esconde?

Es de enorme interés el postulado que dichas teorías expone. Es de una riqueza incalculable el grado de complejidad que se ha llegado a conseguir para desarrollar y formular matemáticamente estas nuevas teorías que, como la de Kaluza-Klein o la de supercuerdas (la una en cinco dimensiones y la otra en 10 ó 26 dimensiones) surgen de otra generalización de la relatividad general tetradimensional einsteniana que se plantea en cuatro dimensiones, tres espaciales y una temporal, y para formular las nuevas teorías se añaden más dimensiones de espacio que, aunque están enrolladas en una distancia de Planck, facilitan el espacio suficiente para incluir todas las fuerzas y todos los componentes de la materia, tratando de postularse como la Teoría de Todo.

   Dimensiones enrolladas ¿En un espaciotiempo fractal? La Naturaleza sabe de eso

La Gran Teoría Unificada que todo lo explique es un largo sueño acariciado y buscado por muchos. El mismo Einstein se pasó los últimos treinta años de su vida buscando el Santo Grial de la teoría del todoen la física, unificadora de las fuerzas y de la materia. Desgraciadamente, en aquellos tiempos no se conocían elementos y datos descubiertos más tarde y, en tales condiciones, sin las herramientas necesarias, Einstein no podría alcanzar su sueño tan largamente buscado. Si aún viviera entre nosotros, seguro que disfrutaría con la teoría de súper-cuerdas o la teoría M, al ver como de ellas, sin que nadie las llame, surgen, como por encanto, sus ecuaciones de campo de la relatividad general.

A history of the universe

La fuerza de la Naturaleza, en el universo primitivo del Big Bang, era una sola fuerza y el estado de la materia es hoy conocido como “plasma”; las enormes temperaturas que regían no permitía la existencia de protones o neutrones, todo era como una sopa de quarks. El universo era opaco y estaba presente una simetría unificadora.

Más tarde, con la expansión, se produjo el enfriamiento gradual que finalmente produjo la rotura de la simetría reinante. Lo que era una sola fuerza se dividió en cuatro. El plasma, al perder la temperatura necesaria para conservar su estado, se trocó en quarks que formaron protones y neutrones que se unieron para formar núcleos. De la fuerza electromagnética, surgieron los electrones cargados negativamente y que, de inmediato, fueron atraídos por los protones de los núcleos, cargados positivamente; así surgieron los átomos que, a su vez, se juntaron para formar células y éstas para formar los elementos que hoy conocemos.

Después se formaron las estrellas y las galaxias que sirvieron de fábrica para elementos más complejos surgidos de sus hornos nucleares hasta completar los 92 elementos naturales que conforma toda la materia conocida. Existen otros elementos que podríamos añadir a la Tabla, pero estos son artificiales como el plutonio o el einstenio que llamamos transuranidos, es decir, más allá del uranio.

La materia ha evolucionado hasta límites increíbles: ¡la vida! y, aún no sabemos, lo que más allá nos pueda esperar. ¡Es todo tan complejo!

                     ¿Quizás hablar sin palabras, o, Incluso algo más?

                             ¿Muchos mundos y diversas formas de vida?

Estos conocimientos y otros muchos que hoy posee la ciencia es el fruto de mucho trabajo, de la curiosidad innata al ser humano, del talento de algunos y del ingenio de unos pocos, todo ello después de años y años de evolución pasando los descubrimientos obtenidos de generación en generación.

¿Cómo habría podido Einstein formular su teoría de la relatividad general sin haber encontrado el Tensor métrico del matemático alemán Riemann?

¿Qué formulación del electromagnetismo habría podido hacer James C. Maxwell sin el conocimiento de los experimentos de Faraday?

La relatividad especial de Einstein, ¿habría sido posible sin Maxwell y Lorentz?

¿Qué unidades habría expuesto Planck sin los números de Stoney?

 

En realidad… ¿Cómo comenzaría todo? Mientras encontramos la respuesta, observamos como el Universo se expande y se vuelve viejo y frío.

Así podríamos continuar indefinidamente, partiendo incluso, del átomo de Demócrito, hace ahora más de dos milenios. Todos los descubrimientos e inventos científicos están apoyados por ideas que surgen desde conocimientos anteriores que son ampliados por nuevas y más modernas formulaciones.

Precisamente, eso es lo que está ocurriendo ahora con la teoría M de las supercuerdas de Witten. Él se inspira en teorías anteriores que, a su vez, se derivan de la original de A. Einstein que pudo surgir, como he comentado, gracias al conocimiento que en geometría aportó Riemann con su tensor métrico.

Antes decía: “El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural”.  Es lo que se llama el “problema del ajuste fino”. Vistas a través del microscopio, las constantes de la Naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático, no hay nada que objetar, pero la credibilidad del Modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas o, lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas.

¿Y por qué debería ser el modelo válido hasta ahí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables, ellas podrían modificar completamente el mundo que Gulliver planeaba visitar. Si deseamos evitar la necesidad de un delicado ajuste fino de las constantes de la Naturaleza, creamos un nuevo problema:

Resultado de imagen de células de la piel vistas al microscopio electrónico

Es cierto que nuestra imaginación es grande pero… No pocas veces ¡la realidad la supera! Conviven con nosotros y… Ni prestamos atención.

¿Cómo podemos modificar el modelo estándar de tal manera que el ajuste-fino no sea necesario? Está claro que las moficiaciones son necesarias , lo que implica que muy probablemente hay un límite más allá del cual el modelo deja de ser válido. El Modelo estándar no será más que una aproximación matemática que hemos sido capaces de crear, tal que todos los fenómenos observados hasta el presente están de acuerdo con él, pero cada vez que ponemos en marcha un aparato más poderoso, debemos esperar que sean necesarias nuevas modificaciones para ir ajustando el modelo, a la realidad que descubrimos.

¿Cómo hemos podido pensar de otra manera? ¿Cómo hemos tenido la “arrogancia” de pensar que podemos tener la teoría “definitiva”? Mirando las cosas de esta manera, nuestro problema ahora puede muy bien ser el opuesto al que plantea la pregunta de dónde acaba el modelo estándar: ¿cómo puede ser que el modelo estándar funcione tan extraordinariamente bien? y ¿por qué aún no hemos sido capaces de percibir nada parecido a otra generación de partículas y fuerzas que no encajen en el modelo estándar? La respuesta puede estar en el hecho cierto de que no disponemos de la energía necesaria para poder llegar más lejos de lo que hasta el momento hemos podido viajar con ayuda de los aceleradores de partículas.

De todas las maneras que lo podamos mirar, aunque las diferentes perspectivas nos den los mismos resultados (así es el método científico para dar por bueno un experimento), las cosas en el futuro irán mucho más allá, y, lo que hoy es un Modelo ejemplar de la Física, mañana, se nos quedará pequeño y estaremos mucho más allá, sabiendo que la materia es más de lo que ahora podamos suponer y, que también, en ella, existen componentes desconocidos que tenemos que descubrir para saber, lo que el “mundo” es.

emilio silvera

Siempre buscaremos nuevas teorías de la Física y del Universo

$
0
0

Una nueva clase de reacción de fisión nuclear observada en el CERN ha mostrado importantes puntos débiles en nuestro entendimiento actual del núcleo atómico. La fisión del mercurio-180 se suponía una reacción “simétrica” que daría lugar a dos fragmentos iguales, pero en lugar de ello ha producido dos núcleos con masas bastante diferentes, una reacción “asimétrica” que plantea un serio desafío a los teóricos.

Photograph taken inside the ISOLDE experimental hall at CERN

La Ciencia no duerme. En todo el mundo (ahora también fuera de él -en el espacio), son muchos los Científicos que trabajan de manera tenaz para buscar nuevas formas de alcanzar lo ahora inalcanzable y, para ello, se emplean las más sofisticadas estructuras técnicas de avanzados sistemas tecnológicos que hacen posible llegar allí donde nunca nadie había llegado.

Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.

 

Resultado de imagen de Vista hemisférica de Venus. (Cortesía de NASA)

 

Esta es una vista hemisférica de Venus, los colores representan las elevaciones. Cortesía de NASA/JPL.

 

El segundo planeta a partir  del Sol. Tiene la órbita más circular de todos los planetas. Su albedo geométrico medio, 0,65, es el mayor de todos los planetas, como resultado de su cubierta de nubes blancas sin fracturas. En su máximo alcanza magnitud -4,7, mucho más brillante que cualquier otro planeta. Su eje de rotación está inclinado casi 180º con respecto a la vertical, de manera que su rotación es retrógrada. Rota alrededor de su eje cada 243 días, y, por tanto, muestra siempre la misma cara hacia la Tierra cuando los dos planetas se encuentran en su máxima aproximación.

La atmósfera de Venus es en un 96,5% de dióxido de carbono y un 3,5 de nitrógeno, con trazas de dióxido de azufre, vapor de agua, argón, hidrógeno y monóxido de carbono. La presión en la superficie es de 92 bares (es decir, 92 veces la presión a nivel del mar en la Tierra). La temperatura superficial promedio es de 460 ºC debido al “efecto invernadero” en la atmósfera del planeta. Los rayos son muy frecuentes. Existe una densa capa de nubes a una altitud de unos 45/65 Km. compuesta de ácido sulfúrico y gotitas de agua.

 

 

 

 

 

Mundos inimaginables que tendrán, como en el nuestro, formas de vida de una rica diversidad que ni podemos imaginar. Simplemete en una galaxia, por ejemplo la nuestra, existen cientos de miles de millones de planetas de los más diversos pelajes, y, no pocos, serán muy parecidos a nuestra Tierra y estarán situados en la zona adecuada para que, la vida, pudiera surgir en ellos como lo hizo aquí, toda vez que, tanto aquellos planetas como el nuestro, están sometidos a las mismas fuerzas, a las mismas constantes, y, en consecuencia, a situaciones iguales, ¡iguales resultados!

Nuestros sueños de visitar mundos remotos, y, en ellos, encontrar otras clases de vida, otras inteligencias, es un sueño largamente acariaciado por nuestras mentes que, se resisten a estar sólas en un vasto Universo que, poseyendo cientos de miles de millones de mundos, también debe estar abarrotados de una diversidad Biológica inimaginable. No creo que estémos sólos en tan vasto universo.

 

Hace algún tiempo que los medios publicaron la noticias:

“Físicos británicos creen que el bosón de Higgs y su relación con la gravedad puede ser la clave para crear una ecuación única que explique el Universo entero.”

 

 

 

Imagen de Archivo donde Einstein escribe una ecuación sobre la densidad de la Vía Láctea en el Instituto Carnegie en Pasadena (California)

“La teoría del todo, también conocida como teoría unificada, fue el sueño que Einstein nunca pudo cumplir. Consiste en una teoría definitiva, una ecuación única que explique todos los fenómenos físicos conocidos y dé respuesta a las preguntas fundamentales del Universo. Esa teoría unificaría la mecánica cuántica y la relatividad general, dos conocimientos aceptados pero que describen el Cosmos de forma muy diferente. Albert Einstein no consiguió formularla. Tampoco nadie después de él, pero sigue siendo la ambición de muchos científicos. En este empeño, físicos de la británica Universidad de Sussex han dado un nuevo paso para probar que solo hay una fuerza fundamental en la naturaleza. Creen haber observado como el campo de Higgs interactúa con la Gravedad.”

Si hablamos de nuestra Galaxia, la Vía Láctea, lo hacemos de algo que tiene 100.000 millones de años-luz de diámetro y más de ciento cincuenta mil millones de estrellas, no digamos de mundos y otra infinidad de objetos de exótica estructura e increíbles conformaciones que, como los púlñsares, los agujeros negros o los manétares, no dejan de asombrarnos. Somos, una especie viviente que ha llegado a poder generar pensamientos y crear teorías encaminadas a descubrir la verdad de la Naturaleza, y, nuestra aparente“insignificante presencia”, podría ser un signo de que, el universo “ha permitido” observadores para que lo expliquen y se pueda comprender.

Resultado de imagen de Tenemos el UNiverso dentro de nuestras mentes

      Tenemos el Universo dentro de nuestras mentes. Bueno, lo cierto es que… ¡Somos parte de él!

El universo es un lugar tan maravilloso, rico y complejo que el descubrimiento de una teoría final, en el sentido en el que está planteada la teoría de supercuerdas, no supondría de modo alguno el fin de la ciencia ni podríamos decir que ya lo sabemos todo y para todo tendremos respuestas.  Más bien será, cuando llegue, todo lo contrario: el hallazgo de esa teoría de Todo (la explicación completa del universo en su nivel más microscópico, una teoría que no estaría basada en ninguna explicación más profunda) nos aportaría un fundamento mucho más firme sobre el que podríamos construir nuestra comprensión del mundo y, a través de estos nuevos conocimientos, estaríamos preparados para comenzar nuevas empresas de metas que, en este momento, nuestra ignorancia no nos dejan ni vislumbrar. La nueva teoría de Todo nos proporcionaría un pilar inmutable y coherente que nos daría la llave para seguir explorando un universo más comprensible y por lo tanto, más seguro, ya que el peligro siempre llega de lo imprevisto, de lo desconocido que surge sin aviso previo; cuando conocemos bien lo que puede ocurrir nos preparamos para evitar daños.

myst4

Algunos dicen que para cuando tengamos una Teoría de Todo, el mundo habrá cambiado, habrá pasado tanto tiempo que, para entonces, la teoría habrá quedado vieja y se necesitará otra nueva teoría más avanzada. Eso significa, si es así, que nunca tendremos una explicación de todo y siempre quedarán cuestiones enigmáticas que tendremos que tesolver. ¡Menos mal!

La búsqueda de esa teoría final que nos diga cómo es el Universo, el Tiempo y el Espacio, la Materiay los elementos que la conforman, las Fuerzas fundamentales que interaccionan con ella, las constantes universales y en definitiva, una formulación matemática o conjunto de ecuaciones de las que podamos obtener todas las respuestas, es una empresa nada fácil y sumamente complicada; la teoría de cuerdas es una estructura teórica tan profunda y complicada que incluso con los considerables progresos que se han realizado durante las últimas décadas, aún nos queda un largo camino antes de que podamos afirmar que hemos logrado dominarla completamente. Se podría dar el caso de que el matemático que encuentre las matemáticas necesarias para llegar al final del camino, aún no sepa ni multiplicar y esté en primaria en cualquier escuela del mundo civilizado. Por otra parte, siempre andamos inventando ecuaciones para todo, que expliquen este o aquel enigma que deseamos conocer.

 

Lo cierto es que, no conocemos el futuro que le espera a la Humanidad pero, tal desconocimiento no incide en el hecho cierto de que siempre estemos tratando de saber el por qué de las cosas y, seguramente, si Einstein hubiera conocido la existencia de las cuatro fuerzas fundamentales, habría podido avanzar algo más, en su intento de lograr esa ecuación maravillosa que “todo” lo pudiera explicar. Se pasó sus últimos 30 años buscando la Teoría del Todo, y, en un escaparate de la 5ª Avda. en Nueva York, exponían sus ecuaciones, la gente, se amontonaban para verlas y, lo cierto es que no entendían nada… ¡La curiosidad humana!

Resultado de imagen de Una teoría que lo explique todo

Muchos de los grandes científicos del mundo (Einstein entre ellos), aportaron su trabajo y conocimientos en la búsqueda de esta teoría, no consiguieron su objetivo pero sí dejaron sus ideas para que otros continuaran la carrera hasta la meta final. Por lo tanto, hay que considerar que la teoría de cuerdas es un trabajo iniciado a partir de las ecuaciones de campo de la relatividad general de Einstein, de la mecánica cuántica de Planck, de las teorías gauge de campos, de la teoría de Kaluza-Klein, de las teorías de… hasta llegar al punto en el que ahora estamos.

Comprender de manera armoniosa cómo se juntan las dos mejores teorías de la física que tenemos actualmente, la cuántica y la relatividad general… ¡Sin que surjan infinitos!

La armoniosa combinación de la relatividad general y la mecánica cuántica será un éxito muy importante. Además, a diferencia de lo que sucedía con teorías anteriores, la teoría de cuerdas tiene la capacidad de responder a cuestiones primordiales que tienen relación con las fuerzas y los componentes fundamentales de la naturaleza. Allí, en sus ecuaciones,  aparece el esquivo gravitón implicándo con ello que la teoría contiene implicitamente una teoría cuántica de la Gravedad.

         Ahora, en la nueva etapa del LHC, tratarán de buscar partículas Supersimétricas y las partículas componentes de la materia oscura, objetos que expliquen algunos enigmas sin resolver. Para ello emplearán nuevos métodos y nuevas energías, se quiere llegar hasta los 100 TeV, para el Bosón de Higss sólo hicieron falta 14 TeV, veremos que pasa.

Igualmente importante, aunque algo más difícil de expresar, es la notable elegancia tanto de las respuestas que propone la teoría de cuerdas, como del marco en que se generan dichas respuestas. Por ejemplo, en la teoría de cuerdas muchos aspectos de la Naturaleza que podrían parecer detalles técnicos arbitrarios (como el número de partículas fundamentales distintas y sus propiedades respectivas) surgen a partir de aspectos esenciales y tangibles de la geometría del universo. Si la teoría de cuerdas es correcta, la estructura microscópica de nuestro universo es un laberinto multidimensional ricamente entrelazado, dentro del cual las cuerdas del universo se retuercen y vibran en un movimiento infinito, marcando el ritmo de las leyes del cosmos.

¿Serán las cuerdas las que hacen de nuestro Universo el que es?

Lejos de ser unos detalles accidentales, las propiedades de los bloques básicos que construyen la naturaleza están profundamente entrelazadas con la estructura del espacio-tiempo. En nuestro Universo, aunque no pueda dar esa sensación a primera vista, cuando se profundiza, podemos observar que, de alguna manera, todo está conectado, de la misma manera, nuestras mentes son parte del universo y, en ellas, están todas las respuestas.

Claro que, siendo todos los indicios muy buenos, para ser serios, no podemos decir aún que las predicciones sean definitivas y comprobables para estar seguros de que la teoría de cuerdas ha levantado realmente el velo de misterio que nos impide ver las verdades más profundas del universo, sino que con propiedad se podría afirmar que se ha levantado uno de los picos de ese velo y nos permite vislumbrar algo de lo que nos podríamos encontrar, a través de esa fisura parece que se escapa la luz de la comprensión que, en su momento, se podría alcanzar.

          Muchos sueñan con encontrar esa Teoría del Todo

Mientras que la soñada teoría llega, nosotros estaremos tratando de construir ingenios que como el GEO600, el más sensible detector de ondas gravitacionales que existe ( capaz de detectar ínfimas ondulaciones en la estructura del espacio-tiempo ), nos pueda hablar de otra clase de universo. Hasta el momento el universo conocido es el que nos muestran las ondas electromagnéticas de la luz pero, no sabemos que podríamos contemplar si pudiéramos ver ese otro universo que nos hablan de la colisión de agujeros negros…por ejemplo.

Resultado de imagen de GEO 600Resultado de imagen de GEO 600

              “El detector de ondas gravitacionales GEO 600, de Hanóver, en Alemania, registró un extraño ruido de fondo que ha traído de cabeza a los investigadores que en él trabajan. El actual director del Fermilab de Estados Unidos, el físico Carl Hogan, ha propuesto una sorprendente explicación para dicho ruido: proviene de los confines del universo, del rincón en que éste pasa de ser un suave continuo espacio-temporal, a ser un borde granulado. De ser cierta esta teoría, dicho ruido sería la primera prueba empírica de que vivimos en un universo holográfico, asegura Hogan. Nuevas pruebas han de ser aún realizadas con el GEO 600 para confirmar que el misterioso ruido no procede de fuentes más obvias. ”

La teoría de cuerdas, aunque en proceso de elaboración, ya ha contribuido con algunos logros importantes y ha resuelto algún que otro problema primordial como por ejemplo, uno relativo a los agujeros negros, asociado con la llamada entropía de Bekenstein-Hawking, que se había resistido pertinazmente durante más de veinticinco años a ser solucionada con medios más convencionales. Este éxito ha convencido a muchos de que la teoría de cuerdas está en el camino correcto para proporcionarnos la comprensión más profunda posible sobre la forma de funcionamiento del universo, que nos abriría las puertas para penetrar en espacios de increíble “belleza” y de logros y avances tecnológicos que ahora ni podemos imaginar.

Como he podido comentar en otras oportunidades, Edward Witten, uno de los pioneros y más destacados experto en la teoría de cuerdas, autor de la versión más avanzada y certera, conocida como teoría M, resume la situación diciendo que: “la teoría de cuerdas es una parte de la física que surgió casualmente en el siglo XX, pero que en realidad era la física del siglo XXI“.

Witten, un físico-matemático de mucho talento, máximo exponente y punta de lanza de la teoría de cuerdas, reconoce que el camino que está por recorrer es difícil y complicado. Habrá que desvelar conceptos que aún no sabemos que existen.

 

Ellos nos legaron parte de las teorías que hoy manejamos en el mundo para tratar de conocer el Universo pero, sigue siendo insuficientes… ¡Necesitamos Nuevas Teorías! que nos lleven al conocimientos más profundos de la realidad en que se mueve la Naturaleza, sólo de esa manera, podremos seguir avanzando.

El hecho de que nuestro actual nivel de conocimiento nos haya permitido obtener nuevas perspectivas impactantes en relación con el funcionamiento del universo es ya en sí mismo muy revelador y nos indica que podemos estar en el buen camino al comprobar que las ecuaciones topológicas complejas de la nueva teoría nos habla de la rica naturaleza de la teoría de cuerdas y de su largo alcance. Lo que la teoría nos promete obtener es un premio demasiado grande como para no insistir en la búsqueda de su conformación final.

Ω el signo omega es el que representa la densidad que tiene nuestro Universo, es decir, lo que llaman Densidad Crítica ” El Omega Negro”, y, dependiendo de esa densidad, tendredemos un universo plano, abierto o cerrado con distintos finales.

La expansión del universo se ha estudiado de varias maneras diferentes, pero la misión WMAP completada en 2003, representa un paso importante en la precisión y los resultados presentados hasta el momento con mayor precisión para saber, en qué clase de Universo estamos, cómo pudo comenzar y, cuál podría ser su posible final. Todo ello, es un apartado más de ese todo que tratamos de buscar para saber, en qué Universo estamos, cómo funcionan las cosas y por qué lo hacen de esa determinada manera y no de otra diferente.

         La relatividad general nos dijo cómo es la geometría del Universo

El universo, la cosmología moderna que hoy tenemos, es debida a la teoría de Einstein de la relatividadgeneral y las consecuencias obtenidas posteriormente por Alexandre Friedmann. El Big Bang, la expansión del universo, el universo plano y abierto o curvo y cerrado, la densidad crítica y el posible Big Crunch.

Un comienzo y un final que abarcará miles y miles de millones de años de sucesos universales a escalas cosmológicas que, claro está, nos afectará a nosotros, insignificantes mortales habitantes de un insignificante planeta, en un insignificante sistema solar creado por una insignificante y común estrella.

 

                   Pero… ¿somos en verdad tan insignificantes?

Los logros alcanzados hasta el momento parecen desmentir tal afirmación, el camino recorrido por la humanidad no ha sido nada fácil, los inconvenientes y dificultades vencidas, las luchas, la supervivencia, el aprendizaje por la experiencia primero y por el estudio después, el proceso de humanización (aún no finalizado), todo eso y más nos dice que a lo mejor, es posible, pudiera ser que finalmente, esta especie nuestra pudiera tener un papel importante en el conjunto del universo. De momento y por lo pronto ya es un gran triunfo el que estemos buscando respuestas escondidas en lo más profundo de las entrañas del cosmos.

Tengo la sensación muy particular, una vez dentro de mi cabeza, un mensaje que no sé de dónde pero que llega a mi mente que me dice de manera persistente y clara que no conseguiremos descubrir plenamente esa ansiada teoría del todo, hasta tanto no consigamos dominar la energía de Planck que hoy por hoy, es inalcanzable y sólo un sueño.

Sus buenas aportaciones a la Física fueron bien recompensadas de muchas maneras.

En mecánica cuántica es corriente trabajar con la constante de Planck racionalizada,  (ħ = h/2p = 1’054589×10-34 Julios/segundo), con su ley de radiación (Iv = 2hc-2v3/[exp(hv/KT)-1]), con la longitud de Planck , con la masa de Planck, y otras muchas ecuaciones fundamentales para llegar a lugares recónditos que, de otra manera, nunca podríamos alcanzar.

Todo lo anterior son herramientas de la mecánica cuántica que en su conjunto son conocidas como unidades de Planck, que como su mismo nombre indica son un conjunto de unidades, usadas principalmente en teorías cuánticas de la gravedad, en que longitud, masa y tiempo son expresadas en múltiplos de la longitud, masa y tiempo de Planck, respectivamente. Esto es equivalente a fijar la constante gravitacional (G), como la velocidad de la luz (c), y la constante de Planck racionalizada (ħ) iguales todas a la unidad.  Todas las cantidades que tienen dimensiones de longitud, masa y tiempo se vuelven adimensionales en unidades de Planck. Debido a que en el contexto donde las unidades de Planck son usadas es normal emplear unidades gaussianas o unidades de Heaviside-Lorentz para las cantidades electromagnéticas, éstas también se vuelven adimensionales, lo que por otra parte ocurre con todas las unidades naturales. Un ejemplo de esta curiosidad de adimiensionalidad, está presente en la constante de estructura fina (2πe2/hc) de valor 137 (número adimensional) y cuyo símbolo es la letra griega α (alfa).

Estas unidades de Planck nos llevan a la cosmología del nacimiento del universo y nos proporciona un marco elegante, coherente y manejable mediante cálculos para conocer el universo remontándonos a los primeros momentos más breves posteriores a la explosión o Big Bang. El tiempo de Planck por ejemplo, expresado por , tiene un valor del orden de 10-43 segundos, o lo que es lo mismo, el tiempo que pasó desde la explosión hasta el tiempo de Planck fue de:

0,000.000.000.000.000.000.000.000.000.000.000.000.000.001 de 1 segundo. En la fórmula, G es la constante universal de Newtonħ es la constante de Planck racionalizada y c es la velocidad de la luz.

Es una unidad de tiempo infinitesimal, como lo es el límite de Planck que se refiere al espacio recorrido por un fotón (que viaja a la velocidad de la luz) durante una fracción de tiempo de ínfima duración y que es de 0,000.000.000.000.000.000.000.000.000.000.001 de cm.

Hasta tal punto llegan los físicos en sus cálculos para tratar de adecuar los conocimientos a la realidad por medio del experimento. Buscamos incansables…¡las respuestas! Hasta que no podamos tocar con nuestras propias manos esa partícula final…

Sin embargo, cuando hablamos de estas unidades tan pequeñas, no debemos engañarnos. Precisamente, para tratar de llegar hasta esos límites tan profundos se necesitan máquinas que desarrollan inmensas energías: los aceleradores de partículas, que como el Fermilab o el LHC en el CERN, han facilitado a los físicos experimentadores entrar en las entrañas de la materia y descubrir muchos de los secretos antes tan bien guardados. Ahora, disponiendo de 14 TeV, tratan de buscar partículas supersimétricas y el origen de la “materia oscura”.

Haber fabricado acelerados tan potentes como para poder detectar la partícula de Higgs, esa partícula responsable de proporcionar masa a todas las demás partículas, en tiempos pasados era un sueño que pudimos hacer realidad y, de la misma manera, soñamos ahora con tener un Acelerador tan Potente como para poder encontrar las cuerdas o las partículas simétricas de las que se cree están conformadas. Y, por supuesto, más lejos queda la posibilidad de que podamos construir un acelerador que pudiera alcanzar la energía de Planck, del orden de 1019 eV (1 eV = 10-19 julios) = 1’60210×10-19. Hoy por hoy, ni nuestra tecnología ni todos los recursos que tenemos disponibles si empleáramos todo el presupuesto bruto de todos los países del globo unidos, ni así digo, podríamos alcanzar esta energía necesaria para comprobar experimentalmente la existencia de “cuerdas” vibrantes que confirmen la teoría de Todo.

Claro que, pudiera ser que, todo se pudiera alcanzar de manera mucho más simple y que, teniéndolo a la vista, no hemos sabido ver. Habrá que agudizar el ingenio para resolver estas y otras cuestiones que, como la de la Velocidad de la Luz, nos tienem atados y bien atados a este granito de arena inmerso en un vasto universo y que, nosotros, llamamos mundo.

emilio silvera

Por imaginar…¡Que no quede!

$
0
0

 

Representación de un agujero negro

Representación de un agujero negro – Zhaoyo Li

¿Están los agujeros negros enviando materia al futuro?

Astrónomos sugieren que el Espacio-Tiempo se curva muy fuertemente cerca del centro de un agujero negro, pero que no llega a quebrarse, sino que continúa en una región en el futuro que tiene estructura de un agujero blanco.

Resultado de imagen de Agujeros Blancos

 

 

 

Hace apenas unos días, publicábamos en ABC una serie de nuevas ideas que abren la posibilidad a la existencia real de agujeros blancos, objetos teóricos que funcionarían «al contrario» de los agujeros negros, expulsando materia en lugar de absorberla. Carlo Rovelli, investigador del Centro de Física Teórica del CNRS francés y de la Universidad de Aix-Marseille, sostenía que los agujeros blancos son, en realidad, una evolución de los propios agujeros negros.

Imagen relacionadaResultado de imagen de Agujeros Blancos

Según el artículo, en uno entra la materia en nuestro Universo para hacer un viaje hacia el futuro donde aparecerá en forma de agujero blanco. Imposible, lo que se dice imposible hay pocas cosas pero… ¡Esto me parece rizar el rizo! Hay muchas razones para no creer que el destino de la materia de un agujero negro sea el de viajar al futuro (que no existe).

Y ahora, dos nuevos estudios recién publicados en Physical Review Letters y Physical Review D, respectivamente, abundan en esa posibilidad. Y sugieren que toda la materia que se traga un agujero negro podría ir a parar… al futuro.

Los agujeros negros siguen estando entre los objetos más misteriosos del Universo. Conocemos, eso sí, lo que sucede fuera de ellos, a su alrededor e incluso en el mismísimo horizonte de sucesos, la frontera invisible que marca el punto de no retorno para cualquier cosa que la cruce, incluída la luz. Pero nadie sabe a ciencia cierta lo que sucede al otro lado de ese límite, dentro de un agujero negro, ni tampoco cuál es el destino final de la materia atrapada en él.

Resultado de imagen de La Singularidad del agujero negro

Esto es, lo que siempre nos dijeron los físicos según la Relatividad General

Según la Teoría General de la Relatividad de Einstein, todo lo que entra en un agujero negro seguirá cayendo hacia su centro, atraído por una gravedad cada vez más fuerte, hasta llegar a comprimirse en un único punto de tal densidad que el mismísimo tejido espaciotemporal se quebraría. En ese punto, llamado singularidad, las leyes de la Física ya no tendrían efecto, el mismísimo tiempo se detendría y la realidad tal y como la conocemos se desvanecería por completo.

¿Y si hemos entendido mal los agujeros negros?

 

Resultado de imagen de Es el agujero negro un pasadizo hacia otro universo

 

Si los agujeros negros fueran pasadizos hacia otros universos… ¡Serían agujeros de gusano!

 

 

Resultado de imagen de El Puente de Einstein-Rosen

 

¿Es aquí hasta donde quieren llegar con estas ideas?

 

Pero según Abhay Ashtekar y Javier Olmedo, de la Universidad Estatal de Pennsylvania, y Parampreet Singh, de la de Louisiana, autores de los dos artículos citados arriba, las cosas podrían ser muy diferentes. De hecho, su trabajo, igual que el de Carlo Rovelli, podría cambiar para siempre lo que creemos saber sobre los agujeros negros. Especialmente en lo que se refiere a la auténtica naturaleza de sus centros, que según estos investigadores «podríamos haber entendido mal».

El problema principal, por supuesto, es el de la singularidad. La simple idea de que puedan existir esos puntos que, pese a tener una densidad infinita, no ocupan espacio alguno, se considera como una aberración, algo que no puede existir en la naturaleza. Hasta ahora, y bajo el paraguas de «gravedad cuántica», numerosos investigadores han formulado diversas propuestas teóricas, desarrollando unas matemáticas completamente nuevas que puedan servir para describir cómo funciona la gravedad en el microcosmos de las partículas subatómicas.

Representación gráfica del entramado de bucles que definen el espacio-tiempo según la LQC

“La gravedad cuántica de bucles o de lazos (LQG, por Loop Quantum Gravity), o también gravedad cuántica de recurrencias, es una teoría de gravedad cuántica formulada por Abhay Ashtekar en 1986,1​ que mezcla las teorías aparentemente incompatibles de la mecánica cuántica y la relatividad general. Como teoría de la gravedad cuántica, es el competidor principal de la teoría de las cuerdas, aunque quienes sostienen esta última exceden en número a quienes sostienen la teoría de bucles por un factor, aproximadamente, de 10 a 1″

Uno de esos intentos es la llamada « gravedad cuántica de bucles», que entre otras cosas predice que el espacio-tiempo puede cuantificarse, de modo que existe una unidad mínima más allá de la cual el espacio-tiempo no puede subdividirse más. Pues bien, al aplicar la gravedad cuántica de bucles a los puntos centrales de los agujeros negros, los investigadores afirman que el resultado no fue una singularidad, sino algo muy diferente.

La alternativa a la singularidad

 

 

Resultado de imagen de El espacio-tiempo se curva cerca del agujero negro

 

Los cálculos, en efecto, predicen que el espacio-tiempo se curva muy fuertemente cerca del centro de un agujero negro. Pero no llega a quebrarse, sino que continúa en una región en el futuro que tiene la estructura de un agujero blanco. Un agujero blanco es como un agujero negro pero al revés, es decir, que en lugar de atraer la materia hacia sí, la «dispara» hacia fuera.

Se sabe que en presencia de campos gravitacionales muy fuertes, el tiempo se ralentiza. Y los agujeros negros contienen los campos gravitacionales más fuertes del Universo. Debido a ello, una posible interpretación de este nuevo trabajo es que la materia cae en un agujero negro y luego «rebota», disparando la masa a través del cosmos. Debido a que el tiempo es muy lento cerca del centro de un agujero negro, visto desde fuera ese proceso duraría una enorme cantidad de tiempo. Si los investigadores tienen razón, en un futuro muy lejano, donde ahora hay agujeros negros, la materia estallará, esparciendo la materia por todo el cosmos a través de agujeros blancos.

Imagen relacionada

El cine nos ha dejado alguna visión de lo que podría ser – Escena de Interstellar. Imagen: Warner Bros. / Syncopy / Paramount Pictures / Legendary

La idea es provocativa y muy sugerente, aunque antes de considerarse válida será necesario probarla experimentalmente. Y resulta que existen varias formas de hacerlo. Desde hace tiempo, por ejemplo, científicos de todo el mundo han venido detectando en el espacio una serie de fenómenos enormemente energéticos que se resisten a ser explicados.

Dos de ellos son los rayos cósmicos de alta energía que golpean de cuando en cuando la atmósfera de la Tierra; y los llamados « estallidos rápidos de radio», que se producen cuando se detecta una enorme cantidad de energía de radio en un periodo muy breve de tiempo. Según los investigadores, ambos fenómenos podrían ser, en principio, la firma de un agujero negro en transición hacia un agujero blanco.

Lo mismo que montamos estructuras bnajo tierra para detectar neutrinos, podríamos inventar otras que nos digan, de manera cierta, si todo esto que apunta el reportaje podría ser cierto.

La idea resulta sumamente interesante, aunque no está aún lo suficientemente madura como para ser aceptada por la comunidad científica. Pero si las predicciones de la gravedad cuántica de bucles mejoran y sus resultados empiezan a parecerse más y más a los fenómenos astronómicos inexplicables observados por los astrónomos, entonces habremos dado un gran paso para comprender tanto el pasado como el futuro del Universo en que vivimos.

Reportaje de prensa de José M. Nieves

La Física de Partículas y el Modelo Estándar

$
0
0

El hombre se ha preguntado durante largo tiempo, “¿de qué está hecho el mundo?” Demócrito de Abdera nos hablaba del “átomo”, la parte invisible e indivisible de la materia. Empédocles de Agrigento, nos decía que todo lo que podemos ver y está hecho de cuatro elementos: aire, agua, tierra y fuego que mezclados en la debida proporción formaban todas las cosas. Otros se referían a la sustancia cósmica a la que llamaban Ylem, aquella “semilla” primera que daría lugar a la venida de la materia. ¿No será el Ylem, lo que después llamaron éter luminífero y más tarde “materia oscura“?

Resultado de imagen de El éter luminífero

Está claro que no poseían los datos suficientes para determinar de manera exacta todas aquellas cuestiones pero… ¿Quién les niega intuición? Ellos fueron los precursores de lo que muchos siglos más tarde vendría.

Resultado de imagen de Las familias de partículas subatómicas

Aquí están todos los componentes de las familias de partículas que conforman la materia y las fuerzas fundamentales de la Naturaleza que, se vale de todas ellas para conseguir sus fines, y, que nuestro Universo sea tal como lo podemos observar.

Ahora sabemos que, no sólo nuestro mundo, sino todo el inmenso Universo, está hecho de pequeños objetos infinitesimales a las que hemos denominado partículas subatómicas y que forman varias familias. Unas son más elementales que otras y según, a qué familia pertenezcan y qué características puedan tener, se ocupan de ejercer una función particular para que todo funcione conforme a los planes de la Naturaleza.

Son los constituyentes fundamentales de toda la materia del Universo (por lo menos de toda la materia conocida y que podemos detectar formando estrellas y mundos, galaxias o seres vivos). Hemos podido llegar a saber que, de esas briznas de materia se forman los núcleos que, rodeados de electronesconforman los átomos de la materia.

                         Todo lo grande está hecho de “cosas” pequeñas

Los grupos de  átomos conforman las moléculas que son las unidades fundamentales de los compuestos químicos pero, comencemos por los núcleos atómicos:

Muchas son las veces que aquí mismo he podido explicar, que los quarks u y d se hallan en el interior de los nucleones (protones y neutrones) y, por tanto, su habitat está en los núcleos atómicos donde se encuentran confinados y, en realidad, no intervienen directamente  en las propiedades de los núcleos. Sin embargo, no podemos olvidar que la fuerza nuclear fuerte está ahí manteniendo confinado a los quarkspor medio de los gluones (los bosones intermediarios de la fuerza) y, eso hace que, el núcleo sea estable.

Resultado de imagen de El núcleo atómico

Tripletes de Quarks conforman los nucleones (protones y neutrones) y, quedan allí confinados mediante la fuerza nuclear fuerte que, mediada por los Bosones llamados Gluones, los retiene de manera tal que, si los quarks tratan de alejarse la fuerza aumenta.

Los núcleos atómicos constituyen un tipo de materia que, aisladamente, de forma individual (si exceptuamos el protón), siempre están en ambientes muy energéticos, por ejemplo, en el interior de las estrellas. En nuestro entorno terráqueo, es raro encontrar núcleos aislados, sino parcial o totalmente confinados dentro de los átomos.

Sabemos que el número de especímenes atómicos es limitado, existiendo ciertas razones para suponer que hacia el número atómico 173 los correspondientes núcleos serían inestables, no por razones intrínsecas de inestabilidad “radiactiva” nuclear, sino por razones relativistas. Ya señalé en otros escritos que, el número de especies atómicas, naturales y artificiales, es de unos pocos miles, en cambio, el número de moléculas conocidas hasta ahora comprenden unos pocos millones de especímenes, aumentando continuamente el número de ellas gracias a la síntesis que se lleva a cabo en numerosos laboratorios repartidos por todo el mundo.

Resultado de imagen de molécula de dióxido de carbono

                                                                 Molécula de Dióxido de Carbono

Una molécula es una estructura, con individualidad propia, constituida por un conjunto de núcleos y sus  electrones. La molécula más sencilla es la de Hidrógeno que tiene dos electrones, hasta las más complejas como las de las proteínas, con muchos miles de ellos, existen toda una gama de varios millones. Esta extraordinaria variedad de especies moleculares contrasta con la de las especies nucleares e incluso atómicas.

Desde el punto de vista de la información, las especies moleculares la poseen en mucho mayor grado que las nucleares o atómicas. Dejando aparte los núcleos, la información que soportan los átomos se podría atribuir a la distribución de su carga eléctrica, y en particular a los electrones más débilmente ligados. Concretando un poco más, se podría admitir que la citada información la aportan los orbitales atómicos, pues son precisamente estos orbitales los que introducen diferencias “geométricas” entre los diferentes electrones “corticales”.

Las partículas forman átomos, los átomos moléculas y las moléculas sustancias y cuerpos que están hechos por la diversa variedad de elementos que conforma la materia conocida y que, en definitiva, sólo son Quarks y Leptones.

Resultado de imagen de Las familias de partículas subatómicas

Fermión

Es una partícula perteneciente a una familia de partículas elementales caracterizada por su momento angular intrínseco o spin. Los fermiones son nombrados después de Enrico Fermi, en el modelo estándar, existen dos tipos de fermiones elementales, que son: Los quarks y los leptones. Según la teoría cuantica, el momento angular de las partículas solo puede adoptar determinados valores, que pueden ser múltiplos enteros de una determinada constante h (Constante de Planck) o múltiplos semientereos de esa misma constante. Los fermiones, entre los que se encuentran los electrones, los protones y los neutrones, tienen múltiplos semienteros de h, por ejemplo ±1/2h o ±3/2h. Los fermiones cumplen el principio de exclusión.
El nucleo de un átomo es un fermion o boson, dependiendo de si el número total de sus protones y neutrones es par o impar respectivamente. Recientemente, los científicos han descubierto que esto causa comportamiento muy extraño en ciertos átomos cuando son sometidos a condiciones inusuales, tal como el helio demasiado frió.

Bosón

El bosón es una partícula atómica o subatómica, de spin entero o nulo, que cumple los postulados de la estadística de Bose-Einstein e incumple el principio de exclusión de Paulli (establece que dos electrones no pueden ocupar el mismo estado energético). Son bosones las partículas alfa, los fotones y los nucleidos con un número par de nucleones.

 
Equilibrio y estabilidad: El resultado de dos fuerzas contrapuestas

Demos una vuelta por el Modelo Estándar.

Standard Model Particles and their interactions

 

 

Me quiero referir al Modelo estándar de la física de partículas y de las interacciones fundamentales y, algunos,  han llegado a creer que sólo faltan algunos detalles técnicos y, con ellos, la física teórica está acabada. Tenemos un modelo que engloba todo lo que deseamos saber acerca de nuestro mundo físico. ¿Qué más podemos desear? Los pobres ilusos no caen en la cuenta de que el tal Modelo, al que no podemos negarle su valía como una herramienta muy valiosa para la física, no deja de estar incompleto y, además, ha sido construido con algunos parámetros aleatorios (unos veinte) que no tienen justificación. Uno de ellos era el Bosón de Higgs y, según nos han contado los del LHC, ha sido hallado. Sin embargo, esperamos que nos den muchas explicaciones que no han estado presente en todas las algaradas y fanfarrias que dicho “hallazgo” ha producido, incluidos los premios Principe de Asturias y el Nobel. ¡Veremos en que queda todo esto al final!

 

 

Resultado de imagen de El Modelo Estándar

 

 

Bueno, lo que hasta el momento hemos logrado no está mal del todo pero, no llega, ni con mucho, a la perfección que la Naturaleza refleja y que, nosotros perseguimos sin llegar a poder agarrar sus múltiples entrecijos y parámetros que conforman ese todo en el que, sin ninguna clase de excusas, todo debe encajar y, de momento, no es así. Muchos son los flecos sueltos, muchas las incognitas, múltiples los matices que no sabemos perfilar.

Es cierto que, el Modelo estándar, en algunos momento, nos produce y nos da la sensación de que puede ser perfecto. Sin embargo, esa ilusoria perfección, no es permanente y en algunas casos efímera. En primer lugar, podríamos empezar a quejarnos de las casi veinte constantes que no se pueden calcular. Pero si esta fuese la única queja, habría poco que hacer. Desde luego, se han sugerido numerosas ideas para explicar el origen de estos números y se han propuesto varias teorías para “predecir” sus valores. El problema con todas estas teorías es que los argumentos que dan nunca llegan a ser convincentes.

 

 

 

¿Por qué se iba a preocupar la Naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo,  tal como el proncipio de la relatividad,  pero nos resistimos a abandonar todos los demás principios que ya conocemos; ¡esos, después de todo, han sido enormemente útiles en el descubrimiento del Modelo estándar! una herramienta que ha posibilitado a todos los físicos del mundo para poder construir sus trabajos en ese fascinante mundo de la mecánica cuántica, donde partículas infinitesimales interactúan con las fuerzas y podemos ver, como se comporta la materia en determinadas circunstancias. El mejor lugar para buscar nuevos principios es precisamente donde se encuentran los puntos débiles de la presente teoría.

 

 

 

Con esta imagen nos decían:
“Colisión del Bosón de Higgs desintegrándose en fermiones”. Primeras evidencias de un nuevo modo de desintegración del bosón de Higgs. Las primeras evidencias de la desintegración del recién descubierto bosón de Higgs en dos partículas denominadas tau, pertenecientes a la familia de partículas que compone la materia que vemos en el Universo. Hasta ahora los experimentos del LHC habían detectado la partícula de Higgs mediante su desintegración en otro tipo de partículas denominadas bosones, portadoras de las fuerzas que actúan en la Naturaleza, mientras las evidencias de desintegraciones en fermiones no eran concluyentes. Esta es la primera evidencia clara de este nuevo modo de desintegración del bosón de Higgs.”

Resultado de imagen de Colisiones de partículas en el LHC

En estos grandes aceleradores los físicos experimentales lanzan haces de protones por los tubos y dirigidas por imanes situados al respecto y a temperaturas muy bajas, de manera tal que dos haces, uno en sentido contrario al otro, se con gran rapidez y, cuando alcanzan la velocidad cercana a c, los hacen chocar los unos contra los otros, de manera tal que se rompen y dejar salir los componentes de los que están hechos, de esta manera estudian la materia en sus más pequeños detalles.

Imagen relacionada

La regla universal en la física de partículas es que cuando las partículas chocan con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez menores, más pequeñas en el espacio y en el tiempo. Supongamos por un momento que tenemos a nuestra disposición un Acelerador de Partículas 10.000 veces más potente que el LHC, donde las partículas pueden adquirir esas tantas veces más energías de las alcanzadas actualmente. Las colisiones que tendrían lugar nos dirían algo acerca de los detalles estructurales de esas partículas que ahora no conocemos, que serían mucho más pequeñas que las que ahora podemos contemplar. En este punto se me ocurre la pregunta: ¿Seguiría siendo correcto el Modelo estándar? 0, por el contrario, a medida que nos alejemos en las profundidades de lo muy pequeño, también sus normas podrían variar al mismo tiempo que varían las dimensiones de los productos hallados. Recordad que, el mundo no funciopna de la misma manera en nuestro ámbirto macroscópico  que ante ese otro “universo” cuántico de lo infinitesimal.

 

¿Podeis imaginar conseguir colisiones a 70.000 TeV? ¿Que podríamos ver? Y, entonces, seguramente, podríamos oir en los medios la algarada de las protestas de algunos grupos:  “Ese monstruo creado por el hombre puede abrir en el espacio tiempo agujeros de gusano que se tragará el mundo y nos llevará hacia otros universos” Comentarios así estarían a la orden del día. Los hay que siempre están dispuestos a protestar por todo y, desde luego, no siempre llevan razón, toda vez que, la mayoría de las veces, ignoran de qué están hablando y juzgan si el conocimiento de causa necesario para ello. De todas las maneras, sí que debemos tener sumo cuidado con el manejo de fuerzas que… ¡no siempre entendemos! Cuando el LHC se vuelvsa a poner en marcha, se utilizarán energías que llegan hasta los 14 TeV, y, esas son palabras mayores.

En el CERN quieren ahora, con la nueva potencia disponible, detectar partículas de la “materia oscura”.

¿Justifica el querer detectar las partículas que conforman la “materia oscura”, o, verificar si al menos, podemos vislumbrar la sombra de las “cuerdas” vibrantes de esa Teoría del Todo, el que se gasten ingentes cantidades de dinero en esos artilugios descomunales? Bueno, a pesar de todos los pesares, la respuesta es que SÍ, el rendimiento y el beneficio que hemos podido recibir de los aceleradores de partículas, justifica de manera amplia todo el esfuerzo realizado, toda vez que, no solo nos ha llevado a conocer muchos secretos que la Naturaleza celosamente guardaba, sino que, de sus actividades hemos tenido beneficios muy directos en ámbitos como la medicina, las comunicaciones y otros que la gente corriente desconocen.

Hoy, el Modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero tenemos algunas razones para sospechar que tales predicciones resultan estar muy alejadas de la realidad, o, incluso, ser completamente falsas. Cuando tenemos la posibilidad de llegar más lejos, con sorpresa podemos descubrir que aquello en lo que habíamos creído durante años, era totalmente diferente. El “mundo” cambia a medida que nos alejamos más y más de lo grande y nos sumergimos en ese otro “mundo” de lo muy pequeño, allí donde habitan los minúsculos objetos que conforman la materia desde los cimientos mismos de la creación.

Resultado de imagen de ¿Será el final de todo, un Universo de Luz?

       ¿Será el final de todo, un Universo de Luz? Bueno ese fue el comienzo y, se si produjera de nuevo estaríamos en un Universo cíclico, todo termina para que todo comience.

Resultado de imagen de Colisión de partículas

Congelado el momento de la colisión de partículas dos con luz roja y azul. Ilustración de vector. Concepto de explosión. Impacto de moléculas abstractas …

Encendamos nuestro súper-microscopio imaginario y enfoquemosló directamente en el centro de un protón o de cualquier otra partícula. Veremos hordas de partículas fundamentales desnudas pululando. Vistas a través del súper-microscopio, el modelo estándar que contiene veinte constantes naturales, describen las fuerzas que rigen la forma en que se mueven. Sin embargo, ahora esas fuerzas no sólo son bastante fuertes sino que también se cancelan entre ellas de una forma muy especial; están ajustadaspara conspirar de tal manera que las partículas se comportan como partículas ordinarias cuando se vuelven a colocar el microscopio en la escala de ampliación ordinaria. Si en nuestras ecuaciones matemáticas cualquiera de estas constantes fueran reemplazadas por un número ligeramente diferente, la mayoría de las partículas obtendrían inmediatamente masas comparables a las gigantescas energías que son relevantes en el dominio de las muy altas energías. El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural.

 

¿Implica el ajuste fino un diseño con propósito? ¿Hay tantos parámetros que deben tener un ajuste fino y el grado de ajuste fino es tan alto, que no parece posible ninguna otra conclusión?

Antes decía: “El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural”.  Es lo que se llama el “problema del ajuste fino”. Vistas a través del microscopio, las constantes de la Naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático, no hay nada que objetar, pero la credibilidad del Modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas o, lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas.

¿Y por qué debería ser el modelo válido hasta ahí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables, ellas podrían modificar completamente el mundo que Gulliver planeaba visitar. Si deseamos evitar la necesidad de un delicado ajuste fino de las constantes de la Naturaleza, creamos un nuevo problema:

Resultado de imagen de el mundo de gulliver

           Es cierto que nuestra imaginación es grande pero… No pocas veces ¡la realidad la supera!

¿Cómo podemos modificar el modelo estándar de tal manera que el ajuste-fino no sea necesario? Está claro que las modificaciones son necesarias , lo que implica que muy probablemente hay un límite más allá del cual el modelo deja de ser válido. El Modelo estándar no será más que una aproximación matemática que hemos sido capaces de crear, tal que todos los fenómenos observados hasta el presente están de acuerdo con él, pero cada vez que ponemos en marcha un aparato más poderoso, debemos esperar que sean necesarias nuevas modificaciones para ir ajustando el modelo, a la realidad que descubrimos.

¿Cómo hemos podido pensar de otra manera? ¿Cómo hemos tenido la “arrogancia” de pensar que podemos tener la teoría “definitiva”? Mirando las cosas de esta manera, nuestro problema ahora puede muy bien ser el opuesto al que plantea la pregunta de dónde acaba el modelo estándar: ¿cómo puede ser que el modelo estándar funcione tan extraordinariamente bien? y ¿por qué aún no hemos sido capaces de percibir nada parecido a otra generación de partículas y fuerzas que no encajen en el modelo estándar? La respuesta puede estar en el hecho cierto de que no disponemos de la energía necesaria para poder llegar más lejos de lo que hasta el momento hemos podido viajar con ayuda de los aceleradores de partículas.

Resultado de imagen de Foto de El hallazgo de una nueva partícula abre un nueva era para la física

Los asistentes escuchan la presentación de los resultados del experimento ATLAS, durante el seminario del Centro Europeo de Física de Partículas (CERN) para presentar los resultados de los dos experimentos paralelos que buscan la prueba de la existencia de la “partícula de Higgs, Una base del modelo estándar de física.

La pregunta: “¿Qué hay más allá del Modelo estándar”? ha estado facinando a los físicos durante años. Y, desde luego, todos sueñan con llegar a saber, qué es lo que realmente es lo que conforma el “mundo” de la materia, qué partículas, cuerdas o briznas vibrantes. En realidad, lo cierto es que, la Física que conocemos no tiene que ser, necesariamente, la verdadera física que conforma el mundo y, sí, la física que conforma “nuestro mundo”, es decir, el mundo al que hemos podido tener acceso hasta el momento y que no necesariamente tiene que coincidir con el mundo real que no hemos podido alcanzar.

O, como decía aquél: ¡Que mundo más hermoso, parece de verdad!

 

                                       Siempre hay más de lo que el ojo ve

No todo lo que vemos es, necesariamente, un reflejo de la realidad de la Naturaleza que puede tener escondidos más allá de nuestras percepciones, otros escenarios y otros objetos, a los que, por ahora,  no hemos podido acceder, toda vez que, físicamente tenemos carencias, intelectualmente también, y, nuestros conocimientos avanzar despacio para conseguir, nuevas máquinas y tecnologías nuevas que nos posibiliten “ver” lo que ahora nos está “prohibido” y, para ello, como ocurre siempre, necesitamos energías de las que no disponemos.

 

Hay dos direcciones a lo largo de las cuales se podría extender el Modelo estándar, tal lo conocemos actualmente, que básicamente se caracterizan así:

- Nuevas partículas raras y nuevas fuerzas extremadamente débiles, y

- nuevas partículas pesadas y nuevas estructuras a muy altas energías.

Podrían existir partículas muy difíciles de producir y de detectar y que, por esa razón, hayan pasado desapaercibidas hasta. La primera partícula adicional en la que podríamos  pensar es un neutrinorotando a derecha. Recordaremos que si se toma el eje de rotación paralelo a la dirección del movimiento los neutrinos sólo rotan a izquierdas, pero… ¡esa sería otra historia!

http://4.bp.blogspot.com/-HfR7qGN039Q/T5w_3J0KeKI/AAAAAAAABcY/fcJMR0S7tIw/s1600/Experimento-con-neutrinos.jpg

Los neutrinos siempre me han fascinado. Siempre se han manifestado como si tuvieran masa estrictamente nula. Parece como si se movieran exactamente con la velocidad de la luz. Pero hay un límite para la precisión de nuestras medidas. Si los neutrinos fueran muy ligeros, por ejemplo, una cienmillonésima de la masa del electrón, seríamos incapaces de detectar en el laboratorio la diferencia éstos y los neutrinos de masa estrictamente nula. Pero, para ello, el neutrino tendría que tener una componente de derechas.

En este punto, los astrónomos se unen a la discusión. No es la primera vez, ni será la última, que la astronomía nos proporciona información esencial en relación a las partículas elementales. Por ejemplo, debido a las interacciones de corriente neutra (las interacciones débiles originadas por un intercambio Zº), los neutrinos son un facto crucial en la explosión  supernova de una estrella. sabemos que debido a las interacciones por corriente neutra, pueden colisionar con las capas exteriores de la estrella y volarlas con una fuerza tremenda.

http://latabernaglobal.com/wp-content/uploads/2012/02/NEUTRIN1.jpg

En realidad, los neutrinos nos tienen mucho que decir, todavía y, no lo sabemos todo acerca de ellos, sino que, al contrario, son muchos los y fenómenos que están y subyacen en ellos de los que no tenemos ni la menor idea que existan o se puedan producir. Nuestra ignorancia es grande, y, sin embargo, no nos arredra hablar y hablar de cuestiones que, la mayoría de las veces…ni comprendemos.

Aquí lo dejar´ñe por hoy, el tema es largo y de una fascinación que te puede llevar a lugares en los que no habías pensado al comenzar a escribir, lugares maravillosos donde reinan objetos exóticos y de fascinante porte que, por su pequeñez, pueden vivir en “mundos” muy diferentes al nuestro en los que, ocurren cosas que, nos llevan el asombro y también, a ese mundo mágico de lo fascinante y maravilloso.

Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.

emilio silvera


La Física y el Tiempo

$
0
0

Resultado de imagen de Para el topólogo, un nudo es una curva continua, cerrada y sin puntos dobles

Para el topólogo, un nudo es una curva continua, cerrada y sin puntos dobles. Esta curva está situada en un espacio de tres dimensiones y se admite que pueda ser deformada, estirada, comprimida, aunque está “prohibido” hacerle cortes. Cuando se puede, a través de diversas manipulaciones, se pasa de un nudo a otro y se dice que son equivalentes. Claro que, algunos se abstraen en cuestiones con otras, al parecer, no relacionadas.

Un viejo amigo bromeaba diciendo que el Andante en do menor de la Sinfonía Concertante de Mozart conseguía devolverle a su intimidad anímica de partida, y que por eso, en su opinión, plasmaba de forma inefable el tiempo cíclico, o mejor aún, una CTC (“curva de género de tiempo cerrada”). Y transcurridos los doce minutos que dura ese movimiento, volvíamos a escucharlo una vez más. Mientras, discutíamossin cesar sobre el tiempo.

                                              No es bueno perder la perspectiva

Hay un tiempo para cada cosa. Un tiempo para soñar, inconmensurable, un tiempo para vivir, siempre corto, un tiempo para filosofar, misterioso,…, y un tiempo para la ciencia, sujeto a número.

Me gustaría empezar definiendo el tiempo, pero no sé. Sesudos pensadores, como Platón y Aristóteles, lo ensayaron con brillantez. El tiempo es una imagen móvil de la eternidad. Esta imagen es eterna, pero se mueve según número, dirá Platón en el TIMEO. El tiempo es el número de movimiento según el antes y el después…El tiempo no es movimiento, sino movimiento en tanto en cuanto admite enumeración. El tiempo es una especie de número. El tiempo es obviamente aquello que se cuenta, no aquello con lo cual contamos, escribirá Aristóteles en su FÍSICA.

http://jovenespepe.files.wordpress.com/2010/08/ecleciastes.jpg

           Alguna vez, en simbiosis con la Naturaleza, podemos sentir como se ha parado el tiempo

Son definiciones muy sugestivas, aunque teñidas de circularidad: movimiento en el tiempo, tiempo a través del movimiento. Agustín de Hipona vio esto claramente. Célebre es asimismo su declaración: Si nemo a me quaerat, scio; si quaerenti explicari velim, nescio (CONFESIONES). En uno de los análisis más penetrantes del tema, sugirió Agustín la mente como fuente de tiempo: En ti es, mente mía, donde mido los tiempos.

Time is what happens when nothing else happens, afirma Feynman; para a continuación advertir que toda definición del tiempo es necesariamente circular, y que lo importante no es decir qué es el tiempo, sino decir cómo se mide lo que llamamos tiempo. En su enciclopédico tratado sobre la gravitación, Misner, Thorne y Wheeler nos recuerdan de forma sencilla y profunda lo que toda medida del tiempo físico debe cumplir: Time is defined so that motion looks simple.

El tiempo es un concepto inventado por el hombre para ordenar, primero, sus sensaciones y actos, y luego, los fenómenos. Decían los escolásticos: Tempus est ens rationis cum fundamento in re. La primera unidad natural debió ser el día, por la ciclidad conspicua de las salidas del Sol. Los grandes avances científicos y tecnológicos a lo largo de los siglos han estado vinculados a los adelantos en la precisión con que se ha ido midiendo el tiempo. Hoy disponemos de relojes que aseguran un segundo en 20 millones de años, y el paso de la femtoquímica a la attofísica empieza a ser una realidad.

No pocas veces nos podemos ver perdidos en la vorágina de lo que llamamos tiempo, algo tan enorme que, en realidad, no sabemos lo que es. No lo hemos llegado a comprender, y, por si fuero poco, tampoco sabemos, si en realidad existe.

El tiempo antes de Einstein.

La física nació en torno al tiempo. Las regularidades en los ciclos astrales permitieron al acierto en las predicciones apoyadas en esta periodicidad, y con ello despertó sin duda la confianza del hombre en la racionalidad, inclinándole a escoger el cosmos frente al caos.

Breve historia de la medida del tiempo

La longitud de las sombras fue uno de los primeros métodos usados para fijar las horas. En el Museo Egipcio de Berlín hay un fragmento de piedra que posiblemente sea de un reloj de sol de alrededor de 1500 a.C. Los babilonios desarrollaron los relojes de sol, y se dice que el astrónomo Anaximandro de Mileto los introdujo en Grecia en el siglo VI a.C.

En el siglo II a C, Eratóstenes, de la biblioteca de Alejandría, concibió y llevó a cabo la primera medida de las dimensiones de la Tierra de la que se tiene noticia. En el Año Internacional de la Astronomía, una de las actividades que se llevaron a cabo fue, precisamente averiguar el radio terrestre por el mismo método.

Aparte de relojes de sol, en la antigüedad se usaron también relojes de arena, de agua, cirios y lámparas de aceite graduadas.

En la segunda mitad del siglo XIII aparecen los primeros relojes mecánicos. Su precisión era muy baja (10-20%). En el XIV se mejoran, con el invento del escape de rueda catalina, y ya se alcanzan precisiones de 20 a 30 minutos por día (1-2%). Por allá al año 1345 se empieza a dividir las horas en minutos y segundos.

Resultado de imagen de El reloj de péndulo de Huygens

El tiempo físico asoma en el siglo XIV, en el Merton College Oxford y luego en la Universidad de París, con Oresme. Se representa en una línea horizontal, mientras en vertical se disponen las cualidades variables. Son los primeros gráficos de función (en este caso, función del tiempo). La cinemática celeste brinda un buen reloj a través de la segunda ley de Kepler, midiendo tiempos mediante áreas. La ley armónica de Kepler permitirá medirlos a través de longitudes. Galileo desarrolló la cinemática terrestre, y sugirió el reloj de péndulo. A Huygens debemos la técnica de medida del tiempo que ha llegado a nuestros días, y que suministró relojes más precisos y transportables mediante volantes oscilatorios acoplados a resortes de calidad.

Reloj de péndulo de Huygens

Diseño del reloj de péndulo de Huygens, 1656 (imagen de dominio público).

La importancia, no sólo científica sino económica, de disponer de relojes precisos y estables, queda reflejada en el premio ofrecido por el gobierno inglés de la reina Ana en 1714, que dispuso that a reward be settled by Parliament upon such person o persons as shall discover a more certain and practicable method of ascertainig longitude that any yet in practice. La recompensa era de 20, 000 libras para el que presentara un cronómetro capaz de determinar la longitud con error menor de 30´ de arco al término de un viaje a las Indias occidentales, equivalente a mantener el tiempo con error menor de 2 minutos tras seis semanas de viaje. Se la llevó casi medio siglo después el relojero británico John Harrison (1693-1776), con un reloj, conocido como H4, que incorporaba correcciones por variación en la temperatura, y que en un primer viaje de 81 días desde Porstmouth a Puerto Real (Jamaica) en 1761-62 se retrasó 5 s, esto es, de precisión 10⁻⁶ (10; 44).

Después se pasó a los de diapasón, de aquí a los de cuarzo, y hoy los atómicos ofrecen precisiones desde 10⁻¹² – 10⁻¹⁵ (Cs) hasta 10⁻¹⁶ (máser de H).

Una red de relojes atómicos de cesio, sincronizados mediante ondas de radio, velan actualmente por la exactitud de la hora sobre el planeta. Como señala Davies (10), ya no nos sirve como cronómetro el giro de la Tierra alrededor de su eje. Aunque durante siglos ha sido este viejo trompo un magnífico reloj de referencia, la falta de uniformidad de su giro (las mareas, por ejemplo, lo frenan incesantemente y alargan con ello el día en un par de milésimas de segundo por siglo, perceptible para los finos cronómetros actuales), y otras desviaciones estacionales, cuantitativamente similares a estos retrasos seculares, pero irregulares y de signo variable, son circunstancias que en conjunto obligan a añadir al tiempo civil un segundo intercalar cada uno o dos años (el último lo fue el 1 de enero de 1999, a las 0 horas) con el fin de remediar la asincronía entre los tiempos atómicos y los días astronómicos. El día no tiene 86 400 s justos (donde el segundo se define como la duración de 9 192 631 770 períodos de una determinada vibración de los átomos de Cs. Hoy la tecnología alcanza precisiones fabulosas: relojes que en treinta millones de años se desviarían a lo sumo en un diminuto segundo, como el NIST-F1 (Boulder, Colorado).

Por norma general y para mayor exactitud del sistema, dentro del campo visual de cualquier receptor GPS siempre hay por lo menos 8 satélites presentes. Cada uno de esos satélites mide 5 m de largo y pesa 860 kg . La energía eléctrica que requieren para su funcionamiento la adquieren a partir de dos paneles compuestos de celdas solares adosadas a sus costados. Están equipados con un transmisor de señales codificadas de alta frecuencia, un sistema de computación y un reloj atómico de cesio, tan exacto que solamente se atrasa un segundo cada 30 mil años.

La posición que ocupan los satélites en sus respectivas órbitas facilita que el receptor GPS reciba, de forma constante y simultánea, las señales de por lo menos 6 u 8 de ellos, independientemente del sitio donde nos encontremos situado. Mientras más señales capte el receptor GPS, más precisión tendrá para determinar las coordenadas donde se encuentra situado.

Incluso hay relojes de pulsera comerciales (receptores de señales de radio) con precisión de un segundo por millón de años garantizada por un reloj atómico en una lejana estación. La naturaleza de altísima precisión: la estabilidad del púlsar binario b1855+09 puede ser de unas partes en 10¹⁵ o incluso mejor.

El tiempo en Newton:

En los PRINCIPIA, Newton empieza con una renuncia a definir el tiempo: El tiempo, el espacio, el lugar y el movimiento son de todos bien conocidos. Y no los defino. Pero digo que el vulgo no concibe esas cantidades más que por su relación a cosas sensibles. Para evitar ciertos prejuicios que de aquí se originan, es conveniente distinguirlas en absolutas y relativas, verdaderas y aparentes, matemáticas y vulgares.

Sir Isaac Newton (1643-1727).jpg

Isaac Newton en 1702 por Geoffrey Kneller

A continuación, sin embargo, Newton se arrepiente de su primer impulso y aclara: El tiempo absoluto, verdadero y matemático, de suyo y por su propia naturaleza fluye uniformemente sin relación a nada externo y se llama también duración: el tiempo relativo, aparente y vulgar es cualquier medida sensible y externa (exacta o no uniforme) de la duración por medio del movimiento y se usa vulgarmente en lugar del tiempo verdadero: tal como la hora, el día, el mes, el año.

¿Qué significa que el tiempo fluye? ¿Qué el tiempo “se mueve en el tiempo”? De nuevo la pescadilla mordiéndose la cola. El absolutismo del tiempo newtoniano recibió encendidas críticas. Leibniz opuso su idea de espacio y tiempos puramente relativos, el primero como un orden de coexistencia, el segundo como un orden de sucesiones de las cosas; ambos, espacio y tiempo, son phœnomena bene fundata. Los argumentos dinámicos con que Newton arropa su tesis de la naturaleza absoluta de la rotación y con ello la de un espacio absoluto, apoyo posterior para el tiempo absoluto, también hallan fuertes objeciones. Para Berkeley esas razones de Newton lo único que muestran es la importancia del giro respecto de las masas lejanas del Universo y no respecto de un espacio absoluto, que él no acepta. Ernst Mach, en la segunda mitad del XIX, insistirá decididamente en este punto de vista, y desde su positivismo acosará los absolutos newtonianos. De “medieval”, “no científico”, “metafísico”, tilda Mach a NewtonNo tenemos derecho a hablar de un tiempo “absoluto”: de un tiempo independiente de todo cambio. Tal tiempo absoluto no puede medirse por comparación con ningún movimiento; por tanto no tiene valor práctico ni científico, y nadie tiene derecho a decir que sabe algo de él. Es una concepción metafísica vana.

El tiempo en Einstein:

El tiempo newtoniano, absoluto, el nos es familiar, tuvo que dejar paso al tiempo einsteniano, mutable y relativo, con tantos “ahora” por suceso cuantos estados de movimiento mutuo imaginemos.

El tercero de los trabajo enviados por Albert Einstein (AE) en su Annus Mirabilis de 1905 a Annalen der Physik lleva por título “Zur Elektrodynamik Bewegter Körper” (“Sobre la electrodinámica de los cuerpos en movimiento”). Junto con el quinto, titulado “Ist der Trägheit eines Körpers von seinem Energieinhalt abhängig?” (“¿Depende la inercia de un cuerpo de su contenido de energía?”), constituyen lo que hoy se llama TEORÍA ESPECIAL DE LA RELATIVIDAD.

Resultado de imagen de La velocidad de la luz

Da A.E. un par de razones para justificar su tercer trabajo:

  1. La insatisfacción que le produce la asimetría en la descripción maxwelliana de los fenómenos electromagnéticos: la acción entre un conductor y un imán depende solo del movimiento relativo entre ambos, pero la teoría de Maxwell distingue entre el caso de conductor en reposo y el caso de imán en reposo: a) En el primer caso el campo magnético móvil engendra un campo eléctrico, con una energía determinada, que a su vez produce corrientes en el conductor en reposo. b) En el segundo caso, no se produce ningún campo electrónico, sino una fuerza electromotriz en el conductor, sin energía asociada, que engendra una corriente como en el caso anterior.
  2. La incapacidad de la óptica y del electromagnetismo (EM) para detectar el movimiento respecto del lichtmedium, es decir, de un inercial privilegiado. Esto le sugiere que la óptica y el EM tienen las mismas ecuaciones en todos los inerciales (sistemas en los que las leyes de la mecánica de Newton son las mismas). Y AE eleva esto a un principio, que llama “Prinzip der Relativität”, y le añade un compañero, aparentemente incompatible con él: “La velocidad de la luz en vacío es siempre la misma, con independencia del estado de movimiento del cuerpo emisor”.

¿Será ese de arriba el rayo de luz de Einstein, o, por el contrario, será un asteroide que se nos viene encima?

Siendo todavía muy joven, en 1895-1896, ya le preocupaba el EM y la luz, como recordaba en 1955: “Si persiguiéramos a la velocidad de la luz un rayo de luz, veríamos una onda independiente del tiempo. ¡Tal cosa, sin embargo, no existe! Este fue el primer experimento mental, infantil, en relación con la teoría especial de la relatividad”.

Este tercer trabajo de Einstein en 1905 no contiene ninguna referencia a otros trabajos, ni suyos ni de otros (como Lorentz o Poincaré).

Consciente de que su postulado de la constancia de la velocidad de la luz choca frontalmente con la ley galileana de adición de velocidades, Albert Einstein revisa los cimientos de la Física, empezando por definir físicamente y con sumo cuidado el concepto de Gleichzeitigkeit o simultaneidad entre sucesos. Considera un sistema inercial, para el que supone válida la geometría euclidiana para calcular distancias entre objetos estacionarios a través de sus coordenadas respecto de sus ejes cartesianos. Si A, B son dos observadores estacionarios, provistos de relojes iguales, y A (B) manda una señal luminosa a B (A), quien la devuelve sin tardanza a A (B), diremos que el reloj de A está sincronizado con el reloj de B si

t(B) – t(A) = t’(A) – t(B),

donde t(A) es el tiempo marcado por el reloj de A cuando envía la señal a B, t(B) lo que marca el reloj de B al llegarle la señal de A y reemitirla, y t’(A) la lectura del reloj de A al recibir la devolución de B.

Resultado de imagen de determinación de la velocidad de la luz por Galileo

No parece el mejor método para medir la velocidad de la luz, el empleado por Galileo. Claro que, en aquellos tiempos…¿Qué se podía hacer?

Supone Albert Einstein que esta definición no lleva a contradicciones, que es en principio posible entre cualquier par de observadores estacionarios en el inercial, y que la relación de sincronización anterior es de equivalencia: Si A está sincronizada con B, también B lo está con A, y si además B lo está con C, también A y C lo están. A esto le siguen ecuaciones que quiero obviar para no dar complejidad al trabajo.

No existe “el” presente

Pasa Albert Einstein a enunciar con precisión el principio de relatividad y el postulado de la constancia de la velocidad de la luz en el vacío:

  1. Las leyes que rigen los cambios de los sistemas físicos son las mismas en todos los inerciales.
  2. Todo rayo de luz se mueve en cualquier inercial con una misma velocidad, c, independientemente del movimiento de su fuente.

Como consecuencia, demuestra que el concepto de sincronía, y por ende de simultaneidad, es relativo, no absoluto. La noción de “presente”, “ahora” o cualquier instante determinado depende del referencial inercial.

Energía Taquiónica

           Algunos incluso hablaron de ernegía taquiónica

¿Más rápido que la luz?

¿Existen partículas que se muevan con velocidad superior a la de la luz? Sí; por ejemplo, cualquier partícula que lleve en agua, a temperatura entre 0 y 50 ºC, una velocidad ν > c / n, n = 1.3, irá más deprisa en ese medio que los fotones del espectro visible. Lo mismo ocurre con la mayoría de los rayos cósmicos que llegan a la atmósfera; son superlumínicos en relación con la velocidad de la luz en el aire. Precisamente en esta posibilidad de rebasar la velocidad de la luz en un medio reside el efecto Cerenkov.

Lo que no se conocen son taquiones, o partículas que se muevan más deprisa que la luz en el vacío. Si existieran, podrían utilizarse para mandar información al pasado. Violando el orden causa-efecto. Por ello se “decreta” su inexistencia.

En fin, que la velocidad de la luz en el vacío, al menos que sepamos, es infranqueable. Es un límite impuesto por la Naturaleza al que habrá que vencer, no superándolo (que no se puede), sino mediante una artimaña física inteligente que logre burlar dicho límite.

Aparte de algún que otro añadido, el artículo (parcialmente expuesto aquí -se obviaron partes complejas), es del Físico de la Universidad Complutense D. Alberto Galindo Tixaire. Fue publicado en el Volumen 19, número 1 de la Revista Española de Física en 2005 Año Mundial de la Física

Año mundial de la Física

En realidad, un Homenaje a Einstein por haber pasado más de un siglo desde aquel acontecimiento memorable de la Relatividad Especial en el año 1.905 y estar a punto de cumplirse otro siglo desde su relatividad general de 1905. Dos acontecimientos que marcaron el camino de la Física y la Cosmología.

emilio silvera

Recordando a George J. Stoney

$
0
0

Resultado de imagen de George J. Stoney

George J. Stoney, el físico irlandés y pensador excéntrico y original al que, en realidad, debemos la forma de deducir si otros planetas del sistema solar poseían o no una atmósfera gaseosa, como la Tierra, calculando si su gravedad superficial era suficientemente intensa para mantener esa atmósfera.

Resultado de imagen de LOs experimentos de Faraday

Pero su pasión real estaba reservada a su idea más preciada: el “electrón”. Stoney había deducido que debía existir un componente básico de carga eléctrica. Estudiando los experimentos de Michael Faraday sobre electrolisis, Stoney había predicho incluso cuál debía ser su valor, una predicción posteriormente confirmada por J. J. Thomson, descubridor del electrón en Cambridge en 1.897, dándole la razón a Stoney que finalmente, a esta unidad básica de la electricidad, le dio el nombre de electrón con el símbolo e en 1.891 (antes de su descubrimiento).

Resultado de imagen de Alan TuringGeorge Francis FitzGerald.jpg

          A. Turing y George Francis FitzGerald parientes de Stoney

 

Stoney, primo lejano y más viejo del famoso matemático, científico de computación y criptógrafo Alan Turing, también era tío de George Fitzgerald, después famoso por proponer la “contracción Fitzgerald-Lorentz”, un fenómeno que fue entendido finalmente en el contexto de la teoría de la relatividad especial de Einstein.

Stoney con sus hijas Edith y Florence

Stoney, podemos decir con seguridad, fue el primero que señaló el camino para encontrar lo que más tarde conoceríamos como constantes fundamentales, esos parámetros de la física que son invariantes, aunque su entorno se transforme. Ellas, las constantes, continúan inalterables como sucede, por ejemplo, con la velocidad de la luz c, que sea medida en la manera que sea, esté en reposo o esté en movimiento quien la mide o la fuente de donde parte, su velocidad será siempre la misma, 299.792.458 m/s. Algo análogo ocurre con la gravedad, G, que en todas partes mide el mismo parámetro  o valor: G = 6’67259 × 10-11 m3 s-2 Kg-1. Es la fuerza de atracción que actúa entre todos los cuerpos y cuya intensidad depende de la masa de los cuerpos y de la distancia entre ellos; la fuerza gravitacional disminuye con el cuadrado de la distancia de acuerdo a la ley de la inversa del cuadrado.

Resultado de imagen de el Queen’s College Galway en 1.860Resultado de imagen de el Queen’s College Galway en 1.860

Resultado de imagen de el Queen’s College Galway en 1.860

Profesor de filosofía natural (así llamaban antes a la Física) en el Queen’s College Galway en 1.860, tras su retiro se trasladó a Hornsey, al norte de Londres, y continuó publicando un flujo de artículos en la revista científica de la Royal Dublín Society, siendo difícil encontrar alguna cuestión sobre la que no haya un artículo firmado por él.

Resultado de imagen de programa de la reunión de Belfast de la Asociación Británica con Stoney

Stoney recibió el encargo de hacer una exposición científica del tema que él mismo eligiera para el programa de la reunión de Belfast de la Asociación Británica. Pensando en qué tema elegir, se dio cuenta de que existían medidas y patrones e incluso explicaciones diferentes para unidades que median cosas o distancias o algún fenómeno: se preguntaba la manera de cómo definirlos mejor y como interrelacionarlos. Vio una oportunidad para tratar de simplificar esta vasta confusión de patrones humanos de medida de una manera tal que diese más peso a su hipótesis del electrón.

La escala Stoney

 

La escala de Planck, considerada como la más adecuada para explicar la teoría unificada, fue anticipada por George Johnstone Stoney.4​ La escala de Stoney, (que implica una escala intermedia para explicar los efectos a gran escala como la gravedad y los efectos a pequeña escala como los electromagnéticos) comprende las unidades de escala de Stoney, sobre todo las de masa pero también de longitud y tiempo.

La masa de Stoney mS (expresada en términos contemporáneos) toma la forma:

 

{\displaystyle m_{S}={\sqrt {\frac {e^{2}}{4\pi \varepsilon _{0}G}}}={\sqrt {\alpha }}\,m_{P}}

donde ε0 es la permitividad del vacíoe es la carga elemental y G es la constante gravitacional, y donde α es la constante de estructura fina y mPes la masa de Planck.

Resultado de imagen de Las unidades de Sotoney

En tal situación, Stoney centró su trabajo en unidades naturales que transcienden los patrones humanos, así que trabajó en la unidad de carga electrónica (según su concepto), inspirado en los trabajos de Faraday como hemos comentado antes. También, como unidades naturales escogió G y c que responde, como se ha explicado, a la gravedad universal y la velocidad de la luz en el vacío.

Resultado de imagen de Las unidades de Sotoney

En 1874 estableció la hipótesis según la cual la electricidad era creada por unos corpúsculos elementales que llamó electrones, cuya carga intentó calcular.

En 1891, Stoney sugirió un nombre para la unidad fundamental de electricidad, fuese o no una partícula. Sugirió el nombre de electrón (nombre griego del ámbar, resina fósil que adquiere una carga eléctrica negativa al ser frotada con un paño), al analizar fenómenos electrolíticos y que se refería a las unidades de electricidad que un átomo perdía al transformarse en un ión.

Resultado de imagen de Las unidades de Sotoney

                   George Johnstone Stoney (1826 – 1911)

En su charla de la Reunión de Belfast, Stoney se refirió al electrón como el “electrino” y dio el primer cálculo de su valor esperado. Demostró que el trío mágico de Gc y e podía combinarse de una manera, y sólo de una, de modo que a partir de ellas se creaban una unidad de masa, una unidad de longitud y una unidad de tiempo. Para la velocidad de la luz utilizó un promedio de las medidas existentes, c = 3 × 108 metros por segundo; para la constante de gravitación de Newton utilizó el valor obtenido por John Herschel, G = 6’67259 × 10-11 m3 s-2 Kg-1, y para la unidad de carga del “electrino” utilizó e = 10-20 amperios. Estas fueron las inusuales nuevas unidades que él encontró, en términos de las constantes ec y G, y en términos de gramo, metros y segundos.

Resultado de imagen de Las unidades de Sotoney

Estas son cantidades extraordinarias. Aunque una masa de 10-7 gramos no es demasiado espectacular – es similar a la de una mota de polvo – las unidades de longitud y tiempo de Stoney eran muy diferentes de cualquiera que hubieran encontrado antes los científicos.  Eran fantásticamente pequeñas, rozando lo inconcebible. No había (y sigue sin haber) ninguna posibilidad de medir directamente tales longitudes y tiempos. En cierto modo, esto es lo que se podría haber esperado. Estas unidades no están construidas deliberadamente a partir de dimensiones humanas, por conveniencia humana o para utilidad humana.  Están definidas por la propia fábrica de la realidad física que determina la naturaleza de la luz, la electricidad y la gravedad.  No se preocupan de nosotros. Stoney triunfó de un modo brillante en su búsqueda de un sistema de unidades sobrehumanas.

“La ciencia no puede resolver el misterio final de la Naturaleza.  Y esto se debe a que, en el último análisis, nosotros somos parte del misterio que estamos tratando de resolver.”

Max Planck

emilio silvera

Todo está cuantizado

$
0
0

Imagen relacionada

El psicólogo Erik Erikson llegó a proponer una teoría de estadios psicológicos del desarrollo. Un conflicto fundamental caracteriza cada fase. Si este conflicto no queda resuelto, puede enconarse e incluso provocar una regresión a un periodo anterior. Análogamente, el psicólogo Jean Piaget demostró que el desarrollo mental de la primera infancia tampoco es un desarrollo continuo de aprendizaje, sino que está realmente caracterizado por estadios discontinuos en la capacidad de conceptualización de un niño. Un mes, un niño puede dejar de buscar una pelota una vez que ha rodado fuera de su campo de visión, sin comprender que la pelota existe aunque no la vea. Al mes siguiente, esto resultará obvio para el niño.

Resultado de imagen de LOs cambios en el Universo

Esta es la esencia de la dialéctica. Según esta filosofía, todos los objetos (personas, gases, estrellas, el propio universo) pasan por una serie de estadios. Cada estadio está caracterizado por un conflicto entre dos fuerzas opuestas. La naturaleza de dicho conflicto determina, de hecho, la naturaleza del estadio. Cuando el conflicto se resuelve, el objeto pasa a un objetivo o estadio superior, llamado síntesis, donde empieza una nueva contradicción, y el proceso pasa de nuevo a un nivel superior.

Imagen relacionada

Los filósofos llaman a esto transición de la “cantidad” a la “cualidad”.  Pequeños cambios cuantitativos se acumulan hasta que, eventualmente, se produce una ruptura cualitativa con el pasado. Esta teoría se aplica también a las sociedades o culturas. Las tensiones en una sociedad pueden crecer espectacularmente, como la hicieron en Francia a finales del siglo XVIII. Los campesinos se enfrenaban al hambre, se produjeron motines espontáneos y la aristocracia se retiró a sus fortalezas. Cuando las tensiones alcanzaron su punto de ruptura, ocurrió una transición de fase de lo cuantitativo a los cualitativo: los campesinos tomaron las armas, tomaron París y asaltaron la Bastilla.

 Resultado de imagen de Transición de fase

              Un ejemplo de la transición de fase

Las transiciones de fases pueden ser también asuntos bastante explosivos. Por ejemplo, pensemos en un río que ha sido represado. Tras la presa se forma rápidamente un embalse con agua a enorme presión. Puesto que es inestable, el embalse está en el falso vacío. El agua preferiría estar en su verdadero vacío, significando esto que preferiría reventar la presa y correr aguas abajo, hacia un estado de menor energía. Así pues, una transición de fase implicaría un estallido de la presa, que tendría consecuencias desastrosas.

Resultado de imagen de Explosión nuclear

También podría poner aquí el ejemplo más explosivo de una bomba atómica, donde el falso vacío corresponde al núcleo inestable de uranio donde residen atrapadas enormes energías explosivas que son un millón de veces más poderosas, para masas iguales, que para un explosivo químico.  De vez en cuando, el núcleo pasa por efecto túnel a un estado más bajo, lo que significa que el núcleo se rompe espontáneamente. Esto se denomina desintegración radiactiva. Sin embargo, disparando neutrones contra los núcleos de uranio, es posible liberar de golpe esta energía encerrada según la formula de Einstein E = mc2. Por supuesto, dicha liberación es una explosión atómica; ¡menuda transición de fase!

Resultado de imagen de Transición de fase y ruptura de simetríaResultado de imagen de Transición de fase y ruptura de simetría

Las nuevas características descubiertas por los científicos en las transiciones de fases es que normalmente van acompañadas de una ruptura de simetría. Al premio Nobel Abdus Salam le gusta la ilustración siguiente: consideremos una mesa de banquete circular, donde todos los comensales están sentados con una copa de champán a cada lado. Aquí existe simetría. Mirando la mesa del banquete reflejada en un espejo, vemos lo mismo: cada comensal sentado en torno a la mesa, con copas de champán a cada lado.  Asimismo, podemos girar la mesa de banquete circular y la disposición sigue siendo la misma.

Rompamos ahora la simetría. Supongamos ahora que el primer comensal toma la copa que hay a su derecha. Siguiendo la pauta, todos los demás comensales tomaran la copa de champán de su derecha. Nótese que la imagen de la mesa del banquete vista en el espejo produce la situación opuesta.  Cada comensal ha tomado la copa izquierda. De este modo, la simetría izquierda-derecha se ha roto.

Resultado de imagen de Así pues, el estado de máxima simetría es con frecuencia también un estado inestable, y por lo tanto corresponde a un falso vacío.

Así pues, el estado de máxima simetría es con frecuencia también un estado inestable, y por lo tanto corresponde a un falso vacío.

Con respecto a la teoría de supercuerdas, los físicos suponen (aunque todavía no lo puedan demostrar) que el universo decadimensional original era inestable y pasó por efecto túnel a un universo de cuatro y otro de seis dimensiones. Así pues, el universo original estaba en un estado de falso vacío, el estado de máxima simetría, mientras que hoy estamos en el estado roto del verdadero vacío.

Resultado de imagen de Al principio el universo era simétrico y existía una sola fuerza

Al principio, cuando el universo era simétrico, sólo existía una sola fuerza que unificaba a todas las que ahora conocemos, la gravedad, las fuerzas electromagnéticas y las nucleares débil y fuerte, todas emergían de aquel plasma opaco de alta energía que lo inundaba todo. Más tarde, cuando el universo comenzó a enfriarse, se hizo transparente y apareció la luz, las fuerzas se separaron en las cuatro conocidas, emergieron las primeras quarks para unirse y formar protones y neutrones, los primeros núcleos aparecieron para atraer a los electrones que formaron aquellos primeros átomos.  Doscientos millones de años más tarde, se formaron las primeras estrellas y galaxias. Con el paso del tiempo, las estrellas sintetizaron los elementos pesados de nuestros cuerpos, fabricados en supernovas que estallaron, incluso antes de que se formase el Sol. Podemos decir, sin temor a equivocarnos, que una supernova anónima explotó hace miles de millones de años y sembró la nube de gas que dio lugar a nuestro sistema solar, poniendo allí los materiales complejos y necesarios para que algunos miles de millones de años más tarde, tras la evolución, apareciéramos nosotros.

Resultado de imagen de Entrando en la secuencia principal

Se forman en un grumo formado por una anomalía gravitatoria, como proto-estrellas que pasan a la secuencia principal en varios cambios de fase, así brillan y fusionan material durante miles de M de años.

Las estrellas evolucionan desde que en su núcleo se comienza a fusionar hidrógeno en helio, de los elementos más ligeros a los más pesados.  Avanza creando en el horno termonuclear, cada vez, metales y elementos más pesados. Cuando llega al hierro y explosiona en la forma explosiva de  una supernova. Luego, cuando este material estelar es otra vez recogido en una nueva estrella rica en hidrógeno, al ser de segunda generación (como nuestro Sol), comienza de nuevo el proceso de fusión llevando consigo materiales complejos de aquella supernova.

Resultado de imagen de La energía en las estrellas

                                         Si pudiéramos contemplar todo lo que pasa ahí

Puesto que el peso promedio de los protones en los productos de fisión, como el cesio y el kriptón, es menor que el peso promedio de los protones de uranio, el exceso de masa se ha transformado en energía mediante E = mc2. Esta es la fuente de energía que subyace en la bomba atómica.

Así pues, la curva de energía de enlace no sólo explica el nacimiento y muerte de las estrellas y la creación de elementos complejos que también hicieron posible que nosotros estemos ahora aquí y, muy posiblemente, será también el factor determinante para que, lejos de aquí, en otros sistemas solares a muchos años luz de distancia, puedan florecer otras especies inteligentes que, al igual que la especie humana, se pregunten por su origen y estudien los fenómenos de las fuerzas fundamentales del universo, los componentes de la materia y, como nosotros, se interesen por el destino que nos espera en el futuro.

Resultado de imagen de Un rostro escéptico

No quiere dar la nota y calla pero… ¡No cree nada!

Cuando alguien oye por vez primera la historia de la vida de las estrellas, generalmente (lo sé por experiencia), no dice nada, pero su rostro refleja escepticismo. ¿Cómo puede vivir una estrella 10.000 millones de años? Después de todo, nadie ha vivido tanto tiempo como para ser testigo de su evolución.

Sin embargo, tenemos los medios técnicos y científicos para saber la edad que tiene, por ejemplo, el Sol.

emilio silvera

Simetría CP y otros aspectos de la Física

$
0
0

Los quarks al otro lado del espejo. Científicos del Laboratorio Nacional Jefferson Lab (EEUU) han verificado la rotura de la simetría de paridad (también llamada simetría del espejo) en los quarksmediante el bombardeo de núcleos de deuterio con electrones de alta energía. Los núcleos de deuterioestán formados por un protón y un neutrón, es decir, por tres quarks arriba y tres quarks abajo. La dispersión inelástica entre un electrón y un quark, es decir, su colisión, está mediada por la interacción electrodébil, tanto por la fuerza electromagnética como por la fuerza débil. Esta última es la única interacción fundamental que viola la simetría de paridad.

Tenemos que saber cómo la violación de la simetría CP (el proceso que originó la materia) aparece, y, lo que es más importante, hemos de introducir un nuevo fenómeno, al que llamamos campo de Higgs, para preservar la coherencia matemática del modelo estándar.  La idea de Higgs, y su partícula asociada, el bosón de Higgs, cuenta en todos los problemas que he mencionado antes.  Parece, con tantos parámetros imprecisos (19) que, el modelo estándar se mueve bajo nuestros pies.

Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.

La Física nos lleva de vez en cuando a realizar viajes alucinantes. Se ha conseguido relacionar y vibrar a dos diamantes en el proceso conocido como entrelazamiento cuántico. El misterioso proceso, al que el propio Eisntein no supo darle comprensión completa, supone el mayor avance la fecha y abre las puertas de la computación cuántica. que nos hagamos una idea del hallazgo, en 1935 Einstein lo llegó a denominar la “acción fantasmal a distancia”. Un efecto extraño en donde se conecta un objeto con otro de manera que incluso si están separados por grandes distancias, una acción realizada en uno de los objetos afecta al otro.

Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?).  Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal.  Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado! Pero se sigue hablando de partículas supersimétricas.

Resultado de imagen de LOngitud de Planck

“A distancias comparables con la longitud de Planck, se cree que están sucediendo cosas muy curiosas que rebasan ampliamente los límites de nuestra imaginación. A diferencia de la filosofía reduccionista que propone que lo más complejo está elaborado -axiomáticamente- a partir de lo más elemental, lo que está sucediendo en la escala de Planck no parece tener nada de elemental o sencillo. Se cree que a esta escala la continuidad del espacio-tiempo en vez de ir marchando sincronizadamente al parejo con lo que vemos en el macrocosmos de hecho stá variando a grado tal que a nivel ultra-microscópico el tiempo no sólo avanza o se detiene aleatoriamente sino inclusive marcha hacia atrás, una especie de verdadera máquina del tiempo. Las limitaciones de nuestros conocimientos sobre las rarezas que puedan estar ocurriendo en esta escala en el orden de los 10-35 metros, la longitud de Planck, ha llevado a la proposición de modelos tan imaginativos y tan exóticos como la teoría de la espuma cuántica que supuestamente veríamos aún en la ausencia de materia-energía si fuésemos ampliando sucesivamente una porción del espacio-tiempo plano.”

      ¿Espuma cuántica en la L de P?

La longitud de Planck forma parte del sistema de unidades naturales, y se calcula a partir de tres constantes fundamentales: la velocidad de la luz, la constante de Planck y la constante gravitacional. Equivale a la distancia que recorre un fotón,  viajando a la velocidad de la luz  en el tiempo de Planck.

La Longitud de Planck es definida como {\displaystyle \ell _{P}={\sqrt {\frac {\hbar G}{c^{3}}}}\approx 1.616199(97)\times 10^{-35}{\mbox{ metros}}}

donde c es la velocidad de la luz en el vacío, G es la constante de gravitación universal,  y \hbar  es la Constante de Planck reducida. Los dos dígitos entre paréntesis son el error estándar estimado, asociado con el valor numérico reportado.

                                   ¿Quién puede ir a la Longitud de Planck y ver lo que allí pueda existir?

La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa.  En el Hiperespacio, todo es posible.  Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.

Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intento calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas.  Todo debe ser contestado a partir de una ecuación básica.

¿Dónde radica el problema?

El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello,  no la tiene ni la nueva capacidad energético del  acelerador de partículas LHC . Ni sumando todos los aceleradores de partículas de nuestro mundo, podríamos lograr una energía de Planck (1019 GeV), que sería necesaria para poder llegar hasta las cuerdas vibrantes de la Teoría. Ni en las próximas generaciones seremos capaces de poder utilizar tal energía.

La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías. Sabemos sobre las partículas elementales que conforman la materia bariónica, es decir, los átomos que se juntan para formar moléculas, sustancias y cuerpos… ¡La materia! Pero, no sabemos si, pudiera haber algo más elemental aún más allá de los Quarks y, ese algo, pudieran ser esas cuerdas vibrantes que no tenemos capacidad de alcanzar.

¡Necesitamos algo más avanzado!

Se ha dicho que la función de la partícula de Higgs es la de dar masa a las Cuando su autor lanzó la idea al mundo, resultó además de nueva muy extraña.  El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo.  El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.

Resultado de imagen de El LHC

                   Con 7 TeV ha sido suficiente para encontrar la famosa partícula de Higgs pero…

Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs.  Las partículas influidas por este campo, toman masa.  Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético.  Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.

Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo.  Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein.  La masa, m, tiene en realidad dos partes.  Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo.  La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos.  Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.

Peor la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo.  Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.

Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.

La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pietez Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo.  El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.

Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs(de ahí la expectación creada por el nuevo acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas -Las masas de los W+, W-, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?

Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV.  Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-Salam).  Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles.  En la unidad hay cuatro partículas mensajeras sin masa -los W+, W-, Zº fotón que llevan la fuerza electrodébil.  Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébilse fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa.  La simetría se rompe espontáneamente, dicen los teóricos.  Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.

Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.

Resultado de imagen de El LHC busca la masa

Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron.  Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”.  Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa.  Una vez potente y segura nos dice: “!Higgs¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgspresenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmariana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la matería?

La variación de la masa con el estado de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen entre dicho que el concepto de masa sea una tributo fundamental de la materia.  Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron del “renormalizándolo”, ese truco matemático que emplean cuando no saben hacerlo bien.

Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas.  Hace que la historia de Higgs se tenga en pie: la masa no es una propiedad intrinseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.

La idea de que la masa no es intrinseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en laque los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.

¡Ah, una cosa más! Hemos hablado de los bosones gauge y de su espín de una unidad; hemos comentado también las partículas fermiónicas de la materia (espin de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espin cero.  El espín supone una direccionalidad en el espacio, pero el campo de Higgs de masa a los objetos dondequiera que estén y sin direccionalidad.  Al Higgs se le llama a veces “bosónescalar” [sin dirección] por esa razón.

                                                        Basta con cambiar un quark tipo u a uno tipo d.

Pues justamente esto es lo que ocurre en la naturaleza cuando entra en acción la fuerza nuclear débil.  Un quark tipo u cambia a uno tipo d por medio de la interacción débil así

Las otras dos partículas que salen son un anti-electrón y un neutrino. Este mismo proceso es el responsable del decaimiento radiactivo de algunos núcleos atómicos. Cuando un neutrón se convierte en un protón en el decaimiento radiactivo de un núcleo, aparece un electrón y un neutrino. Este es el origen de la radiación beta (electrónes).

La interacción débil, recordareis, fue inventada por E.Fermin para describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme número de procesos en el dominio de energía de los 100 MeV.  Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar el bosón Higgs origen de la masa… y algunas cosas más.

Hay que responder montones de preguntas.  ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión de LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o solo las hace incrementarse? ¿Y, cómo podemos saber más al respecto? Como s su partícula, nos cabe esperar que la veamos ahora después de gastar más de 50.000 millones de euros en los elementos necesarios para ello.

También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del Universo, añadiendo, pues, un peso más a la carga que ha de soportar el Higgs.

El campo de Higgs, tal y como se lo concibe ahora, se puede destruir con una energía grande, o temperaturas altas. Estas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puso y de resplandeciente simetría es demasiado caliente para Higgs. Pero cuando la temperatura cae bajo los 10′5grados kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas.  Así por ejemplo, antes de Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada.

El Universo se expande y se enfría, y entonces viene el Higgs (que engorda los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe.

Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W-, Z0, y por otra parte una interacción electromagnética, llevada por los fotones. Es como si para algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que las hiciera parecer que tienen mucha masa. Para otras partículas, el Higgs es como el agua, y para otras, los fotones y quizá los neutrinos, es invisible.

De todas las maneras, es tanta la ignorancia que tenemos sobre el origen de la masa que, nos agarramos como a un clavo ardiendo el que se ahoga, en este caso, a la partícula de Higgs que, algunos, han llegado a llamar, de manera un poco exagerada:

¡La partícula Divina!

¡Ya veremos en que termina todo esto! Y que explicación se nos ofrece desde el CERN en cuanto al auténtico escenario que según ellos, existe en el Universo para que sea posible que las partículas tomen su masa de ese oceáno de Higgs, en el que, según nuestro amigo Ramón Márquez, las partículas se frenan al interaccionar con el mismo y toman su masa, el lo llama el “efecto frenado”.

Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas.  La utilizaron los teóricos steven Weinberg y Abdus Salam, que trabajaban por separado, para comprender como se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, Wy Z0 de masa grande.  Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glasgow, quien tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martines Veltman y Gerard’t Hooft.  También hay otras a los que había que mencionar, pero lo que siempre pasa, quedan en el olvido de manera muy injusta.  Además, ¿Cuántos teóricos hacen falta para encender una bombilla?

La verdad es que, casi siempre, han hecho falta muchos.  Recordemos el largo recorrido de los múltiples detalle sueltos y físicos que prepararon el terreno para que, llegara Einstein y pudiera, uniéndolo todos, exponer su teoría relativista. (Mach, Maxwell, Lorentz… y otros).

Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, dice que es una alfombra bajo la que barremos nuestra ignorancia.  Glasgow es menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales.  La objeción principal: que no tenemos la menor prueba experimental.

Ahora, por fin la tenemos con el LHC, y ésta pega, se la traspasamos directamente a la teoría de supercuerdas y a la materia oscura que, de momento, están en la sombra y no brillan con luz propia, toda vez que ninguna de ellas ha podido ser verificada, es decir, no sabemos si el Universo atiende a lo que en ellas se predice.

El modelo estándar es lo bastante fuerte para decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” menos de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.

Después de todo esto, llego a la conclusión de que, el campo de Higgs, el modelo estándar y nuestra idea de cómo pudo surgir  el Universo dependen de que se encuentre el bosón de Higgs, Se averigue si realmente existe la materia oscura, Sepamos llegar al fondo de la Teoría de Cuerdas y confirmarla, Poder crear esa Teoría cuántica de la Gravedad…Y, en fín, seguir descubriendo los muchos misterios que no nos ejan saber lo que el Universo es.  Ahora, por fin, tenemos grandes aceleradores y Telescopisos con la energía necesaria y las condiciones tecnológicas suficientes para que nos muestretodo eso que queremos saber y nos digan dónde reside esa verdad que incansables perseguimos.

¡La confianza en nosotros mismos, no tiene límites! Pero, no siempre ha estado justificada.

emilio silvera

Creando modelos científicos para saber

$
0
0

¿Cómo sabemos (si son ciertas) las cosas que pensamos que sabemos?

¿A qué se refieren los científicos cuando dicen que ellos “conocen” lo que hay dentro del un átomo, por ejemplo, o lo que pasó en los tres primeros minutos de vida del Universo? En realidad, se refieren a que tienen lo que ellos denominan un modelo del átomo, o del universo temprano, o lo que sea en que ellos estén interesados, y que este modelo encaja con el resultado de sus experimentos, o sus observaciones del mundo. Este tipo de modelo científico no es una representación física de la cosa real, del mismo modo que un modelo de avión representa un avión de tamaño natural, sino que es una imagen mental que se describe mediante un grupo de ecuaciones matemáticas lo que se piensa que “aquello” es, y, nos dice como se comporta la Naturaleza

Los átomos y las moléculas que componen el aire que respiramos, por ejemplo, se pueden describir en términos de un modelo en el que imaginamos cada partícula como si fuera una pequeña esfera perfectamente elástica (una diminuta bola de billar), con todas las pequeñas esferas rebotando unas contra las otras y contra las paredes del recipiente.

Ésa es la imagen mental, pero es sólo la mitad del modelo; lo que lo hace un modelo científico es describir el modo como se mueven las esferas y rebotan unas contra otras mediante un grupo de leyes físicas, escritas en términos de ecuaciones matemáticas. En este caso, estas son esencialmente las leyes del movimiento descubiertas por Isaac Newton hacen más de 300 años.

Bianca Atwell y el átomo

Mirando dentro del átomo

Utilizando estas leyes matemáticas es posible predecir, por ejemplo, qué le pasará a la presión ejercida por un gas si se aplasta hasta la mitad de su volumen inicial. Si hacemos el experimento, el resultado que se obtiene encaja con la predicción del Modelo (en este caso la presión se doblará), lo que lo convierte en un buen modelo.

Naturalmente, no deberíamos sorprendernos de que el modelo estándar de un gas que lo describe en términos de pequeñas bolas que rebotan unas contra otras de acuerdo con las leyes de Newton haga esta predicción en concreto correcta, porque los experimentos fueron hechos primero, y el modelo fue diseñado o construido, para hacer encajar los resultados de esos experimentos.

                        Tenemos modelos para todo

El siguiente paso en el proceso científico es utilizar el modelo que se ha desarrollado desde las medidas efectuadas en un grupo de experimentos para hacer predicciones (predicciones precisas, matemáticas) sobre lo que le pasará al mismo sistema cuando se hacen experimentos diferentes. Si el modelo hacer predicciones “correctas” bajo nuevas circunstancias, demuestra que es un buen modelo; si fracasa al hacer las predicciones correctas, no se puede descartas completamente, porque todavía nos dice algo útil sobre los primeros experimentos; pero en el mejor de los casos tiene una aplicabilidad limitada.

Resultado de imagen de Modelo de la teoría de cuerdas

De hecho, todos los modelos científicos tienen aplicabilidad limitada. Ninguno de ellos es “la verdad”. El modelo de un átomo como una pequeña esfera perfectamente elástica funciona bien en cálculos de cambio de presión de un gas bajo circunstancias diferentes, pero si queremos describir el modo en que el átomo emite o absorbe luz, necesitamos un modelo de átomo que al menos tenga dos componentes, un núcleo central diminuto (que se puede considerar él mismo como una pequeña esfera perfectamente elástica para determinados fines) rodeado por una nube de electrones.

Creamos un Modelo en nuestra Mente y tratamos de comprobarlo con una y mil pruebas, y cuando los resultados coinciden, lo damos por bueno. Sin embargo, no siempre el Modelo es ajusta fielmente a la realidad de la Naturaleza, del Universo, toda vez que, nos quedan cuestiones por comprobar a las que no podemos tener acceso por falta de conocimientos intelectuales, por no tener la tecnología adecuada… Pero vamos avanzando.

Así es el modelo más preciso del universo que existe

Los modelos científicos son representaciones de la realidad, no la realidad en sí misma, y no importa lo bien que funcionen o lo precisas que sean sus predicciones bajo circunstancias apropiadas, siempre se considerarán aproximaciones y ayudas a la imaginación, más que la verdad absoluta. Cuando un científico afirma, por ejemplo, que el núcleo de un átomo está compuesto por partículas denominadas protones y neutrones (nucleones) lo que en realidad debería decir es que el núcleo de un átomo se comporta, bajo determinadas circunstancias, como si estuviera formado de protones y neutrones. Los mejores científicos toman el “como si” como se lee, pero entienden que sus modelos son, efectivamente, sólo modelos; científicos menores a menudo olvidan esta diferencia crucial.

Los científicos menos y muchos no-científicos, tienen otra idea equivocada. A menudo piensan que el papel de los científicos hoy en día es llevar a cabo experimentos que probarán la exactitud de un modelo con una precisión cada vez mayor -hacia posiciones con más y más decimales- ¡En absoluto! La razón para llevar a cabo experimentos que demuestren predicciones previas no comprobadas es descubrir (como decía Feynman) donde fallan los modelos.

Aquí nos dicen que Omega (Ω), es decir, de la materia contenida en el Universo, depende como este pueda estar conformado: Plano, abierto o cerrado y, según sea el universo en el que vivimos, así será su final. Parece que, de todas las maneras que ha sido observado, la Densidad Crítica del Universo, es decir, la cantidad de materia que contiene, es la que hace de nuestro universo un universo plano que se expadirá para siempre.

Encontrar defectos en sus modelos es la esperanza abrigada por los mejores científicos, porque esos defectos -cosas que los modelos no pueden predecir o explicar en detalle- destacarán los lugares donde necesitamos una nueva comprensión, con modelos mejores, para progresar…

El arquetipo ejemplo de esto es la Gravedad. La ley de la gravedad de Newton se consideró la pieza clave de la física durante más de doscientos años, desde la década de 1680 hasta comienzos del siglo XX. Pero había unas pocas, aparentemente insignificantes, cosas que el modelo newtoniano no podía explicar (o predecir), referente a la órbita del planeta Mercurio y al modo como la luz se curva cuando pasa cerca del Sol.

Resultado de imagen de El Modelo de la Gravedad de Einstein

El modelo de la Gravedad de Einstein, basado en su teoría general de la relatividad, explica lo mismo que el modelo de Newton, pero también explica los detalles sutiles de órbitas planetarias y curvatura de la luz. En ese sentido, es un modelo mejor y más completo que el anterior, y hace predicciones correctas (en particular, sobre el Universo en general) que el viejo modelo no hace. Pero el modelo de Newton todavía es todo lo que se necesita si se está calculando el vuelo de una sonda espacial desde la Tierra hasta la Luna. Se podrían hacer los mismos cálculos empleando la relatividad general, pero sería más tedioso por su complejidad y daría la misma respuesta, así que, en muchos casos donde no existe la complejidad, se utiliza el modelo más sencillo de Newton.

Resultado de imagen de MOdelo gravitatorio de Newton

Así que, amigos, los modelos (todos los modelos) han sido y serán buenos en su momento y, también, como ocurrió con el de la Gravedad, vendrán otros nuevos que los superarán y servirán mejor y de manera más profunda en el conocimiento de las cosas que traten, llegando así un poco más lejos en nuestros conocimientos sobre la Naturaleza, ya que, a medida que observamos el Universo, nuestras mentes se abren al saber del mundo que nos rodea y cada vez, podemos comprender mejor lo que realmente ocurre en él.

Nuestras percepciones del Universo son, la mayoría de las veces, equivocadas, y nos formamos una idea de lo que allí está o de lo que allí ocurre que, en la realidad, es otra muy diferente. Y, eso, es así debido a que nuestros conocimientos son muy limitados sobre las cosas, y, está aconsejado por ideas preconcebidas que, muchas veces, entorpece la comprensión de esa realidad que incansables buscamos.

Cuando se consiguen describir de manera exitosa las cosas que ocurren en la Naturaleza, como es el caso de la Relatividad, tanto especial como General, a los físicos, les encanta definirlos como “modelo estándar”. El modelo de los gases de las bolas de billar (que también es conocido como teoría cinética, ya que trata de partículas en movimiento) es un modelo estándar. Pero cuando los físicos hablan de “el modelo estándar”, se están refiriendo a uno de los grandes triunfos de la ciencia del siglo XX.

Gravedad y Mecánica cuántica son los dos modelos prevalentes hoy en la física del mundo, de la Naturaleza, del Universo. Ahí están las explicaciones que de la materia, del espacio tiempo y de las fuerzas universales y las constantes podemos dar y, estamos tratando de abrir camino a nuevas teorías y modelos que nos lleven más allá pero, necesitamos saber matemáticas que no se inventaron aún y también, disponer de energías imposibles, ya que, la energía de Planck de 1019 GeV necesaria para llegar hasta las cuerdas… ¡es sólo un suelo del futuro lejano!

Resultado de imagen de Quarks y leptonesResultado de imagen de Relatividad general

Así ocurre con los modelos que describen la Mecánica Cuántica y la Relatividad, son Modelos Hitos en la Historia de la Ciencia de la Humanidad. Ambos modelos han sido explicado aquí, en mis comentarios muchas veces y, además, no es este el motivo del presente trabajo que, se circunscribe a explicar lo que es un modelo científico y como funciona, al mismo tiempo de cómo se valora su validez que, en realidad, nunca será definitiva, que es lo que ocurre con nuestros conocimientos.

Así que, dicho todo lo anterior, podemos llegar a una conclusión que estaría bien y nos acercaría a la realidad: Lo que sabemos es lo que creemos saber del mundo que nos rodea, y, no es, de ninguna manera, lo que deberíamos saber si nos estamos refiriendo a la realidad de lo que es el Universo y de lo que su Naturaleza finalmente significa y nos quiere decir, para llegar a ese final de comprensión, se necesitarán muchos modelos que se irán desechando por otros que vendrán, y, de esa manera, la Humanidad se acercará a esa realidad que tanto persigue.

emilio silvera

Entrevista a un Nobel

$
0
0

ENTREVISTA AL

Premio Nobel de Física en 1979

Sheldon L. Glashow:

 ”No veo razón alguna para creer en Dios”

                        Sheldon L. Glashow, en la sede de la Fundación Ramón Areces en Madrid.

Resulta imperial con su metro noventa largo y la insignia del Premio Nobel en la solapa de la chaqueta. Pero sus pequeños ojos vivarachos muestran, tras unas gafas de colores, la perspicaz curiosidad de un niño que no paraba de leer obras de ciencia ficción y que Sheldon L. Glashow aún no ha perdido a sus 83 años. Es uno de los científicos clave para entender el Modelo Estándar de la Física, el marco conceptual sobre el que se ha construido la civilización actual y que nos permite entender el Universo. Pero aún hay grandes misterios por resolver en el Cosmos. Glashow visitó ayer Madrid para impartir la conferencia: La física de partículas y la cosmología,  en la Fundación Ramón Areces con la colaboración de Ciencia Viva y la Academia de Europa.

Hace 100 años de la Relatividad General y todavía seguimos hablando de ella. ¿Habrá algún día físicos de la talla de Einstein?
Tenemos científicos muy competentes hoy en día. Incluso algunos que son muy populares o grandes estrellas, como Stephen Hawking. Pero, sinceramente, no creo que estén en la misma división que Einstein en términos de logros científicos. ¿Tendremos un nuevo Einstein? No lo sé. No se trata sólo de saber qué es la materia oscura o qué es la energía oscura. Hay otras preguntas más fundamentales como por qué hay materia oscura o por qué hay energía oscura en el Universo.
¿Necesitamos un nuevo Albert Einstein?
No sé lo que necesitamos… ¡Experimentos! Hay un gran número de experimentos que tienen que llevarse a cabo y la financiación es muy escasa. Pero, no sé muy bien cuál sería el papel de una figura así hoy en día, qué grandes campos hay que unificar. Einstein identificó una gran contradicción. Por un lado estaba la idea de Galileo del principio de relatividad y por el otro estaba el electromagnetismo descubierto por Maxwell. Estas dos teorías parecían ser inconsistentes la una con la otra y eso es lo que forzó a Einstein a desarrollar su teoría.
¿Qué le convirtió en físico?
Resultado de imagen de lA fUNDACIÓN DE aSIMOV PORTADA
Muchas cosas. La primera, que cuando daba clases en el colegio tenía un poco de sobrepeso y no era muy bueno en los deportes. Siempre era el último en ser elegido para formar equipos de béisbol (Se ríe). Así que me dedicaba a leer obras de ciencia ficción y a través de ella empecé a interesarme de verdad por la ciencia. Yo era niño en la Segunda Guerra Mundial y mis dos hermanos estuvieron en Alemania combatiendo contra los nazis. Entonces me empecé a interesar también por los aviones, en principio sólo por identificar cómo eran las aeronaves de combate alemanes o japoneses por si venían a por nosotros, pero después me empecé a interesar en cómo y por qué vuelan los aviones y en la física que hay detrás del lanzamiento de bombas para que la explosión de la propia bomba no termine por acabar con el avión si el vuelo es demasiado bajo. Cuando se lanzaron las bombas atómicas en el mes de agosto de 1945, no supuso una gran sorpresa para mí, porque ya había leído sobre eso en las novelas de ciencia ficción y ya tenía alguna idea de cómo funcionaba la física nuclear. Aprendí muchas cosas por mí mismo antes de ser científico.
¿De dónde proviene la denominación de la partícula de Dios para el bosón de Higgs?
Resultado de imagen de eL LIBRO DE l.lEDERMAN ·lA PARTÍCULA DIVINA"
Fue el nombre que le dio el editor del libro de León Lederman que lleva ese título, pero la obra no es tan mala como su nombre. Él lo aceptó porque el editor insistió.
Entiendo que no está muy de acuerdo con esa denominación.
No me gusta en absoluto, ni siquiera al propio Leon Lederman le gustaba. Él no era un creyente, digo fue porque sufre un Alzheimer terrible, pero no creía en Dios para nada.
¿La ciencia tiene que ser antagonista de la religión?
Resultado de imagen de cIENCIA Y RELIGIÓN
No, la gente puede creer en lo que quiera. Algunos buenos científicos son creyentes y practican la religión de forma seria y eso no les afecta a su trabajo. Pero yo no veo razón alguna para creer en esas cosas. Creo que la religión en general ha tenido un impacto muy negativo para la Humanidad. Seguro que está usted familiarizado con los crímenes del cristianismo en el pasado, bueno esto sigue sucediendo hoy en día con medidas de algunas facciones de la Iglesia católica. Pero afecta también a otras religiones, no hay más que mirar a las controversias que afronta el Islam entre chiíes y suníes en tiempo real hoy en día.
¿Cuál es el mayor reto al que se enfrenta la física actual?
Resultado de imagen de eL CAMBIO CLIMÁTICO
                  Aunque nuestras actividades tiene su parte de culpa, la mayor parte recae en el Sol
Si me permite modificar la pregunta y ampliarlo a los retos de la ciencia moderna, diría que el problema número uno es el cambio climático. Es un problema científico, pero también es político, legal… un problema universal. Si queremos responder otras preguntas sobre la física -algunas de las que hemos estado hablando tardaron 50 años en ser resueltas-, no tenemos tiempo suficiente, no tenemos 50 años antes de que Miami o Nueva York se inunden si no actuamos. Si continuamos haciendo lo que estamos haciendo hoy en día, será con toda seguridad el final de la civilización dentro de los próximos 100 años.
¿Qué le parece el acuerdo alcanzado en París sobre el cambio climático?
Resultado de imagen de el acuerdo de paris sobre el cambio climatico
Es totalmente insuficiente, tendría que haber sido un compromiso mucho mayor, especialmente de los países más industrializados, los que más contaminan pero, el dinero les ciega.
¿El LHC nos ha dado el bosón de Higgs y nada más, aparte de infinidad de resultados negativos.Quizá esta segunda fase que acaba de comenzar… nos de algo más sustancioso?
Resultado de imagen de El LHC
Sí, quizá en esta fase. Tengo la esperanza de que se obtenga algo. Pero estoy disgustado con el fracaso de la supersimetría. Hace predicciones muy explícitas sobre la naturaleza de la materia oscura que no existen. Ha sido un fracaso. Pero la supersimetría se ha convertido en una especie de religión entre los físicos en Europa. Sólo hay malas noticias.
Así que, de nuevo, quizá necesitemos un nuevo Einstein
Bueno, quizá sí lo necesitemos.

La enigmática “materia oscura”

$
0
0

Resultado de imagen de El LHC busca la materia oscura

Resultado de imagen de El LHC busca la materia oscura

El colisionador de hadrones es el experimento más sofisticado que hayamos diseñado jamás. Y entre sus objetivos se encuentra la búsqueda de la esquiva y extraña materia oscura. Pero, ¿cómo se hace?

¿Cómo se busca materia oscura en el universo? ¿Y qué tiene que ver esto con acelerar partículas a toda velocidad en una máquina que mide kilómetros? El Large Hadron Collider es probablemente la máquina más sofisticada que ha creado el ser humano en toda su historia.

CMS Cern

Un experimento tan gigantesco puede dividirse en otros experimentos que forman el conjunto. Entre ellos se encuentra el CMS, o Solenoide compacto de Muones, uno de los dos detectores de partículas de propósito general del Gran Colisionador de Hadrones. Este detector tiene una forma cilíndrica, con más de veinte metros de largo por dieciséis de ancho. Y pesa nada menos que 12.500 toneladas. ¿Cómo se pone a punto tremendo armatoste? “La exigencia es que un cacharro que mide veintiún metros de altura esté alineado con 200 micras de precisión. Se puede hacer con láseres, pero algunos lo calibran con unas partículas que ‘llueven’ del cielo llamadas muones”.

“Usando muones, con técnicas matemáticas avanzadas, puedes decir con precisión dónde están los detectores”

Resultado de imagen de buscan la materia oscura

Uno de los temas más apasionantes en los que los cientídicos están envuelto es enla búsqueda de una de las sustancias más extrañas y misteriosas del universo: la materia oscura. “De momento la única manera de detectarla es a través de sus fenómenos gravitatorios”. Con estas palabras, los físicos nos explican que no es posible, por el momento, detectar directamente la materia oscura. ¿A qué se debe? “La materia oscura sí que interactúa gravitacionalmente, como la materia ordinaria, pero no interacciona ni electromagnéticamente ni mediante fuerzas nucleares ni nada por el estilo”, afirman. “La llamamos oscura, pero en realidad no es oscura. Es transparente”.

Resultado de imagen de buscan materia oscura con detectores bajo tierra

    Los detectores de materia oscura que se encuentran en el SNOLAB están conformados por una caja

              Dicen que todas las galaxias están rodeadas de materia oscura pero…. ¿dónde está?

Resultado de imagen de Los grandes aceleradores buscan la materia oscura pero... Donde está¿

Hasta el momento todos los esfuerzos por hallar la partícula que conforma la materias oscura… ¡Han fracasado! No han aparecido las partículas súper-simétricas que dicen la podría conformar.

Los científicos han calculado que la presencia de esa llamada materia oscura abarca una cuarta parte del universo, pero nadie ha sido capaz de observar y describir su naturaleza.  Los investigadores han diseñado tres aproximaciones diferentes para encontrar esas partículas, que es el último desafío de la física: con detectores bajo tierra, telescopios o aceleradores.

Imagen relacionada

El rema de la “materia oscura” está llevando hacia ese proyecto grandes medios económicos, materiales y de personas, ya que, la física no soporta el hecho de que sólo el 4% de la materia del Universo nos sea conocida, y, habiendo múltiples estudios del movimiento de las galaxias, se ha comprobado que se mueven a mayor velocidad de la que deberían hacerlo si sólo existiera la materia que podemos ver, la Bariónica, la que emite luz y conforma las estrellas, las galaxias y todos los objetos materiales que podemos ver. Han deducido que existe otra clase de materia que no emite radiación, que es transparente, y que sí emite Gravedad… ¡Y, como locos, se han lanzado a la caza de tan esquiva materia?

¡Claro que, no se sabe si finalmente descubrirán que no existe! El misterio del movimiento de las galaxias podría estar en otra parte.

Telescopio espacial Hubble, imagen de campo profundo.

Todos aquellos objetos brillantes que nosotros y los astrónomos podemos ver están compuestos de materia. Sabemos que toda la materia atrae otra materia, y esta fuerza de atracción se llama gravedad. La fuerza gravitacional de la Tierra es lo que nos mantiene sobre nuestro planeta, ya que nosotros también estamos compuestos de materia. Los atletas que saltan con garrocha, los ascensores, los aviones y los cohetes deben trabajar arduamente para superar la fuerza de la gravedad. Esa misma fuerza que te sujeta a ti y a mí a la superficie de la Tierra también mantiene en sus órbitas a las naves espaciales que están en órbita alrededor de la Tierra, e incluso a la Luna. La gravedad del Sol mantiene a la Tierra y a todos los demás planetas, cometas y asteroides de nuestro Sistema Solar en sus órbitas correspondientes alrededor del Sol.

Los científicos comprenden exactamente cómo se comportan los objetos cuando son atraídos por la gravedad. Tienen fórmulas matemáticas para calcular las órbitas y el movimiento de los objetos que se están atrayendo entre sí. De esta manera pueden enviar una nave espacial para encontrarse con un cometa en particular en un momento específico, o predecir exactamente cuándo Marte estará más cerca a la Tierra.

Galaxia en espiral M100.

Ahora cuando los astrónomos observan una galaxia cuidadosamente, pueden medir con qué rapidez se están moviendo las estrellas que ella contiene. Los movimientos de las estrellas son el resultado de las fuerzas gravitacionales provenientes de toda la demás materia de la galaxia. Pero éste es el problema fundamental: Cuando los astrónomos hacen la suma de toda la materia correspondiente a todas las estrellas y gases y polvo visible usando diferentes tipos de telescopios, el total no alcanza para explicar los movimientos que ellos observan. ¡Las estrellas se están moviendo a mucha más rapidez de lo que deberían hacerlo! En otras palabras, toda la materia que podemos ver no alcanza para producir la gravedad que está atrayendo las cosas. Este problema aparece una y otra vez, casi en cualquier lugar que observemos en el Universo. No sólo las estrellas en las galaxias se mueven a mayor velocidad que la esperada, sino que también lo hacen las galaxias dentro de grupos de galaxias. En todos los casos, debe haber otra cosa ahí, algo que no podemos ver, algo oscuro.

Esto podría parecer muy misterioso, pero no es difícil de imaginar. Tú sabes que las personas no pueden flotar por el aire, de modo que si vieras a un hombre haciendo eso, sabrías inmediatamente que deben haber alambres que lo están sujetando, incluso si no los puedes ver.

Galaxias que interactúan.

El nombre que los científicos le han dado al material que les falta es materia oscura. Podemos ver la materia brillante, como las estrellas, pero sabemos que hay algún otro tipo de materia, debido a la manera en que ésta influye sobre la materia brillante. El fondo oscuro del espacio que tendemos a ignorar mientras disfrutamos de las hermosas vistas del cielo oscuro en realidad no está tan vacío como pudieras creer. Aunque parezca sorprendente, hay más de 50 veces más de materia oscura que de materia brillante en el Universo.

Imagen relacionada

                                              ¿De qué podría estar hecha la “materia oscura” ?

“En astrofísica y cosmología física, se denomina materia oscura a un tipo de materia que corresponde al 80% de lamateria del universo, y que no es energía oscuramateriabariónica (materia ordinaria) ni neutrinos. Su nombre hace referencia a que no emite ningún tipo de radiación electromagnética (como la luz).”

¿Pero de qué está compuesta exactamente la materia oscura? Los agujeros negros y algunos objetos demasiado pequeños para ser estrellas (por lo cual no producen luz propia) forman parte de ella. Pero todo eso puede sumar a menos de la quinta parte de la cantidad total de materia oscura que debe existir ahí afuera. Creemos que la mayor parte de la materia negra está compuesta de partículas nuevas más pequeñas que los átomos que son diferentes de cualquier otra cosa que han detectado y estudiado los científicos. Parece que la esencia misma de la mayor parte de la materia del Universo es diferente de lo que estamos compuestos tú y yo y la Tierra y el Sol.

Resultado de imagen de el astrofísico suizo Fritz ZwickySsc2007-10a1.jpg

“La primera persona en proporcionar pruebas y deducir la existencia del fenómeno que se ha llamado “materia oscura” fue el astrofísico suizo Fritz Zwicky, del Instituto Tecnológico de California (Caltech), en 1933.7

Aplicó el teorema de virial al cúmulo de galaxias Coma y obtuvo pruebas de masa no visible. Zwicky estimó la masa total del cúmulo basándose en los movimientos de las galaxias cercanas a su borde. Cuando comparó esta masa estimada con la estimación del número de galaxias y con el brillo total del cúmulo, encontró que había unas 400 veces más masa de la esperada. La gravedad de las galaxias visibles en el cúmulo era muy poca para tal velocidad orbital, por lo que se necesita mucha más. Esto se conoce como el “problema de la masa desaparecida”. Basándose en estas conclusiones, Zwicky dedujo que tendría que haber alguna forma de “materia no visible” que proporcionaría suficiente masa y gravedad constituyendo todo el cúmulo.”

Resultado de imagen de La materia oscura en 1019

LO cierto amigos, es que han pasado cerca de cien años desde que, por primera vez, alguien nos hablara de la posible existencia de la “materia oscura”, y, hasta el momento, a pesar de los muchos medios empleados para ello… ¡Sigue desaparecida!

Veremos si en el año venidero nuestros ingenios la pueden “cazar”

emilio silvera


De como llegamos hasta los Quarks

$
0
0

Ahora todos hablamos del LHC. Sin embargo, la historia de los aceleradores no comenzó con éste moderno y complejo conglomerado de sofisticadas estructuras que hacen posible que visitemos lugares muy lejanos en el corazón de la materia. Tendríamos que recordar al acelerador lineal también llamado LINAC (linear accelerator) es un tipo de acelerador que le proporciona a la partícula subatómica cargada pequeños incrementos de energía cuando pasa a través de una secuencia de campos eléctricos alternos.

               Generador de Van de Graaff.                          El rodillo y peine superior.

Mientras que el generador de Van de Graaff proporciona energía a la partícula en una sola etapa, el acelerador lineal y el ciclotrón proporcionan energía a la partícula en pequeñas cantidades que se van sumando. El acelerador lineal, fue propuesto en 1924 por el físico sueco Gustaf Ising. El ingeniero noruego Rolf Wideröe construyó la primera máquina de esta clase, que aceleraba iones de potasio hasta una energía de 50.000 eV.

Durante la Segunda Guerra Mundial se construyeron potentes osciladores de radio frecuencia, necesarios para los radares de la época. Después se usaron para crear aceleradores lineales para protones que trabajaban a una frecuencia de 200 MHz, mientras que los aceleradores de electrones trabajan a una frecuencia de 3000 MHz.

El acelerador lineal de protones diseñado por el físico Luis Alvarez en 1946, tenía 875 m de largo y aceleraba protones hasta alcanzar una energía de 800 MeV (800 millones). El acelerador lineal de la universidad de Stanford es el más largo entre los aceleradores de electrones, mide 3.2 km de longitud y proporciona una energía de 50 GeV. En la industria y en la medicina se usan pequeños aceleradores lineales, bien sea de protones o de electrones.

El SLAC, ubicado al sur de San Francisco, acelera electrones y positrones a lo largo de algo más de tres kilómetros hacia varios blancos, anillos y detectores ubicados en su finalización. Este acelerador hace colisionar electrones y positrones, estudiando las partículas resultantes de estas colisiones. Construido originalmente en 1962, se ha ido ampliando y mejorando para seguir siendo uno de los centros de investigación de física de partículas mas avanzados del mundo. El centro ha ganado el premio nobel en tres ocasiones. Y, una vez recordada de manera breve la historia, pasaremos directamente al tema que en realidad nos ha tríado aquí: ¡El descubrimiento de los Quarks!

Ahora los medios con los que cuentan los físicos del LHC son inmensamente más eficaces y están más adelantados que aquellos viejos aceleradores que, sin embargo, fueron los pioneros y los que hicieron posible adquirir conocimientos que nos han traído hasta el moderno LHC.

En 1967 se emprendió una serie de experimentos de dispersión mediante los nuevos haces de electrones del SLAC. El objetivo era estudiar más incisivamente la estructura del protón. Entra el electrón de gran energía, golpea un protón en un blanco de hidrógeno y sale un electrón de energía mucho menor, pero en una dirección que forma un ángulo grande con respecto a su camino original. La estructura puntual dentro del protón actúa, en cierto sentido, como el núcleo con las partículas alfa de Rutherford. Pero el problema era aquí más sutíl.

Richard Edward Taylor

               Richard Edward Taylor

Richard Edward Taylor fue uno de los veintidós científicos que trabajó intensamente en el acelerador lineal de Stanford (SLAC), en una serie de pruebas experimentales que vinieron a demostrar que los protones y los neutrones son poseedores de una estructura interna, lo que a su vez confirma las predicciones teóricas del neoyorquino Murray Gell-Mann (1929- ), acerca de la existencia de los denominados quarks.

Junto con sus colegas de Stanford junto con Jerome I. Friedman y Henry W. Kendall -con los que luego habría de compartir el Nobel-, Taylor investigó sobre la estructura interna de la materia, en su mínima expresión, para lo que partió del modelo teórico de los quarks, postulado por Gell-Mann y -de forma independiente- G. Zweig. Tras sus descubrimientos experimentales en el acelerado lineal de Stanford, Taylor perfeccionó dicho modelo añadiéndole la existencia de unas subpartículas desconocidas hasta entonces, que luego fueron denominadas leptones; además, introdujo en el modelo teórico de Gell-Mann otras partículas no estructurales, sino de intercambio de fuerza, a las que en Stanford comenzaron a llamar bosones.

James Bjorken.jpg

James Bjorken.

Resultado de imagen de «Ciencia es creer en la ignorancia de los científicos».

R. Feybnman

Los dos últimos párrafos los he tomado prestados de www.mcnbiografias.com., que es lo que se explica de este tema en casi todas partes. Sin embargo, pocos cuentan que, el equipo de Stanford, dirigido por el físico del SLAC por Richard Taylor y los otros dos físicos del MIT, Jerome Friedman y Henry Kendall, tuvieron la gran suerte de que, Richard Feynman y James Bjorken, metieran sus narices en el proyecto llevados por la curiosidad y como habían prestado  su energía y su imaginación a las interacciones fuertes  y se preguntaban: ¿que habrá dentro del protón?

Amnos, Feynman y Bjorken visitaban con frecuencia Stanford desde su base en el  Cal Tech, en Pasadena. Bjorken, teórico de Stanford, estaba muy interesado en el proyecto experimental y en las reglas que regían unos datos aparentemente incompletos. Estas reglas, razonaba Bjorken, serían indicadoras de las leyes básicas (dentro de la “caja negra”) que controlaba la estructura de los hadrones.

        Los cuatro experimentos del LHC: ATLAS, CMS, LHCb y ALICE
Créditos: CERN.

No estaría mal echar una mirada hacia atrás en el tiempo y recordar, en este momento, a Demócrito que, con sus postulados, de alguna manera venía a echar un poco de luz sobre el asunto, dado que él decía que  para determinar  si algo era un á-tomo habría que ver si era indivisible. En el modelo de los quarks, el protón, en realidad, un conglomerado pegajoso de tres quarks que se mueven rápidamente. Pero como esos quarks están siempre ineludiblemente encadenados los unos a los otros, experimentalmente el protón aparece indivisible.

Acordémonos aquí de que Boscovich decía que, una partícula elemental, o un “á-tomo”, tiene que ser puntual. Y, desde luego, esa prueba, no la pasaba el protón. El equipo del MIT y el SLAC, con la asesoría de Feynman y Bjorken, cayó en la cuenta de que en este caso el criterio operativo era el de los “puntos” y no el de la indivisibilidad. La traducción de sus datos a un modelo de constituyentes puntuales requería una sutileza mucho mayor que el experimento de Rutherford.

Precisamente por eso era tan conveniente fue tan conveniente para Richard Edward Taylor y su equipo, tener a dos de los mejores teóricos del mundo en el equipo aportando su ingenio, agudeza e intuición en todas las fases del proceso experimental. El resultado fue que los datos indicaron, efectivamente, la presencia de objetos puntuales en movimiento dentro del protón.

En 1990 Taylor, Friedman y Kendall recogieron su premio Nobel por haber establecido la realidad de los quarks. Sin embargo, a mí lo que siempre me ha llamado más la atención es el hecho cierto de que, este descubrimiento como otros muchos (el caso del positrón de Dirac, por ejemplo), han sido posible gracias al ingenio de los teóricos que han sabido vislumbrar cómo era en realidad la Naturaleza.

A todo esto, una buena pregunta sería: ¿cómo pudieron ver este tipo de partículas de tamaño infinitesimal, si los quarks no están libres y están confinados -en este caso- dentro del protón?  Hoy, la respuesta tiene poco misterio sabiendo lo que sabemos y hasta donde hemos llegado con el LHC que, con sus inmensas energías “desmenuza” un protón hasta dejar desnudos sus más íntimos secretos.

   Este es, el resultado ahora de la colisión de protones en el LHC

Lo cierto es que, en su momento, la teoría de los Quarks hizo muchos conversos, especialmente a medida que los teóricos que escrutaban los datos fueron imbuyendo a los quarks una realidad creciente, conociendo mejor sus propiedades y convirtiendo la incapacidad de ver quarks libres en una virtud. La palabra de moda en aquellos momentos era “confinamiento”. Los Quarks están confinados permanentemente porque la energía requerida para separarlos aumenta a medida que la distancia entre ellos crece. Esa es, la fuerza nuclear fuerte que está presente dentro del átomo y que se encarga de transmitir los ocho Gluones que mantienen confinados a los Quarks.

Así, cuando el intento de separar a los Quarks es demasiado intenso, la energía se vuelve lo bastante grande para crear un par de quark-anti-quark, y ya tenemos cuatro quarks, o dos mesones. Es como intentar conseguir un cabo de cuerda. Se corta y… ¡ya tenemos dos!

¿Cuerdas? Me parece que estoy confundiendo el principal objetivo de este trabajo y, me quiero situar en el tiempo futuro que va, desde los quarks de Gell-Mann hasta las cuerdas de Veneziano y John Schwarz y más tarde Witten. Esto de la Física, a veces te juega malas pasadas y sus complejos caminos te llevan a confundir conceptos y  momentos que, en realidad, y de manera individualizada, todos han tenido su propio tiempo y lugar.

¿Cuántas veces no habré pensado, en la posibilidad de tomar el elixir de la sabiduría para poder comprenderlo todo? Sin embargo, esa pócima mágica no existe y, si queremos saber, el único camino que tenemos a nuestro alcance es la observación, el estudio, el experimento… ¡La Ciencia!, que en definitiva, es la única que nos dirá como es, y como se comporta la Naturaleza y, si de camino podemos llegar a saber, por qué lo hace así…¡mucho mejor!

emilio silvera

Siempre buscaremos nuevas teorías de la Física del Universo

$
0
0

  

8 diciembre 2010. El descubrimiento de un nuevo tipo de fisión, da un vuelco a un principio de la teoría nuclear. La observación de una inesperada reacción nuclear por parte de un isótopo inestable de mercurio ha generado un extraño misterio. El enigma está ayudando a los teóricos a abordar uno de los problemas más complejos de la física: el desarrollo de un modelo más completo del núcleo atómico.

Resultado de imagen de El experimento en ISOLDE involucra el disparo de un haz de protones a un blanco de uranio

Una nueva clase de reacción de fisión nuclear observada en el CERN ha mostrado importantes puntos débiles en nuestro entendimiento actual del núcleo atómico. La fisión del mercurio-180 se suponía una reacción “simétrica” que daría lugar a dos fragmentos iguales, pero en lugar de ello ha producido dos núcleos con masas bastante diferentes, una reacción “asimétrica” que plantea un serio desafío a los teóricos.

Photograph taken inside the ISOLDE experimental hall at CERN

La Ciencia no duerme. En todo el mundo (ahora también fuera de él -en el espacio), son muchos los Científicos que trabajan de manera tenaz para buscar nuevas formas de alcanzar lo ahora inalcanzable y, para ello, se emplean las más sofisticadas estructuras técnicas de avanzados sistemas tecnológicos que hacen posible llegar allí donde nunca nadie había llegado.

Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.

 

Resultado de imagen de Vista hemisférica de Venus. (Cortesía de NASA)

 

 

Vista hemisférica de Venus. (Cortesía de NASA)

 

El segundo planeta a partir  del Sol. Tiene la órbita más circular de todos los planetas. Su albedo geométrico medio, 0,65, es el mayor de todos los planetas, como resultado de su cubierta de nubes blancas sin fracturas. En su máximo alcanza magnitud -4,7, mucho más brillante que cualquier otro planeta. Su eje de rotación está inclinado casi 180º con respecto a la vertical, de manera que su rotación es retrógrada. Rota alrededor de su eje cada 243 días, y, por tanto, muestra siempre la misma cara hacia la Tierra cuando los dos planetas se encuentran en su máxima aproximación.

La atmósfera de Venus es en un 96,5% de dióxido de carbono y un 3,5 de nitrógeno, con trazas de dióxido de azufre, vapor de agua, argón, hidrógeno y monóxido de carbono. La presión en la superficie es de 92 bares (es decir, 92 veces la presión a nivel del mar en la Tierra). La temperatura superficial promedio es de 460 ºC debido al “efecto invernadero” en la atmósfera del planeta. Los rayos son muy frecuentes. Existe una densa capa de nubes a una altitud de unos 45/65 Km. compuesta de ácido sulfúrico y gotitas de agua.

 

 

 

 

 

 

 

 

Mundos inimaginables que tendrán, como en el nuestro, formas de vida de una rica diversidad que ni podemos imaginar

 

Nuestros sueños de visitar mundos remotos, y, en ellos, encontrar otras clases de vida, otras inteligencias, es un sueño largamente acariaciado por nuestras mentes que, se resisten a estar sólas en un vasto Universo que, poseyendo miles de millones de mundos, también debe estar abarrotado de una diversidad de clases de vida que, al igual que ocurre aquí en la Tierra, pudieran (algunas de ellas) estar haciéndose la misma pregunta: ¿Estaremos sólos en tan inmenso Universo.

 

Hace algún tiempo que los medios publicaron la noticias:

“Físicos británicos creen que el bosón de Higgs y su relación con la gravedad puede ser la clave para crear una ecuación única que explique el Universo entero.”

 

 

 

Imagen de Archivo donde Einstein escribe una ecuación sobre la densidad de la Vía Láctea en el Instituto Carnegie en Pasadena (California)

“La teoría del todo, también conocida como teoría unificada, fue el sueño que Einstein nunca pudo cumplir. Consiste en una teoría definitiva, una ecuación única que explique todos los fenómenos físicos conocidos y dé respuesta a las preguntas fundamentales del Universo. Esa teoría unificaría la mecánica cuántica y la relatividad general, dos conocimientos aceptados pero que describen el Cosmos de forma muy diferente. Albert Einstein no consiguió formularla. Tampoco nadie después de él, pero sigue siendo la ambición de muchos científicos. En este empeño, físicos de la británica Universidad de Sussex han dado un nuevo paso para probar que solo hay una fuerza fundamental en la naturaleza. Creen haber observado como el campo de Higgs interactúa con la Gravedad.”

Si hablamos de nuestra Galaxia, la Vía Láctea, lo hacemos de algo que tiene 100.000 millones de años-luz de diámetro y más de ciento cincuenta mil millones de estrellas, no digamos de mundos y otra infinidad de objetos de exótica estructura e increíbles conformaciones que, como los púlñsares, los agujeros negros o los manétares, no dejan de asombrarnos. Somos, una especie viviente que ha llegado a poder generar pensamientos y crear teorías encaminadas a descubrir la verdad de la Naturaleza, y, nuestra aparente“insignificante presencia”, podría ser un signo de que, el universo “ha permitido” observadores para que lo expliquen y se pueda comprender.

Resultado de imagen de Tenemos el Universo dentro de nuestras mentes

                             Tenemos el Universo dentro de nuestras mentes

El universo es un lugar tan maravilloso, rico y complejo que el descubrimiento de una teoría final, en el sentido en el que está planteada la teoría de supercuerdas, no supondría de modo alguno el fin de la ciencia ni podríamos decir que ya lo sabemos todo y para todo tendremos respuestas.  Más bien será, cuando llegue, todo lo contrario: el hallazgo de esa teoría de Todo (la explicación completa del universo en su nivel más microscópico, una teoría que no estaría basada en ninguna explicación más profunda) nos aportaría un fundamento mucho más firme sobre el que podríamos construir nuestra comprensión del mundo y, a través de estos nuevos conocimientos, estaríamos preparados para comenzar nuevas empresas de metas que, en este momento, nuestra ignorancia no nos dejan ni vislumbrar. La nueva teoría de Todo nos proporcionaría un pilar inmutable y coherente que nos daría la llave para seguir explorando un universo más comprensible y por lo tanto, más seguro, ya que el peligro siempre llega de lo imprevisto, de lo desconocido que surge sin aviso previo; cuando conocemos bien lo que puede ocurrir nos preparamos para evitar daños.

Resultado de imagen de Una teoría que nos de todas las respuestas

Nos podemos encontrar con el hecho de que, la tan cacareada Teoría del Todo… ¡Nos traiga más preguntas que respuestas!

Algunos dicen que para cuando tengamos una Teoría de Todo, el mundo habrá cambiado, habrá pasado tanto tiempo que, para entonces, la teoría habrá quedado vieja y se necesitará otra nueva teoría más avanzada. Eso significa, si es así, que nunca tendremos una explicación de todo y siempre quedarán cuestiones enigmáticas que tendremos que tesolver. ¡Menos mal!

La búsqueda de esa teoría final que nos diga cómo es el Universo, el Tiempo y el Espacio, la Materiay los elementos que la conforman, las Fuerzas fundamentales que interaccionan con ella, las constantes universales y en definitiva, una formulación matemática o conjunto de ecuaciones de las que podamos obtener todas las respuestas, es una empresa nada fácil y sumamente complicada; la teoría de cuerdas es una estructura teórica tan profunda y complicada que incluso con los considerables progresos que se han realizado durante las últimas décadas, aún nos queda un largo camino antes de que podamos afirmar que hemos logrado dominarla completamente. Se podría dar el caso de que el matemático que encuentre las matemáticas necesarias para llegar al final del camino, aún no sepa ni multiplicar y esté en primaria en cualquier escuela del mundo civilizado. Por otra parte, siempre andamos inventando ecuaciones para todo, que expliquen este o aquel enigma que deseamos conocer.

 

Lo cierto es que, no conocemos el futuro que le espera a la Humanidad pero, tal desconocimiento no incide en el hecho cierto de que siempre estemos tratando de saber el por qué de las cosas y, seguramente, si Einstein hubiera conocido la existencia de las cuatro fuerzas fundamentales, habría podido avanzar algo más, en su intento de lograr esa ecuación maravillosa que “todo” lo pudiera explicar.

Muchos de los grandes científicos del mundo (Einstein entre ellos), aportaron su trabajo y conocimientos en la búsqueda de esta teoría, no consiguieron su objetivo pero sí dejaron sus ideas para que otros continuaran la carrera hasta la meta final. Por lo tanto, hay que considerar que la teoría de cuerdas es un trabajo iniciado a partir de las ecuaciones de campo de la relatividad general de Einstein, de la mecánica cuántica de Planck, de las teorías gauge de campos, de la teoría de Kaluza-Klein, de las teorías de… hasta llegar al punto en el que ahora estamos.

La armoniosa combinación de la relatividad general y la mecánica cuántica es un éxito muy importante. Además, a diferencia de lo que sucedía con teorías anteriores, la teoría de cuerdas tiene la capacidad de responder a cuestiones primordiales que tienen relación con las fuerzas y los componentes fundamentales de la naturaleza. Allí, en sus ecuaciones,  aparece el esquivo gravitón implicándo con ello que la teoría contiene implicitamente una teoría cuántica de la Gravedad.

                Ahora, en la nueva etapa del LHC, tratarán de buscar partículas supersimétricas

Igualmente importante, aunque algo más difícil de expresar, es la notable elegancia tanto de las respuestas que propone la teoría de cuerdas, como del marco en que se generan dichas respuestas. Por ejemplo, en la teoría de cuerdas muchos aspectos de la Naturaleza que podrían parecer detalles técnicos arbitrarios (como el número de partículas fundamentales distintas y sus propiedades respectivas) surgen a partir de aspectos esenciales y tangibles de la geometría del universo. Si la teoría de cuerdas es correcta, la estructura microscópica de nuestro universo es un laberinto multidimensional ricamente entrelazado, dentro del cual las cuerdas del universo se retuercen y vibran en un movimiento infinito, marcando el ritmo de las leyes del cosmos.

Lejos de ser unos detalles accidentales, las propiedades de los bloques básicos que construyen la naturaleza están profundamente entrelazadas con la estructura del espacio-tiempo. En nuestro Universo, aunque no pueda dar esa sensación a primera vista, cuando se profundiza, podemos observar que, de alguna manera, todo está conectado, de la misma manera, nuestras mentes son parte del universo y, en ellas, están todas las respuestas.

Claro que, siendo todos los indicios muy buenos, para ser serios, no podemos decir aún que las predicciones sean definitivas y comprobables para estar seguros de que la teoría de cuerdas ha levantado realmente el velo de misterio que nos impide ver las verdades más profundas del universo, sino que con propiedad se podría afirmar que se ha levantado uno de los picos de ese velo y nos permite vislumbrar algo de lo que nos podríamos encontrar, a través de esa fisura parece que se escapa la luz de la comprensión que, en su momento, se podría alcanzar.

          Muchos sueñan con encontrar esa Teoría del Todo

Mientras que la soñada teoría llega, nosotros estaremos tratando de construir ingenios que como el GEO600, el más sensible detector de ondas gravitacionales que existe ( capaz de detectar ínfimas ondulaciones en la estructura del espacio-tiempo ), nos pueda hablar de otra clase de universo. Hasta el momento el universo conocido es el que nos muestran las ondas electromagnéticas de la luz pero, no sabemos que podríamos contemplar si pudiéramos ver ese otro universo que nos hablan de la colisión de agujeros negros…por ejemplo.

GEO600 is a key technology development center of the international gravitational-wave research community. Technologies tested in the GEO project are now used in all large gravitational-wave detectors in the world.

GEO 600

La teoría de cuerdas, aunque en proceso de elaboración, ya ha contribuido con algunos logros importantes y ha resuelto algún que otro problema primordial como por ejemplo, uno relativo a los agujeros negros, asociado con la llamada entropía de Bekenstein-Hawking, que se había resistido pertinazmente durante más de veinticinco años a ser solucionada con medios más convencionales. Este éxito ha convencido a muchos de que la teoría de cuerdas está en el camino correcto para proporcionarnos la comprensión más profunda posible sobre la forma de funcionamiento del universo, que nos abriría las puertas para penetrar en espacios de increíble “belleza” y de logros y avances tecnológicos que ahora ni podemos imaginar.

Como he podido comentar en otras oportunidades, Edward Witten, uno de los pioneros y más destacados experto en la teoría de cuerdas, autor de la versión más avanzada y certera, conocida como teoría M, resume la situación diciendo que: “la teoría de cuerdas es una parte de la física que surgió casualmente en el siglo XX, pero que en realidad era la física del siglo XXI“.

Witten, un físico-matemático de mucho talento, máximo exponente y punta de lanza de la teoría de cuerdas, reconoce que el camino que está por recorrer es difícil y complicado. Habrá que desvelar conceptos que aún no sabemos que existen.

 

Ellos nos legaron parte de las teorías que hoy manejamos en el mundo para tratar de conocer el Universo pero, sigue siendo insuficientes… ¡Necesitamos Nuevas Teorías! que nos lleven al conocimientos más profundos de la realidad en que se mueve la Naturaleza, sólo de esa manera, podremos seguir avanzando.

El hecho de que nuestro actual nivel de conocimiento nos haya permitido obtener nuevas perspectivas impactantes en relación con el funcionamiento del universo es ya en sí mismo muy revelador y nos indica que podemos estar en el buen camino al comprobar que las ecuaciones topológicas complejas de la nueva teoría nos habla de la rica naturaleza de la teoría de cuerdas y de su largo alcance. Lo que la teoría nos promete obtener es un premio demasiado grande como para no insistir en la búsqueda de su conformación final.

La expansión del universo se ha estudiado de varias maneras diferentes, pero la misión WMAP completada en 2003, representa un paso importante en la precisión y los resultados presentados hasta el momento con mayor precisión para saber, en qué clase de Universo estamos, cómo pudo comenzar y, cuál podría ser su posible final. Todo ello, es un apartado más de ese todo que tratamos de buscar para saber, en qué Universo estamos, cómo funcionan las cosas y por qué lo hacen de esa determinada manera y no de otra diferente.

         La relatividad general nos dijo cómo es la geometría del Universo

El universo, la cosmología moderna que hoy tenemos, es debida a la teoría de Einstein de la relatividadgeneral y las consecuencias obtenidas posteriormente por Alexandre Friedmann. El Big Bang, la expansión del universo, el universo plano y abierto o curvo y cerrado, la densidad crítica y el posible Big Crunch.

Un comienzo y un final que abarcará miles y miles de millones de años de sucesos universales a escalas cosmológicas que, claro está, nos afectará a nosotros, insignificantes mortales habitantes de un insignificante planeta, en un insignificante sistema solar creado por una insignificante y común estrella.

 

                   Pero… ¿somos en verdad tan insignificantes?

Los logros alcanzados hasta el momento parecen desmentir tal afirmación, el camino recorrido por la humanidad no ha sido nada fácil, los inconvenientes y dificultades vencidas, las luchas, la supervivencia, el aprendizaje por la experiencia primero y por el estudio después, el proceso de humanización (aún no finalizado), todo eso y más nos dice que a lo mejor, es posible, pudiera ser que finalmente, esta especie nuestra pudiera tener un papel importante en el conjunto del universo. De momento y por lo pronto ya es un gran triunfo el que estemos buscando respuestas escondidas en lo más profundo de las entrañas del cosmos.

Tengo la sensación muy particular, una vez dentro de mi cabeza, un mensaje que no sé de dónde pero que llega a mi mente que me dice de manera persistente y clara que no conseguiremos descubrir plenamente esa ansiada teoría del todo, hasta tanto no consigamos dominar la energía de Planck que hoy por hoy, es inalcanzable y sólo un sueño.

Sus buenas aportaciones a la Física fueron bien recompensadas de muchas maneras.

En mecánica cuántica es corriente trabajar con la constante de Planck racionalizada,  (ħ = h/2p = 1’054589×10-34 Julios/segundo), con su ley de radiación, con la longitud de Planck , con la masa de Planck, y otras muchas ecuaciones fundamentales para llegar a lugares recónditos que, de otra manera, nunca podríamos alcanzar.

Todo lo anterior son herramientas de la mecánica cuántica que en su conjunto son conocidas como unidades de Planck, que como su mismo nombre indica son un conjunto de unidades, usado principalmente en teorías cuánticas de la gravedad, en que longitud, masa y tiempo son expresadas en múltiplos de la longitud, masa y tiempo de Planck, respectivamente. Esto es equivalente a fijar la constante gravitacional (G), como la velocidad de la luz (c), y la constante de Planck racionalizada (ħ) iguales todas a la unidad.  Todas las cantidades que tienen dimensiones de longitud, masa y tiempo se vuelven adimensionales en unidades de Planck. Debido a que en el contexto donde las unidades de Planck son usadas es normal emplear unidades gaussianas o unidades de Heaviside-Lorentz para las cantidades electromagnéticas, éstas también se vuelven adimensionales, lo que por otra parte ocurre con todas las unidades naturales. Un ejemplo de esta curiosidad de adimiensionalidad, está presente en la constante de estructura fina (2pe2/hc) de valor 137 (número adimensional) y cuyo símbolo es la letra griega a (alfa).

Estas unidades de Planck nos llevan a la cosmología del nacimiento del universo y nos proporciona un marco elegante, coherente y manejable mediante cálculos para conocer el universo remontándonos a los primeros momentos más breves posteriores a la explosión o Big Bang.

Hasta tal punto llegan los físicos en sus cálculos para tratar de adecuar los conocimientos a la realidad por medio del experimento. Buscamos incansables…¡las respuestas! Hasta que no podamos tocar con nuestras propias manos esa partícula final…

Sin embargo, cuando hablamos de estas unidades tan pequeñas, no debemos engañarnos. Precisamente, para tratar de llegar hasta esos límites tan profundos se necesitan máquinas que desarrollan inmensas energías: los aceleradores de partículas, que como el Fermilab o el LHC en el CERN, han facilitado a los físicos experimentadores entrar en las entrañas de la materia y descubrir muchos de los secretos antes tan bien guardados. Ahora, disponiendo de 14 TeV, tratán de buscar partículas supersimñétricas y el origen de la “materia oscura”.

Resultado de imagen de EL LHC

Como nos dice Fandila, quizás en el futuro no hagan falta utilizar tantas energías para llegar a lo más profundo de la materia y, habremos encontrado nuevos caminos que, delante de nosotros, no los podemos ver por el momento.

Desgraciadamente, aún no se ha podido hallar el Gravitón, Lo que sabemos es que, para encontrar los objetos más pequeños, necesitamos utilizar las energías más potentes. Y, por supuesto, más lejos queda la posibilidad de que podamos construir un acelerador que pudiera alcanzar la energía de Planck, del orden de 1019 eV (1 eV = 10-19 julios) = 1’60210×10-19. Hoy por hoy, ni nuestra tecnología ni todos los recursos que tenemos disponibles si empleáramos todo el presupuesto bruto de todos los países del globo unidos, ni así digo, podríamos alcanzar esta energía necesaria para comprobar experimentalmente la existencia de “cuerdas” vibrantes que confirmen la teoría de Todo.

Claro que, pudiera ser que, todo se pudiera alcanzar de manera mucho más simple y que, teniéndolo a la vista, no hemos sabido ver. Habrá que agudizar el ingenio para resolver estas y otras cuestiones que, como la de la Velocidad de la Luz, nos tienem atados y bien atados a este granito de arena inmerso en un vasto universo y que, nosotros, llamamos mundo.

emilio silvera

Velocidades inimaginables

$
0
0

En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.

Resultado de imagen de Mecánica cuántica

Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividadespecial de Einstein.

Resultado de imagen de La relatividad especial

Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.

Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:

E = mc2

Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividadtuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividadtambién sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.

Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.

La formulación de Newton es bien conocida, en la segunda imagen que se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.

Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.

Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.

Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.

Resultado de imagen de El Tensor métrico de Riemann

Tensor de Curvatura de Riemann

Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.

Desde que se puso en órbita el telescopio espacial de rayos gamma Fermi, el 11 de junio de 2008, ha detectado poblaciones enteras de objetos nunca antes vistos. El último hallazgo de Fermi afecta al púlsar J1823-3021A, avistado en 1994 con el radiotelescopio Lovell, en Inglaterra. Un equipo internacional de expertos se ha dado cuenta de que esta estrella pulsante emite rayos gamma y gracias a Fermi ha podido caracterizar sus inusuales propiedades. Los resultados de su investigación se publican en el último número de Science. Lo cierto es que han descubierto el púlsar de milisegundos más joven y con la fuerza magnética más potente

No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.

El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).

La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.

Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.

Resultado de imagen de La constante de estructura fina

La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.

En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.

También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).

La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.

  • La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
  • La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
  • Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.
Resultado de imagen de El Gravitón

La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.

La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.

Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.

Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.

La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.

La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadronespara mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.

La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.

La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.

Resultado de imagen de Trazas de partículas en los rayos cósmicos

Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.

Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.

Nombre Símbolo Masa (MeV) Carga Espín Vida media (s)
Fotón γ 0 0 1
Leptones (L = 1, B = 0)
Electrón e- 0’5109990 ½
Muón μ- 105’6584 ½ 2’1970 × 10-6
Tau τ
Neutrino electrónico νe ~ 0 0 ½ ~ ∞
Neutrino muónico νμ ~ 0 0 ½ ~ ∞
Neutrino tauónico ντ ~ 0 0 ½ ~ ∞
Mesones (L = 0, B = 0)
Pión + π+ 139’570 2’603 × 10-8
Pión – π- 139’570 2’603 × 10-8
Pión 0 π0 134’976 0’84 × 10-16
Kaón + k+ 493’68 1’237 × 10-8
Kaón – k- 493’68 1’237 × 10-8
Kaón largo kL 497’7 5’17 × 10-8
Kaón corto kS 497’7 0’893 × 10-10
Eta η 547’5 0 0 5’5 × 10-19
Bariones (L = 0, B = 1)
Protón p 938’2723 + ½
Neutrón n 939’5656 0 ½ 887
Lambda Λ 1.115’68 0 ½ 2’63 × 10-10
Sigma + Σ+ 1.189’4 + ½ 0’80 × 10-10
Sigma – Σ- 1.1974 ½ 7’4× 10-20
Sigma 0 Σ0 0 ½ 1’48 × 10-10
Ksi 0 Ξ0 1.314’9 0 ½ 2’9 × 10-10
Ksi – Ξ- 1.321’3 ½ 1’64 × 10-10
Omega – Ω- 1.672’4 0’82 × 10-10

Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con  y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π-, al igual que ocurre con k+ y k-. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.

Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.

Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.

Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planckh, dividido por . Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.

El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electronespudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.

Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.

Resultado de imagen de Bosones

Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermionesse comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.

Resultado de imagen de Fermiones de espín semi-enteroResultado de imagen de Fermiones

En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.

Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.

Uno de los protones se transmuta en un neutrón por medio de la interacción débil, transformando un quark “up”, en “down”. Este proceso consume energía (el neutrón tiene ligeramente más masa que..

En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:

  • La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
  • Comparada con las demás interacciones, ésta tiene un alcance muy corto.
  • La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
  • Los mediadores de la interacción débil, llamados W+, W- y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.

A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).

Resultado de imagen de La interacción fuerte

La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.

Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).

La interacción es fuerte. En realidad, la más fuerte de todas.

Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento es una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.

Veremos que nos trae la nueva etapa del LHC.

emilio silvera

Trabajos de éste Blog publicado en otros

$
0
0

 

Aida. ¿La teoría cuántica y la Gravedad, dentro de las cuerdas

por Emilio Silvera

 

         Sí, a veces la Física, parece un Carnaval. Imaginamos universos que… ¿serán posibles?

Las teorías de cuerdas [TC’s] no son una invención nueva, ni mucho menos. La primera TC se inventó a finales de los años sesenta del siglo XX en un intento para encontrar una teoría para describir la interacción fuerte. La idea medular consistía en que partículas como el protón y elneutrón podían ser consideradas como ondas de «notas de una cuerda de violín». La interacción fuerte entre las partículas correspondería a fragmentos de cuerda que se extenderían entre pequeños pedacitos de cuerda, como las telas que forman algunos simpáticos insectos. Para que esta teoría proporcionase el valor observado para la interacción fuerte entre partículas, las cuerdas tendrían que ser semejantes a las de un violín, pero con una tensión de alrededor de unas diez toneladas.

Resultado de imagen de La primera expresión de las TC’s fue desarrollada por Jöel Scherk, de París, y John Schwuarz

La primera expresión de las TC’s fue desarrollada por Jöel Scherk, de París, y John Schwuarz, del Instituto de Tecnología de California, quienes en el año 1974 publicaron un artículo en el que demostraban que la TC podía describir la fuerza gravitatoria, pero sólo si la tensión en la cuerda se tensiometrara alrededor de un trillón de toneladas métricas. Las predicciones de la teoría de cuerdas serían las mismas que las de la relatividad general a escala de longitudes normales, pero diferirían a distancias muy pequeñas, menores que una trillonésima de un cm. Claro está, que en esos años, no recibieron mucha atención por su trabajo.

Ahora se buscan indicios de la teoría de cuerdas en los grandes aceleradores de partículas donde parece que algunos indicios nos dicen que se va por el buen camino, sin embargo, nuestros aceleradores más potentes necesitarían multiplicar por un número muy elevado su potencia para poder, comprobar la existencia de las cuerda situadas a una distancia de 10-35 m, lugar al que nos será imposible llegar en muchas generaciones. Sin embargo, en las pruebas que podemos llevar a cabo en la actualidad, aparecen indicios de una partlicula de espín 2 que todos asocian con el esquivo Gravitón, y, tal indicio, nos lleva a pensar que, en la teoría de supercuerdad, está implícita una Teoría Cuántica de la Gravedad.

Los motivos que tuvo la comunidad científica, entonces, para no brindarle la suficiente atención al trabajo de Scherk y Schwuarz, es que, en esos años, se consideraba más viable para describir a la interacción fuerte a la teoría basada en los quarks y los gluones, que parecía ajustarse mucho mejor a las observaciones. Desafortunadamente, Scherk murió en circunstancias trágicas (padecía diabetes y sufrió un coma mientras se encontraba solo en su estudio). Así, Schwuarz se quedó solo, en la defensa de la teoría de cuerdas, pero ahora con un valor tensiométrico de las cuerdas mucho más elevado.

Pero con los quarksgluones y también los leptones, en la consecución que se buscaba, los físicos entraron en un cuello de botella. Los quarks resultaron muy numerosos y los leptonesmantuvieron su número e independencia existencial, con lo cual seguimos con un número sustancialmente alto de partículas elementales (60), lo que hace que la pregunta ¿son estos los objetos más básicos?

Si esos sesenta objetos fuesen los más básicos, entonces también aflora otra pregunta ¿por qué son como son y por qué son tantos? Los físicos quisieran poder decir «salen de esto», o «salen de esto y aquello», mencionar dos principios bien fundamentales y ojalá sea tan simples que puedan ser explicados a un niño. La respuesta «porque Dios lo quiso así» posiblemente a muchos les cause «lipotimia»,  ya que esa respuesta nos lleva a reconocer nuestra ignorancia y, además, la respuesta que esperamos no pertenece al ámbito de la religión. Por ahora, ¿cuál es la última respuesta que puede dar la ciencia?

El cuello de botella incentivó a que se encendiera una luz de esperanza. En 1984 el interés por las cuerdas resucitó de repente. Se desempolvaron las ideas de Kaluza y Klein, como las que estaban inconclusas de Scherk y Schwuarz. Hasta entonces, no se habían hecho progresos sustanciales para explicar los tipos de partículas elementales que observamos, ni tampoco se había logrado establecer que la supergravedad era finita.

El ser humano –en función de su naturaleza– cuando se imagina algo muy pequeño, piensa en un puntito de forma esférica. Los físicos también son seres de este planeta y, para ellos, las partículas elementales son como puntitos en el espacio, puntos matemáticos, sin extensión. Son sesenta misteriosos puntos y la teoría que los describe es una teoría de puntos matemáticos. La idea que sugieren las TC’s es remplazar esos puntos por objetos extensos, pero no como esferitas sino más bien como cuerdas. Mientras los puntos no tienen forma ni estructura, las cuerdas tienen longitud y forma, extremos libres como una coma “,” (cuerda abierta), o cerradas sobre sí misma como un circulito. Si el punto es como una esferita inerte de la punta de un elastiquito, la cuerda es el elástico estirado y con él se pueden hacer círculos y toda clase de figuras. Está lleno de posibilidades.

Resultado de imagen de Las cuerdas vibrantes de la teoría

Muchas son las imágenes que se han elaborado para representar las cuerdas y, como nadie ha visto nunca ninguna, cualquiera de ellas vale para el objetivo de una simple explicación y, las cuerdas que se han imaginado han tomado las más pintorescas conformaciones para que, en cada caso, se adapten al modelo que se expone.

diferencia entre un punto y una coma. Según la teoría de cuerdas importa, y mucho. Por su extensión, a diferencia del punto, la cuerda puede vibrar. Y hacerlo de muchas maneras, cada modo de vibración representando una partícula diferente. Así, una misma cuerda puede dar origen al electrón, al fotón, al gravitón, al neutrino y a todas las demás partículas, según cómo vibre. Por ello, la hemos comparado con la cuerda de un violín, o de una guitarra, si se quiere.

Al dividir la cuerda en dos, tres, cuatro, cinco, o más partes iguales, se generan las notas de la escala musical que conocemos, o técnicamente, los armónicos de la cuerda. En general, el sonido de una cuerda de guitarra o de piano es una mezcla de armónicos. Según la mezcla, la calidad (timbre) del sonido. Si distinguimos el tono de estos instrumentos, es por la «receta» de la mezcla en cada caso, por las diferentes proporciones con que cada armónico entra en el sonido producido. Pero, también es posible hacer que una buena cuerda vibre en uno de esos armónicos en particular, para lo cual hay que tocarla con mucho cuidado. Los concertistas lo saben, y en algunas obras como los conciertos para violín y orquesta, usan este recurso de «armónicos». Así, la naturaleza, con su gran sabiduría y cuidado para hacer las cosas, produciría electronesfotones,gravitones, haciendo vibrar su materia más elemental, esa única y versátil cuerda, en las diversas (infinitas) formas que la cuerda permite.

Una partícula ocupa un punto del espacio en todo momento. Así, su historia puede representarse mediante una línea en el espaciotiempo que se le conoce como «línea del mundo». Por su parte, una cuerda ocupa una línea en el espacio, en cada instante de tiempo. Por tanto, su historia en el espaciotiempo es una superficie bidimensional llamada la «hoja del mundo». Cualquier punto en una hoja del mundo puede ser descrito mediante dos números: uno especificando el tiempo y el otro la posición del punto sobre la cuerda. Por otra parte, la hoja del mundo es una cuerda abierta como una cinta; sus bordes representan los caminos a través del espaciotiempo (flecha roja) de los extremos o comas de la cuerda (figura 12.05.03.02). La hoja del mundo de una cuerda cerrada es un cilindro o tubo (figura 12.05.03.03); una rebanada transversal del tubo es un círculo, que representa la posición de la cuerda en un momento del tiempo.

No cabe duda que, de ser ciertas las TC’s, el cuello de botella queda bastante simplificado. Pasar de sesenta objetos elementales a una sola coma o circulito es un progreso notable. Entonces, ¿por qué seguir hablando de electronesfotonesquarks, y las demás?

Que aparentemente las cosas se simplifican con las TC’s, no hay duda, pero desafortunadamente en física las cosas no siempre son como parecen. Para que una teoría sea adoptada como la mejor, debe pasar varias pruebas. No basta con que simplifique los esquemas y sea bella. La teoría de las cuerdas está –se puede decir– en pañales y ha venido mostrado distintas facetas permeables. Surgen problemas, y se la deja de lado; se solucionan los problemas y una avalancha de trabajos resucitan la esperanza. En sus menos de treinta años de vida, este vaivén ha ocurrido más de una vez.

Uno de los problemas que más afecta a la cuerda está ligado con su diminuto tamaño. Mientras más pequeño algo, más difícil de ver. Es una situación que se agudiza en la medida que se han ido corrigiendo sus permeabilidades. En sus versiones más recientes, que se llaman supercuerdas, son tan superpequeñas que las esperanzas de ubicarlas a través de un experimento son muy remotas. Sin experimentos no podemos comprobar sus predicciones ni saber si son correctas o no. Exagerando, es como una teoría que afirmara que los angelitos del cielo tienen alitas. ¿Quién la consideraría seriamente?

La propia base conceptual de la teoría comporta problemas. Uno de ellos, es el gran número de dimensiones que se usan para formularla. En algunos casos se habla de 26 o, en el mejor, de 10 dimensiones para una cuerdita: espacio (son 3), tiempo (1) y otras seis (o 22) más, que parecen estar enroscadas e invisibles para nosotros. Por qué aparecieron estas dimensiones adicionales a las cuatro que nos son familiares y por qué se atrofiaron en algún momento, no lo sabemos. También, la teoría tiene decenas de miles de alternativas aparentemente posibles que no sabemos si son reales, si corresponden a miles de posibles universos distintos, o si sólo hay una realmente posible. Algunas de estas versiones predicen la existencia de 496 fuerzones, partículas como elfotón, que transmiten la fuerza entre 16 diferentes tipos de carga como la carga eléctrica. Afirmaciones como éstas, no comprobables por la imposibilidad de hacer experimentos, plagan la teoría de cuerdas. Quienes alguna vez intentaron trabajar matemáticamente en las cuerdas, muchas veces deben haber pensado de que lo que estaban calculando más se asemejaba a juegos de ejercicios que la consecución de una base matemática teórica tras objetivo de dar un paso trascendental en el conocimiento de la naturaleza. Ahora, los que tienen puesta su fe en ella suelen afirmar que se trata de una teoría que se desfasó de la natural evolución de la física, que su hallazgo fue un accidente, y no existe aún el desarrollo matemático para formularla adecuadamente.

En las teorías de cuerdas, lo que anteriormente se consideraba partículas, se describe ahora como ondas viajando por las cuerdas, como las notas musicales que emiten las cuerdas vibrantes de un violín. La emisión o absorción de una partícula por otra corresponde a la división o reunión de cuerdas.

 
“Al principio se vio como un gran éxito, pero pronto esta “reunificación”, no tan exacta, empezó a dar fallos entre los físicos que trabajaban en las “grandes teorías unificadas”. Como puede verse en la gráfica que representa las intensidades de las fuerzas básicas respecto a la energía expresada en GeV (en la figura se representa en el eje horizontal los exponentes de las potencias de diez), las gráficas no llegan a coincidir en un punto como era de esperar aunque la “tendencia” si se apreciaba unificadora.”

La Teoría de cuerdas trata de incorparar la Gravedad a las otras tres fuerzas y completar asíel panorama actual de la Física de Partículas en el Modelo Estándar en el que sólo están incluídas estas tres interacciones de arriba, la Gravedad queda fuera por surgir infinitos no renormalizables que, desaparecen en la Teoría de supercuerdas de 26 dimensdiones de espacio tiempo para los Bosones y de 10 y 11 dimensiones de espacio tiempo para los Ferniones.

El trabajo que aquí hemos leido lo he obtenido de fuentes diversas y, como tantos otros, nos dice más o menos lo que todos. La realidad de la Teoría de supercuerdas está en que no podemos llegar a ese límite necesario de los 10-35 m, donde supuestamente, está instalada la cuerda, y, como llegar a esa distancia nos exige una energía de 1019 GeV con la que no podemos ni soñar. Seguirán, por mucho tiempo, las especulaciones y cada cual, tendrá su idea, su propia teoría, toda vez que, ninguna de ellas podrá ser verificadas y mientras eso sea así (que lo es), todas las teorías tendrán la posibilidad de ser refrendadas…algún día.

Resultado de imagen de El LHC busca las cuerdas vibrantes

  • ¿Dónde estarán las respuestas? Las partículas podían ser explicadas como ondas viajando por cuerdas

Sin embargo, una cosa es cierta, es la única teoría, la de supercuerdas, que nos da cierta garantía de que vamos por el buen camino, en su desarrollo aparecen indicios confirmados por los experimentos, como por ejemplo, la aparici´çon de una partícula de espín 2, el Gravitón que nos lleva a pensar que, en la teoría de supercuerdas está integrada una teoría Cuántica de la Gravedad que nos, podrá llevar, hasta esos primeros momentos del Big Bang que ahora quedan tan oscuros a la vista de los observadores y, de la misma manera, nos dejará entrar en la Singularidad de un Agujero Negro para poder ver (al fin) lo que allí pueda haber, qué clase de partículas o de materia se ha podido formar en un material tan extremadamente denso como el de la singularidad.

Resultado de imagen de El LHC busca las cuerdas vibrantes

Sin embargo, dos de estos modos vibracionales pueden ser eliminados rompemos la simetría de la cuerda, quedándonos con 24 modos de vibración que son las …

Habrá que tener paciencia con la Teoría de cuerdas y con el hallazgo tan esperado del Gravitón que nos confirmará, al fín, que la Gravedad como las demás interacciones, también está cuantizada y tiene su Bosón transmisor. De lo que no acabo de estar seguro es…del hecho en sí, de que podamos univer la Gravedad con la cuántica…¡son tan dispares! y habitan en reinos tan diferentes.

emilio silvera

¡La Física! ¡El Universo! ¡Nosotros!

$
0
0

Resultado de imagen de La aventura del Universo de Timothy Ferriss

Si queréis estar bien informados, os recomiendo este libro en el que el autor, un maestro indiscutible de la literatura de divulgación científica, nos cuenta la apasionante historia de cómo el hombre ha ido descubriendo el escenario cósmico en el que habita, desde aquellos grandes pensadores clásicos hasta las más modernas visiones del origen y el fin del universo.

 

 

Resultado de imagen de Los ladrillos del cerebro y la evolución

 

 

 

Es evidente que el estímulo para la expansión evolutiva del cerebro obedeció a diversas necesidades de adaptación como puede ser el incremento de la complejidad social de los grupos de homínidos y de sus relaciones interpersonales, así como la necesidad de pensar para buscar soluciones a problemas surgidos por la implantación de sociedades más modernas cada vez.  Estas y otras muchas razones fueron las claves para que la selección natural incrementara ese prodigioso universo que es el cerebro humano.

Claro que, para levantar cualquier edificio, además de un estímulo para hacerlo se necesitan los ladrillos específicos con las que construirlo y la energía con la que mantenerlo funcionando. La evolución rápida del cerebro no solo requirió alimentos de una elevada densidad energética y abundantes proteínas, vitaminas y minerales; el crecimiento del cerebro necesitó de otro elemento fundamental:

Un aporte adecuado de ácidos grasos poliinsaturados de larga cadena, que son componentes fundamentales de las membranas de las neuronas, las células que hacen funcionar nuestro cerebro.

 

 

Imagen relacionada

 

 

Son muchos los obstáculos que se encuentran en ese camino que nos lleva inexorable hacia esa soñada teoría final. Los científicos discrepan de los filósofos que no siempre, están de acuerdo con el hecho de que se pueda llegar a esa teoría última que lo pueda explicar todo, y, la firme creencia de que el Universo siempre tendrá secretos para nosotros, es una constante de la filosofía que la Ciencia, no deja de combatir.

Sin embargo, debe,mos ser conscientes de nuestras limitaciones. Por ejemplo, la Teoría de cuerdas es inaccesible para nosotros, ya que, para llegar hasta las cuerdas vibrantes, tendríamos que disponer de la Energía de Planck, es decir de 1019 GeV (gigaelectrónvoltios), capaz de profundizar en la materia lo suficiente como para “ver” las cuerdas. Ni con diez LGC unidos, podríamos reunir esa energía que, está muy lejos de nuestra civilización.

Pero vayamos a ¡La Física! ¡El Universo! ¡Nosotros!

       Representación en 3D de la primera colisión en ATLAS. Más imágenes en ATLAS event displays.

Estamos embarcados en una enorme aventura intelectual que eleva al ser humano a la categoría más alta que en el Universo pueda. La Física de altas energías nos llevan a conocer las entrañas de la materia y nos cuenta como se producen esas interacciones en el corazón de los átomos y aunque no sabemos cómo puedan ser las leyes finales ni cuanto será el tiempo que tardaremos en encontrar las pistas que nos guíen por el camino correcto, lo cierto es que, el progreso continúa y cada vez se construyen aceleradores más potentes y sofisticados y telescopios más modernos y con mayor capacidad para transportarnos hacia regiones profundas del Universo en las que podemos contemplar galaxias situadas muy cerca de ese comienzo que llamamos Big Bang.

Como no podía ser de otra manera dado nuestro carácter siempre dispuesto a la controversia y nuestras mentes de pensamientos diversos, la propia idea de una teoría final nos ha llevado a la más profunda discrepancia entre unos y otros. Por una parte, están los partidarios de esa teoría que nos podrá hablar de un Universo de más altas dimensiones, donde la relatividad general de Einstein y la mecánica cuántica de Planck, conviven en la soñada concordia que muchos físicos han soñado y, por la otra, están aquellos que discrepando de los primeros se agarran al pensamiento de la imposibilidad de conseguir una teoría de esas características y, ellos hablan de física-ficción.

Lo cierto es que, a pesar de lo que digan los detractores de estas ideas avanzadas (no pocas veces por envidia y por el simple hecho de que ellos no tienen la capacidad de entender los nuevos conceptos y sus complejas matemáticas), la Física prosigue su camino y en no pocos campos, la lista de los Grupos Especializados que existen en la RSEF es un ejemplo del lugar que la Física ocupa en el ámbito de la Ciencia y en la Sociedad.

Resultado de imagen de Real Sociedad Española de Física

Grupos Especializados dentro de la RSEF:

De Adsorción, de Astrofísica, de Calorimetría y Análisis Térmico, de Coloides e interfases, de Cristalografía y crecimiento cristalino, de Didáctica e Historia de la Física y la Química, de la Física Atómica y Molecular, de la Física del Estado Sólido, de la Física en las Ciencias de la Vida, de Física Estadística y No Lineal, de Física de Altas Energías, de Física de la Atmósfera y del Océano, de Física de Polímeros, de Física Médica, de Física Nuclear, de Física Teórica, de Información Cuántica, de Materiales Moleculares, de Reología, de Termodinámica, etc.

Todo esto demuestra el enorme interés que la Física tiene en todos y cada uno de los apartados que la puedan afectar y, lo mismo trata de conseguir un líquido de quarks y gluones que, a temperatura ambiente se convierta en el mejor superconductor, que encontrar el Bosón de Higgs para completar y mejorar el Modelo Estándar, investigar en los campos del electromagnetismo y de la radiación con la mirada puesta en la salud con fines médicos que haga mejor nuestras vidas (tomografía por emisión de positrones computerizada: un buen uso, no un abuso, de la radiación ionizante, neuroimagen por resonancia magnética, estudio de fisiología cardíaca mediante Ecocardiografía Doppler, Radioterapia con radiación sincrotrón, radioterapia del melanoma ocular, una perspectiva de la biología y la medicina desde la teoría del caos y la geometría fractal, etc. etc.), innumerables y sustanciosas colaboraciones con la Astronomía (Astrofísica), con las ciencias de la vida (Biofísica) y, sería interminable la lista de aquellos apartados del saber de la Humanidad en los que la Física está presente.

Independientemente de los muchos proyectos en marcha (ordenadores cuánticos, energía de vacío, semiconductores magnéticos diluidos (materiales para la espintrónica), nanotecnología y nanociencia, modelos de las dinámicas de las ondulaciones en la nanoarena, materia extraña, tecnologías de la telecomunicación y de la información, capacidad de almacenar información, física de fluidos, estudios del efecto de la irradiación sobre el metano, la física de materiales, teletransportación cuántica, estudio del cristal aperiódico de la vida, interacciones fundamentales, sensores de radiación y detección de alimentos irradiados, simetrías exóticas, fibras ópticas, nanotubos… y seguir enumerando lo que la Física es y la infinidad de campos en los que interviene requeriría muchas horas y muchas páginas de las que no disponemos.

 Hemos llegado a saber desde lo muy grande hasta lo muy pequeño que, estando en este mundo nuestro, parece que están en diferentes mundos, toda vez que, lo uno se sitúa en el macro mundo, mientras que lo otro está situado en ese otro “universo” inifinitesimal de la cuántica. Sin embargo, ambos “mundos” no han dejado nunca de estar conectados y todo lo grande está hecho de cosas pequeñas. La técnica avanza y los conocimientos nuevos nos posibilitan hacia un futuro que ni podemos imaginar.

A todo esto, nos damos de bruce con problemas tan complejos que la idea que podemos tener hoy de la realidad que sea compatible con los más recientes resultados teóricos y experimentales de la mecánica cuántica. Yo tengo amigos banqueros, Ingenieros, oficinistas, constructores, camareros, mecánicos o marineros que, cuando se les habla de estos temas, miran para otro lado y silban. Poca gente se interesa por estos asuntos que, de su enorme importancia, no sólo depende nuestro bienestar, sino que, en esos conocimientos reside el futuro de la Humanidad.

Resultado de imagen de La física el universo y nosotros

Si profundizamos, por curiosidad, en los conocimientos que actualmente tenemos de la Astronomía y de la Física o la Química (siempre acompañadas de los números), veremos con admiración que las semillas se pusieron hace ya más de 2.500 años, cuando Tales, Anaximandro o Anaxímes sintieron la curiosidad de conocer y miraron el mundo desde la lógica y, dentro de sus posibilidades trataron de desvelar los secretos de la Naturaleza. Allí, en ese momento, nacio la Ciencia, o, incluso puede que antes en aquellos pensadores de Oriente que ya hablaron de vacío y de átomos y también, de sustancia cósmica.

A medida que el tiempo avanzó, nos dimos cuenta de que, nuestras experiencias cotidianas se alejaban del mundo real y, nuestro sentido común, no siempre nos guiaba en la correcta dirección para poder comprender el mundo. Con frecuencia nos preguntamos: ¿Qué es lo real? ¿Si dentro de nuestras mentes conformamos un “universo” a la medida de nuestras limitaciones –por falta de los datos que nos impide ver la realidad-, cómo podremos llegar a saber la clase de Universo que nos acoge? Aquí nos topamos con el determinismo.

Por lo que se refiere al Universo, caben dos posibilidades: o existe desde siempre o ha tenido un comienzo. ¿Tendría sentido pensar que existió desde siempre? Y, si no ha existido desde siempre, quiere decir que ha tenido un comienzo. ¿Qué había antes? Tal vez nada. Sin embargo, la Física nos dice que la “NADA” no existe y, en ese caso, lo único que podemos hacer es preguntarnos, ¿De dónde salió? Y si había algo que lo formó, ¿Cómo podemos hablar de un comienzo?, ¿No habría que tratar de ir hacia atrás y, buscar el verdadero origen que lo formó? Ante todo esto volvemos al hecho de que el determinismo se refiere a dos cosas a la vez:

  1. si todo acontecer natural y
  2. si todo acontecer humano

Deben estar previamente determinados por unos antecedentes y, el determinismo  debe quedar, en su caso, circunscrito al acontecer natural. Si así fuera, tendríamos libertad en nuestras decisiones, pero esto implicaría que entre nuestros constituyentes debería haber una “sustancia” que se sustrae el determinismo, lo cual introduciría el interesantísimo problema del dualismo materia-mente, en la tradición de Platón, Descartes y sobre todo Kant. Aunque, finalmente, tiendo a pensar que no existe nada que no esté escrito en las leyes de la Física y de la Química. Además, si la vida es diferente en este aspecto, ¿Dónde está el borde o el final de lo que el Universo pueda o no pueda hacer? ¿En el Homo Sapiens? ¿Es la propia vida la que pone límites a la creación?

Saber para poder responder estas preguntas, la verdad, no sabemos y, es precisamente por eso, por nuestra enorme falta de conocimientos por lo que no paramos de buscar esas respuestas a preguntas que bullen dentro de nuestras mentes y, tengo la esperanza de que, un día, lejano aún en el futuro, si no al completo, si obtendremos una respuesta satisfactoria que, al menos, sacie nuestra curiosidad y, llegados a ese punto o alto nivel del saber, las cosas serán más tranquilas, los conocimientos nos llegaran escalonados y en los momentos precisos en los que la Naturaleza sepa que, ese saber, ya no nos podrá hacer daño alguno, pues, nuestra capacidad para entonces podrá manejar fuerzas y energías que hoy por hoy, nos destruirían.

Bueno, está claro que para describir de manera literal el título de este trabajo, y, explicar cada uno de sus apartados (conexionados), se necesitaría escribir un libro, y, en tan poco espacio, tal cosa es imposible. Sin embargo, las actividades aquí mencionados en el campo de la Física, están hechas por nosotros, y, estamos en el Universo… ¡Demos por bueno el título!

emilio silvera

Viewing all 959 articles
Browse latest View live