Quantcast
Channel: Física – Blog de Emilio Silvera V.
Viewing all 959 articles
Browse latest View live

¡Cuánto cuanto!

$
0
0

Resultado de imagen de La Física cuántica

El CCCB expone cómo el arte ayuda a explicar la compleja física cuántica y su impacto en la vida cotidiana. Lo que se puede observar en éste ámbito de lo muy pequeño, es incomprensible en nuestro “macromundo”, allí, en el ámbito infinitesimal, ocurren cosas fantásticas que sobrepasan la imaginación.

Imagen relacionada

 

'Cascada', de Yunchul Kim (2018), creada a base de fluidos amorfos y muones que puede verse en el CCCB dentro de la exposición Cuántica.

‘Cascada’, de Yunchul Kim (2018), creada a base de fluidos amorfos y muones que puede verse en el CCCB dentro de la exposición Cuántica. Massimiliano Minocri

Hasta que el hombre encontró una explicación científica a fenómenos naturales como llover, rayos y terremotos, todo era voluntad divina. La ciencia nació en el momento en el que el hombre necesitó conocer el porqué de todo lo que acontecía a su alrededor, desvinculado con los dioses. La ciencia, de todas formas, está en su fase inicial, y la cuántica, una de las disciplinas más complejas que estudia las partículas fundamentales y pequeñas de la materia, ocultas a nuestros sentidos, como son los átomos, protones, cuantos de luz y fotones de energía, no ha hecho nada más que comenzar.

Imagen relacionada

“De hecho, de las 50.000 generaciones de homo sapiens, solo tres han convivido con ella”, explica el catedrático José Ignacio Latorre, uno de los comisarios (junto a Mónica Bello, directora del Arts at CERN) de la exposición Cuánticaque abre sus puertas en el CCCB hasta el 24 de septiembre, para divulgar esta disciplina nacida tímidamente a comienzos del siglo XX, pero que hoy está presente en nuestras vidas más de lo que somos conscientes. Desde los primeros transistores de los años cuarenta, hasta la tecnología láser, los GPS, los relojes atómicos y las resonancias magnéticas. Unas partículas que hasta hace muy poco nadie podía ni imaginar, pero que ahora todos quieren controlar.

Imagen relacionada

                 Esta disciplina estudia las partículas más pequeñas y ocultas

 

 

Como en el CERN (Organización Europea para la Investigación Nuclear) de Ginebra, uno de los centros de investigación más importante del mundo, que ha invitado a artistas para residir en sus instalaciones y establecer un diálogo con ingenieros y físicos. Fruto de este encuentro son 10 de las propuestas que pueden verse en el CCCB que dejan claro que la física cuántica va más allá del dominio de la ciencia y cómo las prácticas artísticas pueden ayudar a comprender la ciencia.

Parte de un telescopio de San Roque de los Muchachos (La Palma) para buscar partículas del cosmos.
Parte de un telescopio de San Roque de los Muchachos (La Palma) para buscar partículas del cosmos. Massimiliano Minocri

 

“Los mecanismos de la física cuántica contradicen nuestra experiencia de la realidad a escala humana”, recuerda Judit Carrera, directora del CCCB, que valora muy positivamente acoger esta exposición, que tras Liverpool viajará a Bruselas y Nantes.

Entre las obras expuestas, Supralunar, un acercamiento poético a la materia oscura que está detrás de la formación de las galaxias, de Juan Cortés; Choque cósmico, de Lea Porsager que invita a observar con gafas 3D los neutrinos, unas de las partículas más presentes en el Universo; Estado de pecado, de James Bridle, que explora la pertinencia del azar para preservar la diversidad o La teoría holográfica del universo de la historia del arte, de Suzanne Treister en la que proyecta más de 25.000 imágenes cronológicas (25 por segundo) de obras de arte creadas por la humanidad, que remite, visualmente, a la velocidad de las partículas del CERN.

Resultado de imagen de Experimentos del CERN

      Junto a 10 obras creadas en el CERN se explica cómo la investigación avanza

 

 

Estas propuestas pueden verse de forma paralela a otras tantas “estaciones” que introducen y divulgan la investigación en el laboratorio y muestran como la física cuántica representa una ruptura con siglos de conceptos científicos y filosóficos. Lo hace a partir de conceptos como el de escala, estado cuántico, superposición, entrelazamiento (que permite mandar partículas de luz desde un satélite a varios continentes a la vez), indeterminación (en la cuántica es imposible medirlo todo con certeza), ciencia abierta (donde se explica como el trabajo científico siempre ha sido una tarea colectiva y para todos: como el Genoma Humano, el propio CERN o la Red Informática mundial, WWW, que usamos todos de forma abierta en internet).

Vida cotidiana

 

Imagen relacionada

 

También se abordan los conceptos de Azar y la Cuántica cotidiana, con una enorme pantalla en la que se proyecta una espléndida animación de Alex Pasad y MID Studio. La exposición se cierra con un mapamundi donde están los 70 grupos científicos que trabajan para conseguir el primer ordenador cuántico. “Es una barbaridad intelectual, pero al mismo tiempo una amenaza a las comunicaciones de la Tierra, incluidos mensajes y correos encriptados. La ciencia es poder. Ocurrió cuando se inventó el fuego e Internet”, explicó Latorre.

La diferencia entre el método científico basado en el método de prueba y error y el de la física cuántica (y el cambio que se avecina) se ilustra con el ejemplo de que según la física clásica de Newton, para abrir con éxito una cerradura con una llave que está junto a un millón de llaves, hay que probar una a una. Con la cuántica se crea una superposición de llaves y se prueban todas a la vez. Esta es la base de los nuevos ordenadores cuánticos. Quién consiga sacarlo adelante tendrá la llave y el poder.


¿La Física? ¡Una maravilla! Nos dice cómo funciona la Naturaleza

$
0
0

Ylia Prigogine haciendo lo que sólo unos privilegiados pueden hacer: desvelando los principios del mundo. Enn la pizarra, la entropía. La irreversibilidad del tiempo trae el orden al caos, decía.  De alguna manera pretendía explicar que nada permanece y todo cambia bajo los efectos del inexorable paso del Tiempo.

 

 

 

Resultado de imagen de La Mente del Universo

 

 

Ese misterio que llamamos “Mente”, ese algo material de una complejidad inimaginable que llamamos cerebro, ese “ingrediente” que está en nosotros y que llamamos “conciencia”. Todo eso nos lleva a la duda que siempre tenemos: ¿No llegamos a comprender los secretos del Universo, porque en última instancia, nos tendríamos que comprender nosotros? Sobre ese tema podemos decir que tenemos algunas nociones de cómo podemos Ser, sin embargo, conocernos, lo que se dice conocernos a nosotros mismos… ¡No nos conocemos!

Pero centremos nuestra atención en los próximos minutos en estos temas de la Física que nos dicen y descubren fenómenos asombrosos que, de otra manera, nunca podríamos conocer.

Resultado de imagen de En su Libro Partículas, Gerard ´t Hooft, Premio Nobel de Física

En su Libro Partículas, Gerard ´t Hofft, Premio Nobel de Física, nos cuenta:
“En el mundo de los seres vivos, la escala o tamaño crea importantes diferencias. En muchos aspectos, la anatomía de un ratón es una copia de la de un elefante, pero mientras que un ratón trepar por una pared prácticamente vertical sin mucha dificultad (y se puede caer desde una altura varias veces mayor que su propio tamaño sin hacerse daño), un elefante no sería capaz de realizar tal hazaña. Con bastante generalidad se puede afirmar que los efectos de la gravedad son menos importantes cuanto menores sean los objetos que consideremos (sean vivos o inanimados).

Cuando llegamos a los seres unicelulares, se ve que ellos no hay distinción entre arriba y abajo. Para ellos, la tensión superficial del agua es mucho más importante que la fuerza de la gravedad a esa escala. Tranquilamente se pueden mover y desplazar por encima de una superficie acuática. Los pluricelulares no pueden hacer tal cosa.

Resultado de imagen de la tensión superficial

La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos de Van der Waals. fuerza tiene un alcance muy corto; para ser precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente 1/r7. Esto significa que si se reduce la distancia dos átomos a la mitad de la fuerza de Van der Waals con la que se atraen uno a otro se hace 2 × 2 × 2 × 2 × 2 × 2 × 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza. El conocimiento de esta fuerza se debe a Johannes Diderik Van der Waals (1837 – 1923) con su tesis sobre la continuidad del líquido y gaseoso que le haría famoso, ya que en esa época (1873), la existencia de las moléculas y los átomos no estaba completamente aceptado.

La tensión superficial del agua, es el efecto físico (energía de atracción entre las moléculas) que “endurece” la capa superficial del agua en reposo y permite a algunos insectos, como el mosquito y otros desplazarse por la superficie del agua sin hundirse.

El famoso físico inglés James Clerk Maxwell, que formuló la teoría del electromagnetismo de Faraday, quedó muy impresionado por este de Van der Waals.

Los tamaños de los seres unicelulares, animales y vegetales, se miden en micrómetros o “micras”, donde 1 micra es 1/1.000 de milímetro, aproximadamente el tamaño de los detalles más pequeños que se pueden observar con un microscopio ordinario. El mundo de los microbios es fascinante, pero no es el objeto de este trabajo, y continuaremos el viaje emprendido las partículas elementales que forman núcleos, átomos, células y materia, así como las fuerzas que intervienen en las interacciones fundamentales del universo y que afecta a todo lo que existe.

 

Hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo.

Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).

Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

Radiación de Cuerpo Negro

Un cuerpo negro es un objeto teórico o ideal que absorbe toda la luz y toda la energía radiante que incide sobre él. Nada de la radiación incidente se refleja o pasa a través del cuerpo negro. A pesar de su , el cuerpo negro emite luz y constituye un modelo ideal físico para el estudio de la emisión de radiación electromagnética. El nombre Cuerpo negro fue introducido por Gustav Kirchhoff en 1862.

La luz emitida por un cuerpo negro se denomina radiación de cuerpo negro. Todo cuerpo emite energía en de ondas electromagnéticas, siendo esta radiación, que se emite incluso en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de onda superiores a las de la luz visible (es decir, de menor frecuencia). Al elevar la temperatura no sólo aumenta la energía emitida sino que lo hace a longitudes de onda más cortas; a esto se debe el cambio de color de un cuerpo cuando se calienta. Los cuerpos no emiten con igual intensidad a todas las frecuencias o longitudes de onda, sino que siguen la ley de Planck.

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = hν, donde E es la energía del paquete, ν es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo nueva condición, el resultado coincidió perfectamente con las observaciones.

Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ν de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza.

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.

Resultado de imagen de La función de onda de Schrödinger

Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿qué significan realmente estas ecuaciones?, ¿qué es lo que están describiendo? Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.

Pero los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?

Niels Bohr consiguió responder a esta pregunta de tal que con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.

Si la mecánica cuántica tiene cosas extrañas y el espín es una de ellas. Y si uno piensa que la intuición le ayudará a comprender todo esto, pues no lo hará, o es poco probable que lo haga. Las partículas tienen un espín fundamental. Al igual que la carga eléctrica o la masa, el espín ayuda a definir que de partícula es cada una.

Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.

La posición y el momento de una partícula nunca lo podremos saber con precisión ilimitada.

No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.

Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planckh, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.

La mecánica cuántica es muy extraña a nuestro “sentido común”, sabemos que se desenvuelve en ese “universo” de lo muy pequeño, alejado de nuestra vida cotidiana en el macrocosmos tetradimensional que, no siempre coincide con lo que, en aquel otro infinitesimal acontece.

Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.

Es cierto que, existe otro universo dentro de nuestro del que, aún, nos queda mucho por aprender.

La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (Ψ) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un dado.

Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.”

Resultado de imagen de Principio holográfico

También Gerard ‘t Hooft es el autor de lo que han dado en llamar principio holográfico es una conjetura especulativa acerca de las teorías de la Gravedad Cuántica propuesta en 1993 por este autor,  y mejorada y promovida por Leonard Susskin en 1995. Postula que toda la información contenida en cierto volumen de un espacio  concreto se puede conocer a partir de la información codificable sobre la frontera de dicha región. Una importante consecuencia es que la cantidad máxima de información que puede contener una determinada región de espacio rodeada por una superficie diferenciable está limitada por el área total de dicha superficie.

Por ejemplo, se pueden modelar todos los eventos que ocurran en un cuarto o una habitación creando una teoría en la que sólo tome en cuenta lo que suceda en sus paredes. En el principio holográfico también se afirma que por cada cuatro Unidades de Planck  existe al menos un grado de libertad  (o una unidad constante de Bolttzmann k de máxima entropía). Esto se conoce como frontera de Bekenstein:

S\le\frac{A}{4}

 

donde S es la entropía y A es la unidad de mensura considerada. En unidades convencionales la fórmula anterior se escribe:

S\le \left( \frac{kc^3}{G\hbar} \right) \frac{A}{4} = k \frac{A}{4\ell_P^2}

donde:

Claro que esta… ¡Es otra Historia!

emilio silvera

Misterios de la Naturaleza

$
0
0

¿Por qué la materia no puede moverse más deprisa que la velocidad de la luz?

                                  Fotones que salen disparados a la velocidad de c. ¿Qué podría seguirlos?

Para contestar esta pregunta hay que advertir al lector que la energía suministrada a un cuerpo puede influir sobre él de distintas maneras. Si un martillo golpea a un clavo en medio del aire, el clavo sale despedido y gana energía cinética o, dicho de otra manera, energía de movimiento. Si el martillo golpea sobre un clavo, cuya punta está apoyada en una madera dura e incapaz de moverse, el clavo seguirá ganando energía, pero esta vez en forma de calor por rozamiento al ser introducido a la fuerza dentro de la madera.

Albert Einstein demostró en su teoría de la relatividad especial que la masa cabía contemplarla como una forma de energía (E = mc2.) Al añadir energía a un cuerpo, esa energía puede aparecer en la forma de masa o bien en otra serie de formas.

A medida que aumenta la velocidad del cuerpo (suponiendo que se le suministra energía de manera constante) es cada vez menor la energía que se convierte en velocidad y más la que se transforma en masa. Observamos que, aunque el cuerpo siga moviéndose cada vez más rápido, el ritmo de aumento de velocidad decrece. Como contrapartida, notamos que gana más masa a un ritmo ligeramente mayor.

Al aumentar aún más la velocidad y acercarse a los 299.792’458 Km/s, que es la velocidad de la luz en el vacío, casi toda la energía añadida entra en forma de masa. Es decir, la velocidad del cuerpo aumenta muy lentamente, pero la masa es la que sube a pasos agigantados. En el momento en que se alcanza la velocidad de la luz, toda la energía añadida se traduce en masa.

El cuerpo no puede sobrepasar la velocidad de la luz porque para conseguirlo hay que comunicarle energía adicional, y a la velocidad de la luz toda esa energía, por mucha que sea, se convertirá en nueva masa, con lo cual la velocidad no aumentaría ni un ápice.

                         La luz está dentro de la materia y en el universo… ¡por todas partes!

En condiciones ordinarias, la ganancia de energía en forma de masa es tan increíblemente pequeña que sería imposible medirla. Fue en el siglo XX (al observar partículas subatómicas que, en los grandes aceleradores de partículas, se movían a velocidades de decenas de miles de kilómetros por segundo) cuando se empezaron a encontrar aumentos de masa que eran suficientemente grandes para poder detectarlos. Un cuerpo que se moviera a unos 260.000 Km por segundo respecto a nosotros mostraría una masa dos veces mayor que cuando estaba en reposo (siempre respecto a nosotros).

                No, un pulsar tampoco puede ser más rápido que la luz

La energía que se comunica a un cuerpo libre puede integrarse en él de dos maneras distintas:

  1. En forma de velocidad, con lo cual aumenta la rapidez del movimiento.
  2. En forma de masa, con lo cual se hace “más pesado”.

La división entre estas dos formas de ganancia de energía, tal como la medimos nosotros, depende en primer lugar de la velocidad del cuerpo (medida, una vez más, por nosotros).

Si el cuerpo se mueve a velocidades normales, prácticamente toda la energía se incorpora a él en forma de velocidad: se moverá más aprisa sin cambiar su masa.

A medida que aumenta la velocidad del cuerpo (suponiendo que se le suministra energía de manera constante) es cada vez menor la energía que se convierte en velocidad y más la que se transforma en masa. Observamos que, aunque el cuerpo siga moviéndose cada vez más rápido, el ritmo de aumento de velocidad decrece. Como contrapartida, notamos que gana más masa a un ritmo ligeramente mayor.

En gracia quizás podamos superarla pero, en velocidad…no creo, c es el tope que impone el Universo para la velocidad, es el límite al que podemos enviar información y también, al que nos podríamos mover con las más rápidas naves que pudiéramos construir, aunque esas naves tendrían algunos problemas de masa y, los viajeros… ¡Muchos más!

Todo esto no es pura teoría, sino que ha sido comprobado, una y mil veces en los grandes aceleradores de partículas, donde el muó, por ejemplo, aumentó su masa diez veces al acercarse a velocidades relativistas, es la realidad de los hechos.

            Ninguna nave, por los medios convencionales, podrá nunca superar la velocidad de la luz

La velocidad de la luz es la velocidad límite en el universo. Cualquier cosa que intente sobrepasarla adquiriría una masa infinita, y, siendo así (que lo es), nuestra especie tendrá que ingeniarse otra manera de viajar para poder llegar a las estrellas, ya que, la velocidad de la luz nos exige mucho tiempo para alcanzar objetivos lejanos, con lo cual, el sueño de llegar a las estrellas físicamente hablando, está lejos, muy lejos. Es necesario encontrar otros caminos alejados de naves que, por muy rápida que pudieran moverse, nunca podrían superar la velocidad de la luz, el principio que impone la relatividad especial lo impide, y, siendo así, ¿cómo iremos?

La velocidad de la luz, por tanto, es un límite en nuestro universo; no se puede superar. Siendo esto así, el hombre tiene planteado un gran reto, no será posible el viaje a las estrellas si no buscamos la manera de esquivar este límite de la naturaleza, ya que las distancias que nos separan de otros sistemas solares son tan enormes que, viajando a velocidades por debajo de la velocidad de la luz, sería casi imposible alcanzar el destino deseado.

                 De momento sólo con los Telescopios podemos llegar tan lejos.

Los científicos, físicos experimentales, tanto en el CERN como en el FERMILAB, aceleradores de partículas donde se estudian y los componentes de la materia haciendo que haces de protones o de muones, por ejemplo, a velocidades cercanas a la de la luz choquen entre sí para que se desintegren y dejen al descubierto sus contenidos de partículas aún más elementales. Pues bien, a estas velocidades relativistas cercanas a c (la velocidad de la luz), las partículas aumentan sus masas; sin embargo, nunca han logrado sobrepasar el límite de c, la velocidad máxima permitida en nuestro universo.

Es preciso ampliar un poco más las explicaciones anteriores que no dejan sentadas todas las cuestiones que el asunto plantea, y quedan algunas dudas que incitan a formular nuevas preguntas, como por ejemplo: ¿por qué se convierte la energía en masa y no en velocidad?, o ¿por qué se propaga la luz a 299.793 Km/s y no a otra velocidad?

Sí, la Naturaleza nos habla, simplemente nos tenemos que parar para poder oír lo que trata de decirnos y, entre las muchas cosas que nos dice, estarán esos mensajes que nos indican el camino por el que debemos encontrar lo que buscamos para burlar a la velocidad de la luz, conseguir los objetivos y no vulnerar ningún principio físico impuesto por la Naturaleza.

La única respuesta que podemos dar hoy es que así, es el universo que nos acoge y las leyes naturales que lo rigen, donde estamos sometidos a unas fuerzas y unas constantes universales de las que la velocidad de la luz en el vacio es una muestra.

A velocidades grandes cercanas a la de la luz (velocidades relativistas) no sólo aumenta la masa del objeto que viaja, sino que disminuye también su longitud en la misma dirección del movimiento (contracción de Lorentz) y en dicho objeto y sus ocupantes – si es una nave – se retrasa al paso del tiempo, o dicho de otra manera, el tiempo allí transcurre más despacio.

A menudo se oye decir que las partículas no pueden moverse “más deprisa que la luz” y que la “velocidad de la luz” es el límite último de velocidad. Pero decir esto es decir las cosas a medias, porque la luz viaja a velocidades diferentes dependiendo del medio en el que se mueve. Donde más deprisa se mueve la luz es en el vacío: allí lo hace a 299.792’458 Km/s. Este sí es el límite último de velocidades que podemos encontrar en nuestro universo.

File:Military laser experiment.jpg

                                     Fotones emitidos por un rayo coherente conformado por un láser

Tenemos el ejemplo del fotón, la partícula mediadora de la fuerza electromagnética, un bosón sin masa que recorre el espacio a esa velocidad antes citada. Hace no muchos días se habló de la posibilidad de que unos neutrinos hubieran alcanzado una velocidad superior que la de la luz en el vacío y, si tal cosa fuera posible, o, hubiera pasado, habríamos de relagar parte de la Teoría de la Relatividad de Einstein que nos dice lo contrario y, claro, finalmente se descubrió que todo fue una falsa alarma generada por malas mediciones. Así que, la teoría del genio, queda intacta.

¡La Naturaleza! Observémosla. De todas las maneras, como nuestra imaginación es casi tan grande como el mismo universo, ya se han postulado teorías para ir buscando la manera de poder desvelar si existe alguna posibilidad de que la velocidad de la luz sea superada.

Fórmula relativista de adición de velocidades.

En matemáticas se llama prolongación de una función a la extensión de su dominio más allá de sus singularidades, que se comportan como frontera entre el dominio original y el extendido. Normalmente, la prolongación requiere incluir algunos cambios de signo en la definición de la función extendida para evitar que aparezcan valores imaginarios puros u otros números complejos. La matemática de la teoría de la relatividad puede ser aplicada a partículas que se mueven a una velocidad mayor que la de la luz (llamadas taquiones) si aceptamos que la masa y la energía de estas partículas pueden adoptar valores imaginarios puros. El problema es que no sabemos qué sentido físico tienen estos valores imaginarios.

emilio silvera

¡La Física! ¡Qué maravilla!

$
0
0

Resultado de imagen de Las Partículas elementales

Una vez que se ha puesto orden entre las numerosas especies de partículas, se puede reconocer una pauta. Igual que Dimitri Ivanovich Mendeleev descubrió el sistema periódico de los elementos químicos en 1869, así también se hizo visible un sistema similar para las partículas. Esta pauta la encontraron independientemente el americano Murray Gell-Mann y el israelí Yuval Ne’eman. Ocho especies de mesones, todos con el mismo espín, u ocho especies de bariones, con el mismo espín, se podían reagrupar perfectamente en grupos que llamaremos multipletes. El esquema matemático correspondiente se llama SU(3). Grupletes de ocho elementos forman un octete “fundamental”. Por esta razón Gell-Mann llamó a esta teoría el “óctuplo camino”. Lo tomó prestado del budismo de acuerdo con el cual el camino hacia el nirvana es el camino óctuplo.

Pero las matemáticas SU(3) también admiten multipletes de diez miembros. Cuando se propuso este esquema se conocían nueve bariones con espín 3/2. Los esquemas SU(3) se obtienen al representar dos propiedades fundamentales de las partículas, la extrañeza S frente al isoespín I₃ , en una gráfica.

Imagen de trazas en la cámara de burbujas del primer evento observado incluyendo bariones Ω, en el Laboratorio Nacional Brookhaven.

De esta manera, Gell-Mann predijo un décimo barión, el omega-menos (Ω¯), y pudo estimar con bastante precisión su masa porque las masas de los otros nueve bariones variaban de una forma sistemática en el gráfico (también consiguió entender que las variaciones de la masa eran una consecuencia de una interacción simple). Sin embargo, estaba claro que la Ω¯, con una extrañeza S = -3, no tenía ninguna partícula en la que desintegrarse que no estuviera prohibida por las leyes de conservación de la interacción fuerte. De modo que, la Ω¯ sólo podía ser de tan sólo 10¯²³ segundos como los demás miembros del multiplete, sino que tenía que ser del orden de 10¯¹⁰ segundos. Consecuentemente, esta partícula debería viajar varios centímetros antes de desintegrarse y esto la haría fácilmente detectable. La Ω¯ fue encontrada en 1964 con exactamente las mismas propiedades que había predicho Gell-Mann.

Resultado de imagen de El físico Murray Gell-Mann

Murray Gell-Mann, nacido en Nueva York en el año 1929, recibió el premio Nobel de Física en 1969 por su aporte en la teoría de las partículas atómicas.

Murray Gell-Mann, nacido en Nueva York en el año 1929, recibió el premio Nobel de Física en 1969 por su aporte en la teoría de las partículas atómicas.

Se identificaron estructuras multipletes para la mayoría de los demás bariones y mesones y Gell-Mann también consiguió explicarlas. Sugirió que los mesones, igual que los bariones, debían estar formados por elementos constitutivos “más fundamentales aún”. Gell-Mann trabajaba en el Instituto de Tecnología de California en Pasadena (CalTech), donde conversaba a menudo con Richard Feynman. Eran ambos físicos famosos pero con personalidades muy diferentes. Gell-Mann, por ejemplo, es conocido como un entusiasta observador de Pájaros, familiarizado con las artes y la literatura y orgulloso de su conocimiento de lenguas extranjeras. Feynman fue un hombre hecho a sí mismo, un analista riguroso que se reía de cualquier cosa que le recordara la autoridad establecida. Hay una anécdota que parece no ser cierta de hecho, pero que me parece tan buena que no puedo evitar el contarla; podía haber sucedido de esta forma. Gell-Mann le dijo a Feynman que tenía un problema, que estaba sugiriendo un nuevo tipo de ladrillos constitutivos de la materia y que no sabía qué nombre darles. Indudablemente debía haber de haber pensado en utilizar terminología latina o griega, como ha sido costumbre siempre en la nomenclatura científica. “Absurdo”, le dijo Feynman; “tú estás hablando de cosas en las que nunc ase había pensado antes. Todas esas preciosas pero anticuadas palabras están fuera de lugar. ¿Por qué no los llamas simplemente “shrumpfs”, “quacks” o algo así?”.

Cuando algún tiempo después le pregunté a Gell-Mann, éste negó que tal conversación hubiera tenido lugar. Pero la palabra elegida fue quark, y la explicación de Gell-Mann fue que la palabra venía de una frase de Fynnegan’s Wake de James Joyce; “¡Tres quarks para Muster Mark!”. Y, efectivamente así es. A esas partículas les gusta estar las tres juntas. Todos los bariones están formados por tres quarks, mientras que los mesones están formados por un quark y un antiquark.

Los propios quarks forman un grupo SU(3) aún más sencillo. Los llamaremos “arriba (u)”, “abajo” (d), y “extraño” (s). Las partículas “ordinarias” contienen solamente quarks u y d. Los hadrones “extraños” contienen uno o más quarks s (o antiquarks ŝ).

La composición de quarks de espín 3/2 se puede ver en la tabla 5. La razón por la que los bariones de espín ½ sólo forman un octete es más difícil de explicar. Está relacionada con el hecho de que en estos estados, al menos dos de los quarks tienen que ser diferentes unos de otros.

Realmente, la idea de que los hadrones estuvieran formados por ladrillos fundamentales sencillos había sido también sugerida por otros. George Zweig, también en el CalTech, en Pasadena, había tenido la misma idea. Él había llamado a los bloques constitutivos “ases!, pero es la palabra “quark” la que ha prevalecido. La razón por la que algunos nombres científicos tienen más éxito que otros es a veces difícil de comprender.

Pero en esta teoría había algunos aspectos raros. Aparentemente, los quarks (o ases) siempre existen en parejas o tríos y nunca se han visto solos. Los experimentadores habían intentado numerosas veces detectar un quark aislado en aparatos especialmente diseñados para ello, pero ninguno había tenido éxito.

Resultado de imagen de LOs Quarks dentro de los hadrones

Los quarks –si se pudieran aislar- tendrían propiedades incluso más extrañas. Por ejemplo, ¿cuáles serían sus cargas eléctricas? Es razonable suponer que tanto los quarks u como los quarks s y d deban tener siempre la misma carga. La comparación de la tabla 5 con la tabla 2 sugiere claramente que los quarks d y s tienen carga eléctrica -1/3 y el quark u tiene carga +2/3. Pero nunca se han observado partículas que no tengan carga múltiplo de la del electrón o de la del protón. Si tales partículas existieran, sería posible detectarlas experimentalmente. Que esto haya sido imposible debe significar que las fuerzas que las mantienen unidas dentro del hadrón son necesariamente increíblemente eficientes.

Resultado de imagen de LOs Quarks dentro de los hadrones

Aunque con la llegada de los quarks se ha clarificado algo más la flora y la fauna de las partículas subatómicas, todavía forman un conjunto muy raro, aún cuando solamente unas pocas aparezcan en grandes cantidades en el universo (protones, neutrones, electrones y fotones). Como dijo una vez Sybren S. de Groot cuando estudiaba neutrinos, uno realmente se enamora de ellos. Mis estudiantes y yo amábamos esas partículas cuyo comportamiento era un gran misterio. Los leptones, por ser casi puntuales, son los más sencillos, y por tener espín se ven afectados por la interacción que actúa sobre ellos de forma muy complicada, pero la interacción débil estaba bastante bien documentada por entonces.

Resultado de imagen de LOs Quarks dentro de los hadrones

Los hadrones son mucho más misteriosos. Los procesos de choque entre ellos eran demasiado complicados para una teoría respetable. Si uno se los imagina como pequeñas esferas hachas de alguna clase de material, aún quedaba el problema de entender los quarks y encontrar la razón por la que se siguen resistiendo a los intentos de los experimentadores para aislarlos.

Si queréis saber más sobre el tema, os recomiendo leer el libro “Partículas” de Gerard ´t Hooft

El paso del Tiempo lo cambia todo

$
0
0

http://www.saberia.com/wp-content/uploads/2010/01/ciencia_atomo.jpg

                                                   Laboratorio estelar, la cuna de los mundos.

me sumerjo en los misterios y maravillas que encierra el universo, no puedo dejar de sorprenderme por sus complejas y bellas formaciones, la inmensidad, la diversidad, las fuerzas que están presentes, los objetos que lo pueblan, y, esa presencia invisible que permea todo el espacio y que se ha dado en denominar océano y campos de Higgs, allí donde reside esa clase de energía exótica, ese “éter” que, en definitiva hace que el Universo funcione tal como lo podemos ver. Existen muchos parámetros del Cosmos que aún no podemos comprender y de los que sólo podemos presentir, es como si pudiéramos ver la sombra de algo que no sabemos lo que es.

Todo el Universo conocido nos ofrece una ingente cantidad de objetos que se nos presentan en formas de estrellas y planetas, extensas nebulosas formadas por explosiones de supernovas y que dan lugar al nacimiento de nuevas estrellas, un sin fin de galaxias de múltiples formas y colores, extraños cuerpos que giran a velocidades inusitadas y que alumbran el espacio como si de un faro cósmico se tratara, y, objetos de enormes masas y densidades “infinitas” que no dejan escapar ni la luz que es atrapada por la fuerza de gravedad que generan.

A String of 'Cosmic Pearls' Surrounds an Exploding Star

                     Ya nos gustaría saber qué es todo lo que observamos en nuestro Universo

Sin embargo, todo eso, está formado por minúsculos e infinitesimales objetos que llamamos quarks y leptones, partículas elementales que se unen para formar toda esa materia que podemos ver y que llamamos Bariónica pudiendo ser detectada porque emite radiación. Al contrario ocurre con esa otra supuesta materia que llamamos oscura y que, al parecer, impregna todo el universo conocido, pero ni emite radiación ni sabemos a ciencia cierta de qué podrá estar formada, y, al mismo tiempo, existe una especie de energía presente también en todas partes de la que tampoco podemos explicar mucho.

Pensemos por ejemplo que un átomo tiene aproximadamente 10-8 centímetros de diámetro. En los sólidos y líquidos ordinarios los átomos están muy juntos. La densidad de los sólidos y líquidos ordinarios depende por tanto del tamaño exacto de los átomos, del grado de empaquetamiento y del peso de los distintos átomos.

Isaac Asimov en uno de sus libros nos explicó que,  los sólidos ordinarios, el menos denso es el hidrógeno solidificado, con una densidad de 0’076 gramos por cm3. El más denso es un metal raro, el osmio, con una densidad de 22’48 gramos/cm3. Si los átomos fuesen bolas macizas e incompresibles, el osmio sería el material más denso posible, y un centímetro cúbico de materia jamás podría pesar ni un kilogramo, y mucho menos toneladas.

The Cat's Eye Nebula: Dying Star Creates Fantasy-like Sculpture of Gas and Dust

Ese puntito blanco del centro de la Nebulosa planetaria, es mucho más denso que el osmio, es una enana blanca, y, sin embargo, no es lo más denso que en el Universo podemos encontrar. Cualquier estrella de neutrones es mucho más densa y, no hablemos de los agujeros negros, de su singularidad.

los átomos no son macizos. El físico neozelandés experimentador por excelencia, Ernest Ruthertord, demostró en 1909 que los átomos eran en su mayor parte espacio vacío. La corteza exterior de los átomos contiene sólo electrones ligerísimos, mientras que el 99’9% de la masa del átomo está concentrada en una estructura diminuta situada en el centro: el núcleo atómico.

El núcleo atómico tiene un diámetro de unos 10-15 cm (aproximadamente 1/100.000 del propio átomo). Si los átomos de una esfera de materia se pudieran estrujar hasta el punto de desplazar todos los electrones y dejar a los núcleos atómicos al desnud0, el diámetro de la esfera disminuiría hasta un nivel de 1/100.000 de su tamaño original. De manera análoga, si se pudiera comprimir la Tierra hasta dejarla reducida a un balón de núcleos atómicos, toda su materia quedaría reducida a una esfera de unos 130 metros de diámetro. En esas mismas condiciones, el Sol mediría 13’7 km de diámetro en lugar de los 1.392.530 km que realmente mide. Y si pudiéramos convertir toda la materia conocida del universo en núcleos atómicos  obtendríamos una esfera de sólo algunos cientos de miles de km de diámetro, que cabría cómodamente dentro del cinturón de asteroides del Sistema Solar.

El calor y la presión que reinan en el centro de las estrellas rompen la estructura atómica y permiten que los núcleos atómicos empiecen a empaquetarse unos junto a otros. Las densidades en el centro del Sol son mucho más altas que la del osmio, pero los núcleos atómicos se mueven de un lado a otro sin impedimento alguno, el material sigue siendo un gas.  Hay estrellas que se componen casi por entero de tales átomos destrozados.  La compañera de la estrella Sirio es una “enana blanca” no mayor que el planeta Urano, y sin embargo tiene una masa parecida a la del Sol.

Los núcleos atómicos se componen de protones y neutrones. Ya hemos dicho que todos los protonestienen carga eléctrica positiva y se repelen, de modo que en un lugar dado no se pueden reunir más de un centenar de ellos. Los neutrones, por el contrario, no tienen carga eléctrica y en adecuadas condiciones pueden estar juntos y empaquetados un número enorme de ellos para formar una “estrella de neutrones”. Los púlsares, según se cree, son estrellas de neutrones en rápida rotación.

Estas estrellas se forman las estrellas de 2 – 3 masas solares, agotado el combustible nuclear, no pueden fusionando el hidrógeno en helio, el helio en oxígeno, el oxigeno en carbono, etc, y explotan en supernovas. Las capas exteriores se volatilizan y son expulsados al espacio; el resto de la estrella (su mayor parte), al quedar a merced de la fuerza gravitatoria, es literalmente aplastada bajo su propio peso hasta tal punto que los electrones se funden con los protones y se forman neutrones que se comprimen de manera tan increíble que se degeneran (como consecuencia de que son fermiones y están afectados por el principio de exclusión de Pauli) y emiten una fuerza que contrarresta la gravedad, quedándose estabilizada como estrella de neutrones.

El Gran Telescopio Canarias (GTC), instalado en el Observatorio del Roque de los Muchachos (La Palma), ha obtenido imágenes de una profundidad “sin precedentes” de una estrella de neutrones del magnetar, de las que se conocen pocos ejemplares. Si el Sol se convirtiera en una estrella de neutrones, toda su masa quedaría concentrada en una pelota cuyo diámetro sería de 1/100.000 del actual, y su volumen (1/100.000)3, o lo que es lo mismo 1/1.000.000.000.000.000 (una milmillonésima) del actual. Su densidad sería, por tanto, 1.000.000.000.000.000 (mil billones) de veces superior a la que tiene ahora.

La densidad global del Sol hoy día es de 1’4 gramos/cm3. Una estrella de neutrones a partir del Sol tendría una densidad que se reflejaría mediante 1.400.000.000.000.000 gramos por cm3. Es decir, un centímetro cúbico de una estrella de neutrones llegar a pesar 1.400.000.000 (mil cuatrocientos millones de toneladas).

¡Qué barbaridad!

Imagen captada por el telescopio Hubble de la galaxia NGC 3393. El núcleo de la galaxia, donde se encuentra la pareja de agujeros negros se ver encuadrado (NASA). Está claro que lo que se dice ver a los agujeros negros… Nadie los ha podido ver y, sólo hemos podido captar su presencia por los fenómenos que a su alrededor ocurren en la emisión inusual de radiación y el comportamiento de la materia circundante.

Resultado de imagen de Enanas blancas, estrellas de neutrones y agujeros negros

Podemos decir que objetos tan fascinantes como éstos (estrellas enanas blancas, de neutrones y agujeros negros), son los que nos muestran estados de la materia más densos que hemos podido llegar a conocer y que se forjan en la propia Naturaleza mediante transiciones de fase que se producen mediante los mecanismos de las fuerzas que todo lo rigen. Cuando hablamos de las cosas del universo estamos hablando de cosas muy grandes. Cualquiera se podría preguntar, por ejemplo: ¿ cuándo podrá mantener el Sol la vida en la Tierra? Está claro que podrá hacerlo mientras radie energía y nos envie luz y calor que la haga posible tal como la conocemos. Cuando agote su combustible nuclear de fusión, su vida se apagará y se convertirá en gigante roja primero y enana blanca después.

Resultado de imagen de la radiación del Sol

Como ya explicamos antes, la radiación del Sol proviene de la fusión del hidrógeno en helio. Para producir la radiación vertida por el sol se necesita una cantidad ingente de fusión: segundo tienen que fusionarse 654.600.000 toneladas de hidrógeno en 650.000.000 toneladas de helio  (las 4.600.000 toneladas restantes se convierten en energía de radiación y las pierde el Sol para siempre. La ínfima porción de energía que incide sobre la Tierra basta mantener toda la vida en nuestro planeta).

Los rayos del Sol que envían al planeta Tierra su luz y su calor para hacer posible la vida en un planeta maravilloso que facilita los ecosistemas necesarios para que viven millones de especies, unas más inteligentes que otras en relación al roll que, a cada una, le tocó desempañar en el escenario de este gran teatro que llamaos mundo.

Resultado de imagen de Las especies vivas conocidad

Nadie diría que con consumo tan alto de hidrógeno por segundo, el Sol pudiera durar mucho tiempo, pero es que ese cálculo no tiene en cuenta el enorme tamaño del Sol. Su masa totaliza 2.200.000.000.000.000. 000.000.000.000 (más de dos mil cuatrillones) de toneladas. Un 53% de esta masa es hidrógeno, lo cual significa que el Sol contiene en la actualidad una cantidad de 1.166.000.000.000.000.000.0000.0000.000 toneladas.

Resultado de imagen de La fusión que convierte el Hidrógeno en Helio

Para completar diré que el resto de la masa del Sol es casi todo helio. Menos del 0’1 por 100 de su masa está constituido por átomos más complicados que el helio. El helio es más compacto que el hidrógeno. En condiciones idénticas, un dado de átomos de helio tiene una masa cuatro veces mayor el mismo número de átomos de hidrógeno. O dicho de otra manera: una masa dada de helio ocupa menos espacio que la misma masa de hidrógeno. En función del volumen – el espacio ocupado –, el Sol es hidrógeno en un 80 por ciento.

                Este podría ser nuestro Sol en el pasado sólo era una protoestrella que se estaba formando

Si suponemos que el Sol fue en origen todo hidrógeno, que siempre ha convertido hidrógeno en helio al ritmo dicho de 4.654 mil toneladas  por segundo y que lo seguirá haciendo hasta el final, se calcula que ha radiando hace unos 4.000 millones de años y que seguirá haciéndolo durante otros cinco mil millones de años más. Pero las cosas no son tan simples. El Sol es una estrella de segunda generación, constituida a partir de gas y polvo cósmico desperdigado por estrellas que se habían quemado y explotado miles de millones de años atrás.  Así pues, la materia prima del Sol contenía ya mucho helio el principio, lo que nos lleva a pensar que el final puede estar algo más cercano.

Por otra , el Sol no continuará radiando exactamente al mismo ritmo que . El hidrógeno y el helio no están perfectamente entremezclados. El helio está concentrado en el núcleo central y la reacción de fusión se produce en la superficie del núcleo. Cuando el Sol se convierta en gigante roja… Nosotros tendremos que haber podido buscar la manera de salir de la Tierra ubicarnos en otros mundos, dado que, dicha fase del Sol, no permitirá la vida en nuestro planeta.

  Los planetas interiores serán engullidos por nuestro Sol y, la Tierra, quedará calcinada, sus océanos se evaporarán y toda la vida, desaparecerá.

Las estrellas, todo en nuestro universo, tienen un principio y un final. La que en la imagen de arriba podemos contemplar, ha llegado al final de su ciclo, y, agotado su combustible nuclear, quedará a merced de la fuerza de la Gravedad que la convertirá en un objeto distinto del que fue durante su larga vida. Dependiendo de su masa,  las estrellas se convierten en enanas blancas -el caso del Sol-, estrella de neutrones o Agujeros negros.

La atracción gravitatoria de la Luna sobre la Tierra hace subir el nivel de los océanos a ambos lados de nuestro planeta y crea así dos abultamientos. A medida que la Tierra gira de oeste a , estos dos bultos – de los cuales uno mira la Luna y el otro en dirección contraria – se desplazan de este a oeste alrededor de la Tierra. Al efectuar este desplazamiento, los dos bultos rozan contra el fondo de los mares poco profundos, como el de Bering o el de Irlanda. Tal rozamiento convierte energía de rotación en calor, y este consumo de la energía de rotación terrestre hace que el movimiento de rotación de la Tierra alrededor de su eje vaya disminuyendo poco a poco. Las mareas actúan como freno sobre la rotación de la Tierra, y como consecuencia de ello, los días terrestres se van alargando un segundo mil años.

Pero no es sólo el agua del océano lo que sube de nivel en respuesta a la gravedad lunar. La corteza sólida de la Tierra también acusa el efecto, aunque en medida notable. El resultado son dos pequeños abultamientos rocosos que van girando alrededor de la Tierra, el uno mirando la Luna y el otro en la cara opuesta de nuestro planeta. Durante ese desplazamiento, el rozamiento de una capa rocosa contra otra va minando también la energía de rotación terrestre. (Los bultos, claro está, no se mueven físicamente alrededor del planeta, sino que a medida que el planeta gira, remiten en un lugar y se forman en otro, según qué porciones de la superficie pasen por debajo de la Luna y sean atraídas por su fuerza de gravedad).

La Luna no tiene mares ni mareas en el sentido corriente. Sin embargo, la corteza sólida de la luna acusa la fuerte atracción gravitacional de la Tierra, y no hay que olvidar que ésta es 80 veces más grande que la Luna. El abultamiento provocado en la superficie lunar es mucho mayor que el de la superficie terrestre. Por tanto, si la Luna rotase en un periodo de 24 horas, estaría sometida a un rozamiento muchísimo mayor que la Tierra. Además, nuestro satélite tiene una masa mucho menor que la Tierra, su energía total de rotación sería, ya de entrada, periodos de rotación iguales, mucho menor.

Así pues, la Luna, con una reserva inicial de energía muy pequeña, socavada rápidamente por los grandes bultos provocados por la Tierra, tuvo que sufrir una disminución relativamente rápida de su periodo de rotación.  Hace seguramente muchos millones de años debió de decelerarse el punto de que el día lunar se igualó con el mes lunar. De ahí en adelante, la Luna siempre mostraría la misma cara el planeta Tierra.

Esto, a su vez, congela los abultamientos en un aposición fija. Unos de ellos miran hacia la Tierra el centro mismo de la cara lunar que nosotros vemos, mientras que el otro está apuntando en dirección contraria desde el centro mismo de la cara lunar que no podemos ver. Puesto que las dos caras no cambian de posición a medida que la Luna gira alrededor de la Tierra, los bultos no experimentan ningún cambio ni tampoco se produce rozamiento alguno que altere el periodo de rotación del satélite. La luna continuará mostrándonos la misma cara indefinidamente; lo cual, como veis, no es ninguna coincidencia, sino la consecuencia inevitable de la gravitación y del rozamiento.

Durante unos ochenta años, por ejemplo, se pensó que Mercurio (el planeta más cercano al Sol y el más afectado por la fuerza gravitatoria solar) ofrecía siempre la misma cara al Sol, por el mismo motivo que la Luna ofrece siempre la misma cara a la Tierra. Pero se ha comprobado que, en el caso de planeta, los efectos del rozamiento producen un periodo estable de rotación de 58 días, que es justamente dos tercios de los 88 días que constituyen el período de revolución de Mercurio alrededor del Sol.

Hay tantas cosas que aprender que el corto tiempo que se nos permite estar aquí es totalmente insuficiente conocer todo lo que nos gustaría. ¿Hay algo más penoso que la ignorancia? Continuemos pues aprendiendo cosas nuevas.

En alguna ocasión dejé una reseña de lo que se entiende por entropía y así sabemos que la energía sólo ser convertida en trabajo cuando    dentro del sistema concreto que se esté utilizando, la concentración de energía no es uniforme. La energía tiende entonces a fluir desde el punto de mayor concentración al de menor concentración, hasta establecer la uniformidad. La obtención de trabajo a partir de energía consiste precisamente en aprovechar este flujo.

El agua de un río está más alta y tiene más energía gravitatoria en el manantial del que mana en lo alto de la montaña y energía en el llano en la desembocadura, donde fluye suave y tranquila. Por eso fluye el agua río abajo el mar (si no fuese por la lluvia, todas las aguas continentales fluirían montaña abajo el mar y el nivel del océano subiría ligeramente. La energía gravitatoria total permanecería igual, pero estaría distribuida con mayor uniformidad).

Una rueda hidráulica gira gracias al agua que corre ladera abajo: ese agua realizar un trabajo porque crea energía . El agua sobre una superficie horizontal no puede realizar , aunque esté sobre una meseta muy alta y posea una energía gravitatoria excepcional. El factor crucial es la diferencia en la concentración de energía y el flujo hacia la uniformidad.

Y lo mismo reza para cualquier clase de energía. En las máquinas de vapor hay un de calor que convierte el agua en vapor, y otro depósito frío que vuelve a condensar el vapor en agua. El factor decisivo es esta diferencia de temperatura. Trabajando a un mismo y único nivel de temperatura no se puede extraer ningún , por muy alta que sea aquella.

El término “entropía” lo introdujo el físico alemán Rudolf J. E. Clausius en 1.849 representar el grado de uniformidad con que está distribuida la energía, sea de la clase que sea. Cuanto más uniforme, mayor la entropía. Cuando la energía está distribuida de manera perfectamente uniforme, la entropía es máxima para el sistema en cuestión. El Tiempo, podríamos decir que es el portador de una compañera que, como él mismo, es inexorable. La entropía lo cambia todo y, en un Sistema cerrado (pongamos el Universo), la entropía siempre crece mientras que la energía es vez menor. Todo se deteriora con el paso del tiempo.

Marzo de 2009, Carolina del Sur, Estados Unidos. Lo que vemos son los desechos de cenizas de carbón en una planta generadora de electricidad. Foto: J. Henry Fair/Cortesía: Galería Gerald Peters.

Marzo de 2009, Carolina del Sur, Estados Unidos. Lo que vemos son los desechos de cenizas de carbón en una planta generadora de electricidad. Foto: J. Henry Fair/Cortesía: Galería Gerald Peters. De la misma manera, en el Universo, se producen transiciones de fase que desembocan en el deterioro de los objetos que lo pueblan. Nunca será lo mismo una estrella de 1ª generación que una de 3ª y, el material del que están compuestas las últimas serán más complejos y cada vez, tendrán menor posibilidad de convertirse en Nebulosas que sean capaces de crear nuevas estrellas.

Clausius observó que cualquier diferencia de energía dentro de un sistema tiende siempre a igualarse por sí sola. Si colocamos un objeto caliente junto a otro frío, el calor fluye de manera que se transmite del caliente al frío que se igualan las temperaturas de ambos cuerpos. Si tenemos dos depósitos de agua comunicados sí y el nivel de uno de ellos es más alto que el otro, la atracción gravitatoria hará que el primero baje y el segundo suba, hasta que ambos niveles se igualen y la energía gravitatoria quede distribuida uniformemente.

      Considerado Sistema Cerrado, la Entropía no deja de aumentar en nuestro Universo a medida que el Tiempo transcurre

Clausius afirmó, por tanto, que en la naturaleza era regla general que las diferencias en las concentraciones de energía tendían a igualarse. O dicho de otra manera: que la entropía aumenta con el tiempo. El estudio del flujo de energía puntos de alta concentración a otros de baja concentración se llevó a cabo de modo especialmente complejo en relación con la energía térmica. Por eso, el estudio del flujo de energía y de los intercambios de energía y recibió el de “termodinámica”, que en griego significa “movimiento de calor”.

Con anterioridad se había llegado ya a la conclusión de que la energía no podía ser destruida ni creada. regla es tan fundamental que se la denomina “primer principio de la termodinámica”. Sin embargo, cuando la entropía ataca, la energía quedar congelada e inservisble. La idea sugerida por Clausius de que la entropía aumenta con el tiempo es una regla general no básica, y que denomina “segundo principio de la termodinámica.”

Según segundo principio, la entropía aumenta constantemente, lo cual significa que las diferencias en la concentración de energía también van despareciendo. Cuando todas las diferencias en la concentración de energía se han igualado por completo, no se puede extraer más , ni pueden producirse cambios.

¿Está degradándose el universo?

Bueno, todos sabemos que el Universo evoluciona y, como todo, con el paso del tiempo cambia. Lo que hoy es, mañana no será. Existe una pequeña ecuación:   S = k log W que, aunque pequeña y sencilla, es la mayor aportaciópn de Boltzmann y una de las ecuaciones más importantes de la Física. El significado de las tres letras que aparecen (aparte la notación el logaritmo es el siguiente: S es la entropía de un Sistema; W el de microestados posibles de sus partículas elementales y k una constante de proporcionalidad que hoy día recibe el de constante de Boltzmann y cuyo valor es k = 1,3805 x 10-23 J(K (si el logaritmo se toma en base natural). En esta breve ecuación se encierra la conexión del micromundo y el macromundo, y por ella se reconoce a Boltzmann como el padre de la rama de la Física comocida como Mecánica Estadística.

Pero esa, es otra historia.

emilio silvera

Velocidades inimaginables

$
0
0

En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte.

Resultado de imagen de El núcleo atómico

Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.

Imagen relacionada

Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividadespecial de Einstein.

Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.

Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:

Resultado de imagen de Teoría de la Relatividad Especial

E = mc2

Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividad tuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividad también sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.

Resultado de imagen de Teoría de la Relatividad Especial

Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.

Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.

Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.

Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.

Resultado de imagen de El Tensor métrico de Riemann

El Tensor métrico de Riemann se podría adaptar a las necesidades de la búsqueda estableciendo la multiplicidad de dimensiones que la teoría requería para su desarrollo.

Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.

No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.

 

Las cargas de distinto signo se atraen, acercándose a una distancia x. Los hilos forman un ángulo θ con la vertical. Obviamos las ecuaciones de una larga explicación.

 

Resultado de imagen de Dos partículas cargadas se atraen si son del signo

El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).

La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.

Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.

La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.

Resultado de imagen de El campo electromagnético es un campo físico que afecta a partículas cargadas.  Es un tensor que se descomponer en dos magnitudes vectoriales, el vector de campo eléctrico y el vector de inducción magnética o campo magnético.

                                         Campo eléctrico de cargas puntuales.

En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.

También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).

Resultado de imagen de El cosmosResultado de imagen de El comportamiento del átomo

La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.

Imagen relacionada

  • La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
  • La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
  • Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.
Resultado de imagen de El gravitón
El esquivo Gravitón no ha sido visto y, si existe, se resiste a ser encontrado. Siendo la Gravedad la más débil de las cuatro fuerzas fundamentales es posible que el gravitón sea también, el bosón más pequeño y difícil de hallar.

La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.

La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.

Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.

Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.

Resultado de imagen de La masa de las partículas

La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.

Resultado de imagen de La fuerza nuclear fuerte

La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repelerse entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadronespara mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.

Resultado de imagen de La fuerza nuclear fuerte

La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.

La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.

Resultado de imagen de rayos cósmicos

Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.

Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.

Nombre Símbolo Masa (MeV) Carga Espín Vida media (s)
Fotón γ 0 0 1
Leptones (L = 1, B = 0)
Electrón e- 0’5109990 ½
Muón μ- 105’6584 ½ 2’1970 × 10-6
Tau τ
Neutrino electrónico νe ~ 0 0 ½ ~ ∞
Neutrino muónico νμ ~ 0 0 ½ ~ ∞
Neutrino tauónico ντ ~ 0 0 ½ ~ ∞
Mesones (L = 0, B = 0)
Pión + π+ 139’570 2’603 × 10-8
Pión – π- 139’570 2’603 × 10-8
Pión 0 π0 134’976 0’84 × 10-16
Kaón + k+ 493’68 1’237 × 10-8
Kaón – k- 493’68 1’237 × 10-8
Kaón largo kL 497’7 5’17 × 10-8
Kaón corto kS 497’7 0’893 × 10-10
Eta η 547’5 0 0 5’5 × 10-19
Bariones (L = 0, B = 1)
Protón p 938’2723 + ½
Neutrón n 939’5656 0 ½ 887
Lambda Λ 1.115’68 0 ½ 2’63 × 10-10
Sigma + Σ+ 1.189’4 + ½ 0’80 × 10-10
Sigma – Σ- 1.1974 ½ 7’4× 10-20
Sigma 0 Σ0 0 ½ 1’48 × 10-10
Ksi 0 Ξ0 1.314’9 0 ½ 2’9 × 10-10
Ksi – Ξ- 1.321’3 ½ 1’64 × 10-10
Omega – Ω- 1.672’4 0’82 × 10-10

Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con  y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π-, al igual que ocurre con k+ y k-. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.

Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.

Resultado de imagen de Símbolos empleados en mecánica cuántica

En mecánica cuántica se utilizan símbolos que explican dentro de complicadas ecuaciones cuestiones que, con palabras serían más difícil de explicar.

Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.

Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planckh, dividido por . Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.

Resultado de imagen de El Spin del electrón

El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electronespudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.

Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.

Resultado de imagen de El espin de los Bosones

Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermionesse comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.

Resultado de imagen de Láses de fotones

En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.

Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.

Resultado de imagen de La interacción débilResultado de imagen de La interacción débil

En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:

  • La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
  • Comparada con las demás interacciones, ésta tiene un alcance muy corto.
  • La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
  • Los mediadores de la interacción débil, llamados W+, W- y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.
Resultado de imagen de Electrodébil de Weinberg - Salam

A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).

La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.

Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).

La interacción es fuerte. En realidad, la más fuerte de todas.

Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento es una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.

Veremos que nos trae la nueva etapa del LHC que busca los componentes de la “materia oscura”.

emilio silvera

¡La Luz! ¡La Mecánica Cuántica! Nuestro Universo

$
0
0

El universo primitivo, en una espectacular imagen en 3D


                      Cuando en nuestro Universo quedaron libres los fotones… ¡Se hizo la Luz!

En alguna parte he podido leer que para comprender la realidad en sus niveles más elementales, basta con conocer el comportamiento de dos infinitesimales objetos: el electrón y el fotón. Todo el argumento de la QED [electrodinámica cuántica] gira en torno a un proceso fundamental: la emisión de un único fotón por un único electrón.

Cuando el movimiento de un electrón es alterado súbitamente, puede responder desprendiendo un fotón. La emisión de un fotón es el suceso básico de la mecánica cuántica:

Resultado de imagen de Un equipo de científicos lograron filmar por primera vez un electrón en movimiento gracias a una tecnología reciente que genera pulsos cortos e intensos de luz láser.-imagen Gips

 Un equipo de científicos lograron filmar por primera vez un electrón en movimiento gracias a una tecnología reciente que genera pulsos cortos e intensos de luz láser.

Toda la luz visible que vemos, así como las ondas de radio, la radiación infrarroja y los rayos X, está compuesta de fotones que han sido emitidos por electrones, ya sea en el Sol, el filamento de una bombilla, una antena de radio o un aparato de rayos.

Los electrones no son las únicas partículas que pueden emitir fotones. Cualquier partícula eléctricamente cargada puede hacerlo, incluido el protón. Esto significa que los fotones pueden saltar entre dos protoneso incluso entre un protón y un electrón. Este hecho es de enorme importancia para toda la ciencia y la vida en general. El intercambio continuo de fotones entre el núcleo y los electrones atómicos proporciona la fuerza que mantiene unido al átomo. Sin estos fotones saltarines, el átomo se desharía y toda la materia dejaría de existir.

Foto

Se ha conseguido observar por primera vez la desintegración radiativa del neutrón.
Dentro de los núcleos de los átomos hay neutrones y protones. En condiciones normales y mientras que están ahí los neutrones son estables. Sin embargo los neutrones libres son inestables, tienen una vida media de unos 10 minutos, y se desintegran produciendo un protón un electrón y un antineutrino. Pero los físicos nucleares teóricos predijeron que una de cada mil veces los neutronesdecaerían en todas esas partículas y además en un fotón.

Foto

Típicamente el neutrón decae en un protón, un antineutrino y un electrón. Muy raramente lo hace radiativamente emitiendo además un fotón. Diagrama: Zina Deretsky, National Science Foundation.

Mientras que un electrón pertenece al grupo de partículas llamadas fermiones, los fotones pertenecen a la familia de los bosones. Intentemos comprender esta película que es la intermediaria de todas las formas de radiación electromagnética.

…protagonizada por bosones

Los fermiones hacen posible la materia “al estilo tradicional”, mientras que los bosones son elementos muy raros desde la forma de pensar a que estamos acostumbrados el común de los mortales. Para no complicarnos, la tabla periódica de elementos existe porque los fermiones no pueden “ser iguales”: no pueden solaparse uno sobre otro y se repelen si los obligamos. Es lo que damos por hecho cuando hablamos de materia, que cada pedazo de ésta ocupa su lugar y tiene sus propias cualidades.

Toda la materia que conocemos, la que forma las estrellas y los mundos y las galaxias, esa que llamamos luminosa o bariónica, la que emite radiación, está hecha de Leptones y Quarks, partículas que son Fermiones, y, esas otras partículas intermediarias de las cuatro fuerzas fundamentales, son las que pertenecen a la familia de los Bosones, tales como el Fotón, las W+, W- y Zº, los Gluones y el Gravitón.

Los bosones carecen de este sentido de la individualidad que tienen los Fermiones, digamos que poseen “alma grupal” y, en su estado más puro, todos forman una misma “superpartícula”.

Para entenderlo mejor, conviene recordar que las partículas no son bolitas como nos siguen enseñando en la escuela, sino que más allá de esta imagen existen como ondas o, al menos, sus funciones se equiparan al comportamiento de una onda.

En la década de 1920, Albert Einstein y el hindú Satyendra Nath Bose pronosticaron un quinto estado de la materia: el condensado de Bose-Einstein (BEC), el cual fue conseguido en laboratorio en 1995, algo que le valió el premio Nobel de 2001 a los científicos que lo lograron.

Un condensado de Bose-Einstein es un estado de la materia que se da en ciertos materiales a muy baja temperatura. En este estado de la materia, todos los átomos que lo constituyen se encuentran en el nivel de mínima energía, denominado estado fundamental. Descubierto en 1924 para los fotones por el indio Bose y por Einstein, no fue obtenido en laboratorio hasta 1995 por Cornell y Wieman al enfriar átomos a pocos nanokelvin por encima del cero absoluto. El condensado de Bose-Einstein fue la “molécula del año” según la revista Science en 1995 ya que se trata de un sistema cuántico macroscópico similar a una molécula pero con millones de átomos. Un átomo en un gas se mueve a una velocidad de unos unos 1000 km/h (unos 300 m/s) pero un condensado de Bose-Einstein se mueve a sólo 1 cm/s. Un condensado de Bose-Einstein es respecto a la materia ordinaria, como la luz de un láser es respecto a la de una bombilla. Gracias a ello se puede fabricar un láser de átomos, que en lugar de producir un haz de luz como un láseróptico, produce un haz (coherente) de átomos. En 1997 Ketterle fabricó el primer láser de átomos que producía un haz de átomos de sodio.

Cuando ciertas formas de materia [bosones] se enfrían hasta casi el cero absoluto, sus átomos se ponen en el estado de energía más baja, de modo que todos sus átomos vibran al unísono y se hacen coherentes. Las funciones de onda de todos los átomos se solapan, de manera que, en cierto sentido, un BEC [condensado de Bose-Einstein] es como un “superátomo” gigante en donde todos los átomos individuales vibran al unísono.

Al enfriar los átomos, su velocidad disminuye hasta que las longitudes de onda de cada uno de ellos se vuelven casi planas, superponiéndose unas a otras para formar una única onda que los describe a todos.

Así que un BEC se forma cuando los átomos en un gas sufren la transición de comportarse como “bolas de billar” al estilo de la física clásica, a comportarse como una onda gigante de materia al estilo de mecánica cuántica:

Si creamos dos BECs y los colocamos juntos, no se mezclan como gases ordinarios ni rebotan como lo harían dos sólidos. Donde los dos BECs se superponen, ellos “interfieren” como las ondas: delgadas capas paralelas de materia son separadas por capas delgadas de espacio vacío. El patrón se forma porque las dos ondas se suman donde sus crestas coinciden, y se cancelan donde una cresta se encuentra con un valle — a lo cual llamamos interferencia “constructiva” y “destructiva” respectivamente. El efecto es similar al de dos ondas que se superponen cuando dos piedras son lanzadas a un lago.


…ambientada en el vacío…

Y ahora, retrocedamos un poco más en este asunto del misterio que nos ocupa. Gracias a la tecnología láser, la física ha podido comprobar el extremo poder de la luz. Los láseres pueden hacer que las partículas virtuales se vuelvan reales. Pero, primero, aclaremos conceptos…

Las “Partículas virtuales”son partículas fundamentales que están constantemente surgiendo aparentemente de la nada y permanecen en el espacio-tiempo la friolera de una milésima de trillonésima de segundo –una cantidad que se forma poniendo una veintena de ceros a la derecha de la coma—. A pesar de denominarse “virtuales”, sus efectos son muy reales: la constante agitación de este burbujeo cuántico de partículas hace que el vacío tenga energía. Y esto es algo que afecta a la realidad, pues en ésta las fuerzas de atracción y repulsión dependen de la masa, y la masa no es sino energía expresada en unidades diferentes: E=mc².

Resultado de imagen de Partículas virtuales que surgen de la NADA. Claro que, en la NADA no hay…¡Nada! -Imagen Gips

Partículas virtuales que surgen de la NADA. Claro que, en la NADA no debe haber…¡Nada! Pero hay

En el uso corriente la palabra vacío significa espacio vacío, espacio del que se ha extraído todo el aire, vapor de agua u otro material. Eso es también lo que significa para un físico experimental que trabaja con tubos de vacío y bombas de vacío. Pero para un físico teórico, el término vacío tiene muchas más connotaciones. Significa una especie de fondo en el que tiene lugar el resto de la física. El vacío representa un potencial para todas las cosas que pueden suceder en ese fondo. Significa una lista de todas las partículas elementales tanto como de las constantes de la Naturaleza que se pondrían de manifiesto mediante experimentos en dicho vacío. En resumen, significa un ambiente en el que las leyes de la física toman una forma particular. Un vacío diferente significa leyes de la física diferentes; cada punto en el paisaje representa un conjunto de leyes que son, con toda probabilidad, muy diferentes de las nuestras pero que son, en cualquier caso, posibilidades consistentes. El modelo estándar es meramente un punto en el paisaje de posibilidades.


La energía del vacío es, por tanto, la suma total de las energías de todas las partículas posibles. Es la llamada “energía oscura” que hace que el universo se expanda, haciendo frente a la atracción de la gravedad, y que proporciona alrededor del 80% de la materia-energía al universo –un 26% es “materia oscura”, y sólo un 4% es la materia conocida hasta el momento—.

Pero, ¿cómo una partícula virtual se convierte en real? Es decir, ¿cómo queda “atrapada” en el espacio-tiempo de forma más estable?

¡Los fotones de Yang-Mills adquieren su masa y el principio gauge se sigue cumpliendo! Al principio esta visión no mereció la atención que merecía. Por una parte, la gente pensó que el modelo era feo. El principio gauge estaba ahí, pero ya no era el tema central. El “Campo de Higgs había sido puesto ahí “a propósito” y la “partícula de Higgs, en sí misma, no era una “partícula gauge

La Teoría de la Sipersimetría establece que, por cada partícula de materia, nace una gemela de antimateria. La antimateria es igual que la materia, pero con carga opuesta. Por ejemplo, el electrón tiene carga negativa, y su partícula de antimateria, el positrón, positiva. Materia y antimateria se aniquilan mutuamente pero, por algún motivo aún no aclarado, la simetría se rompió en algún momento, surgiendo más materia que antimateria, de ahí que nuestro universo, materia, pueda existir.

Pero hay algo más en todo esto. Y para ello, la luz es la clave.

Controlar los estados cuánticos macroscópicos de osciladores micromecánicos no es fácil; hacerlo con luz (fotones) requiere el acoplamiento coherente entre …

Una de los modelos teóricos elaborados para superar la visión de la gravedad de Einstein indica que los fotones de los rayos gamma de alta energía viajarían algo más despacio que los de baja energía, lo que viola el axioma del sabio alemán acerca de que toda radiación electromagnética, desde las ondas radio hasta los rayos gamma, viajan en el vacío a la misma velocidad (la de la luz). Sin embargo, no ha sido verificado mediante experimento, con lo cual, Einstein sigue teniendo razón.

 protagonizada por la “luz” como la propia …

Ya en los años 30, los físicos predijeron que un campo eléctrico muy fuerte, que no es sino un espacio alterado por la actividad de un montón de fotones coordinados, podría impulsar a las partículas virtuales con carga opuesta en diferentes direcciones, impidiendo que la materia y la antimateria se aniquilen.

Según el efecto de creación de pares,   un fotón con energía suficiente, lo que equivale a tener el doble de la energía que posee un electrón en reposo, da lugar a una pareja de electrón y positrón.

Aunque esto ya se consiguió en los años 90 a pequeña escala, gracias al desarrollo de la tecnología láserlos científicos creen que estarán cerca de conseguir crear materia “en serie” mediante este proceso en unos pocos años.

Sabemos desde 1932, que un fotón gama con suficiente energía, puede formar un par de antipartículas, al interactuar con un átomo masivo, como el plomo. Pero el problema no termina, sino que, el electrónformado por un rayo gama, no interactúa con este tipo de fotón (gama), sino uno de luz visible,

Por otra parte, una vez que existen las partículas, los fotones interactúan sin cesar con ellas, siendo absorbidos y emitidos por las mismas de manera ininterrumpida.

Y de ello nace el movimiento gracias al cual todo existe en el espacio-tiempo. Sin movimiento, nuestra realidad desaparecería.

La carencia de masa de un fotón está ligada a su movimiento. Para que un cuerpo alcance la velocidad de la luz, su masa ha de ser cero. Y, como Einstein explicó en su día, la luz se mueve siempre a la velocidad de la luz. Si pretendemos que un fotón se pare, en lugar de ralentizarse observaremos que desaparece. Y, como se ha dicho al principio, si estos “fotones saltarines”  desaparecieran, toda la materia dejaría de existir.

Resultado de imagen de los fotones saltarines que hacen girar la rueda de la existncia

Su esencia es el movimiento y su misión, según parece, hacer girar la rueda de la existencia.

Ello es así debido al impacto de los fotones sobre las partículas elementales. La energía transmitida por un fotón es inversamente proporcional a su longitud de onda. Cuanto menos longitud de onda, más energía. Así, un fotón de luz visible tiene la energía suficiente para hacer reaccionar a un bastón de la retina. Si nos movemos en el espectro electromagnético, los fotones con longitud de onda ultravioleta pueden expulsar a los electrones de los átomos. Más allá, los rayos gamma pueden romper protones y neutrones

Y ahora, vayamos al meollo de la cuestión e indaguemos en la cita con que se iniciaba este artículo: ¿qué hace que los electrones absorban y emitan fotones? Esto, en otros términos, vendría a ser lo mismo que preguntarnos: ¿por qué existe nuestro universo?

…con un misterio: el 137…

¿Qué determina el momento exacto en que un electrón emite un fotón? La física cuántica dice que nada lo hace, pues la Naturaleza es caprichosa en sus niveles más elementales. Aunque no es caótica en extremo, sólo probabilística.

A diferencia de la física newtoniana, la mecánica cuántica nunca predice el futuro en función del pasado. En su lugar, ofrece reglas muy precisas para computar la probabilidad de varios resultados alternativos de un experimento.

Y la probabilidad de que un electrón emita o absorba un fotón es la constante de estructura fina. El valor de esa constante es 1/137.

En otras palabras, sólo un afortunado electrón de cada 137 emite un fotón. Este es el significado de alfa: es la probabilidad de que un electrón, cuando se mueve a lo largo de su trayectoria, emita caprichosamente un fotón.

El inverso de la constante de estructura fina es 137. Desde su descubrimiento, éste número ha traído de cabeza a los grandes científicos.

   \alpha^{-1} =   137.035 999 710 (96)

 

No puedo recordar si fue  Richard Feynman o León Lederman, quien sugirió que todos los físicos pusiesen un cartel en sus despachos o en sus casas que les recordara cuánto es lo que no sabemos. En el cartel no pondría nada más que esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina. Este número guarda relación con la probabilidad de que un electrónemita o absorba un fotón. La constante de estructura fina responde también al nombre de alfa, y sale de dividir el cuadrado de la carga del electrón por el producto de la velocidad de la luz y la constante de Planck. Tanta palabra no significa otra cosa sino que ese solo número, 137, encierra los meollos del electromagnetismo (el electrón), la relatividad (la velocidad de la luz) y la teoría cuántica (la constante de Planck). Menos perturbador sería que la relación entre todos estos importantes conceptos hubiera resultado ser un uno o un tres o quizás un múltiplo de pi. Pero ¿137?

… es un número que determina la fuerza de una interacción) y equivale a 1/137,03599911.

“Lo más notable de este notable número es su adimensionalidad. La velocidad de la luz es de unos 300.000 kilómetros por segundo. Abraham Lincoln medía 1,98 metros. La mayoría de los números vienen con dimensiones. Pero resulta que cuando uno combina las magnitudes que componen alfa, ¡se borran todas las unidades! El 137 está solo: se exhibe desnudo a donde va. Esto quiere decir que a los científicos de Marte, o a los del decimocuarto planeta de la estrella Sirio, aunque usen Dios sabe qué unidades para la carga y la velocidad y qué versión de la constante de Planck, también les saldrá 137. Es un número puro.”

(Leon Ledderman, La partícula divina)

Uno de los padres de la mecánica cuántica, Wolfgang Pauli, se obsesionó tanto con este número que dijo que, de poder hacerle una pregunta a Dios, sería esta: “¿Por qué 137?”

Gracias a su gran amistad con Carl G. Jung, Pauli conoció el mundo “alternativo” de los estudios sobre la psique y accedió a la tradición esotérica que ha acompañado al hombre desde el principio de los tiempos. Es así como supo que 137 se aproxima al valor correspondiente al ángulo áureo. Esto es, la versión circular del número áureo  o φ (phi).

Sin fotones… ¡El Universo sería inestable, sería otro universo diferente!

En realidad, el ángulo de oro es, más o menos, 137,5º, y está presente en todo proceso natural donde se dé una combinación de espirales. Así, por ejemplo, las hojas de una planta surgen a lo largo del tallo cada 137,5º, pues así se logra la mayor eficiencia de espacio y de captación de la luz solar, ya que únicamente con éste ángulo es posible evitar que ninguna hoja obstaculice a las demás en la toma de luz sin que existan espacios muertos o vacíos.

Esta semejanza entre los valores de la constante de estructura fina y el ángulo áureo llevó a la doctora Raji Heyrovska  a buscar el ángulo áureo en el universo atómico (véase versión en español de su estudio).

Que esto sea así no debería extrañarnos, pues si el número áureo es una constante en toda la Naturaleza, su versión angular es la apropiada para estar presente en el universo cuántico, donde, recordemos, los elementos básicos de la realidad se reducen a funciones de onda.

…y un final místico.

Los fotones no tienen masa ni carga eléctrica. Sin embargo, pueden “extraer” del vacío partículas con masa y carga, tanto negativa como positiva.

Más allá de la matería y la energía, del tiempo y del espacio, el concepto de función de onda nos introduce en una realidad abstracta de donde surge todo.Y si, como hemos dicho, a menor longitud de onda mayor energía, también es posible afirmar que, en eso que David Bohm llamaba “orden implicado”, cuanto menor es la longitud de una onda cuántica, mayor es la presencia de masa en el espacio-tiempo.

Para la física, las matemáticas se han mostrado como la realidad que subyace a la materia. Todo se puede reducir a números, entidades que forman y organizan el espacio-tiempo. En este nivel de realidad, ni la materia ni la energía existen como tales, sino que demuestran ser el resultado de la interacción de entidades abstractas.

En esta pasión por los números, no podemos evitar recordar la versión cabalística de la filosofía perenne. Para la Kabbalah, lo divino responde a la “Nada”, ya que lo trascendente no puede ser aprehendido desde nuestra posición en el mundo finito.

En el momento de la Creación, la luz infinita se habría divido, quedando encerrada en conductos que, al romperse, producen la materia y, en definitiva, la fractura de la unidad primordial de la luz.

Esta materia o qelippot, en el sentido de “conchas” o caparazones que “encierran” la luz y rompen la armonía unitaria de la luz, es el origen del mundo, de su finitud y causa del mal en la realidad no-divina. El mundo creado es así una fractura de la harmonía de la luz que crea la diferenciación y la tensión entre unas cosas y otras: este es el origen del mal, de la falta de armonía que debe recuperarse en el curso de la historia.


La Kabbalah enseña, según esto, el camino para desarrollar la Vasija interior donde recibir la Luz, la cual, según va llenando dicha vasija, nos acerca a la unidad del Espíritu. Es así que la Luz, al tiempo que “absorbida” por el alma, puede ser “proyectada” en el mundo mediante los actos del hombre trascendido.

Que la luz ha sido usada por todos los movimientos espirituales para referirse a lo divino es algo que a nadie se le escapa. La imagen que la Kabbalah ofrece aquí no es muy diferente de la que podríamos encontrar en textos rosacruces o en escritos orientales, entre otros.

Sin embargo, si esta vez he preferido usar el hermetismo hebreo es, como he mencionado, por su pasión hacia los números. Y es que el valor numérico para el término hebreo de “kabbalah” (cuya traducción es “recepción”) es…

como muchos ya sabrán…

Efectivamente…

137.

Ciencia y tradición hermética unidas por un número que, en ambas, define la interacción entre luz y materia.

Cosas…

Luz que, también en ambos casos, procede de la Nada.

Decía Jung que el espacio y el tiempo son conceptos hipostasiados, fenómenos que hemos decidido convertir en reales. La física teórica y la consolidación de la mecánica cuántica han dejado claro, a lo largo de las últimas décadas, que toda esta realidad por la que combatimos, matamos, morimos, odiamos, repudiamos, humillamos, codiciamos, envidiamos o ansiamos consiste, simplemente, en Nada.

Nada…

Una ilusión de la psique por la que renunciamos a indagar en el misterio de la Vida y nuestra experiencia momentánea en el espacio-tiempo se convierte en un vagar ausentes, asumiendo que todo es un sinsentido.

A veces, en momentos de bajón, me pregunto si no será por eso por lo que, casi cien años después, nos siguen diciendo que la física cuántica es muy complicada para que lleguemos a entenderla…

Lo más triste, sin embargo, es que lo aceptamos…

Todo esto lo he leido o aprendido de gente que son más sabias que yo, ideas que tienen sus fuentes en trabajos realizados con la misión y el propósito de desvelar los secretos de la Naturaleza para saber, como es el Universo.

Lo conseguiremos alguna ve?

emilio silvera

La masa y la energía ¿De donde vienen?

$
0
0

No es ningún secreto que la obra más famosa de la denominada literatura árabe, Alf Laylah wa-Laylah (Las mil y una noches), era en realidad una antigua obra persa.  Hazar Afsana ( un millar de cuentos), que contenía distintos relatos, muchos de los cuales eran de origen Indio.  Con el paso del tiempo, se hicieron adiciones a obra, no sólo a partir de fuentes árabes, sino también griegas, hebreas, turcas y egipcias.  La obra que hemos leído (casi) todos, en realidad, es un compendio de historias y cuentos de distintas nacionalidades, aunque la ambientación que conocemos, es totalmente árabe.

 

Los físicos que abordan el multiverso coinciden en que sería imposible visitar los universos vecinos, pero pueden estar ahí. / The Washington Post (Washington Post)

 

Nuestro universo, con lo inmenso que es, con centenares de miles de millones de galaxias visibles y tantos millones de estrellas en cada una de ellas, puede que no sea el único que exista. Tal vez hay otros universos, distintos del que conocemos, y alguno parecido… ¿Sería posible visitarlos? ¿Echarles un vistazo? ¿Comprobar siquiera si efectivamente están por ahí como burbujas aisladas… a no ser que entren algunas en colisión? Medio centenar de expertos estadounidenses, europeos y españoles se han reunido esta semana en un encuentro científico de alto nivel celebrado en la Universidad Autónoma de Madrid (UAM) para discutir precisamente los multiversos y las teorías en las que emerge su existencia.

 

fotografías

En realidad, cuando observamos el Universo y vemos los fenómenos que ahí ocurren, las transiciones de fase que se producen en la materia, las energías desatadas que por todas partes son proyectadas en explosiones de supernovas y colisiones de estrellas de neutrones o agujeros negros, cuando dos inmensas galaxias se funden en una y se fusionan mediante un Vals de Gravedad que dura algunos millones de años… Cuando todo eso ocurre, podríamos pensar que, la Vida, no está preparada para ese entorno. Sin embargo, ¡aquí estamos!

Como nos dice la filosofía, nada es como se ve a primera vista, todo depende del punto de vista desde el que miremos las cosas, de la perspectiva que nos permita nuestra posición física y, la intelectual también. No todos podemos ver las cosas de la misma manera. La imagen de abajo que es una Nebulosa como otras tantas, ¿qué te dice a tí? ¿qués es lo que ahí puedes ver? ¿qué deduces de los componentes de la nebulosa? ¿qué puede surgir de ahí y de otros lugares como este de abajo? ¿Cómo llegó a formarse tal conglomerado de gas y polvo?

http://juancarrion.files.wordpress.com/2010/05/feynman.jpg

 

Richard Feynman

 

“Siempre me ha intrigado que, cuando se trata de aplicar las leyes tal como las entendemos actualmente, una computadora necesite hacer un número infinito de operaciones lógicas para efectuar cálculos relativos a lo que sucede en cualquier zona insignificante del tiempo. ¿Cómo puede suceder todo eso en un espacio diminuto? ¿Por qué se necesita una cantidad infinita de operaciones lógicas para averiguar lo que va a pasar en un fragmento diminuto de espacio-tiempo? A menudo he formulado la hipótesis de que en última instancia la física no necesitará una expresión matemática, ya que al fin se descubrirá la maquinaria y las leyes llegarán a ser sencillas, como un juego de ajedrez con todas sus aparentes complejidades.”

 

              Patrón de un kilogramo.

El cemento del Universo: Leptones y Quarks. Pero a partir de estos infinitesimales objetos, se conforman muchos otros conceptos que, como la Masa y la Carga eléctrica le van dando forma y comprensión a esos fenómenos que hemos podido llegar a observar y comprender. ¿De qué estamos hechos? El Modelo Estándar de Partículas Elementales ha dejado al descubierto una aceptable explñicación para comprender eso y mucho más.
El misterio de la masa
De forma cotidiana denominamos masa a la cantidad de materia de un cuerpo. Prácticamente toda la masa de los átomos que componen la materia se debe a la masa de sus núcleos. La masa de los núcleos atómicos esencialmente corresponde a la de los protones y neutrones que los forman. Sin embargo, la masa de un protón o un neutrón es mucho mayor que la suma de las masas de los quarks que los forman (éstas son tan pequeñas que sólo explican el 1% de la masa total). El 99% de la masa de protones y neutrones está asociada a la energía cinética de los quarks en su interior, que se mueven a velocidades relativistas, pero que no escapan por estar confinados por la fuerza de color. Esta masa corresponde por tanto a una energía interna de las partículas compuestas.
La energía interna no puede, sin embargo, explicar la masa de las partículas elementales (como los propios quarks, los leptones o los bosones Z y W), por no estar compuestos de partículas más pequeñas.
¿Cuál es el origen de la masa de las partículas elementales?

 

 

Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron.  Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”.  , por lo menos, tenemos una respuesta parcial, en absoluto completa.  Una voz potente y ¿segura? nos dice: “!Higgs¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgs presenta el problema en un contexto ; no se trata sólo del muón. Proporciona, por lo menos, una fuente común todas las masas. La nueva pregunta feynmaniana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas la materia?

La variación de la masa con el de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen dicho que el concepto de masa sea un atributo fundamental de la materia.  Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron de él “renormalizándolo”, ese truco matemático que emplean cuando no saben encontrar la respuesta al problema planteado.

Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas.  que la historia de Higgs se tenga en pie: la masa no es una propiedad intrínseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.

La idea de que la masa no es intrínseca la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en la que los espines estarían asociados siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.

¡Ah, una cosa más! Hemos hablado de los bosones gauge y de su espín de una unidad; hemos comentado también las partículas fermiónicas de la materia (espin de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espín cero.  El espín supone una direccionalidad en el espacio, pero el campo de Higgs da masa a los objetos dondequiera que estén y sin direccionalidad.  Al Higgs se le llama a veces “bosónescalar” [sin dirección] por esa razón.

La interacción débil, recordareis, fue inventada por E. Fermin describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme de procesos en el dominio de energía de los 100 MeV.  Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar el bosón Higgs origen de la masa… y algunas cosas más.

Resultado de imagen de Fabiola Gianotti, portavoz del experimento ATLAS, ofreció algunos avances:

      

                       Fabiola Gianotti, portavoz del experimento ATLAS, ofreció algunos avances:

“En nuestros observamos claros signos de una nueva partícula compatible con la teoría de Higgs, con un nivel aproximado de 5 sigma [99,977% de eficiencia], en la región de masa alrededor de los 126 GeV. El increíble rendimiento del LHC y el ATLAS y los enormes esfuerzos de mucha gente nos han traído a excitante punto, pero hace falta un poco más de tiempo para preparar estos resultados cara a su publicación.”

 

El Modelo Estándar describe las partículas de todo cuanto nos rodea, incluso de nosotros mismos. Toda la materia que podemos observar, sin embargo, no parece significar más que el 4% del total. Higgspodría ser el puente para comprender el 96% del universo que permanece oculto.

El 4 de julio de 2012 se anunció el descubrimiento de un bosón. Punto. En diciembre de 2012 se empezó a hablar de “un” Higgs (en lugar de “el” Higgs), pero oficialmente seguía siendo un nuevo bosón. ¿Importa el ? El Premio Nobel de Física para el bosón de Higgs sólo será concedido cuando el CERN afirme con claridad y rotundidad que se ha descubierto “el” Higgs, si el CERN es conservador, la Academia Sueca lo es aún más. Sin embargo, el rumor es que quizás baste con que el CERN diga que se ha descubierto “un” Higgs.

¿Por qué, a pesar de todas las noticias surgidas el CERN, creo que no ha llegado el momento de celebrarlo? ¿Es acaso el Higgs lo encontrado? Al menos a mí me faltan expliaciones sobre el verdadero mecanismo mediante el cual las partículas adquieren masa.

Hay que responder montones de preguntas.  ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión de LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o las hace incrementarse? ¿Y, cómo podemos saber más al respecto? También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del Universo, añadiendo, pues, un peso más a la carga que ha de soportar el Higgs.

El campo de Higgs, tal y como se lo concibe , se puede destruir con una energía grande, o temperaturas altas. Estas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puso y de resplandeciente simetría es demasiado caliente Higgs. Pero cuando la temperatura cae bajo los 10’5 grados kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas.  Así por ejemplo, de Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada.

El Universo se expande y se enfría, y entonces viene el Higgs (que engorda los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe. Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W-, Z0, y por otra una interacción electromagnética, llevada por los fotones. Es como si algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que las hiciera parecer que tienen mucha masa. Para otras partículas, el Higgs es el agua, y para otras, los fotones y quizá los neutrinos, es invisible.

Cada suceso, la línea del haz es el eje común de los cilindros de malla de alambre ECAL y HCAL. ¿Cuál es el mejor candidato W? el mejor candidato Z? En cada evento, ¿dónde ocurrió la colisión y el decaimiento de las partículas producidas? Lo cierto es que, en LHC se hacen toda clase de pruebas para saber del mundo de las partículas, de dónde vienen y hacia dónde se dirigen y, el Bosón de Higgs, es una asignatura pendiente a pesar de las noticias y de los premios

 

De todas las maneras, es tanta la ignorancia que tenemos sobre el origen de la masa que, nos agarramos como a un clavo ardiendo el que se ahoga, en caso, a la partícula de Higgs que viene a ser una de las soluciones que le falta al Modelo Estándar para que todo encaje con la teoría.

¡Ya veremos en que termina todo esto! Y, aunque el que suena siempre es Higgs, lo cierto es que los autores de la teoría del “Bosón de Higgs”, son tres a los que se ha concedido, junto al CERN, el Premio Principe de Asturias. Peter Ware Higgs —el primero en predecir la existencia del bosón— junto a los físicos François Englert, y el belga Robert Brout—fallecido en el año 2011—.

Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas.  La utilizaron los teóricos Steven Weinberg y V. Salam, que trabajaban por separado, comprender como se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, Wy Z0 de masa grande.  Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glasgow, quien tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martines Veltman y Gerard’t Hooft.  También hay otras a los que había que mencionar, pero lo que siempre pasa, quedan en el olvido de manera muy injusta.  Además, ¿Cuántos teóricos hacen falta para encender una bombilla?

La verdad es que, casi siempre, han hecho falta muchos.  Recordemos el largo recorrido de los múltiples detalle sueltos y físicos que prepararon el terreno para que, llegara Einstein y pudiera, uniéndolo todo, exponer su teoría relativista.

Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, dice que es una alfombra bajo la que barremos nuestra ignorancia.  Glasgow es menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales.  La objeción principal: que no teníamos la menor prueba experimental que parece que va asomando la cabeza en el LHC.

Esperemos que la partícula encontrada, el bosón hallado, sea en realidad el Higgs dador de masa a las demás partículas pero… ¡Cabe la posibilidad de que sólo sea el hermano menor! de la familia. El modelo estándar es lo bastante fuerte decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.

Después de todo esto, tal como lo están planteando los del CERN,  se llegar a la conclusión de que, el campo de Higgs, el modelo estándar y nuestra idea de cómo se hizo el Universo dependen de que se encuentre el Bosón de Higgs.  Y , por fin, el mayor Acelerador del mundo, el LHC, nos dice que el Bosón ha sido encontrado y las pruebas tienen una fiabilidad enorme.

Resultado de imagen de Será tangible el Bosón de Higgs

¡La confianza en nosotros mismos, no tiene límites! Pero el camino no ha sido recorrido por completo y quedan algunos tramos que tendremos que andar para poder, al fín, dar una explicación más completa, menos oscura y neblinosa que lo que hasta el momento tenemos, toda vez que, del Bosón de Higgs y de su presencia cierta, dependen algunos detalles de cierta importancia para que sean confirmados nuestros conceptos de lo que es la masa y, de paso, la materia.

¿Pasará igual con las cuerdas?

Pero volviendo al principal tema aquí tratado, ya todo eso quedó sobrepasado y el Bosón de Higgs (según nos dijeron los del CERN), ha sido descubierto para que le concedieran el Nobel de Física a Peter Ware Higgs —el primero en predecir la existencia del bosón— junto al físico François Englert. Desgraciadamente,   el belga Robert Brout -también merecedor al premio- no pudo estar presente, se marchó antes de tiempo para hacerlo posible.

emilio silvera

Fuente principal: León Lederman


¿Dónde estarán las respuestas?

$
0
0
Einstein y las cosas que decía »

René Descartes, filósofo, matemático y físico  francés, considerado el padre de la filosofía moderna, así como uno de los nombres más destacados de la revolución científica. El método científico ( del latín scientia = conocimientocamino hacia el conocimiento) es un método de investigación usado principalmente en la producción de conocimiento en las ciencias. Para ser llamado científico, un método de investigación debe basarse en la empírica y en la medición, sujeto a los principios específicos de las pruebas de razonamiento.  El método científico es: «un método o procedimiento que ha caracterizado a la ciencia natural desde el siglo XVII, que consiste en la observación sistemática, medición, experimentación, la formulación, análisis y modificación de las hipótesis»
El método científico está sustentado por dos pilares fundamentales. El primero de ellos es la reproducinilidad, es decir, la capacidad de repetir un determinado experimento, en cualquier lugar y por cualquier persona. Este pilar se basa, esencialmente, en la comunicación y publicidad de los resultados obtenidos (por ej. en forma de artículo científico). El segundo pilar es la refutabilidad. Es decir, que toda proposición científica tiene que ser susceptible de ser falsada o refutada. Esto implica que se podrían diseñar experimentos, que en el caso de dar resultados distintos a los predichos, negarían la hipótesis puesta a prueba.

 

¡Son posibles tantas cosas!

Algunos quieren encontrar las respuestas en la religión (que si ha sido escogida voluntariamente… ¡bien está!). Pero, como todos sabemos, es cosa de fe. Creer en aquello que no podemos ver ni comprobar no es precisamente el camino de la ciencia que empieza por imaginar, después conjeturar, más tarde teorizar, se comprueba una y mil veces la teoría aceptada a medias y sólo cuando todo está amarrado y bien atado, todas esas fases pasan a la categoría de una ley o norma que se utiliza para continuar investigando en la buena dirección. Einstein solía decir: “La religión sin Ciencia es ciega.”

Otros han sido partidarios de la teoría del caos y argumentan que a medida que el nivel de complejidad de un sistema aumenta, entran en juego nuevos tipos de leyes. Entender el comportamiento de un electrón o un quark es una cosa; utilizar este conocimiento para comprender el comportamiento de un tornado es otra muy distinta. La mayoría está de acuerdo con este aspecto. Sin embargo, las opiniones divergen con respecto a si los fenómenos diversos y a veces inesperados que pueden darse en sistemas más complejos que las partículas individuales son realmente representativos del funcionamiento de los nuevos principios de la física, o si los principios implicados son algo derivado y están basados, aunque sea de un modo terriblemente complicado, en los principios físicos que gobiernan el ingente número de componentes elementales del universo.

 

 

 

 

“La teoría del todo o teoría unificada fue el sueño incumplido de Einstein. A este empeñó dedicó con pasión los últimos 30 años de su vida. No lo logró, y hoy continúa sin descubrirse. Consiste en una teoría definitiva, una ecuación única que dé respuesta a todas las preguntas fundamentales del Universo. Claro que, Einstein no sabía que las matemáticas para plasmar esa Teoría mágica… ¡No se habían inventado en su tiempo ni tampoco en el nuestro!

La teoría del todo debe explicar todas la fuerzas de la Naturaleza, y todas las características de la energía y la materia. Debe resolver la cuestión cosmológica, es decir, dar una explicación convincente al origen del Universo. Debe unificar relatividad y cuántica, algo hasta ahora no conseguido. Y además, debe integrar otros universos en caso de que los haya. No parece tarea fácil. Ni siquiera se sabe si existe una teoría del todo en la Naturaleza. Y, en caso de que exista, si es accesible a nuestro entendimiento y a nuestras limitaciones tecnológicas para descubrirla.”

Einstein se pasó los últimos treinta años de su vida en la búsqueda de esa teoría que nunca pudo encontrar. En los escaparates de la 5ª Avenida de Nueva York, exponían sus ecuaciones y la gente, sin entender lo que veían, se arremolinaban ante el cristal para verlas.

 

 

 

 

Casi todo el mundo está de acuerdo en que el hallazgo de la Gran Teoría Unificada (teoría del Todo), no significaría de modo alguno que la psicología, la biología, la geología, la química, y también la física, hubieran resuelto todos sus problemas.

El universo es un lugar tan maravilloso, rico y complejo que el descubrimiento de una teoría final, en el sentido en el que esta planteada la teoría de supercuerdas, no supondría de modo alguno el fin de la ciencia ni podríamos decir que ya lo sabemos todo y para todo tendremos respuestas.  Más bien será, cuando llegue, todo lo contrario: el hallazgo de esa teoría de Todo (la explicación completa del universo en su nivel más microscópico, una teoría que no estaría basada en ninguna explicación más profunda) nos aportaría un fundamento mucho más firme sobre el que podríamos construir nuestra comprensión del mundo y, a través de estos nuevos conocimientos, estaríamos preparados para comenzar nuevas empresas de metas que, en este momento, nuestra ignorancia no nos dejan ni vislumbrar. La nueva teoría de Todo nos proporcionaría un pilar inmutable y coherente que nos daría la llave para seguir explorando un universo más comprensible y por lo tanto, más seguro, ya que el peligro siempre llega de lo imprevisto, de lo desconocido que surge sin aviso previo; cuando conocemos bien lo que puede ocurrir nos preparamos para evitar daños.

 

 

 

 

 

La búsqueda de esa teoría final que nos diga cómo es el universo, el tiempo y el espacio, la materia y los elementos que la conforman, las fuerzas fundamentales que interaccionan, las constantes universales y en definitiva, una formulación matemática o conjunto de ecuaciones de las que podamos obtener todas las respuestas, es una empresa nada fácil y sumamente complicada; la teoría de cuerdas es una estructura teórica tan profunda y complicada que incluso con los considerables progresos que ha realizado durante los últimos décadas, aún nos queda un largo camino antes de que podamos afirmar que hemos logrado dominarla completamente. Se podría dar el caso de que el matemático que encuentre las matemáticas necesarias para llegar al final del camino, aún no sepa ni multiplicar y esté en primaria en cualquier escuela del mundo civilizado.

Muchos de los grandes científicos del mundo (Einstein entre ellos), aportaron su trabajo y conocimientos en la búsqueda de esta teoría, no consiguieron su objetivo pero sí dejaron sus ideas para que otros continuaran la carrera hasta la meta final. Por lo tanto, hay que considerar que la teoría de cuerdas es un trabajo iniciado a partir de las ecuaciones de campo de la relatividad general de Einstein, de la mecánica cuántica de Planck, de las teorías gauge de campos, de la teoría de Kaluza-Klein, de las teorías de… hasta llegar al punto en el que ahora estamos.

 

 

 

 

El Universo de lo muy grande y el de lo muy pequeño… ¡Es el mismo universo! Simplemente se trata de mirar en distintos ámbitos del saber, y, la importancia de las medidas… ¡también es relativia! Porque, ¿podríamos valorar la importancia de los electrones. La existencia de los fotones,  o, simplemente la masa del protón? Si alguno de esos objetos fuese distinto, el Universo también lo sería.

La armoniosa combinación de la relatividad general y la mecánica cuántica es un éxito muy importante. Además, a diferencia de lo que sucedía con teorías anteriores, la teoría de cuerdas tiene la capacidad de responder a cuestiones primordiales que tienen relación con las fuerzas y los componentes fundamentales de la naturaleza.

Igualmente importante, aunque algo más difícil de expresar, es la notable elegancia tanto de las respuestas que propone la teoría de cuerdas, como del marco en que se generan dichas respuestas. Por ejemplo, en la teoría de cuerdas muchos aspectos de la naturaleza que podrían parecer detalles técnicos arbitrarios (como el número de partículas fundamentales distintas y sus propiedades respectivas) surgen a partir de aspectos esenciales y tangibles de la geometría del universo. Si la teoría de cuerdas es correcta, la estructura microscópica de nuestro universo es un laberinto multidimensional ricamente entrelazado, dentro del cual las cuerdas del universo se retuercen y vibran en un movimiento infinito, marcando el ritmo de las leyes del cosmos.

Lejos de ser unos detalles accidentales, las propiedades de los bloques básicos que construyen la naturaleza están profundamente entrelazadas con la estructura del espacio-tiempo.

 

 

Resultado de imagen de El espacio-tiempo es una estructura suave

 

… abre la puerta al mundo cuántico fractal, que parece contener un número infinito de copias escaladas de nuestro espacio-tiempo ordinario 4-dimensional.

 

“El espacio-tiempo es una estructura suave, al menos así lo sugiere un nuevo estudio, anotando una posible victoria para Einstein sobre los teóricos cuánticos que vinieron después de él.”

Accede al artículo original espacioprofundo.es/2013/01/11/einstein-tenia-razon-el-espacio-tiempo-es-una-estructura-suave/ © Espacio Profundo

 

 

Resultado de imagen de Teoría de cuerdas

Claro que, siendo todos los indicios muy buenos, para ser serios, no podemos decir aún que las predicciones sean definitivas y comprobables para estar seguros de que la teoría de cuerdas ha levantado realmente el velo de misterio que nos impedía ver las verdades más profundas del universo, sino que con propiedad se podría afirmar que se ha levantado uno de los picos de ese velo y nos permite vislumbrar algo de lo que nos podríamos encontrar.

La teoría de cuerdas, aunque en proceso de elaboración, ya ha contribuido con algunos logros importantes y ha resuelto algún que otro problema primordial como por ejemplo, uno relativo a los agujeros negros, asociado con la llamada entropía de Bekenstein-Hawking, que se había resistido pertinazmente durante más de veinticinco años a ser solucionada con medios más convencionales. Este éxito ha convencido a muchos de que la teoría de cuerdas está en el camino correcto para proporcionarnos la comprensión más profunda posible sobre la forma de funcionamiento del universo, que nos abriría las puertas para penetrar en espacios de increíble belleza y de logros y avances tecnológicos que ahora ni podemos imaginar.

Como he podido comentar en otras oportunidades, Edward Witten, uno de los pioneros y más destacados experto en la teoría de cuerdas, autor de la versión más avanzada y certera, conocida como teoría M, resume la situación diciendo que: “la teoría de cuerdas es una parte de la física que surgió casualmente en el siglo XX, pero que en realidad era la física del siglo XXI“.

Witten, un físico-matemático de mucho talento, máximo exponente y punta de lanza de la teoría de cuerdas, reconoce que el camino que está por recorrer es difícil y complicado. Habrá que desvelar conceptos que aún no sabemos que existen.

El hecho de que nuestro actual nivel de conocimiento nos haya permitido obtener nuevas perspectivas impactantes en relación con el funcionamiento del universo es ya en sí mismo muy revelador y nos indica que podemos estar en el buen camino revelador de la rica naturaleza de la teoría de cuerdas y de su largo alcance. Lo que la teoría nos promete obtener es un premio demasiado grande como para no insistir en la búsqueda de su conformación final.

El universo, la cosmología moderna que hoy tenemos, es debida a la teoría de Einstein de la relatividad general y las consecuencias obtenidas posteriormente por Alexandre Friedmann. El Big Bang, la expansión del universo, el universo plano y abierto o curvo y cerrado, la densidad crítica y el posible Big Crunch que, según parece, nunca será un hecho y, el universo, tendrá una “muerte” térmica, es decir, cuando el alejamiento de las galaxias lo haga más grande, más oscuro y más frío. En el cero absoluto de los -273 ºC, ni los átomos se moverán.

Un comienzo y un final que abarcará miles y miles de millones de años de sucesos universales a escalas cosmológicas que, claro está, nos afectará a nosotros, insignificantes mortales habitantes de un insignificante planeta, en un insignificante sistema solar creado por una insignificante y común estrella.

Pero… ¿somos en verdad tan insignificantes

emilio silvera

¡La Física! ¡El Universo! ¡Nosotros!

$
0
0

El éxito alcanzado por la Física desde finales del siglo XIX hasta esta primera década del siglo XXI no sólo ha transformado nuestra concepción del espacio-tiempo, sino que ha llegado a poner en nuestras mentes una nueva percepción de la Naturaleza: la vieja posición central que asignábamos a la materia ha cedido su lugar a los principios de simetría, algunos de ellos ocultos a la vista en el estado actual del Universo.

Está claro que, los físicos, cada día más ambiciosos en su “querer saber” y su “querer descubrir”, buscan sin descanso nuevos caminos que les lleve a desvelar ocultas maravillas que tienen su hábitat natural en lo más profundo de la Naturaleza misma de la que no sabemos, aún, entender todas sus voces.

Son muchos los obstáculos que se encuentran en ese camino que nos lleva inexorable hacia esa soñada teoría final. Los científicos discrepan de los filósofos que no siempre, están de acuerdo con el hecho de que se pueda llegar a esa teoría última que lo pueda explicar todo, y, la firme creencia de que el Universo siempre tendrá secretos para nosotros, es una constante de la filosofía que la Ciencia, no deja de combatir.

       Representación en 3D de la primera colisión en ATLAS. Más imágenes en ATLAS event displays.

Estamos embarcados en una enorme aventura intelectual que eleva al ser humano a la categoría más alta que en el Universo pueda. La Física de altas energías nos llevan a conocer las entrañas de la materia y nos cuenta como se producen esas interacciones en el corazón de los átomos y aunque no sabemos cómo puedan ser las leyes finales ni cuanto será el tiempo que tardaremos en encontrar las pistas que nos guíen por el camino correcto, lo cierto es que, el progreso continúa y cada vez se construyen aceleradores más potentes y sofisticados y telescopios más modernos y con mayor capacidad para transportarnos hacia regiones profundas del Universo en las que podemos contemplar galaxias situadas muy cerca de ese comienzo que llamamos Big Bang.

Como no podía ser de otra manera dado nuestro carácter siempre dispuesto a la controversia y nuestras mentes de pensamientos diversos, la propia idea de una teoría final nos ha llevado a la más profunda discrepancia entre unos y otros. Por una parte, están los partidarios de esa teoría que nos podrá hablar de un Universo de más altas dimensiones, donde la relatividad general de Einstein y la mecánica cuántica de Planck, conviven en la soñada concordia que muchos físicos han soñado y, por la otra, están aquellos que discrepando de los primeros se agarran al pensamiento de la imposibilidad de conseguir una teoría de esas características y, ellos hablan de física-ficción.

Lo cierto es que, a pesar de lo que digan los detractores de estas ideas avanzadas (no pocas veces por envidia y por el simple hecho de que ellos no tienen la capacidad de entender los nuevos conceptos y sus complejas matemáticas), la Física prosigue su camino y en no pocos campos, la lista de los Grupos Especializados que existen en la RSEF es un ejemplo del lugar que la Física ocupa en el ámbito de la Ciencia y en la Sociedad.

Resultado de imagen de RSEF

    Real Sociedad Española de Física

Grupos Especializados dentro de la RSEF:

De Adsorción, de Astrofísica, de Calorimetría y Análisis Térmico, de Coloides e interfases, de Cristalografía y crecimiento cristalino, de Didáctica e Historia de la Física y la Química, de la Física Atómica y Molecular, de la Física del Estado Sólido, de la Física en las Ciencias de la Vida, de Física Estadística y no Lineal, de Física de Altas Energías, de Física de la Atmósfera y del Océano, de Física de Polímeros, de Física Médica, de Física Nuclear, de Física Teórica (del que soy miembro numerario), de Información Cuántica, de Materiales Moleculares, de Reología, de Termodinámica, etc.

Todo esto demuestra el enorme interés que la Física tiene en todos y cada uno de los apartados que la puedan afectar y, lo mismo trata de conseguir un líquido de quarks y gluones que, a temperatura ambiente se convierta en el mejor superconductor, que encontrar el Bosón de Higgs para completar y mejorar el Modelo Estándar, investigar en los campos del electromagnetismo y de la radiación con la mirada puesta en la salud con fines médicos que hagan mejor nuestras vidas (tomografía por emisión de positrones computerizada: un buen uso, no un abuso, de la radiación ionizante, neuroimagen por resonancia magnética, estudio de fisiología cardíaca mediante Ecocardiografía Doppler, Radioterapia con radiación sincrotrón, radioterapia del melanoma ocular, una perspectiva de la biología y la medicina desde la teoría del caos y la geometría fractal, etc. etc.), innumerables y sustanciosas colaboraciones con la Astronomía (Astrofísica), con las ciencias de la vida (Biofísica) y, sería interminable la lista de aquellos apartados del saber de la Humanidad en los que la Física está presente.

Independientemente de los muchos proyectos en marcha (ordenadores cuánticos, energía de vacío, semiconductores magnéticos diluidos (materiales para la espintrónica), nanotecnología y nanociencia, modelos de las dinámicas de las ondulaciones en la nanoarena, materia extraña, tecnologías de la telecomunicación y de la información, capacidad de almacenar información, física de fluidos, estudios del efecto de la irradiación sobre el metano, la física de materiales, teletransportación cuántica, estudio del cristal aperiódico de la vida, interacciones fundamentales, sensores de radiación y detección de alimentos irradiados, simetrías exóticas, fibras ópticas, nanotubos… y seguir enumerando lo que la Física es y la infinidad de campos en los que interviene requeriría muchas horas y muchas páginas de las que no disponemos.

 Hemos llegado a saber desde lo muy grande hasta lo muy pequeño que, estando en este mundo nuestro, parece que están en diferentes mundos, toda vez que, lo uno se sitúa en el macro mundo, mientras que lo otro está situado en ese otro “universo” infinitesimal de la cuántica. Sin embargo, ambos “mundos” no han dejado nunca de estar conectados y todo lo grande está hecho de cosas pequeñas. La técnica avanza y los conocimientos nuevos nos posibilitan hacia un futuro que ni podemos imaginar.

A todo esto, nos damos de bruce con problemas tan complejos que la idea que podemos tener hoy de la realidad que sea compatible con los más recientes resultados teóricos y experimentales de la mecánica cuántica. Yo tengo amigos banqueros, Ingenieros, oficinistas, constructores, camareros, mecánicos o marineros que, cuando se les habla de estos temas, miran para otro lado y silban. Poca gente se interesa por estos asuntos que, de su enorme importancia, no sólo depende nuestro bienestar, sino que, en esos conocimientos reside el futuro de la Humanidad.

Si profundizamos, por curiosidad, en los conocimientos que actualmente tenemos de la Astronomía y de la Física o la Química (siempre acompañadas de los números), veremos con admiración que las semillas se pusieron hace ya más de 2.500 años, cuando Tales, Anaximandro o Anaxímes sintieron la curiosidad de conocer y miraron el mundo desde la lógica y, dentro de sus posibilidades trataron de desvelar los secretos de la Naturaleza. Allí, en ese momento, nacio la Ciencia, o, incluso puede que antes en aquellos pensadores de Oriente que ya hablaron de vacío y de átomos y también, de sustancia cósmica.

Resultado de imagen de el tiempo inexorable

A medida que el tiempo avanzó, nos dimos cuenta de que, nuestras experiencias cotidianas se alejaban del mundo real y, nuestro sentido común, no siempre nos guiaba en la correcta dirección para poder comprender el mundo. Con frecuencia nos preguntamos: ¿Qué es lo real? ¿Si dentro de nuestras mentes conformamos un “universo” a la medida de nuestras limitaciones –por falta de los datos que nos impide ver la realidad-, cómo podremos llegar a saber la clase de Universo que nos acoge? Aquí nos topamos con el determinismo.

Por lo que se refiere al Universo, caben dos posibilidades: o existe desde siempre o ha tenido un comienzo. ¿Tendría sentido pensar que existió desde siempre? Y, si no ha existido desde siempre, quiere decir que ha tenido un comienzo. ¿Qué había antes? Tal vez nada. Sin embargo, la Física nos dice que la “NADA” no existe y, en ese caso, lo único que podemos hacer es preguntarnos, ¿De dónde salió? Y si había algo que lo formó, ¿Cómo podemos hablar de un comienzo?, ¿No habría que tratar de ir hacia atrás y, buscar el verdadero origen que lo formó? Ante todo esto volvemos al hecho de que el determinismo se refiere a dos cosas a la vez:

  1. si todo acontecer natural y
  2. si todo acontecer humano

Deben estar previamente determinados por unos antecedentes y, el determinismo  debe quedar, en su caso, circunscrito al acontecer natural. Si así fuera, tendríamos libertad en nuestras decisiones, pero esto implicaría que entre nuestros constituyentes debería haber una “sustancia” que se sustrae el determinismo, lo cual introduciría el interesantísimo problema del dualismo materia-mente, en la tradición de Platón, Descartes y sobre todo Kant. Aunque, finalmente, tiendo a pensar que no existe nada que no esté escrito en las leyes de la Física y de la Química. Además, si la vida es diferente en este aspecto, ¿Dónde está el borde o el final de lo que el Universo pueda o no pueda hacer? ¿En el Homo Sapiens? ¿Es la propia vida la que pone límites a la creación?

Saber para poder responder estas preguntas, la verdad, no sabemos y, es precisamente por eso, por nuestra enorme falta de conocimientos por lo que no paramos de buscar esas respuestas a preguntas que bullen dentro de nuestras mentes y, tengo la esperanza de que, un día, lejano aún en el futuro, si no al completo, si obtendremos una respuesta satisfactoria que, al menos, sacie nuestra curiosidad y, llegados a ese punto o alto nivel del saber, las cosas serán más tranquilas, los conocimientos nos llegaran escalonados y en los momentos precisos en los que la Naturaleza sepa que, ese saber, ya no nos podrá hacer daño alguno, pues, nuestra capacidad para entonces podrá manejar fuerzas y energías que hoy por hoy, nos destruirían.

emilio silvera

¿Qué haríamos sin la Física?

$
0
0
 Resultado de imagen de El Modelo Estándar

Bueno, lo que hasta el momento hemos logrado no está mal del todo pero, no llega, ni con mucho, a la perfección que la Naturaleza refleja y que, nosotros perseguimos sin llegar a poder agarrar sus múltiples entresijos y parámetros que conforman ese todo en el que, sin ninguna clase de excusas, todo debe encajar y, de momento, no es así. Muchos son los flecos sueltos, muchas las incógnitas, múltiples los matices que no sabemos perfilar.

Es cierto que, el Modelo estándar, en algunos momento, nos produce y nos da la sensación de que puede ser perfecto. Sin embargo, esa ilusoria perfección, no es permanente y en algunas casos efímera. En primer lugar, podríamos empezar a quejarnos de las casi veinte constantes que no se pueden calcular. Pero si esta fuese la única queja, habría poco que hacer. Desde luego, se han sugerido numerosas ideas para explicar el origen de estos números y se han propuesto varias teorías para “predecir” sus valores. El problema con todas estas teorías es que los argumentos que dan nunca llegan a ser convincentes.

 

 

Existen límites a los que aún no han podido llegar nuestras teorías, y, el Límite de Planck es el que marca las fronteras de las teorías actuales que, nunca han podido llegar tan lejos, como lo que nos dice la simple ecuación:

longitud-planck

Un día de 1.900, se publicó un artículo de ocho páginas que sentaron las bases de la Mecánica Cuántica. Su autor, Max Planck, cambió conceptos clásicos traernos una nueva visión del universo infinitesimal (10 con exponente -35 m.) a una distancia conocida como límite de Planck , mucho más allá de donde los Quarks están confinados en tripletes formando protones y neutrones y la fuerza nuclear fuerte tiene su dominio y se deja sentir a través de los bosones portadores, los Gluones.

Hasta el mismo Planck, al ver todo aquello fue consciente de que, sus 40 años anteriores de creencias como físico, se habían ido al garete y ahora, tendrían que convivir con los nuevos conceptos en los que encontraban situaciones esxtrañas y muy alejadas de las cosas que ocurrían en el macro mundo.

 

Los agujeros de gusano del inter-universo que asocian un universo con otro diferente y son denominados agujeros de gusano de Schwarzschild. Esto nos permite especular si tales “pasajes” podrían usarse para viajar de un universo a otro paralelo. Otra aplicación de estos túneles cósmicos podría ser el viaje en el tiempo. En ese caso sería un atajo para desplazarse de un punto espaciotemporal a otro diferente. En la teoría de cuerdas un agujero de gusano es visualizado como la conexión dos D-branas, donde las bocas están asociadas a las branas y conectadas por un tubo de flujo. Se cree que los agujeros de gusano son una consecuencia de la espuma cuántica o espaciotemporal.

Fractal

El vacío estable y absoluto de Newton, con trayectorias continuas y determinadas, ha dejado paso al vacío cuántico asociado a unas extrañas trayectorias (*) discontinuas y fracturadas, llamadas por ello trayectorias fractales (no son propiamente trayectorias). La existencia del cuanto de acción o constante de Planck (se llama acción al producto de una energía por un tiempo), base de la física cuántica, es la causa de ese cambio fundamental, y de otros muchos, con profundas consecuencias. Mediante la geometría fractal, este marco nos ofrece nuevas e interesantes perspectivas.

Planck, nos habló del “cuanto” de acción h, y nos dijo que la energía se transmite en paquetes de manera discontinua. Aquello, asombró al mundo y el mismo Planck fue consciente de que, sus creencias sobre la Física, a partir de ese momento, serían otras.

Inspirado en el de Planck, Albert Einstein desarrollo un sobre el “Efecto Fotoeléctrico ” – que le valió el Nobel de Física de 1.921 – y, contribuyó de manera activa al desarrollo de la Mecánica Cuántica que, más tarde, combatió.

La noción del entrelazamiento cuántico es una idea nada nueva que se remonta a principio del siglo XX, a 1900, cuando el físico alemán Max Planck, considerado el padre de la teoría cuántica, propuso que no podemos hablar de una cantidad infinita de energía, sino que se transmite en pequeñas cantidades o paquetes llamados cuantos. En 1905, Albert Einstein, basándose en los experimentos de otro gran físico, Philipp Lenard, sobre el efecto fotoeléctrico, propuso que las ondas de luz se pueden propagar como ondas y como partículas al mismo tiempo. De hecho, propuso al fotón como la partícula portadora de la luz.

Resultado de imagen de Principio de IncertidumbreResultado de imagen de Principio de Incertidumbre

            El Principio de Incertidumbre de Heisenberg

Resultado de imagen de La Función de Onda de Schrödinger

                 La función de Onda de Schrödinger

Resultado de imagen de La ecuación de Dirac del electrón

                                                        La ecuación de Dirac

Resultado de imagen de Los gráficos de Feynman

            Los gráficos de Feynmann

Llegaron nuevos Físicos como Werner Heisenberg, Schrödinger, Dirac, Feynman y otros que, desarrollaron lo que hoy conocemos como Mecánica Cuántica. Heisenberg con su Principio de Incertidumbre nos demostró que no podíamos saberlo todo al mismo tiempo. Si queremos conocer la situación de un electrón y para ello utilizamos un microscopio electrónico, el mismo hecho de su utilización transformará el medio observado, ya que, los fotones enviados por el microscopio cambiarán la dirección de dicho electrón. De esta manera, podemos saber dónde está, pero no sabremos a donde se dirige.

Schrödinger, con su función de onda, nos dio una buena herramienta buscar la partícula mediante un sistema de alta probabilidad de su situación.

Resultado de imagen de Schrödinger, con su función de onda, nos dio una buena herramienta buscar la partícula mediante un sistema de alta probabilidad de su situación.

La Mecánica cuántica describe el instantáneo de un sistema (estado cuántico) con una función de onda que codifica la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos observables posibles sobre un sistema dado son la energía, posición, momento y momento angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la materia son explicadas por la interferencia de las funciones de onda. Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución es determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución es estocástica y se produce mediante colapso de la función de onda cuando se realiza una medida sobre el sistema. Por ejemplo, una partícula moviéndose sin interferencia en el espacio vacío puede ser descrita mediante una función de onda que es un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar localizada más precisamente en otro lugar. La evolución temporal determinista de las funciones de onda es descrita por la Ecuación de Schrödinger.

Resultado de imagen de El LHC

La Mecánica Cuántica ha alcanzado unas cotas increíbles de consistencia y experimentalmente, es una de las teorías más acreditadas. Sin embargo, mi parecer es que siendo una herramienta muy útil para los Físicos, no es la definitiva, en un futuro próximo tendremos muchas sorpresas de la mano del LHC que en este mismo año nos dará alguna alegría importante para el mundo de la Física.

El otro gran pilar en el que se apoya la Física, se llama Relatividad Especial. Todos sabéis lo que fue para la Física el año 1.905. Esa primera de la teoría relativista de Einstein, nos legó conocimientos muy importantes, tales como que un objeto viajando a velocidades cercanas a la de la luz aumenta su masa o que el hipotético viajero de una nave espacial que viaje a ésas velocidades relativistas, habrá conseguido ralentizar su tiempo. El tiempo pasa más lento cuando la velocidad es grande. Y, el otro logro importante que fue resumido en la ecuación más famosa de la historia de la Física, fue el hecho de que la masa y la

energía son dos aspectos de la misma cosa. Resultado de imagen de La ecuación de campo de la relatividad general ¡cuánta belleza y profundidad expresado en tan poco espacio!

Resultado de imagen de La ecuación de campo de la relatividad general

En un espacio de cuatro dimensiones, cada uno de los tensores representa una cantidad física que consta de 16 componentes y la cual puede ser representada …

Albert Einstein realizó una verdadera hazaña intelectual y nos legó su teoría General de la Relatividad, una teoría construida la pura geometría, excediéndose en elegancia y efectiva en su espacio de aplicación. La relación entre el cuerpo y la curvatura del espacio-tiempo, es equivalente (Gµv). Significa, la manifestación visible o invisible de la energía [m=e/c2], y en este caso, manifestada en la forma masiva del cuerpo, curva el espació-tiempo.

Resultado de imagen de Curvatura del espacio-tiempo

La Humanidad ha conseguido logros increíbles en el campo de la Física, siempre acompañada de las matemáticas, han llegado a dejar al descubierto cuestiones misteriosas y muy bien escondidas en lo más profundo de la materia y de las fuerzas fundamentales que interaccionan con ella.

nos podemos plantear preguntas que nadie sabe contestar e incluso algunas que no sabemos ni plantear, nos faltan conocimientos para hacer tales preguntas. Sin embargo, en el futuro, las respuestas llegaran.

¿Cómo podría haber preguntado Pitágoras por el significado de m=E/c2 (E=mc2), si Einstein nació más de 2.000 años más tarde?

Dibujo20090819_M_theory_dualities

                     Dualidades teoría de cuerdas y teoría M

“Los análisis bibliométricos del ISI Web of Science parecen indicar que, con 4 artículos de los 10 más candentes en la física de 2009, la teoría de cuerdas está viviendo su tercera revolución gracias a la teoría de M2-branas de Bagger-Lambert. La segunda revolución, la de la dualidad, resaltó la importancia de la teoría M, pero sólo logró que entendiéramos muy bien las D-branas. La tercera revolución parece que tiene por objeto entender bien las M-branas, de las que prácticamente no se sabía nada antes de la teoría de Bagger-Lambert. Curiosa manera tienen los físicos de cuerdas de celebrar las bodas de plata de su primera revolución. Fuente: Simon Mitton, “Is This the Third Revolution for String Theory?,” en “HAT´S HOT IN…PHYSICS, March/Aprin 2.000,” del Thomson/Reuters ISI Science Watch. Los Hot Papers son los artículos que más rápidamente están siendo citados en el ISI Web of Science. Entre los 10 hot papers de Física en 2009, los 4 sobre teoría de cuerdas están en los puestos #4, #6, #9, y #10, y todos describen propiedades de las M2-branas. Hacía 10 años ( la segunda revolución de la teoría de cuerdas) que no ocurría algo así. ¿Estamos viviendo la tercera revolución de la teoría de cuerdas?”

 

Resultado de imagen de La Energía de Planck

 

 

De la misma manera estamos hoy haciendo preguntas o formulando teorías que no pueden ser contestadas o comprobadas. La energía de Planck (1019 GeV) nos vendría muy bien para poder comprobar la teoría M que ha unificado todas las teorías existentes sobre la teoría de cuerdas. Sin embargo, nuestra civilización actual no tiene la posibilidad de alcanzar dicha energía y habrá que esperar mucho tiempo para que eso sea posible.

No podemos dejar por ello de de trabajar en ese campo de las cuerdas, es prometedor e ilusionante, allí, en las más altas dimensiones, parece que es posible hermanar a la Mecánica Cuántica y a la Relatividad General. Esta teoría nos promete por fin una teoría cuántica de la gravedad.

File:Loop quantum gravity.jpg

Esquema de la gravedad cuántica de bucles, una de las líneas de trabajo actualmente en la gravedad cuántica. Existen muchas otras y ello, viene a denotar nuestra ignorancia del tema que, en realidad, no dominamos y no dejamos de teorizar lanzando conjeturas e hipótesis que aún no se han visto cumplidas y, lo más cerca que estamos de esa teoría que consigue el casamiento de la Relatividad General con la Mecánica cuántica, está en la Teoría de cuerdas que, como sabéis, tampoco es verificable.

Los experimentos han ratificado tanto la “teoría cuántica” como la “teoría de la relatividad general” de Einstein de la manera más contundente. ¡A cada una por su lado!

El problema estriba en que los efectos cuánticos parece que se manifiestan de manera más apreciable en distancias pequeñas, mientras que los de la “relatividad general” requieren grandes masas. Se necesitan circunstancias para  combinar ambas condiciones (sería el escenario del origen del Universo, por ejemplo).

A esta ausencia de datos experimentales se añade un enorme problema conceptual: “la teoría de la relatividad general” de Einstein es completamente “clásica”, le es ajena la “mecánica cuántica”.
A fin de que la física, en conjunto, sea lógicamente coherente, debiera haber una teoría que una la “mecánica cuántica” y la “relatividad general”. A esta muy buscada teoría se la conoce como “teoría de la gravedad cuántica”.

La “relatividad general” opera en la geometría del “espaciotiempo”; una “teoría cuántica de la gravedad” debería ser, además, una “teoría cuántica” del “espaciotiempo”.

La verdad es que, hay muy pocos lugares en el universo donde la relatividad general no sea importante. Para la vida cotidiana, para enviar sondas por el sistema solar, y para cualquier otra situación en la que es probable que nos hallemos, no necesitamos preocuparnos por la relatividad general. teoría es importante en el ámbito del Universo cuando se habla de grandes masas como estrellas y galaxias, o, planetas…cuerpos con mas de cierta importancia. Para las partículas individuales subatómicas, la fuerzas es despreciable. Sin embargo, en presencia de planetas como Júpiter, el espaciotiempo se curva.

Puede parecer ciencia ficción hablar y exponer hechos y conceptos que no pueden ser demostrados, sin embargo, Einstein esperó largos años con su teoría de la Relatividad General bien asentada en su cabeza, sin poder exponerla al mundo por no tener las matemáticas necesarias para ello, y, cuando su amigo Marcel Grossman, al que había pedido ayuda, le envió algunos documentos los que se encontraba la famosa Conferencia de Riemann, Einstein quedó paralizado ante el Tensor Métrico de Riemann, allí tenía la herramienta que estaba buscando y que le permitía formular de manera precisa los espacios curvados de la relatividad general.

Las grandes masas determinan la geometría del Universo forman espacios curvos que se comportan como calles y laberintos por los que discurren los objetos de materia que deambulan por el espaciotiempo tetradimensional de nuestro universo que, si tiene dimensiones extra, las tiene bien escondidas.

Algún día, alguien surgirá y nos traerá las matemáticas necesarias para que, la teoría M se pueda exponer de manera clara y completa. ¿Serán las funciones modulares de Ramanujan las que nos sacará del atolladero? Todos sabéis que las matemáticas topológicas de la Teoría M, son extremadamente difíciles, pocos tienen acceso a ellas, y, de momento, parece que nadie está en posesión de los conocimientos matemáticos que se precisan.

Tendremos que esperar un poco. Sin embargo, la Ciencia futura está a la vuelta de la esquina:

La nanotecnología es un campo de las ciencias aplicadas dedicado a la manipulación de material a la escala menor de un micrómetro es decir al nivel de atomos y moléculas (nanometría) lo mas habitual es que tal manipulación se produzca uno o 1000 nanometros para hacer una idea de como son los nanobotts un nanobot mide 50 nm sus capas son de 5 molecula.

Pronto veremos que la nanotecnología nos llevará a un mundo futuro que ahora, ni podemos imaginar

¿Qué no podremos construir con las nuevas técnicas de nanotecnología? Inundaremos los planetas lejanos de minúsculos robots que no serán detectados y nos podrán inviar información fidedigna de todo lo que queramos? Por ahí podría ir el futuro, menos coste en los lanzamientos bases lunares o marcianas y, en pequeñas naves podrían ir cientos de robots que se esparcirían por todo el pequeño o gran mundo a explorar.

nuestra curiosidad es inagotable, nos empuja a preguntar, trabajar, estudiar, investigar y profundizar en todas estas cuestiones que atrae a todos aquellos que, como yo, enamorados de la Física, saben que, algún día lejano en el futuro, nuestra Civilización alcanzará el nivel requerido para poder abrir esas puertas que tenemos cerradas y de las que no tenemos las llaves para poder abrirlas. Encima de estas puertas, los letreros dicen: Teoría M, Materia Oscura, Densidad Crítica, Universos paralelos, Viajes en el Tiempo, Singularidades, etc.

Me gustaría estar presente cuando pasados algunos siglos, nuestra especie tenga como fuente de energía inagotable la que generan los Agujeros Negros. Esa energía nos dará la posibilidad de viajar a las estrellas y de llegar al fondo de la teoría M.

         Cuerdas vibrantes de cuyas resonancias surgen nuevas partículas.

No debemos olvidar que, todo lo grande está hecho de cosas pequeñas. Así es. Al menos hasta donde sabemos, los planetas, las estrellas y Galaxias y demás objetos estelares (nosotros también), están hechos de infinitesimales objetos: Quarks y Leptones. Todo lo que podemos ver en el Universo está hecho de materia bariónica, existe otra clase de materia que aún no sabemos lo que es, dónde está o se genera y de qué está hecha (esa que nuestra ignorancia denomina Materia Oscura)..

http://4.bp.blogspot.com/_W15T4a6NlZk/TKhskST-UvI/AAAAAAAAAo0/5DElT-mgnFw/s1600/1239729641806.jpg

La materia primordial del Universo fue denominada por los griegos clásicos como Ylem sustancia cósmica

¡Nuestra imaginación! algo que solo ser comparada con la grandiosidad del Universo que… es casi tan grande como ella.

Resultado de imagen de El poder de la Mente

¿Cuánto más podrá salir de la maravilla llamada Mente?

La Mecánica Cuántica.

La Relatividad Especial y la Relatividad General.

El Modelo Estándar.

Las fuerzas Fundamentales.

Las Constantes Universales.

Las familias de partículas: Quarks (u, d, s, c, t, b), Hadrónes (bariones y mesones), los Leptones (electrónmuóntau y sus respectivos neutrinos).

La Teoría M y la de Supersimetría, Supergravedead, la de cuerdas, la cuerda heterótica.

En su día la teoría de Kaluza-Klein (la primera de más altas dimensiones)

http://trinityeyes.files.wordpress.com/2008/07/000af072-4891-1f0a-97ae80a84189eedf_p64.jpg

                         Hablamos de Universos holográficos

Y, de esta manera podríamos exponiendo ejemplos enormes de la imaginación que poseemos y que es el don que la humanidad tiene para descubrir los misterios del Universo. Einstein llamaba a esto ejercicios mentales. Está bien que nuestras mentes no tengan límites a la hora de imaginar. Creo que, a excepción de las imposibilidades y barreras impuestas por nuestro físico, todo lo demás, con el tiempo podrá ser posible. Hasta tal punto es así que, hasta podremos (ya lo hemos hecho) hacer que nuestras vidas sean más duraderas.

Alguien dijo que Genio es aquel que es capaz de plasmar en realidad sus pensamientos. Pues, amigos, en la Física han sido muchos los genios que han aportado su imaginación.

La pregunta que hay que responder aquí es lo que se entiende por Física. Por mi parte, Física es todo lo que aquí he dejado escrito y muchísimo más. Creo firmemente que la Física es el arma más poderosa con la que la Humanidad para resolver todos los problemas que tiene planteados a plazo fijo en el futuro lejano.

http://farm5.static.flickr.com/4083/5197819729_bc5c467f3d.jpg

                          Hasta la vida es Física y Química

¿Habéis pensado alguna vez que el Sol tiene una cantidad de combustible nuclear – hidrógeno – limitado? El día que se acabe, dentro de 4.000 millones de años ¿dónde iremos? La pregunta parece tonta, sin embargo, no lo es. No debemos descansar en el avance del saber científico de la Física y las matemáticas (además de en los otros campos), ya que, en ese no parar estará la solución a todos nuestros problemas presentes y futuros, y, la llave que abrirá la puerta principal, se llama Física (siempre acompañada por la llave maestra de las matemáticas).

Y, mientras tanto, continuará el proceso de humanización que aún está por terminar…¡Nos queda tanto!

emilio silvera

¿Qué habrá más allá del Modelo Estándar de la Física de Partículas?

$
0
0

 

 

Algún maestro decía:
“Inicialmente, se presenta, de modo simplificado, el Modelo Estándar como una teoría sofisticada que identifica las partículas elementales y sus interacciones. Después, en el ámbito de esa teoría, se enfocan aspectos –el vacuo no es vacío; partículas desnudas y vestidas; materia oscura y viento oscuro; materia y antimateria; el campo y el bosón de Higgsneutrinos oscilantes– que pueden ser motivadores desde el punto de vista de la enseñanza y del aprendizaje de la Física. Finalmente, se discute la probable superación de esa teoría por otra más completa.”
Resultado de imagen de Quarks y Leptones
“Quark. … En física de partículas, los quarks​​ o quarks​​ son los fermiones elementales masivos que interactúan fuertemente formando la materia nuclear y ciertos tipos de partículas llamadas hadrones. Junto con los leptones, son los constituyentes fundamentales de la materia bariónica.”
Los leptones sólo interaccionan entre sí mediante fuerzas débiles y/o electromagnéticas. Los quarks, sin embargo, interaccionan por cualquiera de las tres fuerzas indicadas. Y, en todo ésto, la gravedad está ausente y hace que la teoría esté incompleta. De todas las maneras, no debemos quitar mérito a tan compleja construcción de la mente humana que tan buenos resultados nos ha dado.
Gordon Kane, un físico teórico de la Universidad de Michigan nos dice:
Resultado de imagen de Quarks y Leptones
“… el Modelo Estándar es, en la historia, la más sofisticada teoría matemática sobre la naturaleza. A pesar de la palabra “modelo” en su nombre, el Modelo Estándar es una teoría comprensiva que identifica las partículas básicas y especifica cómo interactúan. Todo lo que pasa en nuestro mundo (excepto los efectos de la gravedad) es resultado de las partículas del Modelo Estándar interactuando de acuerdo con sus reglas y ecuaciones.”
De acuerdo con el Modelo Estándar, leptones y quarks son partículas verdaderamente elementales, en el sentido de que no poseen estructura interna. Las partículas que tienen estructura interna se llaman hadrones; están constituidas por quarksbariones cuando están formadas por tres quarks o tres antiquarks, o mesones cuando están constituidas por un quark y un antiquark.
Pero ¿cómo se da la interacción? ¿Quién “transmite el mensaje” de la fuerza entre las partículas que interactúan? Eso nos lleva a las partículas mediadoras o partículas de fuerza o, también, partículas virtuales.
Las interacciones fundamentales tienen lugar como si las partículas que interactúan “intercambiasen” otras partículas entre sí. Esas partículas mediadoras serían los fotones en la interacción electromagnética, los gluones en la interacción fuerte, las partículas W y Z en la interacción débil y los gravitones (aún no detectados) en la interacción gravitacional. Es decir, partículas eléctricamente cargadas interactuarían intercambiando fotones, partículas con carga color interactuarían intercambiando gluones, partículas con carga débil intercambiarían partículas W y Z, mientras que partículas con masa intercambiarían gravitones.
Las partículas mediadoras pueden no tener masa, pero tienen energía, o sea, son pulsos de energía. Por eso, se llaman virtuales. De los cuatro tipos de partículas mediadoras, las del tipo W y Z tienen masa, pero es común que todas sean llamadas partículas virtuales.
¡Pero faltan los campos! Los cuatro campos. Sabemos que un cuerpo con masa crea alrededor de sí un campo gravitacional, un campo de fuerza que ejerce una fuerza sobre otro cuerpo masivo y viceversa. Análogamente, un cuerpo cargado eléctricamente, crea un campo electromagnético (si está en reposo, se percibe sólo su componente eléctrico, si está en movimiento se manifiesta también el componente magnético) y ejerce una fuerza electromagnética sobre otro cuerpo electrizado y viceversa.
El problema en esa bella simetría de cuatro cargas, cuatro interacciones, cuatro fuerzas, cuatro tipos de partículas mediadoras y cuatro campos es que aún no hemos podido detectar ningún gravitón y la gravedad, en sí, no encaja bien en esa teoría llamada Modelo Estándar.
Resultado de imagen de La Teoria´çia de cuerdas
“La teoría de cuerdas es un intento por unificar estos dos mundos en un modelo matemático que funcione en todas las escalas. Pero ocurrió algo no muy deseable. En un breve espacio de tiempo surgieron 5 versiones distintas del modelo, lo que le restó credibilidad. La Teoría-M es una nueva proposición postulada por Edward Witten que unifica esas cinco teorías de las Supercuerdas. Cada una de las versiones de la teoría de cuerdas serían una proyección del del modelo M, del mismo modo que un cilindro proyecta sombras de diferentes formas dependiendo de la dirección de la luz (perdiendo una dimensión).”
Resultado de imagen de El Modelo EstándarResultado de imagen de El Modelo Estándar

La Física actual busca una teoría más amplia que el modelo estándar . Una teoría que dé una descripción completa, unificada y consistente de la estructura fundamental del universo. ¿Será la compleja Teoría de cuerdas,que integra también la interacción gravitatoria?

El modelo estándar es una poderosa herramienta pero no cumple todas las expectativas; no es un modelo perfecto. En primer lugar, podríamos empezar por criticar que el modelo tiene casi veinte constantes que no se pueden calcular. Desde luego, se han sugerido numerosas ideas para explicar el origen de todos estos parámetros o números inexplicables y sus valores, pero el problema de todas estas teorías es que los argumentos que dan nunca han sido enteramente convincentes. ¿Por qué se iba a preocupar la naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el principio de la relatividad, pero no queremos abandonar todos los demás principios que ya conocemos. Ésos, después de todo, han sido enormemente útiles en el descubrimiento del modelo estándar. El mejor lugar para buscar un nuevo principio es precisamente donde se encuentran los puntos débiles de la presente teoría y, construímos máquinas como el LHC para que nos diga lo que no sabemos.

 

Resultado de imagen de Las estructuras más pequeñas se estudian en colisionadores

 

Solo en máquinas inmensas se puede llegar a desentrañar los secretos de la materia

Una regla universal en la física de partículas es que para partículas con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez más pequeñas en el espacio y en el tiempo. El modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero existen varias razones para sospechar que sus predicciones pueden, finalmente (cuando podamos emplear más energía en un nivel más alto), resultar equivocadas.

Vistas a través del microscopio, las constantes de la naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático no hay nada que objetar, pero la credibilidad del modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas, o lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas. ¿Y por qué debería ser el modelo válido hasta aquí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables. ¿Dónde está la partícula de Higgs? ¿Cómo se esconde de nosotros el gravitón?

 

 

 

 

 

Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.

 

Resultado de imagen de Ajuste fina de alfa (constante de estructura fina)Imagen relacionada

 

 

Claro que las cosas no son tan sencilla y si deseamos evitar la necesidad de un delicado ajuste de las constantes de la naturaleza, creamos un nuevo problema: ¿cómo podemos modificar el modelo estándar de tal manera que el ajuste fino no sea necesario? Está claro que las modificaciones son necesarias, lo que implica que muy probablemente haya un límite más allá del cual el modelo tal como está deja de ser válido. El modelo estándar no será nada más que una aproximación matemática que hemos sido capaces de crear, de forma que todos los fenómenos que hemos observado hasta el presente están reflejados en él, pero cada vez que se pone en marcha un aparato más poderoso, tenemos que estar dispuestos a admitir que puedan ser necesarias algunas modificaciones del modelo para incluir nuevos datos que antes ignorábamos.

 

 

 

Más allá del modelo estándar habrá otras respuestas que nos lleven a poder hacer otras preguntas que en este momento, no sabemos ni plantear por falta de conocimientos.  Si no conociéramos que los protonesestán formados por Quarks, ¿cómo nos podríamos preguntar si habrá algo más allá de los Quarks?

El gobierno de Estados Unidos, después de llevar gastados miles de millones de dólares, suspendió la construcción del supercolisionador superconductor de partículas asestando un duro golpe a la física de altas energías, y se esfumó la oportunidad para obtener nuevos datos de vital importancia para el avance de este modelo, que de momento es lo mejor que tenemos.

Se han estado inventando nuevas ideas, como la supersimetría y el technicolor. Los astrofísicos estarán interesados en tales ideas porque predicen una gran cantidad de nuevas partículas superpesadas, y también varios tipos de partículas que interaccionan ultradébilmente, los technipiones. Éstas podrían ser las WIMP’s (Weakly Interacting Massive Particles, o Partículas Masivas Débilmente Interactivas) que pueblan los huecos entre las galaxias, y serían así las responsables de la masa perdida que los astrofísicos siguen buscando y llaman materia oscura”.

 

 

 

 

Que aparezcan “cosas” nuevas y además, imaginarlas antes, no es fácil. Recordemos cómo Paul Dirac se sintió muy incómodo cuando en 1931 dedujo, a partir de su ecuación del electrón, que debería existir una partícula con carga eléctrica opuesta. Esa partícula no había sido descubierta y le daba reparo perturbar la paz reinante en la comunidad científica con una idea tan revolucionaria, así que disfrazó un poco la noticia: “Quizá esta partícula cargada positivamente, tan extraña, sea simplemente el protón”, sugirió. Cuando poco después se identificó la auténtica antipartícula del electrón (el positrón) se sorprendió tanto que exclamó: “¡Mi ecuación es más inteligente que su inventor!”. Este último comentario es para poner un ejemplo de cómo los físicos trabajan y buscan caminos matemáticos mediante ecuaciones de las que, en cualquier momento (si están bien planteadas), surgen nuevas ideas y descubrimientos que ni se podían pensar. Así pasó también con las ecuaciones de Einstein de la relatividad general, donde Schwarzschild dedujo la existencia de los agujeros negros.

 

File:Evolución Universo WMAP.jpg

 

Se piensa que al principio del comienzo del tiempo, cuando surgió el Big Bang, las energías eran tan altas que allí reinaba la simetría total; sólo había una sola fuerza que todo lo englobaba. Más tarde, a medida que el universo se fue expandiendo y enfriando, surgieron las cuatro fuerzas que ahora conocemos y que todo lo rigen. Tenemos los medios, en los supercolisionadores de partículas, para viajar comenzando por 1.000 MeV, hasta finalizar en cerca de 1019 MeV, que corresponde a una escala de longitudes de aproximadamente 10-30 cm. Howard Georgi, Helen Quinn y Steven Weinberg descubrieron que ésta es la región donde las tres constantes de acoplamiento gauge se hacen iguales (U(1), SU(2) y SU(3)); resultan ser lo mismo. ¿Es una coincidencia que las tres se hagan iguales simultáneamente? ¿Es también una coincidencia que esto suceda precisamente en esa escala de longitud? Faltan sólo tres ceros más para alcanzar un punto de retorno. Howard Georgi y Sheldon Glashow descubrieron un modelo genuinamente unificado en el dominio de energías de 1019 MeV tal que, cuando se regresa de allí, espontáneamente surgen las tres fuerzas gauge tal como las conocemos. De hecho, ellos encontraron el modelo; la fórmula sería SU(5), que significa que el multiplote más pequeño debe tener cinco miembros.

 

 

 

http://cmcagustinos.files.wordpress.com/2010/10/circulo.jpg

 

Materia y Energía Oscura… Un Misterio…Sin resolver.

Y, a todo esto, ¿dónde está esa energía oculta? ¿Y donde la materia? Podemos suponer que la primera materia que se creo en el Universo fue la que llamamos (algún nom,bre había que ponerle) “Materia Oscura”, esa clase de Ilem o sustancia primera del Universo que mejor sería llamarla invisible, ya que, de no ser así, difícil sería explicar cómo se pudieron formar las primeras estrellas y galaxias de nuestro Universo, ¿dónde está el origen de la fuerza de Gravedad que lo hizo posible, sino en esa materia escondida?

¡Lo dicho! Necesitamos saber, y, deseo que de una vez por todas, se cumpla lo que dejó dicho Hilbert en su tumba de Gotinga (Alemania): “Tenemos que saber, ¡sabremos!. Pero…

¡Que sea pronto!

emilio silvera

¡La Hiperdimensionalidad! ¡Qué cosas nos cuentan!

$
0
0

Resultado de imagen de Partículas infinitesimales

 

 

 

 

 

El cerebro tiene secretos que… ¡Nunca nos contará!

 

 

                                               Vimana, un pozo de tiempo en Afganistán

El 21 de diciembre de 2010 científicos estadounidenses descubrieron “un vimana atrapado en un pozo del tiempo“ (un campo gravitatorio electromagnético, que sólo puede ocurrir en una dimensión invisible del espacio) en la ciudad de Balkh, Afganistán, lugar que alguna vez Marco Polo catalogó como “una de las ciudades más nobles y grandiosas” del mundo”.

Los intentos por retirar el misterioso Vimana de la cueva donde había estado oculto durante por lo menos 5.000 años, causaron la “desaparición” de por lo menos 8 soldados norteamericanos, atrapados por el vórtex temporal ( nuestros cuerpos no pueden desplazarse como si nada del presente al futuro y del futuro al pasado sin cargarse el peso destructivo de las leyes de la fìsica, salvo si se logra bloquear el campo magnético, algo que aparentemente los científicos norteamericanos tardaron ocho cadáveres en descubrir y solucionar, probablemente con jaulas de Faraday ).

La existencia de este tipo de fenómenos no está demostrado por los científicos (caso contrario estaríamos hablando de leyes), pero los físicos teóricos coinciden en general que podrían ser posibles si se acepta la teoría del Multiuniverso (un universo de por lo menos 11 dimensiones espaciotemporales) como estructura lógica y matemática. Atravesando esa especie de plasma líquido, nos podríamos trasladar a otros mundos, a otras galaxias.

Theodor Kaluza, ya en 1921 conjeturaba que si ampliáramos nuestra visión del universo a 5 dimensiones, entonces no habría más que un solo campo de fuerza: la gravedad, y lo que llamamos electromagnetismo sería tan sólo la parte del campo gravitatorio que opera en la quinta dimensión, una realidad espacial que jamás reconoceríamos si persistiéramos en nuestros conceptos de realidad lineal, similar a un holograma.

Bueno, independientemente de que todo esto pueda ser una realidad, lo cierto es que, nosotros, ahora en nuestro tiempo, hablamos de un universo con más dimensiones y, la carrera de las más altas dimensiones la inicio (como arriba se menciona) en el año 1919 (no el 1921) por Theodor Kaluza, un osucro y desconocido matemático,  cuando le presentó a Einstein mediante un escrito una teoría unificada que podía unificar, las dos grandes teorías del momento, la Relatividad General con el Magnetismo y podía realizarse si elaboraba sus ecuaciones  en un espaciotiempo de cinco dimensiones.

Resultado de imagen de La quinta dimensión de Kaluza

Así estaban las cosas cuando en 1.919 recibió Einstein un trabajo de Theodor Kaluza, un privatdozent en la Universidad de Königsberg, en el que extendía la Relatividad General a cinco dimensiones. Kaluza consideraba un espacio con cuatro dimensiones, más la correspondiente dimensión temporal y suponía que la métrica del espacio-tiempo se podía escribir como:

Resultado de imagen de Oskar Klein

                     Klein

Así que, como hemos dicho, ese mismo año, Oskar Klein publicaba un trabajo sobre la relación entre la teoría cuántica y la relatividad en cinco dimensiones. Uno de los principales defectos del modelo de Kaluza era la interpretación física de la quinta dimensión. La condición cilíndrica impuesta ad hoc hacía que ningún campo dependiera de la dimensión extra, pero no se justificaba de manera alguna.

Klein propuso que los campos podrían depender de ella, pero que ésta tendría la topología de un círculo con un radio muy pequeño, lo cual garantizaría la cuantización de la carga eléctrica. Su diminuto tamaño, R5 ≈ 8×10-31 cm, cercano a la longitud de Planck, explicaría el hecho de que la dimensión extra no se observe en los experimentos ordinarios, y en particular, que la ley del inverso del cuadrado se cumpla para distancias r » R5. Pero además, la condición de periodicidad implica que existe una isometría de la métrica bajo traslaciones en la quinta dimensión, cuyo grupo U(1), coincide con el grupo de simetría gauge del electromagnetismo.

Einstein al principio se burló de aquella disparatada idea pero, más tarde, habiendo leido y pensado con más atenci`´on en lo que aquello podía significar, ayudó a Kaluza a publicar su idea de un mundo con cinco dimensiones (allí quedó abierta la puerta que más tarde, traspasarían los teóricos de las teorías de más altas dimensiones). Algunos años más tarde, , el físico sueco Oskar Klein publicó una versión cuántica del artículo de Kaluza. La Teoría Kaluza-Klein que resultó parecía interesante, pero, en realidad, nadie sabía que hacer con ella hasta que, en los años setenta; cuando pareció beneficioso trabajar en la supersimetría, la sacaron del baúl de los recuerdos, la desempolvaron y la tomaron como modelo.

Pronto, Kaluza y Klein estuvieron en los labios de todo el mundo  (con Murray Gell-Mann, en su papel de centinela lingüistico, regañando a sus colegas que no lo sabían pronunciar “Ka-wu-sah-Klein”.

                  Pero, ¿Existen en nuestro Universo dimensiones ocultas?

Aunque la teoría de cuerdas en particular y la supersimetría en general apelaban a mayores dimensiones, las cuerdas tenian un modo de seleccionar su dimensionalidad requerida. Pronto se hizo evidente que la Teoría de cuerdas sólo sería eficaz, en dos, diez y veintiseis dimensiones, y sólo invocaba dos posibles grupos de simetría: SO(32) o E8 x E8. Cuando una teoría apunta hacia algo tan tajante, los científicos prestan atención, y a finales de los años ochenta había decenas de ellos que trabajaban en las cuerdas. Por aquel entonces, quedaba mucho trabajo duro por hacer, pero las perspectivas era brillantes. “Es posible que las décadas futuras -escribieron Schwarz y sus colaboradores en supercuerdas Green y Edward Witten- sea un excepcional período de aventura intelectual.” Desde luego, la aventura comenzó y, ¡qué aventura!

El mundo está definido por las Constantes adimensionales de la Naturaleza que hace el Universo que conocemos

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

Puesto que el radio de compactificación es tan pequeño, el valor típico de las masas será muy elevado, cercano a la masa de Planck Mp = k-12 = 1’2 × 1019 GeV*, y por tanto, a las energías accesibles hoy día (y previsiblemente, tampoco en un futuro cercano – qué más quisieran E. Witten y los perseguidores de las supercuerdas -), únicamente el modo cero n = 0 será relevante. Esto plantea un serio problema para la teoría, pues no contendría partículas ligeras cargadas como las que conocemos.

¿Y si llevamos a Kaluza-Klein a dimensiones superiores para unificar todas las interacciones?

En este proceso llamado desintegración beta y debido a la interacción débil, un neutrón se transforma en un protón, un electrón y un antineutrino electrónico cuando uno de los quarks del neutrón emite una partícula W–. Aquí queda claro que el término “interacción” es más general que “fuerza”; esta interacción que hace cambiar la identidad de las partículas no podría llamarse fuerza (todo representado en uno de los famosos diagramas de Feymann).

La descripción de las interacciones débiles y fuertes a través de teorías gauge no abelianas mostró las limitaciones de los modelos en cinco dimensiones, pues éstas requerirían grupos de simetría mayores que el del electromagnetismo. En 1964 Bryce de UIT presentó el primer modelo de tipo Kaluza-Klein-Yang-Mills en el que el espacio extra contenía más de una dimensión.

El siguiente paso sería construir un modelo cuyo grupo de isometría contuviese el del Modelo Estándar SU(3)c × SU(2)l × U(1)y, y que unificara por tanto la gravitación con el resto de las interacciones.

Edward Witten demostró en 1981 que el número total de dimensiones que se necesitarían sería al menos de once. Sin embargo, se pudo comprobar que la extensión de la teoría a once dimensiones no podía contener fermiones quirales, y por tanto sería incapaz de describir los campos de leptones y quarks.

Por otra parte, la supersimetría implica que por cada bosón existe un fermión con las mismas propiedades. La extensión supersimétrica de la Relatividad General es lo que se conoce como supergravedad (supersimetría local).


Joël Scherk (1946-1980) (a menudo citado como Joel Scherk) fue un francés teórico físicoque estudió la teoría de cuerdas ysupergravedad [1] . Junto con John H. Schwarz , pensaba que la teoría de cuerdas es una teoría de la gravedad cuántica en 1974. En 1978, junto con Eugène Cremmer y Julia Bernard , Scherk construyó el lagrangiano y supersimetría transformaciones parasupergravedad en once dimensiones, que es uno de los fundamentos de la teoría-M .

Teoria M

Unos años antes, en 1978, Cremmer, Julia y Scherk habían encontrado que la supergravedad, precisamente en once dimensiones, tenía propiedades de unicidad que no se encontraban en otras dimensiones. A pesar de ello, la teoría no contenía fermiones quirales, como los que conocemos, cuando se compactaba en cuatro dimensiones. Estos problemas llevaron a gran parte de los teóricos al estudio de otro programa de unificación a través de dimensiones extra aún más ambicioso, la teoría de cuerdas.

No por haberme referido a ella en otros trabajos anteriores estará de más dar un breve repaso a las supercuerdas. Siempre surge algún matiz nuevo que enriquece lo que ya sabemos.

El origen de la teoría de supercuerdas data de 1968, cuando Gabriela Veneziano introdujo los modelos duales en un intento de describir las amplitudes de interacción hadrónicas, que en aquellos tiempos no parecía provenir de ninguna teoría cuántica de campos del tipo de la electrodinámica cuántica. Posteriormente, en 1979, Yaichiro Nambu, Leonard Susskind y Holger Nielsen demostraron de forma independiente que las amplitudes duales podían obtenerse como resultado de la dinámica de objetos unidimensionales cuánticos y relativistas dando comienzo la teoría de cuerdas.

En 1971, Pierre Ramona, André Neveu y otros desarrollaron una teoría de cuerdas con fermiones y bosones que resultó ser supersimétrica, inaugurando de esta forma la era de las supercuerdas.

               David Jonathan Gross

Sin embargo, en 1973 David Gross, David Politzer y Frank Wilczek descubrieron que la Cromodinámica Cuántica, que es una teoría de campos gauge no abeliana basada en el grupo de color SU(3)c, que describe las interacciones fuertes en términos de quarks y gluones, poseía la propiedad de la libertad asintótica. Esto significaba que a grandes energías los quarks eran esencialmente libres, mientras que a bajas energías se encontraban confinados dentro de los hadrones en una región con radio R de valor R ≈ hc/Λ ≈ 10-13 cm.

Dicho descubrimiento, que fue recompensado con la concesión del Premio Nobel de Física a sus autores en 2.004, desvió el interés de la comunidad científica hacia la Cromodinámica Cuántica como teoría de las interacciones fuertes, relegando casi al olvido a la teoría de supercuerdas.

Resultado de imagen de Cuerdas abiertas, cerradas, lazosResultado de imagen de Cuerdas abiertas, cerradas, lazos

Se habla de cuerdas abiertas, cerradas o de lazos, de p branas donde p denota su dimensionalidad (así, 1 brana podría ser una cuerda y 2.Brana una membrana) o D-Branas (si son cuerdas abiertas) Y, se habla de objetos mayores y diversos que van incorporados en esa teoría de cuerdas de diversas familias o modelos que quieren sondear en las profundidades del Universo físico para saber, como es.

En la década de los noventa se creó una versión de mucho éxito de la teoría de cuerdas. Sus autores, los físicos de Princeton David Gross, Emil Martinec, Jeffrey Harvey y Ryan Rohn, a quienes se dio en llamar el cuarteto de cuerdas de Princeton.

El de más edad de los cuatro, David Gross, hombre de temperamento imperativo, es temible en los seminarios cuando al final de la charla, en el tiempo de preguntas, con su inconfundible vozarrón dispara certeros e inquisidoras preguntas al ponente. Lo que resulta sorprendente es el hecho de que sus preguntas dan normalmente en el clavo.

Gross y sus colegas propusieron lo que se denomina la cuerda heterótica. Hoy día, de todas las variedades de teorías tipo Kaluza-Klein que se propusieron en el pasado, es precisamente la cuerda heterótica la que tiene mayor potencial para unificar todas las leyes de la naturaleza en una teoría. Gross cree que la teoría de cuerdas resuelve el problema de construir la propia materia a partir de la geometría de la que emergen las partículas de materia y también la gravedad en presencia de las otras fuerzas de la naturaleza.

Resultado de imagen de Ecuaciones de campo de la relatividad general

Como por arte de magia, las ecuaciones de campo de la Teoría de la relatividad, emergen, sin que nadie las llame, cuando los físicos desarrollan las matemáticas de la Teoría de cuerdas. ¿Por qué será?

El caso curioso es que, la Relatividad de Einstein, subyace en la Teoría de cuerdas, y, si eliminamos de esta a aquella y su geometría de la Gravedad…todo resulta inútil. El gran Einstein está presente en muchos lugares y quizás, más de los que nos podamos imaginar.

Es curioso constatar que si abandonamos la teoría de la gravedad de Einstein como una vibración de la cuerda, entonces la teoría se vuelve inconsistente e inútil. Esta, de hecho, es la razón por la que Witten se sintió atraído inicialmente hacia la teoría de cuerdas. En 1.982 leyó un artículo de revisión de John Schwarz y quedó sorprendido al darse cuenta de que la gravedad emerge de la teoría de supercuerdas a partir solamente de los requisitos de auto consistencia. Recuerda que fue “la mayor excitación intelectual de mi vida”.

Gross se siente satisfecho pensando que Einstein, si viviera, disfrutaría con la teoría de supercuerdas que sólo es válida si incluye su propia teoría de la relatividad general, y amaría el hecho de que la belleza y la simplicidad de esa teoría proceden en última instancia de un principio geométrico, cuya naturaleza exacta es aún desconocida.atividad general de Einstein. Nos ayuda a estudiar las partes más grandes del Universo, como las estrellas y las galaxias. Pero los elementos diminutos los átomos y las partículas subatómicas se rigen por unas leyes diferentes denominadas mecánica cuántica.

Una explosión de <a href=

Claro que, como todos sabemos, Einstein se pasó los últimos treinta años de su vida tratando de buscar essa teoría unificada que nunca pudo encontrar. No era consciente de que, en su tiempo, ni las matemáticas necesarias existían aún. En la historia de la física del siglo XX muchos son los huesos descoloridos de teorías que antes se consideraban cercanas a esa respuesta final que incansables buscamos.

Hasta el gran Wolfgang Pauli había colaborado con Heisenberg en la búsqueda de una teoría unificada durante algún tiempo, pero se alarmó al oír en una emisión radiofónica como Heisenberg decía: “Está a punto de ser terminada una Teoría unificada de Pauli-Heisenserg, en la que sólo nos queda por elaborar unos pocos detalles técnicos.”

Wolfgang Pauli ETH-Bib Portr 01042.jpg

            Wolfgang Pauli

Enfadado por lo que consideraba una hipérbole de Heisenberg que se extralimitó con aquellas declaraciones en las que lo involucraba sin su consentimiento,  Pauli envió a Gamow y otros colegas una simple hija de papel en blanco en la que había dibujado una caja vacía. Al pie del dibujo puso estas pablabras: “Esto es para demostrar al mundo que yo puedo pintar con Tiziano. Sólo faltan algunos detalles técnicos.”

Los críticos del concepto de supercuerdas señalaron que las afirmaciones sobre sus posibilidades se basaban casi enteramente en su belleza interna. La teoría aún  no había repetido siquiera los logros del Modelo Estándar, ni había hecho una sola predicción que pudiera someterse a prueba mediante el experimento. La Supersimetría ordenaba que el Universo debería estar repleto de familias de partículas nuevas, entre ellas los selectrones (equivalente al electrón supersimétrico) o el fotino (equivalente al fotón).

Lo cierto es que, nada de lo predicho ha podido ser comprobado “todavía” pero, sin embargo, la belleza que conlleva la teoría de cuerdas es tal que nos induce a creer en ella y, sólo podemos pensar que no tenemos los medios necesarios para comprobar sus predicciones, con razón nos dice E. Witten que se trata de una teoría fuera de nuestro tiempo, las supercuerdas pertenecen al futuro y aparecieron antes por Azar.

Y, a todo esto, ¿Dónde están esas otras dimensiones?

emilio silvera

¡Qué maravilla! Poder imaginar…y comprobar

$
0
0

¿Mini agujeros negros que atraviesan la Tierra a diario?

 

¿Mini agujeros negros que atraviesan la Tierra a diario?

 

Algunos consideran que unos 400 mini agujeros negros podrían atravesar la Tierra cada año. Además, podrían ser detectables por sus fuertes emisiones electromagnéticas. Quizás ha llegado la hora de buscarlas. Cosas como esta se leen de vez en cuando y también otras que…

Resultado de imagen de Mini agujeros negros que atraviesan la Tierra a diario

“Como si de fantasmas cósmicos se tratase, es posible que agujeros negrosen miniatura atraviesen la Tierra diariamente sin crear ningún peligro, como sugiere un estudio reciente.

 

 

Resultado de imagen de Mini agujeros negros atraviesan la Tierra

 

 

Esta nueva teoría pone fin al temor de que poderosas máquinas como el Gran Colisionador de Hadronespuedan crear agujeros negros capaces de tragarse el planeta.

Los autores del estudio creen que estos minúsculos agujeros negros tienen un comportamiento completamente distinto al de sus hermanos mayores, llamados agujeros negros astrofísicos o de masa estelar.

A pesar de tener la masa de aproximadamente mil coches, un mini agujero negro es más pequeño que un átomo. Con ese tamaño un agujero negro no podría atraer mucha materia y en su lugar atraparía átomos y algunas moléculas más grandes a órbitas circulares, al igual que los protones atraen a los electrones en los átomos.

Así, los autores del estudio llaman a los mini agujeros negros que atraen materia a las órbitas «equivalentes gravitatorios de los átomos».”

 

Resultado de imagen de LHC

 

 

¿Os acordáis? Tanto miedo a que el Gran Colisionador de Hadrones (LHC) de Ginebra formara un agujero negro que podría haber atraído toda la materia a su alrededor y que pudiera haber destruido el planeta y resulta que, según un grupo de investigadores, es posible que este tipo de fenómenos, al menos los que son muy diminutos, atraviesen la Tierra cada día sin que ocurra absolutamente nada, son inofensivos y su ínfimo tamaño los hace inofensivos. Y esto, según un atrevido estudio publicado por una pareja de físicos en arXiv. org,  porque quizás interactúen con la materia de forma muy diferente a como se creía hasta ahora.

Los mini agujeros negros (si realmente existen) podrían ser diferentes a los gigantes que nos ha enseñado la astrofísica y cuya imagen todos tenemos en la cabeza. Los agujeros astrofísicos se originan cuando se colapsan las grandes estrellas para crear una región en el espacio cuya gravedad es tan potente que nada puede escapar a su atracción. Sus dimensiones son monstruosas. El que se encuentra en el centro de nuestra galaxia tiene 4 millones de veces la masa del Sol.

Resultado de imagen de Mini agujeros negros atraviesan la Tierra

Todo esto me recuerda lecturas en las que, un gran físico, Gerard ´t Hooft, nos contaba como había dedicado gran parte de su tiempo al estudio y la investigación del comportamiento de los agujeros negros y de cómo las consideraciones obtenidas le llevaron a ese alto nivel sobre las leyes últimas de la física. Él suponía tener un pequeño agujero negro que obedecía tanto a las leyes de la mecánica cuántica como a las de la gravedad y, se preguntaba: ¿cómo se debería describir su comportamiento?

¿Se comportaría ese agujero negro como si fuera un átomo o molécula que obedece las leyes de la mecánica cuántica? No todo el mundo está de acuerdo con ese punto de vista. Algunos dicen que los agujeros negros son algo totalmente diferentes.  ¿Pero que es tan diferente en ellos? Los agujeros negros emiten partículas, igual que hacen los átomos radiactivos. Entonces, ¿por qué no deberían seguir las mismas reglas? Para decirlo de otra manera más clara, ´t Hooft creía que ellos tenían que obedecer absolutamente esas leyes si tenemos que creer en alguna clase de “ley y orden” a escala de la longitud de Planck.

Uno de los resultados de sus cálculos le produjo una enorme sorpresa. ¡Se encontró prácticamente con las mismas expresiones matemáticas que las de la Teoría de cuerdas! La fórmula para la captura y emisión de partículas por un agujero negro es exactamente igual a la fórmula de Veneziano. Aquello era extraño ya que no era un tema de cuerdas.

Muchas son las sorpresas que nos darán todavía los agujeros negros que esconden muchos secretos sin desvelar, y, como otras muchas cosas del universo tienen propiedades que desconocemos.

Claro que la teoría de cuerdas está por acabar y es difícil predecir si finalmente será compatible con la teoría de la Gravedad. En cualquier caso, ambas teorías están incompletas y tienen mucho más que decir…en el futuro. Seguramente serán simplemente los comienzos de algo mucho más profundo y bello que, de una vez por todas nos explique como es, en realidad, el Universo que habitamos.

La deformación del espacio-tiempo, de la materia, las transiciones de fase aún no comprendidas, lo que hay más allá de los Quarks, esas cuerdas vibrantes que se suponen…serán el primer estadio de la materia. Si creemos a Stephen Hawking, los agujeros negros son sólo el principio de algo más profundo, de una deformación mucho más seria del “espaciotiempo espumoso”.

Allí donde está presente la espuma cuántica de la que hablaban Wheeler y Planck. Y eso no es todo. Algunos como el mismo Hawking y sobre todo Sydney  Coleman de Harvard, especulan con el papel que en todo esto juegan los “agujeros de gusano”, esos conductos del espaciotiempo que nos podrían llevar hacia otras latitudes muy lejanas e incluso, hacia otras galaxias. Tales rarezas son admitidas por la teoría de Einstein y, como nuestra imaginación es imparable… Pasa lo mismo que ocurre en la mecánica cuántica, en la que todo lo que está permitido sucede obligatoriamente, es decir, si alguna configuración es posible, ésta tiene una probabilidad de que realmente ocurra.

Claro que, seguramente y al final del camino, los agujeros de gusano sólo serían una semilla que daría lugar al nacimiento de una teoría mejor, más avanzada y fiable que nos marcara el verdadero camino para burlar el muro que supone la velocidad de la luz sin tener que violar esa constante.

Muchas son las cosas que aún nos resultan misteriosas pero, ¿Qué alcanzaremos en el futuro? ¿Podremos realmente dominar y disponer de la energía de Planck que nos lleve hasta lugares inimaginables? ¿Serán nuestras mentes capaces de evolucionar hasta el extremo de que, algún día muy lejano en el futuro pudiéramos estar conectados con el ritmo vital del Universo, la energía pura que todo lo rige? Manejar esas potentes energías sería manejar los mundos, el espacio y, sobre todo, el Tiempo tan vital para nosotros.

¡Atravesar la pared y salir por el otro lado! El principio de incertidumbre da lugar también a un efecto curioso conocido como efecto túnel: si se dispara un perdigón de plástico contra un muro el perdigón rebotará, porque no tiene energía suficiente para penetrarlo, pero a nivel de partículas fundamentales, la mecánica cuántica muestra inequívocamente que las funciones de onda de las partículas que constituyen el perdigón tienen todas ellas una parte diminuta que SÍ SALE a través del muro.

Está claro que si nos dejamos llevar por nuestras elucubraciones, sin querer, nos metemos en terrenos donde las ideas comienzan a ser extravagantes, entramos en el ámbito de la filosofía y, ¿por qué no? en el de la ciencia ficción pensando en lo que podría ser. Comenzamos a imaginar como viajaremos en el futuro imitando a los electrones cuando dan su “salto cuántico” y, de esa manera, iremos tan ricamente de un universo a otro al dominar esa cosmología cuántica quen nos permitirá realizar ¡tantas maravillas!

Así, las partículas microscópicas pueden tomar prestada energía suficiente para hacer lo que es imposible desde el punto de vista de la física clásica, es decir abrirse camino, como por un túnel, a través del muro aunque dado la enorme cantidad de partículas que posee el muro el efecto túnel se vuelve muy improbable pues todas y cada una de las partículas tendrían que tener la suerte de poder abrirse camino juntas

Resultado de imagen de El efecto túnel

Esta escena que la hemos visto en muchas películas, sólo podría ser posible si no estuvieran los electrones rodeando a los átomos que conforman la pared. Cuando batimos palmas, por ejemplo, nuestras manos no pasan la una a través de la otra precisamente por eso, porque los electrones lo impiden y forman un caparazón electromagnético alrededor de todos los átomos que componen nuestras manos que, al batirlas chocan entre sí.

Cuando dejamos volar nuestra imaginación ayudada por los pocos conocimientos que de las cosas tenemos, podemos llegar a conclusiones realmente curiosas.

emilio silvera

¿Qués es la luz? hace 340 años que supimos de su velocidad

$
0
0

pintura edad media

            En estos lugares se vivía a base de antorchas y velas para alumbrar los lóbregos pasillos

Está claro que, los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.

Resultado de imagen de La refracción de la luzResultado de imagen de La refracción de la luz

Cuando la luz entra en un cristal, o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical.  La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell.  No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.

Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta e las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma. (Las dos refracciones en la misma dirección se originan por que los dos lados del prisma de se encuentran en ángulo en vez de en forma paralela, como sería el caso en una lámina ordinaria de cristal.)

Resultado de imagen de Newton y sus experimentos con la luz

                                                                  Newton y sus experimentos con la luz

Cuando Newton empezó su lucha por establecer un método inductivo correcto en física, estaba trabajando en el campo de la óptica, no en cinemática o en astronomía. En sus primeros años, mucho antes de que los Principia le dieran la fama, llevó a cabo un estudio de la luz y los colores, un estudio que ha sido descrito como “la más excelsa investigación experimental del siglo XVII

Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada.  Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo, verde, azul, y violeta, en este orden.

Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores.  La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro”, “fantasma”).

Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades.

Resultado de imagen de <a href=

Le surgieron y se planteó algunas inquietudes cuestiones. ¿Por qué se refractaban las partículas de luz verde más que los de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbase mutuamente, es decir, sin que se produjeran colisiones entre partículas?

Resultado de imagen de el físico holandés Christian Huygens y las ondas de luz

En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar los diversos difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire.  La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción.   Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda mas corta que la luz azul, ésta, más corta que la verde, y así sucesivamente.

Resultado de imagen de la luz es una forma de radiación electromagnética a la que el ojo humano es sensible

Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda.  Y, como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna.  (Las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades.)

Pero la teoría de Huyqhens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos; ni por qué proyectaban sombras recortadas; ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua.  Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las Estrellas? ¿cuál era esa mecánica ondulatoria?

Resultado de imagen de La teoría corpuscular de la luzResultado de imagen de La teoría corpuscular de la luz

Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular, de Newton, fue, con mucho, la más popular, en parte, porque la respaldó el famoso nombre de su autor.  Pero hacia 1.801, un físico y médico ingles, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto.  Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos.  Si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición.  Pero no fue esto lo que descubrió Young.  La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras.  Pareció incluso que, en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.

Imagen relacionada

Sería fácil explicarlo mediante la teoría ondulatoria. La banda luminosa representaba el refuerzo prestado por las ondas de un rayo a las ondas del otro.  Dicho de otra manera: Entraba “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro.  Por otra parte, las bandas oscuras representaban puntos en que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra.  En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.

Considerando la anchura de las bandas y la distancia entre los dos edificios por los que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o los colores intermedios.  Las longitudes de onda resultaron ser muy pequeñas.  Así, la de la luz roja era de unos 0’000075 cm. (Hoy se expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Angströn. Esta unidad, denominada, en honor a su autor Ángstrom (Á), es la cienmillonésima parte de un centímetro.  Así, pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Á, y la de la luz violeta, a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.)

Resultado de imagen de SombrasResultado de imagen de Sombras

La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si éste no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior de una onda luminosa y, por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de la onda luminosa (por ejemplo, los virus y otras partículas submicroscópicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.

Resultado de imagen de Augustin-Jean Fresnel, fue quien demostró por vez primera, en 1.818, que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad

Un físico francés, Augustin-Jean Fresnel, fue quien demostró por vez primera, en 1.818, que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”.  Por ejemplo, las finísimas líneas paralelas de una “reja de disfracción” actúan como una serie de minúsculos obtáculos, que se refuerzan entre si.  Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro.  A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.

Resultado de imagen de Resultado de imagen de Fraunhofer y los rayos espectrales

        A través de los rayos espectrales se supo de qué estaban hechas las estrellas y los objetos celestes

Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso: los rayos espectrales.  El físico americano Henry Augustus Rowlane ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada.  Ello hizo posible la sustitución del prisma por el espectroscopio.

Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.

Resultado de imagen de Longitud de onda luminosaResultado de imagen de La luz tiene naturaleza dual

La luz tiene una naturaleza dual: se comporta como onda y partícula. Entre las propiedades de la onda luminosa se incluyen la refracción de la onda cuando …

No sólo se aceptó las existencias de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor.  Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalterable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre.  Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento, denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.

Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuáles aportaba una raya cuya longitud de onda difería ligeramente de las restantes.  En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.

En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de longitud. Entonces se restableció la longitud de metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral.  Ello aumento mil veces la precisión de las medidas de longitud.  Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.

Ahora, después de todo esto, sabemos algo más sobre la luz.

Pero ¿qué pasa con su velocidad?

¡Veámoslo!

Imagen relacionada

Está claro que, la luz se desplaza a enormes velocidades. Si pulsamos el interruptor de apagado de la lámpara de nuestro salón, todo queda a oscuras de manera instantánea.

La velocidad del sonido es más lenta, por ejemplo, si vemos a un leñador que está cortando leña en un lugar alejado de nosotros, sólo oiremos los golpes momentos después de que caiga el hacha.  Así, pues, el sonido tarda cierto tiempo en llegar a nuestros oídos.  En realidad es fácil medir la velocidad de su desplazamiento: unos 1.206 km/h en el aire y a nivel del mar.

Resultado de imagen de Galileo intentó medir la velocidad de la luz

“El experimento realizado por Galileo Galilei en 1638 en el que por medio del uso de faroles, dos observadores situados a más de 1 km de distancia, pretendían medir el tiempo transcurrido desde que el primer observador emitía una señal luminosa por medio de un farol hasta que el segundo observador la veía, emitiendo instantáneamente con el otro farol una señal luminosa que era cronometrada por el primer observador.”

Galileo fue el primero en intentar medir la velocidad de la luz.  Se colocó en lo alto de una colina, mientras que su ayudante, se situaba en otro lugar alto de la colina vecina; luego sacó una linterna encendida: tan pronto como su ayudante vió la luz, hizo una señal con otra linterna.  Galileo repitió el experimento a distancias cada vez mayores, suponiendo que el tiempo requerido por su ayudante para responder mantendría una uniformidad constante, por lo cual, el intervalo entre la señal de su propia linterna y la de su ayudante representaría el tiempo empleado por la luz para recorrer cada distancia.  Aunque la idea era lógica, la luz viajaba demasiado aprisa como para que Galileo pudiera percibir las sutiles diferencias con un método tan rudimentario.

Imagen relacionada

         Observaciones de Röemer

En 1.676, el astrónomo danés Olau Roemer logró cronometrar la velocidad de la luz a escala de distancias astronómicas.  Estudiando los eclipses de Júpiter en sus cuatro grandes satélites, Roemer observó que el intervalo entre eclipses consecutivos era más largo cuando la Tierra se alejaba de Júpiter, y más corto cuado se movía en su órbita hacía dicho astro.  Al parecer, la diferencia entre las duraciones del eclipse reflejaba la diferencia de distancias entre la Tierra y Júpiter. Y trataba, pues, de medir la distancia partiendo del tiempo empleado por la luz para trasladarse desde Júpiter hasta la Tierra.  Calculando aproximadamente el tamaño de la órbita terrestre y observando la máxima discrepancia en las duraciones del eclipse que, según Roemer, representaba el tiempo que necesitaba la luz para atravesar el eje de al órbita terrestre, dicho astrónomo computó la velocidad de la luz.  Su resultado, de 225.000 km/s., parece excelente si se considera que fue el primer intento, y resultó bastante asombroso como para provocar la incredulidad de sus coetáneos.

Resultado de imagen de el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres[foto de la noticia]

Sin embargo, medio siglo después se confirmaron los cálculos de Roemer en un campo totalmente distinto.  Allá por 1.728, el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres; y no por el paralaje, sino porque la traslación terrestre alrededor del Sol era una fracción mensurable (aunque pequeña) de la velocidad de la luz.  La analogía empleada usualmente es la de un hombre que camina con el paraguas abierto bajo un temporal.  Aun cuando las gotas caigan verticalmente, el hombre debe inclinar hacia delante el paraguas, porque ha de abrirse paso entre las gotas.

Cuanto más acelere su paso, tanto más deberá inclinar el paraguas.  De manera semejante la Tierra avanza entre los ligeros rayos que caen desde las estrellas, y el astrónomo debe inclinar un poco su telescopio y hacerlo en varias direcciones, de acuerdo con los cambios de la trayectoria terrestre (no olvidemos que nuestro planeta Tierra, es como una enorme nave espacial que nos lleva en un viaje eterno, alrededor del Sol, a la velocidad de 30 km/s. + -) Mediante ese desvío aparente de los astros (“aberración de la luz”), Bradley pudo evaluar la velocidad de la luz y calcularla con gran precisión.

Sus cálculos fueron de 285.000 km/s, bastante más exacto que los de Roemer, pero aún un 5’5% más bajos.

Poco a poco, con medios tecnológicos más sofisticados y más conocimientos matemáticos, los científicos fueron obteniendo medidas más exactas aún, conforme se fue perfeccionando la idea original de Galileo y sus sucesores.

Resultado de imagen de En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador.

En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador.  El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, por Fizeau logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso.  Cuando dicha rueda giraba a cierta velocidad, regulada, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocado tras la rueda, no pudo verla.  Entonces se dio más velocidad a la rueda, y el reflejo pasó por la siguiente muesca entre los dientes, sin intercepción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizeau pudo calcular el tiempo transcurrido y, por consiguiente, la velocidad a que se movía el rayo de luz.

Experimento de Focault

Resultado de imagen de El experimento de Foucault para medir la velocidad de la luzResultado de imagen de El experimento de Foucault para medir la velocidad de la luzResultado de imagen de El experimento de Foucault para medir la velocidad de la luz

Cuando el espejo gira a una velocidad suficientemente elevada para que el tiempo de que tarda en dar una vuelta sea comparable al tiempo que tarda la luz en ir y volver en su recorrido, la señal luminosa se observa a una distancia fácilmente medible del orificio por el que sale el rayo luminoso.

En estas circunstancias es fácil determinar el ángulo que se ha desviado el rayo. Como se conoce la velocidad de rotación, se determina el tiempo que ha tardado el espejo en girar la mitad de ese ángulo. En este tiempo la luz ha recorrido y de esa cifra se obtiene el valor de la velocidad.

La velocidad del espejo fue de 400 revoluciones por segundo y la distancia entre el espejo giratorio y el espejo fijo era de 5 metros.

Un año más tarde, Jean Foucault (quien realizaría poco después su experimento con los péndulos) precisó más estas medidas empleando un espejo giratorio en ve de una rueda dentada.  Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio.  Foucault obtuvo un valor de la velocidad de la luz de 300.883 km/s.  También, el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos.  Averiguó que era notablemente inferior a la alcanzada en el aire.  Esto concordaba también con la teoría ondulatoria de Huyghens.

Resultado de imagen de Interferómetro de Michelson y Morley

Experimento Michelson-Morley Reposo con el éter luminífero Interferómetro de Michelson y Morley en reposo respecto al éter luminífero.

Michelson fue más preciso aún en sus medidas.  Este autor, durante cuarenta años largos, a partir de 1.879, fue aplicando el sistema Fizeau-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz.  Cuando se creyó lo suficientemente informado, proyectó la luz a través de vacío, en vez de hacerlo a través del aire, pues este frena ligeramente su velocidad, y, empleó para ello tuberías de acero cuya longitud era superior a 1’5 km.  Según sus medidas, la velocidad de la luz en el vacío era de 299.730 km(seg. (sólo un 0’006% más bajo).  Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.

Resultado de imagen de En 1.972, experimento de Kenneth M. Evenson sobre la velocidad de la luz

En 1.972, un equipo de investigadores bajo la dirección de Kenneth M. Eveson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 km/seg. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.

Aunque para algunos resulte alto tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo, así podrá saber algo más sobre la luz y, habrán conocido a personajes que hicieron posible el que ahora nosotros, la conozcamos mejor.

Resultado de imagen de Ondas de luz a través del espacio interestelar

Las ondas de luz están presentes en el Espacio Interestelar

Podría continuar, hasta el final de este trabajo, hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde Galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).

Ahora, en Física, se dice que la luz es una forma de radiación electromagnética a la que el ojo humano es sensible y sobre la cual depende nuestra consciencia visual del universo y sus contenidos.

Resultado de imagen de la luz es una forma de radiación electromagnética a la que el ojo humano es sensibleResultado de imagen de la luz es una forma de radiación electromagnética a la que el ojo humano es sensible

                                              Sí, el ojo humano puede ver todo objeto en el que incida la luz

Patrón de referencia

En el año 1983, el Bureau Internacional de Poids et Mesures resolvió modificar la definición del metro como unidad de longitud del Sistema Internacional,  estableciendo su definición a partir de la velocidad de la luz

Resultado de imagen de El metro como patrón

El metro como patrón en barras de platino e Iridio

En consecuencia, el mínimo reajuste arbitrario efectuado en la definición del metro, permite que la velocidad de la luz, lógicamente, tenga un valor exacto de 299 792 458 m/s cuando se expresa en metros/segundo. Esta modificación aprovecha de forma práctica una de las bases de la teoría de la relatividad de Einstein: la inmutabilidad de la velocidad de la luz en el vacío, sea cual sea el sistema de referencia utilizado para medirla, convirtiendo esta propiedad en uno de los patrones de los que se deducen otras unidades.

Resultado de imagen de El efecto fotoeléctrico

Aparte de todo lo que antes hemos explicado, no sería justo finalizar el trabajo sin exponer aquí que, en 1905, Albert Einstein, inspirado en el cuanto de Planck, realizó un importante avance en el conocimiento de lo que es la luz. Demostró que el Efecto fotoeléstrico sólo podía ser explicado con la hipótesis de que la luz consiste en un chorro de fotones de energía electromagnética discretos.

El conflicto entre la teoría ondulatoria y corpuscular de la luz fue resuelto con la evolución de la teoría cuántica y la mecánica ondulatoria que ha dejado claro que, los electrones y las otras partículas elementales tienen propiedades duales de partículas y onda.

sería mucho más largo, pero creo que está bien con lo dicho.

emilio silvera


¡La Física! ¡Siempre presente!

$
0
0

  

                Miramos pero… ¿Sabemos ver?

Estar equivocados nos sorprende y, al mismo tiempo, nos enseña algo sobre nosotros mismos. No solo hay cosas que no sabemos, sino que las cosas que creemos saber pueden no ser ciertas. Como nos dice la filosofía, nada es como se ve a primera vista, todo depende bajo el punto de vista desde el que miremos las cosas y, si es el correcto, estaremos en esa verdad que incansables buscamos.

No resulta nada fácil descubrir los caminos por los que deambula la Naturaleza y las razones que ésta tiene para recorrerlos  de la manera que lo hace y no de otra. Una cosa es cierta, la Naturaleza siempre trata de conseguir sus fines con el menor esfuerzo posible y, cuestiones que nos parece muy complicadas, cuando profundizamos en ellas como la ciencia nos exige, llegan a parecernos más sencillas y comprensibles. Todas las respuestas están ahí, en la Naturaleza.

 

“Este es un ensayo de Viktor Frankl neurólogo, psiquiatra, sobreviviente del holocausto y el fundador de la disciplina; que conocemos hoy como Logoterapia.

No eres Tú, soy Yo…

¿Quién te hace sufrir? ¿Quién te rompe el corazón? ¿Quién te lastima? ¿Quién te roba la felicidad o te quita la tranquilidad? ¿Quién controla tu vida?…

¿Tus padres? ¿Tu pareja? ¿Un antiguo amor? ¿Tu suegra? ¿Tu jefe?…

Podrías armar toda una lista de sospechosos o culpables. Probablemente sea lo más fácil. De hecho sólo es cuestión de pensar un poco e ir nombrando a todas aquellas personas que no te han dado lo que te mereces, te han tratado mal o simplemente se han ido de tu vida, dejándote un profundo dolor que hasta el día de hoy no entiendes.”

No veo que profesor pregunte por qué el llegar a saber también, nos puede hacer sufrir. Estamos en aquello de…, ” ojos que no ven, corazón que no siente”.

Hay historias del pasado que te hablan de pueblos y Civilizaciones que llegaron a tener una enorme visión del mundo. Sus sociedades alcanzaron cotas increibles en el saber de cuestiones que, aún hoy, nos parecen difíciles de creer y, sin embargo, ahí han quedado las huellas materiales de que, esos pueblos, mucho antes que nosotros, supieron entender el mundo y, de alguna manera, fueron incluso más prácticvos y naturales que nosotros muchos siglos después.

¿Cómo podríamos ensamblar una explicación científica de la génesis de la vida? A simple vista nos puede parecer una tarea sin esperanzas. No creo que buscar fósiles en las rocas más antiguas sea suficiente y nos ofrezca todas las claves necesarias. La mayoría de las delicadas moléculas prebióticas que dieron lugar a la vida habrán sido erradicadas por el inexorable paso del tiempo y la destructora entropía que todo en polvo lo convierte. Es posible, que podamos esperar el hallazgo de algún residuo químico ya degradado de aquellos organismos ancestrales a partir de los cuales evolucionó la vida celular que conocemos.

Claro que, aparte de los fósiles que podamos encontrar en las rocas, existe otra línea de evidencia que, de la misma manera, se remonta al pasado lejano y oscuro, pero que existe aquí y ahora, dentro de las formas de la vida presente. Los biólogos están convencidos de que ciertas reliquias de organismos antiguos siguen viviendo en las estructuras y procesos bioquímicos de sus descendientes, incluyéndonos a nosotros, los seres humanos.

    Todo comienza siendo una cosa y con el tiempo, se transforma en otra diferente: Evolución por la energía. En el universo en que vivimos, nada desaparece; con el tiempo se cumplen los ciclos de las cosas y se convierten en otra distinta, es un proceso irreversible que podemos contemplar a nuestro alrededor con el paso inexorable del tiempo se van cumpliendo las fases y los ciclos, y, no necesarimente siempre son de desgaste y envejecimiento, sino que, otras son de creación y resurgimiento. Cuando las estrellas masivas viejas esplotan en Supernovas, el espacio interetelar queda ocupado, en grandes regiones, por una nube enorme que, a veces, abarca varios años luz. El tiempo transcurre y, de esos restos de estrella “muerta”, con ayuda de la gravedad, nacen nuevas estrellas. Es la entropía negativa que lucha contra aquella otra que todo lo quiere destruir. Nosotros, de alguna manera, hacemos lo mismo con la descendencia y creamos entropía negativa que hace que lo nuevo, de alguna manera, esté venciendo a ese destino irreversible que nos habla de que la Eternidad… ¡No existe, para nada ni para nadie!

Resultado de imagen de La Nebulosa semillero de estrellas

El gas y el polvo se transforma en una brillante estrella que vive diez mil millones de años y termina en Nebulosa planeta con una enana blanca en el centro. Entonces la estrella que tenía un diámetro de 1.500 km, se reduce hasta unas pocas decenas, 20 0 30 Km y, su densidad, es inmensa, emitiendo radiación ultravioleta durante mucjho tiempo hasta que se enfría y se convierte en un cadáver estelar.

En lo concerniente a cambios y transformaciones, el que más me ha llamado siempre la atención es el de las estrellas que se forman a partir de gas y polvo cósmico. Nubes enormes de gas y polvo se van juntando. Sus moléculas cada vez más apretadas se rozan, se ionizan y se calientan hasta que en el núcleo central de esa bola de gas caliente, la temperatura alcanza millones de grados. La enorme temperatura posible la fusión de los protones y, en ese instante, nace la estrella que brillará miles de millones de años y dará luz y calor. Su ciclo de vida estará supeditado a su masa. Si la estrella es supermasiva, varias masas solares, su vida será más corta, ya que consumirá el combustible nuclear de fusión (hidrógeno, helio, litio, oxígeno, etc) con más voracidad que una estrella mediana como nuestro Sol, de vida más duradera.

Resultado de imagen de Estrella en expandio´`on

Resultado de imagen de Estrella en contracción

Una estrella, como todo en el universo, está sostenida por el equilibrio de dos fuerzas contrapuestas; en caso, la fuerza que tiende a expandir la estrella (la energía termonuclear de la fusión) y la fuerza que tiende a contraerla (la fuerza gravitatoria de su propia masa). Cuando finalmente el proceso de fusión se detiene por agotamiento del combustible de fusión, la estrella pierde la fuerza de expansión y queda a merced de la fuerza de gravedad; se hunde bajo el peso de su propia masa, se contrae más y más, y en el caso de estrellas súper masivas, se convierten en una singularidad, una masa que se ha comprimido a tal extremo que acaba poseyendo una fuerza de gravedad de una magnitud difícil de imaginar el común de los mortales.

        La singularidad con su inmensa fuerza gravitatoria atrae a la estrella vecina

La Tierra, un objeto minúsculo en comparación con esos objetos súper masivos estelares, genera una fuerza de gravedad que, para escapar de ella, una nave o cohete espacial tiene que salir disparado la superficie terrestre a una velocidad de 11’18 km/s; el sol exige 617’3 km/s.  Es lo que se conoce como velocidad de escapeque es la velocidad mínima requerida escapar de un campo gravitacional que, lógicamente, aumenta en función de la masa del objeto que la produce. El objeto que escapa puede ser una cosa cualquiera, desde una molécula de gas a una nave espacial. La velocidad de escape de un cuerpo está dada por , donde G es la constante gravitacional, M es la masa del cuerpo y R es la distancia del objeto que escapa del centro del cuerpo. Un objeto que se mueva con una velocidad menor que la de escape entra en una órbita elíptica; si se mueve a una velocidad exactamente igual a la de escape, sigue una órbita , y si el objeto supera la velocidad de escape,  se mueve en una trayectoria hiperbólica y rompe la atadura en que la mantenía sujeto al planeta, la estrella o el objeto que emite la fuerza gravitatoria.

La mayor velocidad que es posible alcanzar en nuestro universo es la de la luz, c, velocidad que la luz alcanza en el vacío y que es de 299.793’458 km/s.

Sí, se pudo confirmar que los neutrinos respetan la supremacía el fotón y la luz, sigue siendo la más rápida del Universo. Y sin embargo, no escapar de la atracción de un Agujero Negro.

Pues bien, es tal la fuerza de gravedad de un agujero negro que ni la luz puede escapar de allí; la singularidad la absorbe, la luz desaparece en su interior, de ahí su nombre de agujero negro la estrella supermasiva se contrae, llega a un punto que desaparece de nuestra vista. De acuerdo con la relatividad general, cabe la posibilidad de que una masa se comprima y reduzca sin límites su tamaño y se auto confine en un espacio infinitamente pequeño que encierre una densidad y una energía infinitos. Allí, el espacio y el tiempo dejan de existir.

Las singularidades ocurren en el Big Bang, en los agujeros negros y en el Big Crunch (que se podría considerar una reunión de todos los agujeros negros generados por el paso del tiempo en el universo y que nos llevará a un fin  que será el comienzo).

Las singularidades de los agujeros negros están rodeados por una circunferencia invisible a su alrededor que marca el límite de su influencia. El objeto que traspasa ese límite es atraído, irremisiblemente, la singularidad que lo engulle, sea una estrella, una nube de gas o cualquier otro objeto cósmico que ose traspasar la línea que se conoce como horizonte de sucesos del agujero negro.

La existencia de los agujeros negros  fue deducida por Schwarzschild, en el año 1.916, a partir de las ecuaciones de Einstein de la relatividad general. Este astrónomo alemán predijo su existencia, pero el de agujero negro se debe a Johb Wheeler.

                    Señalamos la singularidad del Big Bang pero… ¿fue así?

Así, el conocimiento de la singularidad está dado por las matemáticas de Einstein y más tarde por la observación de las señales que la presencia del agujero generan. Es una fuente emisora de rayos X que se producen al engullir materia que traspasa el horizonte de sucesos y es atrapada la singularidad,  donde desaparece siempre sumándose a la masa del agujero cada vez mayor.

En el centro de nuestra galaxia, la Vía Láctea, ha sido detectado un enorme agujero negro,  ya muy famoso, llamado Cygnus X-1.

Después de todo, la velocidad de la luz, la máxima del universo, no vencer la fuerza de gravedad del aujero negro que la tiene confinada para siempre.

En nuestra galaxia, con cien mil años luz de diámetro y unos doscientos mil millones de estrellas, ¿cuántos agujeros negros habrá?

Para mí, la cosa está clara: el tiempo es imparable, el reloj cósmico sigue y sigue andando sin que nada lo pare, miles o cientos de miles, millones y millones de estrellas súper masivas explotarán en brillantes supernovas para convertirse en temibles agujeros negros.

Llegará un momento que el de agujeros negros en las galaxias será de tal magnitud que comenzarán a fusionarse unos con otros que todo el universo se convierta en un inmenso Agujero negro,  una enorme singularidad,  lo único que allí estará presente: la gravedad.

Esa fuerza de la naturaleza que está sola, no se puede juntar con las otras fuerzas que, como se ha dicho, tienen sus dominios en la mecánica cuántica, mientras que la gravitación residen en la inmensidad del cosmos; las unas ejercen su dominio en los confines microscópicos del átomo, mientras que la otra sólo aparece de manera significativa en presencia de grandes masas estelares. Allí, a su alrededor, se aposenta curvando el espacio y distorsionando el tiempo.

Esa reunión final de agujeros negros será la causa de que la Densidad Crítica sea superior a la ideal. La gravedad generada por el inmenso agujero negro que se irá formando en cada galaxia tendrá la consecuencia de parar la expansión actual del universo. Todas las galaxias que ahora están separándose las unas de las otras se irán frenando parar y, despacio al principio pero más rápido después, comenzarán a recorrer el camino hacia atrás.  Finalmente, toda la materia será encontrada en un punto común donde chocará violentamente formando una enorme bola de fuego, el Big Crunch, que como sabéis, es sólo una de las variadas teorías del final del universo.

Claro que, antes de que eso llegue, tendremos que resolver el primer problema: La visita de Andrómeda, la salida de la Tierra de la Zona habitable, o,  la muerte del Sol que se convertirá en una gigante roja primero y en una nebulosa planetaria con una estrella enana blanca en el centro después.

Resultado de imagen de Moléculas y transiciones de fase

                      Todo en el Universo, con el paso del Tiempo camba de Estado, nasçda permanece

Los científicos se han preguntado a veces qué sucederá eventualmente a los átomos de nuestros cuerpos mucho tiempo después de que hayamos muerto. La posibilidad más probable es que nuestras moléculas vuelvan al Sol. En páginas anteriores he explicado el destino del Sol: se agotará su combustible de hidrógeno y fusionará helio; se hinchará en gigante roja y su órbita es probable que sobrepase la Tierra y la calcine; las moléculas que hoy constituyen nuestros cuerpos serán consumidas por la atmósfera solar.

Carl Sagan pinta el cuadro siguiente:

Resultado de imagen de La Gigante roja que engullirá al Sol dentro de 5.000 M de años

 

“Dentro de miles de millones de años a partir de , habrá un último día perfecto en la Tierra… Las capas de hielo Ártica y Antártica se fundirán, inundando las costas del mundo. Las altas temperaturas oceánicas liberarán más vapor de agua al aire, incrementando la nubosidad y escondiendo a la Tierra de la luz solar retrasando el final. Pero la evolución solar es inexorable.  Finalmente los océanos hervirán, la atmósfera se evaporará en el espacio y nuestro planeta será destruido por una catástrofe de proporciones que ni podemos imaginar.”

 

En una escala de tiempo de varios miles de millones de años, debemos enfrentarnos al hecho de que la Vía Láctea, en la que vivimos, morirá. Más exactamente, vivimos en el brazo espiral Orión de la Vía Láctea. miramos al cielo nocturno y nos sentimos reducidos, empequeñecidos por la inmensidad de las luces celestes que puntúan en el cielo, estamos mirando realmente una minúscula porción de las estrellas localizadas en el brazo de Orión. El resto de los 200 mil millones de estrellas de la Vía Láctea están tan lejanas que apenas pueden ser vistas como una cinta lechosa que cruza el cielo nocturno.

File:Andromeda Galaxy (with h-alpha).jpg
                                                               La Galaxia Andrómeda

Aproximadamente a dos millones de años luz de la Vía Láctea está nuestra galaxia vecina más cercana, la gran galaxia Andrómeda, dos o tres veces mayor que nuestra galaxia. Las dos galaxias se están aproximando a unos 500  km/s, y chocarán en un periodo de entre 3 y 4 mil  millones de años. Como ha dicho el astrónomo Lars Hernquist de la California en Santa Cruz, esta colisión será “parecida a un asalto. Nuestra galaxia será literalmente consumida y destruida“. Aunque, lo cierto es que aunque en el choque algo se detruya, lo cierto es que todo quedará en forma de una galaxia mucho mayor.

Resultado de imagen de Andrómeda y Vía Láctea se fusionaran

Así las cosas, no parece que la Humanidad del futuro lo tenga nada fácil.  Primero tendrá que escapar, dentro de unos 4.000 millones de años del gigante rojo en que se convertirá el Sol que calcinará al planeta Tierra. Segundo, en unos 10.000 millones de años, la escapada tendrá que ser aún más lejana; la destrucción será de la propia galaxia que se fusionará con otra mayor sembrando el caos cósmico del que difícilmente se podría escapar quedándonos aquí. Por último, el final anunciado, aunque más largo tiempo, es el del propio universo que, por congelación o fuego, tiene los eones contados.

Por todas estas catástrofes anunciadas por la ciencia, científicos como Kip S. Thorne y Stephen Hawking sugieren a otros universos paralelos a través de agujeros de gusano en el hiperespacio. Sería la única puerta de salida para que la Humanidad no se destruyera.

Resultado de imagen de Agujeros de gusano

Como queda mucho tiempo para que todos esos acontecimientos lleguen, es previsible que podamos encontrar soluciones que nos permitan salvar a nuestra especie viajando a otros mundos con sistemas nuevos que ahora, sómo son sueños.

Si lo alcanzaremos o no, es imposible de contestar, no tenemos los necesarios para ello. Incluso se podría decir que aparte de estas catástrofes futuras que sabemos a ciencia cierta que ocurrirán, seguramente existan otras que están ahí latentes en la incertidumbre de si finalmente ocurren o no, sólo pendiente de decidir lo uno o lo otro por parámetros ocultos que no sabemos ni que puedan existir.

En esta situación de impotencia, de incapacidad física e intelectual, nos tenemos que dar y admitir que, verdaderamente, comparados con el universo y las fuerzas que lo rigen, somos insignificantes, menos que una mota de polvo flotando en el haz de luz que entra, imparable, por la ventana entre-abierta de la habitación.

Sin embargo, tampoco es así. Que se sepa, no existe ningún otro grupo inteligente que esté capacitado tratar de todas estas cuestiones. Que la especie humana sea consciente de dónde vino y hacia dónde va, en verdad tiene bastante mérito, y más, si consideramos que nuestro origen está a partir de materia inerte evolucionada y compleja que, un día, hace probablemente miles de millones de años, se fraguó en estrellas muy lejanas.

http://mgmdenia.files.wordpress.com/2014/04/fuerzas.jpg

A finales de los 60, un joven físico italiano, Gabriele Veneziano, buscaba un grupo de ecuaciones que explicara la fuerza nuclear fuerte. Este pegamento tan fuerte que mantenía unidos los protones y neutrones del núcleo de cada átomo. Parece ser que por casualidad se encontró con un libro antiguo de matemáticas y en su interior encontró una ecuación de más de 200 años de antigüedad creada por un matemático suizo llamado Leonhard Euler. Veneziano descubrió con asombro que las ecuaciones de Euler, consideradas desde siempre una simple curiosidad matemática, parecían describir la fuerza nuclear fuerte. Después de un año de de profundos estudios, experimentos, intuición e imaginación, se podría decir que elaboraron la Teoría de Cuerdas de manera fortuita.

Tras circular entre compañeros, la ecuación de Euler acabó escrita frente a Leonard Susskind, quien se retiro a su ático para investigar. Creía que aquella antigua fórmula describía matemáticamente la fuerza nuclear fuerte, pero descubrió algo nuevo. Lo primero que descubrió fue que describía una especie de partícula con una estructura interna que vibraba y que mostraba un comportamiento que no se limitaba al de una partícula puntual. Dedujo que se trataba de una cuerda, un hilo elástico, como una goma cortada por la mitad. Esta cuerda se estiraba y contraía además de ondear y coincidía exactamente con la fórmula. Susskind redactó un artículo donde explicaba el descubrimiento de las cuerdas, pero nunca llegó a publicarse.

Muchos buscaron la 5ª dimensión… ¡sin fortuna! Aquí sólo hay tres y el espacio.

Claro que, ya he comentado otras veces que la teoría de cuerdas tiene un origen real en las ecuaciones de Einstein en las que se inspiro Kaluza para añadir la quinta dimensión y perfeccionó Klein (teoría Kaluza-Klein). La teoría de cuerdas surgió a partir de su descubrimiento accidental por Veneziano y , y a partir de ahí, la versión de más éxito es la creada por los físicos de Princeton David Gross, Emil Martinec, Jeffrey Harvey y Ryan Rohm; ellos son conocidos en ese mundillo de la física teórica como “el cuarteto de cuerdas”.  Ellos han propuesto la cuerda heterótica (híbrida) y están seguros de que la teoría de cuerdas resuelve el problema de “construir la propia materia a partir de la pura geometría: eso es lo que en cierto sentido hace la teoría de cuerdas, especialmente en su versión de cuerda heterótica, que es inherentemente una teoría de la gravedad en la que las partículas de materia, tanto las otras fuerzas de la naturaleza, emergen del mismo modo que la gravedad emerge de la geometría“.

La Gravedad cuántica está en algunas mentes , ¿Estará en la Naturaleza?

La característica más notable de la teoría de cuerdas ( ya he señalado), es que la teoría de la gravedad de Einstein está contenida automáticamente en ella. De hecho, el gravitón (el cuanto de gravedad) emerge como la vibración más pequeña de la cuerda cerrada, es más, si simplemente abandonamos la teoría de la gravedad de Einstein como una vibración de la cuerda, entonces la teoría se vuelve inconsistente e inútil. , de hecho, es la razón por la que Witten se sintió inicialmente atraído hacia la teoría de cuerdas.

Witten está plenamente convencido de que “todas las ideas realmente grandes en la física, están incluidas en la teoría de cuerdas“.

No entro aquí a describir el modelo de la teoría de cuerdas que está referido a la “cuerda heterótica”, ya que su complejidad y profundidad de detalles podría confundir al lector no iniciado. Sin embargo, parece justo que deje constancia de que consiste en una cuerda cerrada que tiene dos tipos de vibraciones, en el sentido de las agujas del reloj y en el sentido contrario, que son tratadas de diferente.

Las vibraciones en el sentido de las agujas de reloj viven en un espacio de diez dimensiones. Las vibraciones de sentido contrario viven en un espacio de veintiséis dimensiones, de las que dieciséis han sido compactificadas (recordemos que en la teoría pentadimensional Kaluza-Klein, la quinta dimensión se compactificaba curvándose en un circulo). La cuerda heterótica debe su al hecho de que las vibraciones en el sentido de las agujas de reloj y en el sentido contrario viven en dos dimensiones diferentes pero se combinan para producir una sola teoría de supercuerdas. Esta es la razón de que se denomine según la palabra griega heterosis, que significa “vigor híbrido”.

En conclusión, las simetrías que vemos a nuestro alrededor, el arcoiris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría decadimensional original.  Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia.

La teoría de cuerdas, a partir del descubrimiento Veneziano-Suzuki, estaba evolucionando atrás buscando las huellas de Faraday, Riemann, Maxwell y Einstein poder construir una teoría de campos de cuerdas.  De hecho, toda la física de partículas estaba basada en teoría de campos. La única teoría no basada en teoría de campos era la teoría de cuerdas.

De la teoría de cuerdas combinada con la supersimetría dio lugar a la teoría de supercuerdas. La cuerda es un objeto unidimensional que en nueva teoría se utiliza remplazando la idea de la partícula puntual de la teoría cuántica de campos. La cuerda se utiliza en la teoría de partículas elementales y en cosmología y se representa por una línea o lazo (una cuerda cerrada). Los estados de una partícula pueden ser producidos por ondas estacionarias a lo largo de esta cuerda.

En teoría se trata de unificar a todas las fuerzas fundamentales incorporando simetría y en la que los objetos básicos son objetos unidimensionales que tienen una escala de 10-35 metros y, como distancias muy cortas están asociadas a energías muy altas, este caso la escala de energía requerida es del orden de 1019 GeV, que está muy por encima de la que hoy en día pueda alcanzar cualquier acelerador de partículas.

Antes expliqué, las cuerdas asociadas con los bosones sólo son consistentes como teorías cuánticas en un espacio-tiempo de 26 dimensiones; aquella asociadas con los fermiones sólo lo son en un espacio tiempo de 10 dimensiones. Ya se ha explicado que las dimensiones extras, además de las normales que podemos constatar, tres de espacio y una de tiempo, como la teoría de Kaluza-Klein, están enrolladas en una distancia de Planck. De , inalcanzables.

Una de las características más atractivas de la teoría de supercuerdas es que dan lugar a partículas de espín 2, que son identificadas con los gravitones (las partículas que transportan la gravedad y que aún no se han podido localizar). Por tanto, una teoría de supercuerdas automáticamente contiene una teoría cuántica de la interacción gravitacional. Se piensa que las supercuerdas, al contrario que ocurre con otras teorías ( ellas el Modelo Estándar), están libres de infinitos que no pueden ser eliminados por renormalización, que plagan todos los intentos de construir una teoría cuántica de campos que incorpore la gravedad. Hay algunas evidencias de que la teoría de supercuerdas está libre de infinitos, pero se está a la búsqueda de la prueba definitiva.

Aunque no hay evidencia directa de las supercuerdas, algunas características de las supercuerdas son compatibles con los hechos experimentales observados en las partículas elementales, como la posibilidad de que las partículas no respeten paridad,  lo que en efecto ocurre en las interacciones débiles.

Extrañas configuraciones a las que, algunos físicos le quieren sacar lo que seguramente no se encuentra en ellas

Estoy convencido de que la teoría de supercuerdas será finalmente corroborada por los hechos y, ello, se necesitará algún tiempo; no se puede aún comprobar ciertos parámetros teóricos que esas complejas matemáticas a las que llaman topología nos dicen que son así.

Habrá que tener siempre a mano las ecuaciones de Einstein, las funciones modulares de Ramanujan y el Supertensor métrico de ese genio matemático que, al igual que Ramanujan, fue un visionario llamado Riemann.

Las historias de estos dos personajes, en cierto modo, son muy parecidas.  Tanto Riemann como Ramanujan murieron antes de cumplir los 40 años y, también en ambos casos, en difíciles. Estos personajes desarrollaron una actividad matemática sólo comparable al trabajo de toda la vida de muchos buenos matemáticos.

Resultado de imagen de la función modular de Ramanujan

¿Cómo es posible que, para proteger la simetría conforme original por su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto de identidades matemáticas, que precisamente son las identidades de la función modular de Ramanujan?

En este he expresado que las leyes de la naturaleza se simplifican cuando se expresan en dimensiones más altas. Sin embargo, a la luz de la teoría cuántica, debo corregir algo esta afirmación, y para decirlo correctamente debería decir: las leyes de la naturaleza se simplifican cuando se expresan coherentemente en dimensiones más altas. Al añadir la palabra coherentemente hemos señalado un punto crucial. ligadura nos obliga a utilizar las funciones modulares de Ramanujan, que fijan en diez de dimensiones del espacio-tiempo. Esto a su vez, puede facilitarnos la clave decisiva para explicar el origen del universo.

emilio silvera

El placer de Descubrir: Aventurarse por nuevos caminos.

$
0
0

La molécula de agua es polar en virtud principalmente de su geometría angular.

 

Aunque parezca extraño, todos los seres vivos de la Tierra, estamos hechos de la misma cosa y basados en el mismo elemento. De alguna manera, estamos emparentado con todos los seres vivos. Nosotros tuvimos la suerte de poder generar pensamientos. Tenemos que pensar que las moléculas de la vida, están presentes en cualquier Nebulosa del Espacio Interestelar.

  

 

 

Rho Ophiuchi

 

 

Actualmente, gracias a la Astrofísica y la Astroquímica, sabemos que, además de los rayos cósmicos, los átomos y las moléculas están presentes también en todo el universo, pues sus señales en forma de radiación electromagnética nos llegan desde las más lejanas galaxias hasta el medio interestelar de la nuestra, pasando por atmósferas estelares, por enanas marrones, por discos que rodean las estrellas, por planetas, etc, donde también existen átomos y moléculas con los que pueden interaccionar.
Resultado de imagen de Radiotelescopios
La Astroquímica utiliza telescopios, que generalmente son radiotelescopios, que junto con el empleo de la “espectroscopia” hace posible detectar y determinar la naturaleza de las sustancias presentes en el universo. Después de la invención del telescopio, es probablemente la invención del espectroscopio y la ciencia a él ligada, la espectroscopía, uno de los mayores hitos de la historia de la instrumentación astronómica. En 1860 se construyó el primer espectroscopio, instrumento que revolucionó la química y la astronomía y que abrió las puertas a un camino nuevo para entender el Cosmos.
Resultado de imagen de Al calentar un elemento químico emite radiación a frecuencia específica
Cuando se calienta un elemento químico, emite luz a frecuencias características, el  “espectro de emisión”, luz que una vez analizada mediante un espectroscopio y convertida en un “espectro”, se transforma en la “huella dactilar” que lo identifica sin el menor equívoco. Asimismo, los elementos pueden absorber a las mismas frecuencias que emiten, dando lugar a los “espectros de absorción”, que son una especie de arco iris al que le faltan los colores correspondientes a las frecuencias absorbidas por la sustancia. Ambos espectros son complementarios.

 

 Los organismos vivos somos sistemas extremadamente complejos, formados por un elevado número de elementos interrelacionados que deben mantener sus características a lo largo del tiempo, de una generación a otra. Esto supone que debe existir algún mecanismo para que cada elemento de los organismos se elabore de acuerdo a un “plan”, a un modelo de organización establecido, y que ese modelo pueda ser transmitido de una célula a sus descendientes. Esta necesidad de los seres vivos nos acerca a la noción de información genética.

  

 

 

[stephan_quinteto_2009_hubble.jpg]

 

¿Cuantas veces habremos comentado aquí los efectos gravitatorios de las grandes masas del Universo?

 

 

“Quien ha visto las cosas presentes ha visto todo, todo lo ocurrido desde la eternidad y todo lo que ocurrirá en el tiempo sin fin; pues todas las cosas son de la misma clase y la misma ”.

Marco Aurelio

 

Claro que él, quería significar que todo, desde el comienzo del mundo, ha sido igual, sigue unos patrones que se repiten una y otra vez a lo largo del transcurso de los tiempos: el día y la noche, las estaciones, el frío y el calor, el río muerto por la sequía o aquel que, cantarino y rumoroso ve correr sus aguas cristalinas hasta que desembocan en el océano. La Bondad y la maldad… Y, también, el Hombre y la Mujer. Así ha sido desde que podemos recordar y, así continuará siendo.

Para fugarnos de la tierra

un libro es el mejor bajel;

y se viaja mejor en el poema

que en más brioso corcel.

Whitman

 

 

“Todo presente de una sustancia simple es naturalmente una consecuencia de su estado anterior, de modo que su presente está cargado de su futuro.”

Leibniz

 

Niels Bohr, citando a Gohete preguntaba: ¿Cuál es el camino? No hay ningún camino. Está claro el mensaje que tal pregunta y tal respuesta nos quiere hacer llegar, el camino, tendremos que hacerlo nosotros mediante la exploración hacia el futuro en el que está lo que deseamos encontrar. Hay que explorar y arriesgarse para tenemos que ir más allá de las regiones habituales y conocidas que nos tienen estancados siempre en el mismo lugar. ¡Arrisguémosno!

Homero nos contó como Ulises de Ítaca se arriesgó a oír el canto de las sirenas amarrado al palo de la vela mayor de su embarcación. Él no que´ria ser atraído por aquellas fuerzas malignas pero quería sentir los efectos de aquella llamada en lugar seguro. Eso nos lleva a pensar que hay un mensaje en el pasaje de Homero: Arriesgarse… ¡Sí! Pero con las precauciones necesarias. Así que, cuidado con los Robots, con los experimentos científicos de todo tipo, y, sobre todo, no debemos creer que lo sabemos todo. Tenemos que ser conscientes de que, el peligro nos acecha por todas partes.

Pero, no cabe duda alguna de que, el acto de exploración modifica la perspectiva del explorador; Ulises, Marco Polo y Colón habían cambiado cuando volvieron a sus lugares de partida . Lo mismo ha sucedido en la investigación científica de los extremos en las escalas, desde la grandiosa extensión del espacio cosmológico hasta el mundo minúsculo y enloquecido de las partículas subatómicas.

 

La galaxia conocida por el nombre de Bella Durmiente

Una bella galaxia espiral de cien mil años-luz de diámetro que podemos comparar con…¡Un átomo! El tema de las medidas es relativo y todo se supedita a su ámbito natural, cada cosa tiene la medida que requiere su funciòn en el Universo, desde un átomo hasta una galaxia.

En ambos “universos” existe una descomunal diferencia en los extremos de las escalas. Sin embargo, la inmensa galaxia de arriba no sería posible sin la existencia de infinitesimal átomo de abajo. ¡Todo lo grande está hecho de cosas pequeñas!

Así que, cuando hacemos esos viajes, irremediablemente nos cambian, y, desde luego, desafían muchas de las concepciones científicas y filosóficas que, hasta ese momento, más valorábamos. Algunas tienen que ser desechadas, como el bagaje que se deja atrás en una larga travesía por el desierto. Otras tienen que ser modificadas y reconstruidas hasta quedar casi irreconocibles, ya que, lo que hemos podido ver en esos viajes, lo que hemos descubierto, nos han cambiado por completo el concepto y la perspectiva que del mundo teníamos, conocemos y sabemos.

La exploración del ámbito de las galaxias extendió el alcance de la visión humana en un factor de 1026veces mayor que la escala humana, y produjo la revolución que identificamos con la relatividad, la cual reveló que la concepción newtoniana del mundo sólo era un parroquianismo en un universo más vasto donde el espacio es curvo y el tiempo se hace flexible.

La exploración del dominio subatómico nos llevó lejos en el ámbito de lo muy pequeño, a 10-15 de la escala humana, y también significó una revolución. fue la Física cuántica que, transformó todo lo que abordó.

La teoría cuántica nació en 1900, Max Planck comprendió que sólo podía explicar lo que llamaba la curva del cuerpo negro -el espectro de energía que genera un objeto de radiación perfecta- si abandonaba el supuesto clásico de que la emisión de energía es continua, y lo reemplazó por la hipótesis sin precedentes de que la energía se emite en unidades discretas. Planck llamó cuantos a estas unidades.

1) Figura animada que representa un rayo de luz incidiendo sobre un cuerpo negro hasta su total absorción. 2) En la gráfica se representa la intensidad de la radiación emitida por el cuerpo negro en función de la longitud de onda a diferentes temperaturas. El máximo de la curva aumenta al ir hacia menores longitudes de onda (Ley de Wien). Se compara con el modelo clásico de Rayleigh-Jeans a altas temperaturas (5000 K) comprobándose la llamada catástrofe del ultravioleta

La constante de Planck es una constante física que desempeña un papel central en la teoría de la mecánica cuántica y recibe su nombre de su descubridor, Max Plancc, uno de los padres de dicha teoría. Denotada como h, es la constante que frecuentemente se define como el cuanto elemental de acción.Planck la denominaría precisamente «cuanto de acción»

Fue inicialmente propuesta como la constante de proporcionalidad entre la energía E de un fotón y la frecuencia f de su onda electromagnética asociada. Esta relación entre la energía y la frecuencia se denomina «relación de Planck»:

E=h\nu

La constante de proporcionalidad h es conocida como la constante de Planck. La relación cuantificada de la naturaleza de la luz desempeña un papel importante mediante la comprensión de fenómenos tales como el efecto fotoeléctrico, y la ley de Planck de la radiación del cuerpo negro. Véase también el postulado de Planck.mmg.

La luz puede ser caracterizada usando varias magnitudes espectrales, como la frecuencia ν, la longitud de onda λ, el número de onda, y sus equivalentes angulares (frecuencia angular ω, longitud de onda angular y número de onda angular k). Estas cantidades están relacionadas de la siguiente manera:

 

{\displaystyle \nu ={\frac {c}{\lambda }}=c{\tilde {\nu }}={\frac {\omega }{2\pi }}={\frac {c}{2\pi y}}={\frac {ck}{2\pi }},}

por lo que la relación de Planck puede tomar el siguiente estándar de forma:

 

{\displaystyle E=h\nu ={\frac {hc}{\lambda }}=hc{\tilde {\nu }},}

así como la siguiente forma angular:

 

{\displaystyle E=\hbar \omega ={\frac {\hbar c}{y}}=\hbar ck.}

El estándar de las formas hacen uso de la constante de Planck h. Las formas angulares hacen uso de la reducción de Planck, la constante ħ = h2π. Aquí c es la velocidad de la luz.

 

{\displaystyle \Delta E=h\nu .}

Esto es una consecuencia directa de la relación de Planck–Einstein.

Ley de Planck a diferentes temperaturas en función de la frecuencia para la radiación del cuerpo negro

Planck definió a “sus” cuantos en términos del “cuanto de acción”, simbolizado por la letra h que ahora, se ha convertido en el símbolo de una constante,  la constante de Planck, h.  Planck no era ningún revolucionario – a la edad de cuarenta y dos años era un viejo, juzgado por patrones de la ciencia matemática y, además, un pilar de la elevada cultura alemana del siglo XIX-, pero se percató fácilmente de que el principio cuántico echaría abajo buena de la física clásica a la que había dedicado la mayor parte de su carrera. “Cuanto mayores sean las dificultades -escribió-…tanto más importante será finalmente para la ampliación y profundización de nuestros conocimientos en la física.”

Sus palabras fueron proféticas: cambiando y desarrollándose constantemente, modificando su coloración de manera tan impredecible como una reflexión en una burbuja de , la física cuántica pronto se expandió practicamente a todo el ámbito de la física, y el cuanto de acción de Planck, h llegó a ser considerado una constante de la Naturaleza tan fundamental como la velocidad de la luz, c, de Einstein.

           Dos buenos amigos, dos genios. Ellos veían lo que otros no podían y, sin embargo, sus dos teorías no han podido compatibilizarse hasta el momento. La Gravedad y la cuántica siguen caminos separados e incompatibles. Precisamente por eso, la Gravedad no quiere estar en el Modelo Estándar.

Max Planck es uno de los científicos a los que más veces se le han reconocido sus méritos y, su , está por todas partes: La Constante de Planc, las Unidades de Planck, El cuanto de Planck, la Radiación de Planck, El Teimpo de Planck, la masa de Planck, la Energía de Plancik, la Longitud de Planck… ¡Todo merecido!

Confinados en nuestro pequeño mundo, una mota de polvo en la inmensidad de una Galaxia grandiosa que, a su vez, forma parte de un universo “infinito”, hemos podido darnos traza para poder saber, a pesar de las enormes distancias, sobre lo que existe en regiones remotas del Universo.  Un Universo formado por Supercúmulos de galaxias que formadas en grupos conforman la materia visible, y, dentro de cada una de esas galaxias, como si de universos se tratara, se reproducen todos los objetos y fenómenos que en el Universo son.

The Scale of the Universe 2 – HTwins.net

Sigamos con la escala del Universo conocido y hagamos un pequeño esquema que lo refleje: El Universo Observable, la mayor escala que abarca más de 100 mil trillones de kilómetros (según nos cuenta Timothy Ferris:

Radio en metros                                                                   Objetos característicos

1026                                                                                                 Universo observable

1024                                                                                                 Supercúmulos de Galaxias

1023                                                                                                 Cúmulos de Galaxias

1022                                                                                                 Grupo de Galaxias (por ejemplo el Grupo Local)

1021                                                                                                  Galaxia La Vía Láctea

Nube Molecular gigante muy masiva, de gas y polvo compuesta fundamentalmente de moléculas con diámetro típico de 100 a.l. Tienen masa de diez millones de masas solares (moléculas de Hidrógeno (H2) el 73% en masa), átomos de Helio (He, 25%), partículas de polvo (1%), Hidrógeno atómico neutro (H I, del 1%) y, un rico coctel de moléculas interestelares. En nuestra galaxia existen al menos unas 3000 Nubes Moleculares Gigantes, estando las más masivas situadas cerca de la radiofuente Sagitario B en el centro Galáctico.

1018                                                                                                  Nebulosas Gigantes, Nubes Moleculares

1012                                                                                                                                                   Sistema Solar

1011                                                                                                  Atmósfera externa de las Gigantes rojas

Aunque a una Unidad Astronómica de distancia (150 millones de Kilómetros de la Tierra), el Sol caliente el planeta y nos da la vida

109                                                                                                  El Sol

108                                                                                                  Planetas Gigantes Júpiter

107                                                                                                  Estrellas enanas,  planetas similares a la Tierra

105                                                                                                  Asteroides, núcleos de cometas

104                                                                                                  Estrellas de Neutrones

                                Los seres humanos son parte del Universo que queremos descubrir.

1                                                                                                      Seres Humanos

10-2                                                                                                Molécula de ADN (eje largo)

10-5                                                                                                Células vivas

                                 Células vivas

10-9                                                                                                Molécula de ADN (eje corto)

10-10                                                                                              Átomos

10-14                                                                                             Núcleos de átomos pesados

10-15                                                                                             Protones y Neutrones

10-35                                                                                            Longitud de Planck: cuanto de espacio; radio de partículas sin dimensiones = la cuerda.

Es la escala de longitud a la que la descripción clásica de la Gravedad cesa de ser válida y debe ser tenida en la mecánica cuántica. Está dada por la ecuación de arriba, donde G es la constante gravitacional, ħ es la constante de Planck racionalizada y c es la velocidad de la luz. El valor de la longitud de Planck es del orden de 10-35 m (veinte órdenes de magnitud menor que el tamaño del protón 10-15 m).

Me llama la atención y me fascina la indeterminación que está inmersa en el mundo cuántico. La indeterminación cuántica no depende del aparato experimental empleado investigar el mundo subatómico. Se trata, en la medida de nuestro conocimiento, de una limitación absoluta, que los más destacados sabios de una civilización extraterrestre avanzada compartirían con los más humildes físicos de la Tierra.

Por muy avanzados que pudieran estar, ellos también estarían supeditados al Principio de Incertidumbre o Indeterminación cuántica, y, como nosotros, cuando trataran de encontrar (sea cual fuese las matemáticas o sistemas que emplearan para hallarlo) el resultado de la constante de estructura fina, la respuesta sería la misma: 137, puro y adimensional.

Todo esto nos ha llevado a la más firme convicción definir la visión del mundo de la física que nos revelaba que no sólo la materia y la energía sino que también el conocimiento están cuantizados. Cuando un fotón choca con un átomo, haciendo saltar un electrón a una órbita más elevada, el electrón se mueve de la órbita inferior a la superior instantáneamente, sin tener que atravesar el espacio intermedio. Los mismos radios orbitales están cuantizados, y el electrón simplemente deja de existir en un punto para aparecer simultáneamente en otro. Este es el famoso “salto cuántico” que tanto desconcierta, y no es un mero problema filosófico, es una realidad que, de , no hemos llegado a comprender.

                                      No, esto no es un salto cuántico. Simplemente le tocó la Lotería

Pero, ¿quién sabe? Quizás un día lejano aún en el tiempo, cuando descubramos el secreto que salto cuántico nos esconde, poderemos aprovechar la misma técnica que emplea la Naturaleza con los electrones hacer posible que se transporten de un lugar a otro sin tener que recorrer las distancias que separan ambos destinos.

                               Estaría bien poder trasladarse las estrellas por ese medio

Bueno, pongamos los pies en el suelo, volvamos a la realidad. La revolución cuántica ha sido penosa, pero podemos agradecerle que, nos haya librado de muchas ilusiones que afectaban a la visión clásica del mundo. Una de ellas era que el hombre es un ser aparte, separado de la naturaleza a la que en realidad, no es que esté supeditado, sino que es, ella. ¡Somos Naturaleza!

Está claro, como nos decía Immanuel Kant que:

La infinitud de la creación es suficientemente grande como para que un mundo, o una Vía Láctea de mundos, parezca, en comparación con ella, lo que una flor o un insecto en comparación con la Tierra.”

 

 

Algún día podríamos desaparecer en una especie de plasma como ese de la imagen y salir al “otro lado” que bien (¡Por qué no) podría ser otra galaxias lejana. Creo que la imaginación se nos ha dado para algo y, si todo lo que podemos imaginar se realizar, la conclusión lógica es que sólo necesitamos ¡Tiempo!

Sí, amigos míos, la Naturaleza vive en constante movimiento, y, nosotros, que formamos parte de ella…También vivimos en una constante evolución física y del conocimiento. Tenemos que llegar a conocerla.

 

 

 

Existen muchos mundos con dos soles, ¿cómo será vivir en uno de ellos?

 

En tiempos y lugares totalmente inciertos,

Los átomos dejaron su camino celeste,

Y mediante abrazos fortuítos,

Engendraron todo lo que existe.

Maxwell

 

Doy las gracias a Timothy Ferris de cuyo libro, La Aventura del Universo, he podido obtener bellos pasajes que aquí, quedan incluídos.

emilio silvera

Más lejos, más profundo, más simple

$
0
0

Resultado de imagen de La teoría de la gravedad de Newton

Las teorías de Newton sobre el movimiento y la gravedad, con sus trescientos años de edad siguen proporcionando reglas que son maravillosamente precisas para entender y predecir la forma en que se mueven las cosas a velocidades mucho menores que la de la luz cuando la gravedad es muy débil. En los quince primeros años del siglo XX, Einstein dio con una teoría más profunda que podía tratar con el movimiento rápido y la gravedad intensa cuando la teoría de Newton fallaba. Pero, y esto es crucial, la teoría más ampliam y más profunda de Einstein se convierte en la de Newton cuando los movimientos son lentos y la Gravedad es débil.

Borges, Teoría Cuántica y los Universos Paralelos I

                                                   Teoría cuántica, o, ¿universos paralelos?

Pasó lo mismo con las teorías cuánticas revolucionarias que se descubrieron en el primer cuarto del siglo XX cuando todos los físicos siguieron el rastro dejado por la semilla dejada por Planck a la que llamó “cuanto” y se simbolizó con la letra h. Aquella nueva teoría ofrecía una descripción más completa que la de Newton del funcionamiento del mundo cuando sondeamos el dominio de lo muy pequeño. Sus predicciones sobre el micromundo no-newtoniano son tremendamente precisas.

Pero una vez más, cuando trabajan con objetos grandes se hacen cada vez más parecidas a la descripción newtoniana. Así es como el núcleo de verdad dentro de una teoría pasada puede permanecer como una parte restrictiva de una teoría nueva y mejor. No parece que vaya a haber más revoluciones cintíficas (que las habrá).

Si consideramos nuestro “almacén” de teorías, podemos ver las interrelaciones entre las viejas y las nuevas. Consioderemos nuestro caso, en el que la mecánica cuántica se convierte en la mecánica newroniana cuando h se aproxima a cero. Este límite corresponde a una situación en la que los aspectos ondulatorios cuánticos de las partículas se hacen despreciables. Por esto podemos confiar plenamente en que la tricentenaria teoría de Newton del movimiento y de la gravedad se enseñaran y se urtilizaran dentro de mil años con la misma eficacia que lo hacemos hoy. Cualquiera que resulte ser la Teoría de Todo final, tendrá una forma restrictiva que describa el movimiento a velocidades mucho menores que la de la luz y, entonces, ahí estará Newton y, de la misma manera, cuando esos movimientos sean cercanos a c, Einstein también se hará presernte. Es decir, en la futura teoría subyacen las ideas de Newton y de Einstein como cimientis de esa nueva teoría que vendrá.

Fotografía del Congreso en el Hotel Metropole. Sentados, de izquierda a derecha: W. Nernst, M. Brillouin, E. Solvay (mecenas), H. Lorentz, E. Warburg, J. Perrin, W. Wien, M. Curie y H. Poincaré. De pie, de izquierda a derecha: R. Goldschmidt, M. Planck, H. Rubens,A. Sommerfeld, F. Lindemann (secretario), M. de Broglie (secretario), M. Knudsen, F. Hasenöhrl, G. Hostelet, E. Herzen, J.H. Jeans, E. Rutherford, H. Kamerlingh Onnes, A. Einstein y P. Langevin. En esta situación llegó el histórico Congreso Solvay.

Se cuenta que en un descanso del aquel famoso Congreso Solvay, Einstein y Henri Poincaré se encontraron un momento sólos y, se entabló entre ellos, la conversación siguiente:

-Einstein: Sabe usted, Henri, en un tiempo estudié matemáticas, pero lo dejé por la Física.

-Poincaré: Oh, ¿de verdad Albert? ¿Y por qué?

-EinsteinPorque aunque podía distinguir los enunciados verdaderos de los falsos, no podía distinguir que hechos eran importantes.

.Poincaré: Eso es muy interesante, Albert, Porque originalmente yo estudié Física, pero la dejé por las matemáticas.

.Einstein¿De verdad? ¿Por qué?

.Poncaré: Porque no podía distinguir cuáles de los hechos importantes eran verdaderos.

Podeis sacar una conclusión.

       Donde esté presente la materia…, lo estará la Gravedad

Aquí la gravedad está presente y es la responsable de mantener unidos todos los objetos que en la imagen podemos contemplar, sus masas titan las unas de las otras y todo se mantiene unido. La fuerza de la gravedad tiene su mayor potencia, próximo al elemento que la origina, ya sea un átomo o un planeta, pero sus lineas de fuerza, aunque van disminuyendo con la distancia son infinitas, que no por débiles se deben despreciar. Lo que ocurre en el universo es que cualquier fuerza de gravedad mas fuerte, aparentemente anula las fuerzas débiles pero si el universo estuviera vacío de materia y de energía, dos átomos en ambos extremos del universo terminarían por atraerse. La fuerza de gravedad de un elemento viene determinado por el conjunto de átomos que lo forman comportándose como un solo elemento.

Resultado de imagen de La constante Gravitacional

La principal sospechosa de variaciones minúsculas ha sido siempre la constante Gravitatoria, G. La Gravedad es con mucho la fuerza la fuerza más débil de la Naturaleza y la menos estrechamente sondeada por el experimento. Si se buscan los valores conocidos de las constantes principales en la contraportada de un libro de texto de Física podemos descubrir que G aparece especificada con muchas menos cifras decimales que c, h, o e. Aunque G a soportado asaltos a su constancia durante mucho tiempo, los ataques más rcientes han sido lanzados sobre α (alfa), la constante de estructura fina de la que hablamos ayer. está ahora de mucha actualidad debido a unos experimentos que se han hecho observando y midiendo la luz de unos quásares lejanos. Y, como ayer os decía, la constante de estructura fina liga la velocidad de la luz, la constante de Planck y la carga del electrón. Y, todo ello hace que, si varía en una pequerña proporción, el Universo cambiaría.

¿Quién será el que resuelve este misterio?

emilio silvera

Todos tenemos tendencia a interesarnos por alguna cosa

$
0
0

 

Como cada mañana, trabajando en la oficina en cuestiones jurídicas y tributarias, me llega el correo y, de entre todos los documentos recibidos, destaca (como no), la Revista de Física que me envía de manera periódica la Real Sociedad Española de Física, y, en la portada, aparece la imagen de un agujero negro.

De inmediato, sin poder contener mis deseos de ver los contenidos, la abro y miro en el interior donde me encuentro con trabajos como los siguientes:

Resultado de imagen de Pulsos e impulsos

Pulsos e Impulsos

Resultado de imagen de Ondas gravitacionales primordiales através de la polarización del fondo cósmico de microondas

Revista Española de Física 29(2): 4-8 (2015)
Resumen: A principios de febrero de este año la misión Planck de la ESA hizo públicos los resultados cosmológicos correspondientes al análisis de los datos que, durante más de 5 años (desde agosto de 2009 hasta octubre de 2013), ha estado recogiendo este satélite. Planck ha observado la bóveda celeste en nueve frecuencias diferentes en el rango de las microondas, siendo su objetivo principal el estudio de las anisotropías del Fondo Cósmico de Microondas (FCM). El FCM es una radiación electromagnética producida cuando el universo contaba con unos 380.000 años, y que, desde su descubrimiento en 1964 por Arno Penzias y Robert Wilson, ha sido, sin lugar a dudas, uno de los pilares más importantes sobre los que se ha establecido el modelo cosmológico estándar. Dichas anisotropías se corresponden con pequeñas desviaciones (de 1 parte en 100.000) en la temperatura de cuerpo negro que caracteriza esta radiación electromagnética primigenia. Estas fluctuaciones, que de alguna manera trazan cómo era la distribución de materia en aquel momento de la historia del universo, tienen su origen en unas perturbaciones.

Sobre la distinguibilidad experimental entre la mecánica cuántica estándar y la mecánica de Bohm. Le sigue el trabajo titulado “Mecánica bohmiana: ¿Una teoría de las variables ocultas?

Imagen relacionada

“Durante más de 60 años la “teoría de variables ocultas” propuesta por David Bohm en 1952, conocida actualmente como mecánica bohmiana, ha sido fuente de controversia y debate dentro del campo y los fundamentos de la mecánica cuántica.

Las estrellas también mueren

 

Resultado de imagen de Nebulosa planetaria

 

En este apartado nos hablan de cómo mueren las estrellas una vez que han agotado su combustible nuclear de fusión, y, en qué se convierten dependiendo de sus masas. Estrellas como el Sol tendrán una primera transición de fase a Gigante roja y más tarde Nebulosa Planetaria con la estrella enana blanca en el centro.

Cuando las estrellas sobrepasan las 5 masas solares, su destino final está en convertirse en estrellas de neutrones, y, si es supermasiva en agujero negro. En ncada uno de los casos actúan fuerzas y principios diferentes como sería el caso del Principio de exclusión de Pauli que incide en los fermiones para las enanas blancas y las estrellas de neutrones.

Además de todos estos temas se habla de otros de interés

Resultado de imagen de dispersión de la luz en un prisma

    Dispersión de la Luz en un prisma

Resultado de imagen de Reacción entre el Sodio y el agua

         Reacción nentre el Sodio y el Agua

Resultado de imagen de Cámaras de Niebla

¿Cómo construir cámaras de niebla con utensilios de cocina?

Además de otros muchos artículos y demostraciones prácticas que nos llevan de la mano a conocer hechos muy normales en la Naturaleza y que a nosotros (que casi siempre estamos al margen de ella), nos parecen maravillas.

Lo dicho, nunca es tarde para aprender cosas nuevas y, si le prestas el debido interés… ¿Las conocerás!

emilio silvera

Los átomos, el núcleo atómico

$
0
0

Resultado de imagen de La maravilla del núcleo atómico

Es tan pequeño que ni lo podemos ver con el ojo desnudo, nos valemos de los microscopios electrónicos para poder saber de ellos, y, sin embargo, si me dieran a escoger la mayor maravilla del Universo, tendría mis dudas entre los átomos y el cerebro. Pero creo que, al final,  sin dudarlo, escogería ésta ¡Los átomos!

El número de protones en el núcleo define a qué elemento químico pertenece el átomo: por ejemplo, todos los átomos de cobre contienen 29 protones. El número de neutrones define el isótopo del elemento. El número de electrones influye en las propiedades magnéticas de un átomo.

There is much to admire in this 3D performance

Mucho ha tenido que evolucionar la Mente humana para llegar a saber sobre la entidad de la materia

Mucho ha tenido que trasminar la Mente Humana para llegar al fondo de los componentes de la materia que, como todos sabemos ahora, están conformadas de moléculas hechas de átomos que, a su vez, están hechos de partículas subatómicas unas más elementales que otras que, dentro del núcleo y fuera de él, hacen el conjunto que denominamos átomos.

planetario, modelo, de, Átomo - csp8715507
Los átomos han sido representados de diferentes maneras pero, lo cierto es que en su conjunto está conformado por un núcleo muy complejo que, rodeado de electrones hacen de éste objeto infinitesimal uno de los más valiosos del Universo, toda vez que, todo lo que conocemos desde las estrellas, los mundos, las galaxias, o los seres vivos, todo sin excepción, está hecho de átomos.

Resultado de imagen de La maravilla del núcleo atómico

El núcleo atómico está cargado positivamente al tener allí situados a los protones. Los neutrones no tienen carga y éstas dos partículas de la familia de los Hadrones en su rama bariónica, cuando están dentro del núcleo se suelen llamar nucleones. Lo curioso del caso es que, dentro de ellos, partículas más pequeñas de la familia Quarks, se han juntado en tripletes para conformarlos, es decir, un protón está conformado por dos quarks up y un quark down, mientras que un neutrón, está hecho por dos qurks down y un quarks up.

Pero, además, dentro de tan pequeño habitáculo ocurren sucesos extraordinarios, ya que, para mantener confinados a los Quarks, tiene que actuar lo que conocemos como fuerza nuclear fuerte que es transmitida por ocho bosones llamados Gluones.

 Hay quien habla de la existencia de materia extraña de Quarks y Gluones

Así que, los Quarks dentro de los protones y los neutrones están confinados, no pueden separarse y son sujetados por 8 partículas de la familia de los Bosones que se llaman Gluones que, son los intermediarios de la fuerza nuclear fuerte, la más potente de todas las fuerzas fundamentales de la Naturaleza. Esa fuerza, funciona al contrario que las otras tres, es decir, aumenta con la distancia. Se comporta como un muelle de acero que, cuanto más lo estiramos más resistencia opone.

Resultado de imagen de El nucleo atómico

Representación aproximada del átomo de Helio. en el núcleo los protones están representados en rojo y los neutrones en azul. En la realidad el núcleo también es simétricamente esférico. El núcleo atómicoes la parte central de un átomo, tiene carga positiva, y concentra más del 99,9% de la masa total del átomo.

Resultado de imagen de el experimento de Rutherford

La existencia del núcleo atómico fue deducida del experimento de Rutherford, donde se bombardeó una lámina fina de oro con partículas alfa, que son núcleos atómicos de helio emitidos por rocas radiactivas. La mayoría de esas partículas traspasaban la lámina, pero algunas rebotaban, lo cual demostró la existencia de un minúsculo núcleo atómico.

El Experimento de Rutherford. En 1911 se realizó en Manchester una experiencia encaminada a corroborar el modelo atómico de Thomson. Fué llevada a cabo por Geiger, Marsden y Rutherford, y consistía en bombardear con partículas alfa (núcleos del gas helio) una fina lámina de metal.

Resultado de imagen de El nucleo atómico

Una imagen precisa del núcleo del carbono-14 debe tener en cuenta tanto las interacciones entre parejas de protones y neutrones (fuerza a dos cuerpos, izquierda), como las interacciones entre tres nucleones (fuerzas a tres cuerpos, derecha).

Resultado de imagen de La complejidad del núcleo atómico

Lo cierto es que, estos “personajillos” tienen una imnesa importancia en todo lo que se cuece en el Universo, ya que, sin ellos, no existirían las estrellas ni los mundos, ni las galaxias, ni las Nebulosas, ni ninguno de los objetos que captan nuestros telescopios en el inconmensurable Cosmos. ¡Ah! Tampoco nosotros podríamos existir si en estos personajes se dieran algunos cambios. Imaginaros que la masa del protón decrece en una diezmillonésima parte, o, que lo mismo le pudiera pasar a la carga del electrón… ¡Nosotros no existiríamos!

external image bis.fcgi?rt=GetFile&uri=!!QH57AB8QMA&type=0&index=24

Interacciones eléctricas entre protones y electrones

Antes del experimento de Rutherford la comunidad científica aceptaba el modelo atómico de Thomson, situación que varió después de la experiencia de Rutherford. Los modelos posteriores se basan en una estructura de los átomos con una masa central cargada positívamente rodeada de una nube de carga negativa.
Este tipo de estructura del átomo llevó a Rutherford a proponer su modelo en que los electrones se moverían alrededor del núcleo en órbitas. Este modelo tiene una dificultad proveniente del hecho de que una partícula cargada acelerada, como sería necesario para mantenerse en órbita, radiaría radiación electromagnética, perdiendo energía.

Para aclarar el panorama y la confusión que sobre el átomo y el núcleo atómico existía, tuvo que llegar el gran físico Murray Gell-Mann, que fue quien por primera vez habló de los Quarks. Se le otorgó el Premio Nobel de Física en 1969 por sus descubrimientos sobre partículas elementales. La teoría de Gell-Mann aportó orden al caos que surgió al descubrirse cerca de 100 partículas en el interior del núcleo atómico. Esas partículas, además de los protones y neutrones, estaban formadas por otras partículas elementales llamadas Quarks. Los quarks se mantienen unidos gracias al intercambio de Gluones. Junto con otros investigadores construyó la teoría cuántica de quarks y gluones, llamada Cromodinámica cuántica.

Sí, ¡Todo lo grande está hecho de cosas pequeñas!

Todo lo que podamos observar en el Universo y que esté hecho de materia, está hecho de átomos, es decir, de Quarks y Leptones. Es curioso como la gente corriente no especializada, ven los objetos y en ellos contemplan una barra de pan, un automóvil, un traje o unos zapatos, y, si miran al cielo estrellado, ven como brillan los objetos y cuerpos celestes. Sin embargo, ninguno se para a pensar que, todo eso, es gracias a los átomos, es decir, a los Quarks que forman protones y neutrones, a los electrones que rodean el núcleo, a los Gluones que participan activamente en la transmisión de la fuerza nuclear fuerte… ¡Que maravillas!
emilio silvera
Viewing all 959 articles
Browse latest View live