Quantcast
Channel: Física – Blog de Emilio Silvera V.
Viewing all 959 articles
Browse latest View live

Las constantes universales

$
0
0

Si alguna de estas constantes de la Naturaleza, variaran tan sólo una millonésima, la vida no estaría presente

“En la Física existen una serie de magnitudes que contienen información que es independiente del sistema de medida que elijamos, lo cual es muy valioso no sólo en los cálculos. Además, estos parámetros que fija la naturaleza aparecen en las ecuaciones como parámetros que debemos ajustar lo más que podamos para que nuestras predicciones y nuestros modelos se ajusten a la realidad en la medida de lo posible.

Y aquí es donde viene el problema. Que son parámetros, es decir, su valor cuantitativo no es deducible de la teoría y por tanto hay que medirlo. Y esto añade la dificultad no sólo de idear un experimento, sino de hacerlo lo bastante preciso como para que el modelo sirva para algo.

El Modelo Estándar por ejemplo, que es el paradigma actual en el que se mueve la física de partículas y que recoge las interacciones fundamentales tiene unos 25 parámetros que se deben ajustar. Parámetros tales como la carga eléctrica, la masa, el espín, las constantes de acoplamiento de los campos, que miden la intensidad que éstos tienen, etcétera.

Ya no sólo se trata de averiguar el valor de cada una de ellas. Tampoco sabemos decir de antemano cuantas constantes fundamentales puede haber. Y es evidente que cuantas más constantes hay, más complicado se nos hace nuestro modelo.”

Resultado de imagen de Las constantes de la Naturaleza

Si miramos hacia atrás en el Tiempo podemos contemplar los avances que la Humanidad logró en los últimos tiempos, caigo en la cuenta de que poco a poco hemos sido capaces de identificar una colección de números mágicos y misteriosos arraigados en la regularidad de la experiencia.

¡Las constantes de la naturaleza!

Dan al universo su carácter distintivo y lo hace singular, distinto a otros que podría nuestra imaginación inventar. Estos números misteriosos, a la vez que dejan al descubierto nuestros conocimientos, también dejan al desnudo nuestra enorme ignorancia sobre el universo que nos acoge. Las medimos con una precisión cada vez mayor y modelamos nuestros patrones fundamentales de masa y tiempo alrededor de su invarianza; no podemos explicar sus valores.

Resultado de imagen de La constante de estructura fina

Nunca nadie ha explicado el valor numérico de ninguna de las constantes de la naturaleza. ¿Recordáis el 137? Ese número puro, adimensional, que guarda los secretos del electrón (e), de la luz (c) y del cuanto de acción (h). Hemos descubierto otros nuevos, hemos relacionado los viejos y hemos entendido su papel crucial para hacer que las cosas sean como son, pero la razón de sus valores sigue siendo un secreto profundamente escondido.

Buscar esos secretos ocultos implica que necesitamos desentrañar la teoría más profunda de todas y la más fundamental de las leyes de la naturaleza: descubrir si las constantes de la naturaleza que las definen están determinadas y conformadas por alguna consistencia lógica superior o si, por el contrario, sigue existiendo un papel para el azar.

Si estudiamos atentamente las constantes de la naturaleza nos encontramos con una situación muy peculiar. Mientras parece que ciertas constantes estuvieran fijadas, otras tienen espacio para ser distintas de las que son, y algunas no parecen afectadas por ninguna otra cosa del ­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­­- o en el – universo.

¿Llegaron estos valores al azar?

¿Podrían ser realmente distintos?

¿Cuán diferentes podrían ser para seguir albergando la existencia de seres vivos en el universo?

En 1.986, el libro The Anthropic Cosmological Principle exploraba las diez maneras conocidas en que la vida en el universo era sensible a los valores de las constantes universales. Universos con constantes ligeramente alteradas nacerían muertos, privados del potencial para desarrollar y sostener la complejidad que llamamos vida.

En la literatura científica puede encontrarse todo tipo de coincidencias numéricas que involucran a los valores de las constantes de la naturaleza. He aquí algunas de las fórmulas propuestas (ninguna tomada en serio) para la constante  de estructura fina.

Valor experimental: 1/α = 137’035989561…

  • Lewis y Adams: 1/α = 8π (8π5 / 15)1/3 = 137’384
  • Eddington: 1/α = (162 - 16) / 2 + 16 – 1 = 137
  • Wiler: 1/α = (8π4 / 9)(245! / π5)1/4 = 137’036082
  • Aspden y Eagles: 1/α = 108π (8 / 1.843)1/6 = 137’035915

Resultado de imagen de La Teoría M

Por supuesto, si la teoría M da al fin con una determinación del valor de 1/α podría parecerse perfectamente a una de estas fórmulas especulativas. Sin embargo ofrecería un amplio y constante edificio teórico del que seguiría la predicción.

También tendría que haber, o mejor, que hacer, algunas predicciones de cosas que todavía no hemos medido; por ejemplo, las siguientes cifras decimales de 1/α, que los futuros experimentadores podrían buscar y comprobar con medios más adelantados que los que ahora tenemos, a todas luces insuficientes en tecnología y potencia.

Todos estos ejercicios de juegos mentales numéricos se acercan de manera impresionante al valor obtenido experimentalmente, pero el premio para el ingeniero persistente le corresponde a Gary Adamson, cuya muestra de 137-logía se mostraron en numerosas publicaciones.

Estos ejemplos tienen al menos la virtud de surgir de algún intento de formular una teoría de electromagnetismo y partículas. Pero hay también matemáticos “puros” que buscan cualquier combinación de potencias de números pequeños y constantes matemáticas importantes, como π, que se aproxime al requerido 137’035989561… He aquí algún ejemplo de este tipo.

  • Robertson: 1/α = 2-19/4 310/3 517/4 π-2 = 137’03594
  • Burger: 1/α = (1372 + π2)1/2 = 137’0360157

Unidades naturales que no inventó el hombre

Ni siquiera el gran físico teórico Werner Heisenberg pudo resistirse a la ironía o irónica sospecha de que…

“En cuanto al valor numérico, supongo que 1/α = 24 33 / π, pero por supuesto es una broma.”

 

Arthur Eddington, uno de los más grandes astrofísicos del siglo XX y una notable combinación de lo profundo y lo fantástico, más que cualquier figura moderna, fue el responsable impulsor de poner en marcha los inacabables intentos de explicar las constantes de la naturaleza mediante auténticas proezas de numerología pura. Él también advirtió un aspecto nuevo y especular de las constantes de la naturaleza.

“He tenido una visión muy extraña, he tenido un sueño; supera el ingenio del hombre para decir qué sueño era. El hombre no es más que un asno cuando tiene que exponer este sueño. Se llamará el sueño del fondo, porque no tiene fondo.”

A. S. Eddington

“El conservadurismo recela del pensamiento, porque el pensamiento en general lleva a conclusiones erróneas, a menos que uno piense muy, muy intensamente.”

Roger Scruton

 

 

Resultado de imagen de Agujeros negros

 

           Todo lo que existe… ¡Tiene una explicación!

 

 

Hay que prestar atención a las coincidencias. Uno de los aspectos más sorprendentes en el estudio del universo astronómico durante el siglo XX, ha sido el papel desempeñado por la coincidencia: que existiera, que fuera despreciada y que fuera recogida. Cuando los físicos empezaron a apreciar el papel de las constantes en el dominio cuántico y a explorar y explorar la nueva teoría de la gravedad de Einstein para describir el universo en conjunto, las circunstancias eran las adecuadas para que alguien tratara de unirlas.

Entró en escena Arthur Eddington; un extraordinario científico que había sido el primero en descubrir cómo se alimentaban las estrellas a partir de reacciones nucleares. También hizo importantes contribuciones a nuestra comprensión de la galaxia, escribió la primera exposición sistemática de la teoría de la relatividad general de Einstein y fue el responsable de verificar, en una prueba decisiva durante un eclipse de Sol, la veracidad de la teoría de Einstein en cuanto a que el campo gravitatorio del Sol debería desviar la luz estelar que venía hacia la Tierra en aproximadamente 1’75 segmentos de arco cuando pasaba cerca de la superficie solar, y así resultó.

Resultado de imagen de El número de Eddington

La imagen fue tomada en Leiden en el año 1923, y, aparecen de izquierda a derecha Einstein, P. Ehrenfest, W. de Sitter, A. Eddington y H. Lorentz

“Arthur Eddington creyó en las teorías de Einstein desde el principio, y fueron sus datos tomados durante el eclipse solar de 1919 los que dieron la prueba experimental de la teoría general de la relatividad. La amplia cobertura informativa de los resultados de Eddington llevó a la teoría de la relatividad, y al propio Einstein, a unos niveles de fama sin precedentes.

Arthur Eddington está considerado uno de los más importantes astrónomos ingleses del siglo XX. Se especializó en la interpretación de las observaciones de los movimientos de las estrellas en el Observatorio de Greenwich. En 1913, fue uno de los primeros científicos no alemanes en entrar en contacto con las primeras versiones de la teoría general de la relatividad, e inmediatamente se convirtió en un declarado partidario.”

 

 

Resultado de imagen de El número de Eddington

Albert Einstein y Arthur Stanley Eddington se conocieron y se hicieron amigos. Se conservan fotos de los dos juntos conversando sentados en un banco en el jardín de Eddington en el año 1.930, donde fueron fotografiados por la hermana del dueño de la casa.

Aunque Eddington era un hombre tímido con pocas dotes para hablar en público, sabía escribir de forma muy bella, y sus metáforas y analogías aún las utilizan los astrónomos que buscan explicaciones gráficas a ideas complicadas. Nunca se casó y vivió en el observatorio de Cambridge, donde su hermana cuidaba de él y de su anciana madre.

Eddington creía que a partir del pensamiento puro sería posible deducir leyes y constantes de la naturaleza y predecir la existencia en el universo de cosas como estrellas y galaxias. ¡Se está saliendo con la suya!

Entre los números de Eddington, uno lo consideró importante y lo denominó “número de Eddington”, que es igual al número de protones del universo visible. Eddington calculó (a mano) este número enorme y de enorme precisión en un crucero trasatlántico concluyendo con esta memorable afirmación.

Resultado de imagen de El número de Eddington

“Creo que en el universo hay

 

15.747.724.136.275.002.577.605.653.961.181.555.468.044.717.914.527.116.709.366.231.425.076.185.631.031.296

protones y el mismo número de electrones.”

 

Este número enorme, normalmente escrito NEdd, es aproximadamente igual a 1080. Lo que atrajo la atención de Eddington hacia él era el hecho de que debe ser un número entero, y por eso en principio puede ser calculado exactamente.

Durante la década de 1.920, cuando Eddington empezó su búsqueda para explicar las constantes de la naturaleza, no se conocían bien las fuerzas débil y fuerte, y las únicas constantes dimensionales de la física que sí se conocían e interpretaban con confianza eran las que definían la gravedad y las fuerzas electromagnéticas.

No siempre sabemos valorar la grandeza a la que puede llegar la mente humana: “… puedan haber accedido a ese mundo mágico de la Naturaleza para saber ver primero y desentrañar después, esos números puros y adimensionales …”

Eddington las dispuso en tres grupos o tres puros números adimensionales. Utilizando los valores experimentales de la época, tomó la razón entre las masas del protón y del electrón:

m/ me ≈ 1.840

La inversa de la constante de estructura fina:

2πhc / e2 ≈ 137

Y la razón entre la fuerza gravitatoria y la fuerza electromagnética entre un electrón y un protón:

e2 / Gmpme ≈ 1040

A éstas unió o añadió su número cosmológico, NEdd ≈ 1080.

¿No cabría la posibilidad de que todos los grandes sucesos presentes correspondan a propiedades de este Gran Número [1040] y, generalizando aún más, que la historia entera del universo corresponda a propiedades de la serie entera de los números naturales…? Hay así una posibilidad de que el viejo sueño de los filósofos de conectar la naturaleza con las propiedades de los números enteros se realice algún día.

Eddington a  estos cuatro números los llamó “las constantes últimas”, y la explicación de sus valores era el mayor desafío de la ciencia teórica.

“¿Son estas cuatro constantes irreducibles, o una unificación posterior de la física demostrará que alguna o todas ellas pueden ser prescindibles?

¿Podrían haber sido diferentes de los que realmente son?”

 

Resultado de imagen de Una gran teoría unificada

 

El Modelo estándar es la teoría que tenemos pero…

 

 

De momento, con certeza nadie ha podido contestar a estas dos preguntas que, como tantas otras, están a la espera de esa Gran Teoría Unificada del Todo, que por fin nos brinde las respuestas tan esperadas y buscadas por todos los grandes físicos del mundo. ¡Es todo tan complejo! ¿Acaso es sencillo y no sabemos verlo? Seguramente un poco de ambas cosas; no será tan complejo, pero nuestras mentes aún no están preparadas para ver su simple belleza. Una cosa es segura, la verdad está ahí, esperándonos.

Para poder ver con claridad no necesitamos gafas, sino evolución. Hace falta alguien que, como Einstein hace 100 años, venga con nuevas ideas y revolucione el mundo de la física que, a comienzos del siglo XXI, está necesitada de un nuevo y gran impulso. ¿Quién será el elegido? Por mi parte me da igual quién pueda ser, pero que venga pronto. Quiero ser testigo de los grandes acontecimientos que se avecinan, la teoría de supercuerdas y mucho más.

emilio silvera


Misterios de la Naturaleza

$
0
0

¿Por qué la materia no puede moverse más deprisa que la velocidad de la luz?

                                    Fotones que salen disparados a la velocidad de c. ¿Qué podría seguirlos?

Para contestar esta pregunta hay que advertir al lector que la energía suministrada a un cuerpo puede influir sobre él de distintas maneras. Si un martillo golpea a un clavo en medio del aire, el clavo sale despedido y gana energía cinética o, dicho de otra manera, energía de movimiento. Si el martillo golpea sobre un clavo, cuya punta está apoyada en una madera dura e incapaz de moverse, el clavo seguirá ganando energía, pero esta vez en forma de calor por rozamiento al ser introducido a la fuerza dentro de la madera.

Albert Einstein demostró en su teoría de la relatividad especial que la masa cabía contemplarla como una forma de energía (E = mc2.) Al añadir energía a un cuerpo, esa energía puede aparecer en la forma de masa o bien en otra serie de formas.

A medida que aumenta la velocidad del cuerpo (suponiendo que se le suministra energía de manera constante) es cada vez menor la energía que se convierte en velocidad y más la que se transforma en masa. Observamos que, aunque el cuerpo siga moviéndose cada vez más rápido, el ritmo de aumento de velocidad decrece. Como contrapartida, notamos que gana más masa a un ritmo ligeramente mayor.

Al aumentar aún más la velocidad y acercarse a los 299.792’458 Km/s, que es la velocidad de la luz en el vacío, casi toda la energía añadida entra en forma de masa. Es decir, la velocidad del cuerpo aumenta muy lentamente, pero la masa es la que sube a pasos agigantados. En el momento en que se alcanza la velocidad de la luz, toda la energía añadida se traduce en masa.

El cuerpo no puede sobrepasar la velocidad de la luz porque para conseguirlo hay que comunicarle energía adicional, y a la velocidad de la luz toda esa energía, por mucha que sea, se convertirá en nueva masa, con lo cual la velocidad no aumentaría ni un ápice.

                     La luz está dentro de la materia y en el universo… ¡por todas partes!

En condiciones ordinarias, la ganancia de energía en forma de masa es tan increiblemente pequeña que sería imposible medirla. Fue en el siglo XX (al observar partículas subatómicas que, en los grandes aceleradores de partículas, se movían a velocidades de decenas de miles de kilómetros por segundo) cuando se empezaron a encontrar aumentos de masa que eran suficientemente grandes para poder detectarlos. Un cuerpo que se moviera a unos 260.000 Km por segundo respecto a nosotros mostraría una masa dos veces mayor que cuando estaba en reposo (siempre respecto a nosotros).

                No un pulsar tampoco puede ser más rápido que la luz

La energía que se comunica a un cuerpo libre puede integrarse en él de dos maneras distintas:

  1. En forma de velocidad, con lo cual aumenta la rapidez del movimiento.
  2. En forma de masa, con lo cual se hace “más pesado”.

La división entre estas dos formas de ganancia de energía, tal como la medimos nosotros, depende en primer lugar de la velocidad del cuerpo (medida, una vez más, por nosotros).

Si el cuerpo se mueve a velocidades normales, prácticamente toda la energía se incorpora a él en forma de velocidad: se moverá más aprisa sin cambiar su masa.

A medida que aumenta la velocidad del cuerpo (suponiendo que se le suministra energía de manera constante) es cada vez menor la energía que se convierte en velocidad y más la que se transforma en masa. Observamos que, aunque el cuerpo siga moviéndose cada vez más rápido, el ritmo de aumento de velocidad decrece. Como contrapartida, notamos que gana más masa a un ritmo ligeramente mayor.

En gracia quizás podamos superarla pero, en velocidad…no creo, c es el tope que impone el Universo para la velocidad, es el límite al que podemos enviar información y también, al que nos podemos mover con las más rápidas naves que pudiéramos iconstruir.

Todo esto no es pura teoría, sino que ha sido comprobado, una y mil veces en los grandes aceleradores de partículas, donde el muón, por ejemplo, aumentó su masa diez veces al acercarse a velocidades relativistas, es la realidad de los hechos.

           Ninguna nave, por los medios convencionales, podrá nunca superar la velocidad de la luz

La velocidad de la luz es la velocidad límite en el universo. Cualquier cosa que intente sobrepasarla adquiriría una masa infinita, y, siendo así (que lo es), nuestra especie tendrá que ingeniarse otra manera de viajar para poder llegar a las estrellas, ya que, la velocidad de la luz nos exige mucho tiempo para alcanzar objetivos lejanos, con lo cual, el sueño de llegar a las estrellas físicamente hablando, está lejos, muy lejos. Es necesario encontrar otros caminos alejados de naves que, por muy rápida que pudieran moverse, nunca podrían transpasar la velocidad de la luz, el principio que impone la relatividad especial lo impide, y, siendo así, ¿cómo iremos?

La velocidad de la luz, por tanto, es un límite en nuestro universo; no se puede superar. Siendo esto así, el hombre tiene planteado un gran reto, no será posible el viaje a las estrellas si no buscamos la manera de esquivar este límite de la naturaleza, ya que las distancias que nos separan de otros sistemas solares son tan enormes que, viajando a velocidades por debajo de la velocidad de la luz, sería casi imposible alcanzar el destino deseado.

                De momento sólo con los Telescopios podemos llegar tan lejos.

Los científicos, físicos experimentales, tanto en el CERN como en el FERMILAB, aceleradores de partículas donde se estudian y los componentes de la materia haciendo que haces de protones o de muones, por ejemplo, a velocidades cercanas a la de la luz choquen entre sí para que se desintegren y dejen al descubierto sus contenidos de partículas aún más elementales. Pues bien, a estas velocidades relativistas cercanas a c (la velocidad de la luz), las partículas aumentan sus masas; sin embargo, nunca han logrado sobrepasar el límite de c, la velocidad máxima permitida en nuestro universo.

Es preciso ampliar un poco más las explicaciones anteriores que no dejan sentadas todas las cuestiones que el asunto plantea, y quedan algunas dudas que incitan a formular nuevas preguntas, como por ejemplo: ¿por qué se convierte la energía en masa y no en velocidad?, o ¿por qué se propaga la luz a 299.793 Km/s y no a otra velocidad?

Sí, la Naturaleza nos habla, simplemente nos tenemos que parar para poder oír lo que trata de decirnos y, entre las muchas cosas que nos dice, estarán esos mensajes que nos indican el camino por el que debemos encontrar lo que buscamos para burlar a la velocidad de la luz, conseguir los objetivos y no vulnerar ningún principio físico impuesto por la Naturaleza.

La única respuesta que podemos dar hoy es que así, es el universo que nos acoge y las leyes naturales que lo rigen, donde estamos sometidos a unas fuerzas y unas constantes universales de las que la velocidad de la luz en el vacio es una muestra.

A velocidades grandes cercanas a la de la luz (velocidades relativistas) no sólo aumenta la masa del objeto que viaja, sino que disminuye también su longitud en la misma dirección del movimiento (contracción de Lorentz) y en dicho objeto y sus ocupantes – si es una nave – se retrasa al paso del tiempo, o dicho de otra manera, el tiempo allí transcurre más despacio.

A menudo se oye decir que las partículas no pueden moverse “más deprisa que la luz” y que la “velocidad de la luz” es el límite último de velocidad. Pero decir esto es decir las cosas a medias, porque la luz viaja a velocidades diferentes dependiendo del medio en el que se mueve. Donde más deprisa se mueve la luz es en el vacío: allí lo hace a 299.792’458 Km/s. Este sí es el límite último de velocidades que podemos encontrar en nuestro universo.

File:Military laser experiment.jpg

                                      Fotones emitidos por un rayo coherente conformado por un láser

Tenemos el ejemplo del fotón, la partícula mediadora de la fuerza electromagnética, un bosón sin masa que recorre el espacio a esa velocidad antes citada. Hace no muchos días se habló de la posibilidad de que unos neutrinos hubieran alcanzado una velocidad superior que la de la luz en el vacío y, si tal cosa fuera posible, o, hubiera pasado, habríamos de relagar parte de la Teoría de la Relatividad de Einstein que nos dice lo contrario y, claro, finalmente se descubrió que todo fue una falsa alarma generada por malas mediciones. Así que, la teoría del genio, queda intacta.

¡La Naturaleza! Observémosla. De todas las maneras, como nuestra imaginación es casi tan grande como el mismo universo, ya se han postulado teorías para ir buscando la manera de poder desvelar si existe alguna posibilidad de que la velocidad de la luz sea superada.

Fórmula relativista de adición de velocidades.

En matemáticas se llama prolongación de una función a la extensión de su dominio más allá de sus singularidades, que se comportan como frontera entre el dominio original y el extendido. Normalmente, la prolongación requiere incluir algunos cambios de signo en la definición de la función extendida para evitar que aparezcan valores imaginarios puros u otros números complejos. La matemática de la teoría de la relatividad puede ser aplicada a partículas que se mueven a una velocidad mayor que la de la luz (llamadas taquiones) si aceptamos que la masa y la energía de estas partículas pueden adoptar valores imaginarios puros. El problema es que no sabemos qué sentido físico tienen estos valores imaginarios.

emilio silvera

Entrelazamiento Cuántico

$
0
0
Una nota antes del Reportaje:
Entrelazamiento, así funcionan la computación y la teleportación cuántica

 

 

En 1935 un molesto Albert Einstein, junto con sus colegas Podolsky y Rosen, presentaron la llamada “paradoja EPR”, por sus iniciales. Esta quería servir de ejemplo para decir que la mecánica cuántica era una “teoría” incompleta y fallida. Que necesitaba de una profunda revisión. ¿Y por qué? Porque, según el propio Einstein, este conjunto de hipótesis violaba el universo tal y como lo conocemos. Por lo tanto, tenía que estar mal en algún punto. Sin embargo, lo que no sabía Einstein es que la paradoja presentada es en realidad una manifestación real de lo que ocurre en la naturaleza. Efectivamente, en los tiempos que corren hemos podido comprobar un fenómeno inquietante y extraordinario que permite que dos partículas separadas entre sí por una distancia monstruosa sean capaces de “comunicarse” sin que exista nada, ningún canal de transmisión, entre las dos. A este extraño fenómeno, que rompe por completo nuestra manera de entender el mundo, lo llamamos entrelazamiento cuántico.

 

 

 

Física cuántica

Científicos del Instituto de Óptica Cuántica e Información Cuántica (IQOQI) de la Academia Austríaca de Ciencias, de la Universidad de Viena y de la Universidad Autónoma de Barcelona (UAB) han conseguido por primera vez entrelazar tres partículas de luz o fotones utilizando una propiedad cuántica relacionada con el retorcimiento (twist) de la estructura de sus frentes de onda.

De la misma manera que el famoso gato de Schrödinger está simultáneamente vivo y muerto, todas las demostraciones experimentales realizadas hasta ahora de entrelazamiento de varias partículas han sido llevadas a cabo con objetos cuánticos en dos dimensiones, dos niveles discretos posibles. Los fotones retorcidos utilizados en el experimento de Viena no tienen ese límite bidimensional y pueden existir en tres o más estados cuánticos vez.

El estado de entrelazamiento entre tres fotones creado por el grupo de Viena bate el récord previo de dimensionalidad, y da luz a una nueva forma de entrelazamiento asimétrico que nunca ha sido observado hasta ahora. Los resultados aparecen esta semana publicados en Nature Photonics.

El entrelazamiento es una propiedad anti-intuitiva de la física cuántica que siempre ha desconcertado a los científicos y los filósofos. Los cuantos de luz entrelazados parecen ejercer una influencia entre ellos, no importa la distancia a la que se encuentren. De manera metafórica puede considerarse un patinador de hielo con la asombrosa habilidad de girar sobre sí mismo tanto en el sentido de las agujas del reloj como en el sentido contrario, al mismo tiempo.

Un par de patinadores entrelazados alejándose entre ellos mientras hacen este sorprendente giro tendrán las direcciones de giro perfectamente correlacionadas: si en un instante el primero gira en un sentido, también lo hace el otro, aunque estén tan lejos que terminen en pistas en continentes diferentes.

Recreación artística del estado de entrelazamiento de los fotones retorcidos creado en el experimento de Viena. (Foto: Mehul Malik, Manuel Erhard, © Faculty of Physics, University of Vienna)

“Los fotones entrelazados de nuestro experimento se pueden ilustrar no con dos, sino con tres patinadores, danzando una coreografía cuántica pefectamente sincronizada”, explica Mehul Malik, el primer autor del artículo. “Su danza es un poco más compleja, con dos de los patinadores mostrando, además, otro movimiento correlacionado, además del giro mencionado. De hecho, somos los primeros que hemos conseguido este tipo de entrelazamiento cuántico asimétrico en el laboratorio”, continúa Malik.

Los investigadores han creado el estado de entrelazamiento entre tres fotones utilizando otro artificio cuántico: han combinado dos pares de fotones con entrelazamiento de alta dimensión de tal manera que era imposible saber de dónde procedía cada uno de los fotones. Aparte de servir como campo de pruebas para estudiar muchos conceptos fundamentales de la mecància cuántica, los estados de entrelazamiento de varios fotones vez, como este, tienen aplicaciones que van desde la computación cuántica hasta la encriptación cuántica.

En esta línea, los autores de la investigación proponen un nuevo tipo de protocolo de criptografía cuántica, basado en este estado de entrelazamiento asimétrico, que permite que diferentes capas de información se compartan de forma asimétrica entre varios emisores y destinatarios con total seguridad.

Los científicos consideran que, aunque todavía habrá que solventar muchos obstáculos técnicos antes de que este protocolo se pueda utilizar en la práctica, el rápido progreso de la tecnología cuántica hace que sea sólo cuestión de tiempo que esta tecnología encuentre su lugar en las redes cuánticas del futuro. “El experimento abre las puertas a un futuro Internet cuántico, con más de dos interlocutores, que permitiría una comunicación de más de dos bits por fotón”, añade Zeilinger.

En la investigación ha participado Mehul Malik, Manuel Erhard, Mario Krenn, Robert Fickler, Anton Zeilinger, del Instituto de Óptica Cuántica e Información Cuántica de la Academia Austríaca de Ciencia (IQOQI) y el investigador del Grupo de información y de Fenómenos Cuánticos del Departamento de Física de la UAB Marcus Huber, físico teórico que ha inventado las técnicas necesarias para analizar el experiemento. La investigación ha sido financiada por la Comisión Europea, el Consejo Europeo de Investigación (ERC) y la Austrian Science Fund (FWF).

(Fuente: UAB)

Desde la materia “inerte”…¡Hasta los pensamientos!

$
0
0

Lo mismo que desconocemos la auténtica naturaleza de la Luz, que según creo encierra muchos secretos que tenemos que desvelar para conocer la realidad de la Naturaleza y del Universo, de la misma manera, tenemos que llegar a desvelar los secretos que se encierra en esa esencial y sencilla sustancia que llamamos agua, ya Tales de Mileto nos hablaba de la importancia que esa sustancia tenía para la vida.

¿Cómo es posible que, a partir de la materia “inerte”, hayan podido surgir seres vivos e incluso, algunos que, como nosotros puedan pensar? Que cosa mágica se pudo producir en el corazón de las estrellas para que, materiales sencillos como el Hidrógeno se convirtieran a miles de millones de grados de calor en otros que, como el Carbono, Oxigeno y Nitrógeno…, muchos miles de millones de años más tardes, en mundos perdidos en sistemas planetarios como el nuestro, dieran lugar a la formación de Protoplasmavivo del que surgieron aquellos infinitesimales seres que llamamos bacterias y que, posibilitaron la evolución hacia formas de vida superiores?

              Los sentidos: las herramientas que utiliza el cerebro para estar comunicado con el exterior

La percepción, los sentidos y los pensamientos… Para poder entender la conciencia como proceso es preciso que entendamos cómo funciona nuestro cerebro, su arquitectura y desarrollo con sus funciones dinámicas. Lo que no está claro es que la conciencia se encuentre causalmente asociada a ciertos procesos cerebrales pero no a otros.

El cerebro humano ¿es especial?,  su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el mundo exterior, no se parece a nada que la ciencia conozca. Tiene un carácter único y ofrecer una imagen fidedigna del cerebro no resulta nada fácil; es un reto tan extraordinario que no estamos preparados para cumplir en este momento. Estamos lejos de ofrecer esa imagen completa, y sólo podemos dar resultados parciales de esta enorme maravilla de la Naturaleza.

                         Aquí se fraguan los pensamientos como en las galaxias lo hacen las estrellas

Nuestro cerebro adulto, con poco más de 1 Kg de peso, contiene unos cien mil millones de células nerviosas o neuronas. La parte o capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de treinta millones de neuronas y un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en acabar el recuento. Si consideramos el número posible de circuitos neuronales, tendremos que habérnoslas con cifras hiperastronómicas. Un 10 seguido de, al menos, un millón de ceros (en comparación, el número de partículas del universo conocido asciende a “tan sólo” un 10 seguido de 79 ceros). ¡A que va a resultar que no somos tan insignificantes!

El suministro de datos que llega en forma de multitud de mensajes procede de los sentidos, que detectan el entorno interno y externo, y luego envía el resultado a los músculos para dirigir lo que hacemos y decimos. Así pues, el cerebro es como un enorme ordenador que realiza una serie de tareas basadas en la información que le llega de los sentidos. Pero, a diferencia de un ordenador, la cantidad de material que entra y sale parece poca cosa en comparación con la actividad interna. Seguimos pensando, sintiendo y procesando información incluso cuando cerramos los ojos y descansamos.

Con tan enorme cantidad de circuitos neuronales, ¿cómo no vamos a ser capaces de descifrar todos los secretos de nuestro universo? ¿De qué seremos capaces cuando podamos disponer de un rendimiento cerebral del 80 ó 90 por ciento? Algunas veces hemos oido comentar: “Sólo utilizamos un diez por ciento del cerebro…” En realidad, la frase no indica la realidad, se refiere al hecho de que, aunque utilizamos el cerebro en su totalidad, se estima que está al diez por ciento de su capacidad real que, será una realidad a medida que evolucione y, en el futuro, esa capacidad de hoy será un 90 por ciento mayor.

Aún no conocemos bien la direccionalidad de los circuitos neuronales

El límite de lo que podremos conseguir tiene un horizonte muy lejano. Y, llega un momento en el cual, se puede llegar a pensar que no existen limites en lo que podemos conseguir: Desde hablar sin palabras sonoras a la auto-transportación. Si -como pienso- somos pura energía pensante, no habrá límite alguno; el cuerpo que ahora nos lleva de un lugar a otro, ya no será necesario, y como los fotones que no tienen masa, podremos desplazarnos a velocidades lumínicas.

Creo que estoy corriendo demasiado en el tiempo, volvamos a la realidad. A veces mi mente se dispara. Lo mismo visito mundos extraordinarios con mares luminosos de neón líquido poblados por seres transparentes, que viajo a galaxias muy lejanas pobladas de estrellas de fusión fría circundadas por nubes doradas compuestas de antimateria en la que, los positrones medio congelados, se mueven lentamente formando un calidoscopio de figuras alucinantes de mil colores. ¡La mente, qué tesoro!

¿Es más grande el cerebro humano que el universo?

“Durante siglos el hombre ha intentado responder a una de las más complicadas inquietudes: ¿Es el cerebro humano más grande que el universo? Y si bien la respuesta aún no ha llegado, muchos expertos a lo largo de los años han intentado esbozar sus teorías.

Resultado de imagen de Más grande el cerebro o el universo

“El cerebro humano puede hacer muchas cosas. Hamlet lo expresó bien:  ”Podría estar encerrado en una cáscara de nuez y sentirme rey de un espacio infinito”. El universo, según la física, pese a ser enorme podría no ser infinito; el universo observable tiene un radio de 46 mil millones de años luz; el Big Bang, aparentemente el origen del universo, habría ocurrido hace 13.7 mil millones de años. El cerebro humano –con la concesión materialista de que éste genera la dimensión mental– puede  ”crear” seres hipotéticos como “una piedra tan grande que ni siquiera dios la pueda cargar” e imaginar universos eternos, sin principio ni final.  Aunque claro el debate es más complejo que solo imaginar (en realidad suponer que imaginamos) lo infinito y pensar que este acto supera a la realidad del universo.”


Precisamente, con el fin de poder acercar una somera respuesta a esta gigantesco interrogante, el periodista Robert Krulwich ha publicado recientemente en la página web NPR.org una completa compilación de este gran e interminable. Una compilación que incluye teorías de ambos bandos, y entre las cuales existen muchas que son realmente convincentes.”

  Mirando ambas imágenes… ¿Quién podría decir, si no se les explicara, que son “mundos” diferentes”

La unidad a partir de la cual se configuran todas las fabulosas actividades del cerebro es una célula del mismo, la neurona. Las neuronas son unas células fantásticamente ramificadas y extendidas, pero diminutas que, sin embargo y en sentido figurado,  podríamos decir que son tan grandes como el universo mismo.

Cuando seamos capaces de convertir en realidad todo aquello en lo que podamos pensar, entonces, habremos alcanzado la meta. Para que eso pueda llegar a ocurrir, aún falta mucho tiempo. Sin embargo, si el Universo no lo impide y nuestro transcurrir continúa, todo lo que podamos imaginar… podrá ser posible. Incluso imposibilidades físicas de hoy, dejarán de existir mañana y, ¡la Mente! posiblemente (al igual que hoy ordena a las distintas partes del cuerpo que realice esta o aquella función), se encargará de que todo funcione bien, erradicará cualquier enfermedad que nos pueda atacar y, tendrá el conjunto del “sistema” en perfectas condiciones de salud, lo cual me lleva a pensar que, para cuando eso llegue, los médicos serán un recuerdo del pasado.

Veamos, por ejemplo, la Ecuación de Schrödinger

cap14.jpg

¿Qué dice?
La ecuación modela la materia no como una partícula, sino como una onda, y describe cómo estas ondas se propagan.

¿Por qué es importante?
La ecuación de Schrödinger es fundamental para la mecánica cuántica, que junto con la relatividad general constituyen en la actualidad las teorías más efectivas del universo físico.

¿Qué provocó?
Una revisión radical de la física del mundo a escalas muy pequeñas, en las cuales cada objeto tiene una «función de onda» que describe una nube de probabilidad de posibles estados. A este nivel el mundo es incierto intrínsecamente. Intentos de relacionar el mundo microscópico cuántico con nuestro mundo macroscópico clásico llevaron a temas filosóficos que todavía tienen eco. Pero experimentalmente, la teoría cuántica funciona maravillosamente bien y los láseres y chips de los ordenadores actuales no funcionarían sin ella.

 

Es curioso y sorprendente la evolución alcanzada por la Mente Humana. El mundo físico se representa gobernado de acuerdo a leyes matemáticas. Desde este punto de vista, todo lo que hay en el universo físico está realmente gobernado en todos sus detalles por principios matemáticos, quizá por ecuaciones tales que aún no hemos podido llegar a comprender y, ni que sabemos que puedan existir.

Lo más seguro es que la descripción real del mundo físico esté pendiente de matemáticas futuras, aún por descubrir, fundamentalmente distintas de las que ahora tenemos. Llegarán nuevos Gauss, Riemann, Euler, o, Ramanujans… que, con sus nuevas ideas transformarán el pensamiento matemático para hacer posible que podamos, al fin, comprender lo que realmente somos.

http://2.bp.blogspot.com/_gcNb8BU50Hw/TStpK0vZ7kI/AAAAAAAALNE/lKkSQu1F8Yw/s1600/inteligencia%2Bartificial.jpg

Son nuestras Mentes, productos de la evolución del Universo que, a partir de la materia inerte, ha podido alcanzar el estadio bio-químico de la consciencia y, al ser conscientes, hemos podido descubrir que existen “números misteriosos” dentro de los cuales subyacen mensajes que tenemos que desvelar.

Antes tendremos que haber descifrado las funciones modulares de los cuadernos perdidos de Ramanujan, o por ejemplo, el verdadero significado del número 137, ése número puro adimensional que encierra los misterios del electrón (e) – electromagnetismo -, de la constante de Planck (h) – el cuando te acción – y de la luz (c) – la relatividad -.

Y, mientras tanto, nuestras mentes siguen su camino, siempre queriendo ir más allá y siempre profundizando en los secretos de la Naturaleza de lo que tenemos muchos ejemplos, tales como nuestras consideraciones sobre los dos aspectos de la relatividad general de Einstein, a saber, el principio de la relatividad, que nos dice que las leyes de la física son ciegas a la distinción entre reposo y movimiento uniforme; y el principio de equivalencia, que nos dice de qué forma sutil deben modificarse estas ideas para englobar el campo gravitatorio.

Mediante la combinación de diversas observaciones de telescopios, y la ayuda del trabajo de modelación avanzada, el equipo de Emanuele Farina, de la Universidad de Insubria en la provincia de Como, Italia, y Michele Fumagalli del Instituto Carnegie de Ciencia, en Washington, D.C., Estados Unidos, fue capaz de captar como tal el trío de quásares, llamado QQQ J1519+0627. La luz de esos quásares ha viajado 9.000 millones de años-luz para llegar hasta nosotros, lo que significa que dicha luz fue emitida cuando el universo tenía sólo un tercio de su edad actual.

                   Todo es finito, es decir, que tiene un fin, y la velocidad de la luz no podía ser una excepción

Ahora hay que hablar del tercer ingrediente fundamental de la teoría de Einstein, que está relacionada con la finitud de la velocidad de la luz. Es un hecho notable que estos tres ingredientes básicos puedan remontarse a Galileo; en efecto, parece que fue también Galileo el primero que tuvo una expectativa clara de que la luz debería viajar con velocidad finita, hasta el punto de que intentó medir dicha velocidad. El método que propuso (1.638), que implica la sincronización de destellos de linternas entre colinas distantes, era, como sabemos hoy, demasiado tosco (otro ejemplo de la evolución que, con el tiempo, se produce en nuestras mentes). Él no tenía forma alguna de anticipar la extraordinaria velocidad de la luz.

Parece que tanto Galileo como Newton tenían poderosas sospechas respecto a un profundo papel que conecta la naturaleza de la luz con las fuerzas que mantienen la materia unida y, si consideramos que esa fuerza que hace posible la unión de la materia reside en el corazón de los átomos (en sus núcleos), podemos hacernos una clara idea de lo ilimitado que puede ser el pensamiento humano que, ya en aquellos tiempos -en realidad mucho anters- pudo llegar a intuir las fuerzas que están presentes en nuestro Universo.

En los núcleos atómicos reside la fuerza (nuclear fuerte) que hace posible la existencia de la materia que comienza por los átomos que, al juntarse y formar células, hace posible que éstas se junten y formen moléculas que a su vez, se reunen para formar sustancias y cuerpos.

Pero la comprensión adecuada de estas ideas tuvo que esperar hasta el siglo XX, cuando se reveló la verdadera naturaleza de las fuerzas químicas y de las fuerzas que mantienen unidos los átomos individuales. Ahora sabemos que tales fuerzas tienen un origen fundamentalmente electromagnético (que vincula y concierne a la implicación del campo electromagnético con partículas cargadas) y que la teoría del electromagnetismo es también la teoría de la luz.

Para entender los átomos y la química se necesitan otros ingredientes procedentes de la teoría cuántica, pero las ecuaciones básicas que describen el electromagnetismo y la luz fueron propuestas en 1.865 por el físico escocés James Clark Maxwell, que había sido inspirado por los magníficos descubrimientos experimentales de Michael Faraday unos treinta años antes y que él plasmó en una maravillosa teoría.

http://4.bp.blogspot.com/_2RBZ4p7sw-A/TJa-rWEO1LI/AAAAAAAAAME/0G5JJp4OgQw/s1600/electroomagnetismo.png

El electromagnetismo es una rama de la Física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría. El electromagnetismo es una teoría de campos; es decir, las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales dependientes de la posición en el espacio y del tiempo.

Esta teoría del electromagnetismo de Maxwell tenía la particularidad de que requería que la velocidad de la luz tuviera un valor fijo y definido, que normalmente se conoce como c, y que en unidades ordinarias es aproximadamente 3 × 108 metros por segundo. Maxwell, guiado por los experimentos de Faraday, hizo posible un hecho que cambió la historia de la humanidad para siempre. Un hecho de la misma importancia que el descubrimiento del fuego, la rueda o los metales. El matemático y poeta escocés unificó los campos eléctrico y magnético a través de unas pocas ecuaciones que describen comoestos campos se entretejen y actúan sobre la materia.

Claro que, estos importantísimos avances han sido simples escalones de la “infinita” escalera que tenemos que subir y, la misma relatividad de Einstein no ha sido (después de un siglo) aún comprendido en su plenitud y muchos de sus mensajes están escondidos en lo más profundo de nuestras mentes que, ha sabido parcialmente descubrir el mensaje de Einstein pero, seguimos buscando.

Sin embargo, esto nos presenta un enigma si queremos conservar el principio de relatividad. El sentido común nos diría que si se mide que la velocidad de la luz toma el valor concreto c en el sistema de referencia del observador, entonces un segundo observador que se mueva a una velocidad muy alta con respecto al primero medirá que la luz viaja a una velocidad diferente, aumentada o disminuida, según sea el movimiento del segundo observador.

Estaría bueno que, al final se descubriera que alfa (α) tuviera un papel importante en la compleja teoría de cuerdas, ¿Por qué no? En realidad alfa, la constante de estructura fina, nos habla del magnetismo, de la constante de Planck y de la relatividad especial, es decir, la velocidad de la luz y, todo eso, según parece, emergen en las ecuaciones topológicas de la moderna teoría de cuerdas. ¡Ya veremos!

Pero el principio de relatividad exigiría que las leyes físicas del segundo observador (que definen en particular la velocidad de la luz que percibe el segundo observador) deberían ser idénticas a las del primer observador. Esta aparente contradicción entre la constancia de la velocidad de la luz y el principio de relatividad condujo a Einstein (como de hecho, había llevado previamente al físico holandés Hendrick Antón Lorentz y muy en especial al matemático francés Henri Poincaré) a un punto de vista notable por el que el principio de relatividad del movimiento puede hacerse compatible con la constancia de una velocidad finita de la luz.

¿Cómo funciona esto? Sería normal que cualquier persona creyera en la existencia de un conflicto irresoluble entre los requisitos de una teoría como la de Maxwell, en la que existe una velocidad absoluta de la luz, y un principio de relatividad según el cual las leyes físicas parecen las mismas con independencia de la velocidad del sistema de referencia utilizado para su descripción.

¿No podría hacerse que el sistema de referencia se moviera con una velocidad que se acercara o incluso superara a la de la luz? Y según este sistema, ¿no es cierto que la velocidad aparente de la luz no podría seguir siendo la misma que era antes? Esta indudable paradoja no aparece en una teoría, tal como la originalmente preferida por Newton (y parece que también por Galileo), en la que la luz se comporta como partículas cuya velocidad depende de la velocidad de la fuente. En consecuencia, Galileo y Newtonpodían seguir viviendo cómodamente con un principio de relatividad.

La velocidad de la luz en el vacío es una constante de la Naturaleza y, cuando cientos de miles de millones de millones salen disparados de esta galaxia hacia el vacío espacial, su velocidad de 299.792.450 metros por segundo, es constante independientemente de la fuente que pueda emitir los fotones y de si ésta está en reposo o en movimiento.

Así que, la antigua imagen de la naturaleza de la luz entró en conflicto a lo largo de los años, como era el caso de observaciones de estrellas dobles lejanas que mostraban que la velocidad de la luz era independiente de la de su fuente. Por el contrario, la teoría de Maxwell había ganado fuerza, no sólo por el poderoso apoyo que obtuvo de la observación (muy especialmente en los experimentos de Heinrich Hertz en 1.888), sino también por la naturaleza convincente y unificadora de la propia teoría, por la que las leyes que gobiernan los campos eléctricos, los campos magnéticos y la luz están todos subsumidos en un esquema matemático de notable elegancia y simplicidad.

Las ondas luminosas como las sonoras, actúan de una u otra manera dependiendo del medio en el que se propagan.

En la teoría de Maxwell, la luz toma forma de ondas, no de partículas, y debemos enfrentarnos al hecho de que en esta teoría hay realmente una velocidad fija a la que deben viajar las ondas luminosas.

El punto de vista geométrico-espaciotemporal nos proporciona una ruta particularmente clara hacia la solución de la paradoja que presenta el conflicto entre la teoría de Maxwell y el principio derelatividad.

Este punto de vista espaciotemporal no fue el que Einstein adoptó originalmente (ni fue el punto de vista de Lorentz, ni siquiera, al parecer, de Poincaré), pero, mirando en retrospectiva, podemos ver la potencia de este enfoque. Por el momento, ignoremos la gravedad y las sutilezas y complicaciones asociadas que proporciona el principio de equivalencia y otras complejas cuestiones, que estimo aburrirían al lector no especialista, hablando de que en el espacio-tiempo se pueden concebir grupos de todos los diferentes rayos de luz que pasan a ser familias de íneas de universo.

Baste saber que, como quedó demostrado por Einstein, la luz, independientemente de su fuente y de la velocidad con que ésta se pueda mover, tendrá siempre la misma velocidad en el vacío, c, o 299.792.458 metros por segundo. Cuando la luz atraviesa un medio material, su velocidad se reduce. Precisamente, es la velocidad c el límite alcanzable de la velocidad más alta del universo. Es una constante universal y, como hemos dicho, es independiente de la velocidad del observador y de la fuente emisora.

http://1.bp.blogspot.com/_izXgyZyERt8/TD5SSEgSC_I/AAAAAAAAAKs/Yz8_ncHGpzI/s1600/5_4gw_mente.jpg

El Universo está dentro de nuestras Mentes

¡La Mente! Qué caminos puede recorrer y, sobre todo ¿quien la guía? Comencé este trabajo con la imagen del ojo humano y hablando de los sentidos y de la consciencia y mira donde he finalizado…Sí, nos falta mucho camino por recorrer para llegar a desvelar los misterios de la Mente que, en realidad, es la muestra más alta que el Universo nos puede mostrar de lo que puede surgir a partir de la sencillez de los átomos de hidrógeno que, evolucionados, primero en las entrañas de las estrellas y después en los circuitos de nuestras mentes, llega hasta los pensamientos y la imaginación que…son palabras mayores de cuyo alcance, aún no tenemos una idea que realmente refleje su realidad.

Pero, ¿existe alguna realidad?, o, por el contrario todo es siempre cambiante y lo que hoy es mañana no existirá, si “realmente” es así, ocurre igual que con el tiempo. La evolución es algo que camina siempre hacia adelante, es inexorable, nunca se para y, aunque como el tiempo pueda ralentizarse, finalmente sigue su camino hacia esos lugares que ahora, sólo podemos imaginar y que, seguramente, nuestros pensamientos no puedan (por falta de conocimientos) plasmar en lo que será esa realidad futura.

emilio silvera

¡Fluctuaciones de vacío! ¿Que son?

$
0
0

Un fuerte campo gravitatorio puede inducir un efecto desbocado en las fluctuaciones cuánticas que se producen en el espacio, aparentemente vacío, …

En física cuántica, la fluctuación cuántica es un cambio temporal en la cantidad de energía en un punto en el espacio como resultado del Principio de Incertidumbre que imaginó Werner Heisenberg. De acuerdo a una formulación de este principio energía y tiempo se relacionan de la siguiente forma:

\Delta E\Delta t\approx {h \over 2\pi }

Esto significa que la conservación de la energía puede parecer violada, pero sólo por breves lapsos. Esto permite la creación de pares partícula-antipartícula de partículas virtuales. El efecto de esas partículas es medible, por ejemplo, en la carga efectiva del electrón, diferente de su carga “desnuda”. En una formulación actual, la energía siempre se conserva, pero los estados propios del Hamiltoniano no son los mismos que los del operador del número de partículas, esto es, si está bien definida la energía del sistema no está bien definido el número de partículas del mismo, y viceversa, ya que estos dos operadores no conmutan.

Imagen que representa las fluctuaciones del vacío entre una esfera y una superficie plana.

                     Las fluctuaciones del vacío entre una esfera y una superficie plana

En un estudio realizado por un equipo de físicos con avanzados aparatos, han hallado un resultado del que nos dicen:

La materia se construye sobre fundamentos frágiles. Los físicos acaban de confirmar que la materia, aparentemente sustancial, es en realidad nada más que fluctuaciones en el vació cuántico. Los investigadores simularon la frenética actividad que sucede en el interios de los protones y neutrones, que como sabéis son las partículas que aportan casi la totalidad de la masa a la materia común.

 

 

 

Cada protón (o neutrón) se compone de tres quarks – véase ilustración – pero las masas individuales de estos quarks apenas comprenden el 1% del total de la masa del protón¿Entonces de dónde sale el resto? La teoría sostiene que esta masa es creada por la fuerza que mantiene pegados a los quarks, y que se conoce como fuerza nuclear fuerte.  En términos cuánticos, la fuerza fuerte es contenida por un campo de partículas virtuales llamadas gluones, las cuales irrumpen aleatoriamente en la existencia para desaparecer de nuevo. La energía de estas fluctuaciones del vacío debe sumarse a la masa total del neutróny del protón.

 

 

En nuestras mentes se acumulan signos y fórmulas que quieren ser los exponentes de la verdadera razón y origen de la materia pero… ¡Estaremos acertando!

Tiene y encierra tantos misterios la materia que estamos aún y años-luz de y conocer sobre su verdadera naturaleza. Es algo que vemos en sus distintas formas materiales que configuran y conforman todo lo material desde las partículas elementales hasta las montañas y los océanos. Unas veces está en estado “inerte” y otras, se eleva hasta la vida que incluso,  en ocasiones, alcanza la consciencia de SER. Sin embargo, no acabamos de dilucidar de dónde viene su verdadero origen, su esencia,  lo que era antes de “ser” materia. ¿Existe acaso una especie de sustancia cósmica anterior a la materia? Y, si realmente existe esa sustancia… ¿Dónde está?

Resultado de imagen de hemos llegado a saber que las llamadas fluctuaciones del vacío son oscilaciones aleatorias, impredecibles e ineliminables de un campo de fuerza (electromagnético o gravitatorio) que son debidas a un “tira y afloja” en el que pequeñas regiones del espacio toman prestada, momentáneamente, energía de regiones adyacentes y luego las devuelven.

     Lo cierto es que, si surgió, es porque había

Claro que hemos llegado a saber que las llamadas fluctuaciones del vacío son oscilaciones aleatorias, impredecibles e ineliminables de un campo de fuerza (electromagnético o gravitatorio) que son debidas a un “tira y afloja” en el que pequeñas regiones del espacio toman prestada, momentáneamente, energía de regiones adyacentes y luego las devuelven. Pero…

- ¿Qué regiones adyacentes?

Acaso universos paralelos, acaso defomraciones del espacio-tiempo a escalas microscópicas, micros agujeros negros que pasan a ser agujeros blancos salidos de estas regiones o campos de fuerza que no podemos ver pero sí sentir, y, en última instancia, ¿por qué se forman esas partículas virtuales que de inmediato se aniquilan y desaparecen antes de que puedan ser capturadas? ¿Qué sentido tiene todo eso?

Las consecuencias de la existencia del cuanto mínimo de acción fueron revolucionarios para la comprensión del vacío. Mientras la continuidad de la acción clásica suponía un vacío plano, estable y “realmente” vacío, la discontinuidad que supone el cuanto nos dibuja un vacío inestable, en continuo cambio y muy lejos de poder ser considerado plano en las distancias atómicas y menores. El vacío cuántico es de todo menos vacío, en él la energía nunca puede quedar estabilizada en valor cero, está fluctuando sobre ese valor, continuamente se están creando y aniquilando todo tipo de partículas, llamadas por eso virtuales, en las que el producto de su energía por el tiempo de su existencia efímera es menor que el cuanto de acción. Se llaman fluctuaciones cuánticas del vacío y son las responsables de que exista un que lo inunda todo llamado campo de punto cero.

Pero volvamos de nuevo a las fluctuaciones de vacío, que al igual que las ondas “reales” de energía positiva, están sujetas a las leyes de la dualidad onda/partícula; es decir, tienen tanto aspectos de onda como aspectos de partícula.

Resultado de imagen de Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio.

Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio. El aspecto de partícula está incorporado en el concepto de partículas virtuales, es decir, partículas que pueden nacer en pares (dos partículas a un tiempo), viviendo temporalmente de la energía fluctuacional tomada prestada de regiones “vecinas” del , y que luego se aniquilan y desaparecen, devolviendo la energía a esas regiones “vecinas”. Si hablamos de fluctuaciones electromagnéticas del vacío, las partículas virtuales son fotones virtuales; en el caso de fluctuaciones de la gravedad en el vacío, son gravitones virtuales.

De las llamadas fluctuaciones de vacío pueden surgir, partículas virtuales y quién sabe que cosas más… Hasta un nuevo Universo.

                       Son muchas  las preguntas que no tienen respuestas

Parece que las fluctiuaciones ocurren en cualquier lugar, pero que, son tan minúsculas que ningún observador o experimentador las ha detectado de una manera franca hasta la fecha y, se sabe que están ahí por experimentos que lo han confirmado. Estas fluctuaciones son más poderosas cuanto menos escala se considera en el espacio y, por debajo de la longitud de Planck-Wheeler las fluctuaciones de vacío son tan enormes que el espacio tal como lo conocemos “pareciera estar hirviendo” para convertirse en una especie de espuma cuántica que parece que en realidad, cubre todo el espacio “vacío cuántico” que sabemos que está ahí y es el campo del que surgen esas partículas virtuales que antes menccionaba.

     ¿Espuma cuántica? Si profundizamos mucho en la materia… Podríamos ver otro universo distinto al nuestro. Las cosas miles de millones de veces más pequeñas que en nuestro mundo cotidiano, no parecen las mismas cosas.

Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, limite_planck es la escala de longitud por debajo de la cual el tal como lo conocemos deja de existir y se convierte en espuma cuántica.  El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2) juega un papel clave en la entropía de un agujero negro. ¡Qué locura!

En el complejo general, por ahí, en alguna parte, permanece oculta esa teoría cuántica de la gravedad que incansables (pero sin ningún éxito hasta el momento) buscamos. Cuando sepamos unir las dos teorías de lo pequeño y lo grande, lo tendremos todo.

Como tantas veces hemos comentado, los trabajos que se han realizado sobre poder construir una teoría cuántica de la gravedad nos llevan a un sorprendente de implicaciones. Por un lado, sólo se ha podido conceptuar a la gravedad cuántica, siempre y cuando, el universo tenga más de cuatro dimensiones. Además, se llega a considerar que en la era de Planck, tanto el universo como la gravedad pudieron ser una sola cosa compacta estructurada por objetos cuánticos infinitamente diminutos, como los que suponemos que conforman las supercuerdas. A esta escala, el mismísimo espaciotiempo estaría sometido a imprescindibles fluctuaciones muy semejantes a las que causan las partículas al nacer y desaparecer de la existencia en el espaciotiempo ordinario. Esta noción ha conducido a los teóricos a describir el universo de la era cuántica como una especie de extremadamente densa y agitada espuma que pudo haber contenido las vibrantes cuerdecillas que propugnan los cosmólogos cuerdistas.

Los físicos especulan que el cosmos ha crecido a desde una «nada» primigenia que al nacer comenzó el principio del tiempo y que, en ese parto, contenía toda la materia y toda la energía.

Resultado de imagen de Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio.

En física como en todas las demás disciplinas científicas, los conocimientos avanzan y las teorías que sostuvieron los cimientos de nuestros conocimientos se van haciendo viejas y van teniendo que ser reforzadas con las nuevas y más poderosas “vigas” de las nuevas ideas y los nuevos hallazgos científicos que hacen posible ir perfeccionando lo que ya teníamos.

Recientemente se han alzado algunas voces contra el Principio de Incertidumbre de Heisenberg. He podido leer en un artíoculo de la prestigiosa Revista Nature, un artículo del premio Nobel de Física Gerald ´t Hoofft, en el que propone que la naturaleza probabilistica de la mecánica cuántica, desaparecería a la escala de Planck, en la que el comportamiento de la materia sería determinista; a longitudes mayores, energías más pequeñas.

El mundo de lo muy pequeño (el micro espacio), a nivel atómico y subatómico, es el dominio de la física cuántica, así nunca podríamos saber, de acuerdo m con el principio de incertidumbre, y, en un momento determinado, la posición y el estado de una partícula. Este estado podría ser una función de la escala espacio-temporal. A esta escala tamaños todo sucede demasiado deprisa para nosotros.

cuerdascuantica.jpg

El “universo cuántico” nada es lo que parece a primera vista, allí entramos en otro mundo que en nada, se parece al nuestro

 Cuando hablamos de la mecánica cuántica, tenemos mirar un poco hacia atrás en el tiempo y podremos darnos del gran impacto que tuvo en el devenir del mundo desde que, en nuestras vidas, apareció el átomo y, más tarde, sus contenidos. Los nombres de Planck, Einstein, Bohr, Heisenberg, Schrödinger, Pauli, Bardeen, Roentgen, Dirac y muchos otros, se pudieron a la cabeza de la lista de las personas más famosas. Aquel primer premio Nobel de Física otorgado en 1900 a Roentgen por descubrir los rayos X, en el mismo año llegaría el ¡cuanto! De Planck que inspiró a Einstein para su trabajo sobre el Efecto fotoeléctrico que también, le valdría el Nobel, y, a partir de ese momento, se desencadenó una especie de alucinante por saber sobre el átomo, sus contenidos, y, de qué estaba hecha la materia.

epr

               La conocida como Paradoja EPR y los conceptos de Tiempo y , presente, pasado y futuro.

La Mecánica Cuántica es incompleta (conclusión EPR).  Dos posibles conclusiones enfrentadas:
La Mecánica Cuántica es completa, pero el realismo local no se cumple. Entonces… ¿Cómo se comporta la Naturaleza en realidad? Bueno, no siempre lo sabemos y, no hace mucho me encontré con el comentario de un científico que decía:
“Nadie ha resuelto la paradoja del gato de Schroedinger, ni la paradoja de Einstein-Podolsky-Rosen. El principio de incertidumbre no se ha explicado y se asume como un dogma, lo mismo pasa con el spin. El spin no es un giro pero es un giro.  Aquí hay un desafío al pensamiento humano. ¡Aquí hay una aventura del pensamiento!”

Fueron muchas las polémicas desatadas a cuenta de las aparentes incongruencias de la moderna Mecánica Cuántica. La paradoja de Einstein-Podolsky-Rosen, denominada “Paradoja EPR”, trata de un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. Es relevante, pues pone de manifiesto un problema aparente de la mecánica cuántica, y en las décadas siguientes se dedicaron múltiples esfuerzos a desarrollarla y resolverla.

Einstein (y a muchos otros científicos), la idea del entrelazamiento cuántico le resultaba extremadamente perturbadora. Esta particular característica de la mecánica cuántica permite preparar estados de dos o más partículas en los cuales es imposible obtener útil sobre el estado total del sistema haciendo sólo mediciones sobre una de las partículas.

Por otro lado, en un entrelazado, manipulando una de las partículas, se puede modificar el estado total. Es decir, operando sobre una de las partículas se puede modificar el estado de la otra a distancia de manera instantánea. Esto habla de una correlación entre las dos partículas que no tiene paralaje en el mundo de nuestras experiencias cotidianas. Cabe enfatizar pues que cuando se mide el estado de una partícula, enseguida sabemos el estado de la otra, lo cual aparentemente es instantáneo, es decir, sin importar las distancias a las que se encuentren las partículas, una de la otra, ambas saben instantáneamente el estado de la otra.

El experimento planteado por EPR consiste en dos partículas que interactuaron en el pasado y que quedan en un estado entrelazado. Dos observadores reciben cada una de las partículas. Si un observador mide el momento de una de ellas, sabe cuál es el momento de la otra. Si mide la posición, gracias al entrelazamiento cuántico y al principio de incertidumbre, puede la posición de la otra partícula de forma instantánea, lo que contradice el sentido común.

File:O2 MolecularOrbitals Anim.gif

Animación que muestra dos átomos de oxígeno fusionándose para formar una molécula de O2 en su estado cuántico fundamental. Las nubes de color representan los orbitales atómicos. Los orbitales 2s y 2p de cada átomo se combinan para formar los orbitales σ y π de la molécula, que la mantienen unida. Los orbitales 1s, más interiores, no se combinan y permiten distinguir a cada núcleo. Lo que ocurre a escalas tan pequeñas es fascienante.

Si nos pudiéramos convertir en electrones, por ejemplo, sabríamos dónde y cómo estamos en cada momento y podríamos ver asombrados, todo lo que estaba ocurriendo a nuestro alrededor que, entonces sí, veríamos transcurrir a un ritmo más lento del que podemos detectar en los electrones desde nuestro macroestado espacio temporal. El electrón, bajo nuestro punto de vista se mueve alrededor del núcleo atómico a una velocidad de 7 millones de km/h.

A medida que se asciende en la escala de tamaños, hasta el tiempo se va ajustando a esta escala, los objetos, a medida que se hacen mayores se mueven más despacio y, además, tienen más duración que los pequeños objetos infinitesimales del micro mundo cuántico. La vida media de un neutron es de unos 15 minutos, por ejemplo, mientras que la vida media de una estrellas se puede contar en miles de millones de años.

En nuestra macroescala, los acontecimientos y ,los objetos se mueven a velocidades que a nosotros nos parecen normales. Si se mueven con demasiada lentitud nos parece que no se mueven. Así hablamos de escala de tiempo geológico, para referirnos al tiempo y velocidad de la mayor parte de los acontecimientos geológicos que afectan a la Tierra, el tiempo transcurre aquí en millones de años y nosotros ni lo apreciamos; nos parece que todo está inmóvil. Nosotros, los humanos, funcionamos en la escala de años (tiempo biológico).

El Tiempo Cosmológico es aún mucho más dilatado y los objetos cósmicos (mundos, estrellas y galaxias), tienen una mayor duración aunque su movimiento puede ser muy rápido debido a la inmensidad del espacio universal en el que se mueven. La Tierra, por ejemplo, orbita alrededor del Sol a una velocidad media de 30 Km/s., y, el Sol, se desplaza por la Galaxia a una velocidad de 270 km/s. Y, además, se puede incrementar el tiempo y el espacio en su andadura al estar inmersos y ligados en una misma maya elñástica.

Así,  el espacio dentro de un átomo, es muy pequeño; dentro de una célula, es algo mayor; dentro de un animal, mayor aún y así sucesivamente… hasta llegar a los enormes espaciosa que separan las estrellas y las galaxias en el Universo.

Distancias astronómicas separan a las estrellas entre sí, a las galaxias dentro del cúmulo, y a los cúmulos en los supercúmulos.

Las distancias que separan a los objetos del Cosmos se tienen que medir con unidades espaciales, tal es su inmensa magnitud que, nuestras mentes, aunque podamos hablar de ellas de manera cotidiana, en realidad, no han llegado a asimilarlas.Y, a todo ésto, los físicos han intentado con denuedo elaborar una teoría completa de la gravedad que incluya la mecánica cuántica. Los cálculos de la mayoría de las teorías propuesta de la «gravedad cuántica» arrojan numerosos infinitos. Los físicos no están seguros si el problema es técnico o conceptual. No obstante, incluso prescindiendo de una teoría completa de gravedad cuántica, se puede deducir que los efectos de la teoría cuántica, habrían cruciales durante los primeros 10-43 segundos del inicio del universo, cuando éste tenía una densidad de 1093 gramos por centímetro cúbico y mayor. (El plomo sólido tiene una densidad de aproximadamente diez gramos por centímetro cúbico.) Este período, que es el que corresponde a la era de Planck, y a su estudio se le llama cosmología cuántica. Como el universo en su totalidad habría estado sujeto a grandes incertidumbres y fluctuaciones durante la era de Planck o era cuántica, con la materia y la energía apareciendo y desapareciendo de un vacío en grandes cantidades, el concepto de un principio del universo podría no tener un significado bien definido. En todo caso, la densidad del universo durante este período es de tal magnitud que escapa a nuestra comprensión. Para propósitos prácticos, la era cuántica podría considerarse el estado inicial, o principio, del universo. En consecuencia, los procesos cuánticos ocurridos durante este período, cualquiera sea su naturaleza, determinaron las iniciales del universo.

gran-muralla-galaxias

Una cosa nos ha podido quedar clara: Los científicos para lograr conocer la estructura del universo a su escala más grande, deben retroceder en el tiempo, centrando sus teorías en el momento en que todo comenzó. Para ello, como  todos sabéis, se han formulado distintas teorías unificadoras de las cuatro fuerzas de la naturaleza, con las cuales se han modelado acontecimiento y en el universo primitivo casi a todo lo largo del camino hasta el principio. Pero cómo se supone que debió haber habido un «antes», aparece una barrera que impide ir más allá de una frontera que se halla fijada a los 10-43 [s] después del Big Bang, un instante conocido como «momento de Planck», en homenaje al físico alemán Max Planck.

Esta barrera existe debido a que antes del momento de Planck, durante el período llamado la «era de Planck o cuántica», se supone que las cuatro fuerza fundamentales conocidas de la naturaleza eran indistinguibles o se hallaban unificadas , que era una sola fuerza. Aunque los físicos han diseñado teorías cuánticas que unen tres de las fuerzas, una por una, a través de eras que se remontan al momento de Planck, hasta ahora les ha prácticamente imposible armonizar las leyes de la teoría cuántica con la gravedad de la relatividad de Einstein, en un sólo modelo teórico ampliamente convincente y con posibilidades claras de ser contrastado en experimentos de laboratorio y, mucho menos, con observaciones.

Y después de todo ésto, sólo una caso me queda clara: ¡Lo poco que sabemos! A pesar de la mucha imaginación que ponemos en las cosas que creemos conocer.

emilio silvera

Las Leyes del Universo…¿Serán las mismas en todas partes?

$
0
0

 

Resultado de imagen de ¿Qué es la Mente?

Llamamos Mente a eso inmaterial que surge del cerebro, algo que ni la filosofía ha sabido explicar, y, como hacemos siempre, se acude a la metafísica para tratar de dar una torpe explicación de lo que, en realidad, no hemos llegado a comprender.

 Reino Unido: Impresionantes imágenes de la Vía Láctea por encima de lugares famosos (FOTOS)

Está claro que el tiempo pasa y cada generación trata de saber lo que hicieron las que las precedieron. Los vestigios del pasado son muchos y, no siempre sabemos traducir sus mensajes pero, los estudiamos y procuramos llegar a explicaciones lógicas de lo que aquello pudo ser, y, para ello, nos transportamos a aquellos contextos del pasado, a las mentalidades de los pobladores que dejaron monumentos que, con una mezcla de lo religioso-astronómico, quería simbolizar lo que ellos creían.

 

 

Vía Lactea

 

 

Desde el Parque Nacional del Teide se puede conseguir una buena vista de nuestra Vía Láctea

 

La “infinitud” de la Vía Láctea, inconmensurable para nosotros, es sólo una más, de decenas de miles de millones que pueblan nuestro Universo. Así, nuestra Galaxia para nosotros “infinita”, es, sencillamente, un objeto más de los muchos que pueblan las regiones del Cosmos. Cientos de miles de millones de estrellas que brillan por todas partes, asombrosos enjambres de planetas repartidos por cientos de miles de sistemas planetarios, cuásares y púlsares, estrellas enanas blancas, marrones y negras, gigantes rojas, Nebulosas de increíbles dimensiones en las que nacen nuevas estrellas y mundos, explosiones supernovas y aguejros negros gigantes que engullen todo el material que pueda capturar… ¡El Universo! nunca dejará de asombrarnos, ni por su inmensidad, ni por su diversidad.

 

 

 

 

Utilizando una cámara nueva y más poderosa, el Telescopio Espacial Hubble, ha descubierto lo que parece ser el objeto más distante jamás observado, una proto galaxia pequeña a 13.200 millones -luz de distancia, que se remonta a tan sólo 480 millones de años después del nacimiento del universo o Big Bang. Es decir, nos ha traído una galaxia en formación a escaso tiempo del comienzo del tiempo.

Immanuel Kant llegó a la conclusión de que las galaxias eran universos-islas  pero, él escribió primero que las nebulosas elípticas, ofrecían una visión que se podía asimilar a un “sistemade muchas estrellas” que se hallan a “enormes distancias”. Aquí, por primera vez se hizo un retrato del universo formado por galaxias a la deriva en  la vastedad del espacio cosmológico. El libro de Kant, titulado Historia general de la naturaleza y teoría del cielo, fue publicado -si esta es la palabra apropiada- en 1755, pero su editor quebró, los libros le fueron confiscados para sus deudas y la obra de Kant, cayó en el olvido.

 

 

Resultado de imagen de Kant y sus galaxias-islasResultado de imagen de Kant y sus galaxias-islas

 

 

Los entusiasmos galácticos de Kant, a pesar de todo, contribuyeron a sensibilizar la mente humana a la riqueza potencial y la vastedad del universo. Pero el arrobamiento por sí solo por muy perspicaz que sea, es, un fundamento inadecuado para fundamentar una cosmología científica. Determinar si el universo está constituido realmente por galaxias requería hacer un mapa del universo en tres dimensiones, mediante observaciones muy exactas, si no menos arrobadoras, que la contemplación meditativa de Lambert y Kant.

Entró en escena William Herschel, el primer astrónomo que llevó a cabo observaciones agudas y sistemáticas del universo más allá del Sistema solar, donde está la mayor parte de lo que existe. De hecho, en la primera parte del siglo XIX, miles de galaxias fueron identificadas y catalogadas por William y Caroline Herschel, y John Herschel. 1900, se han descubierto en exploraciones fotográficas gran cantidad de galaxias. Éstas, a enormes distancias de la Tierra, aparecen tan diminutas en una fotografía que resulta muy difícil distinguirlas de las estrellas. La mayor galaxia conocida tiene aproximadamente trece veces más estrellas que la Vía Láctea.

El observatorio espacial Herschel ha facilitado a un grupo de astrónomos observar cinco galaxias muy lejanas gracias al efecto lente gravitatoria. Así, de alguna manera, y en memoria de Herschel, el Telescopio que lleva su nombre continñua su que fue fundamental

 

 

 

 

En 1912 el astrónomo estadounidense Vesto M. Slipher, trabajando en el Observatorio Lowell de Arizona (EEUU), descubrió que las líneas espectrales de todas las galaxias se habían desplazado la región espectral roja. Su compatriota Edwin Hubble interpretó esto como una evidencia de que todas las galaxias se alejaban unas de otras y llegó a la conclusión de que el Universo se expandía. No se sabe si continuará expandiéndose o si contiene materia suficiente para frenar la expansión de las galaxias, de forma que éstas, finalmente, se junten de , parece que ésto último no sucederá nunca. La materia del Universo parece estar aproximadamente en la tasa del la Densidad Crítica. Si es así, el Universo se expandirá para siempre y tendrá una muerte térmica: El frío desolador del Cero Absoluto (-273 ºC) donde ni los átomos se mueven.

Es curioso como Herschel, encontró en su camino la plenitud siguiendo las huellas de Kepler y Galileo a través del puente que lo llevó de la Música a la Astronomía. La habilidad de Herschel como observador era también muy refinada; sabía utilizar los telescopios. Él decía: “Ver es un arte que es necesario aprender”.

 

 

 

 

“La luz de las estrellas fijas es de la misma naturaleza [que] la luz del Sol” nos decía Newton, mientras que E. Hubble, comentaba que: “Las observaciones siempre involucran una teoría”. Ambos llevaban razón. Surgieron dos escuelas de pensamiento sobre la naturaleza de las “nebulosas elípticas” que predominaron en el siglo XIX. Una de ellas, la teoría del universo-isla de Kant y Lambert- la expresión es de Kant-, sostenía qwue nuestro Sol  es una de las muchas estrellas de una Galaxia, la Vía mLáctea, y que hay otras muchas galaxias, que vemos a través de grandes extensiones de espacio nebulosas espirales y elípticas. (como eran llamadas en aquel tiempo a las galaxias que, no se podían ver con la nitidez que nos proporcionan nuestras modernos telescopios.)

Einstein entra en escena. Nació en Ulm, donde Kepler antaño había deambulado en busca de un impresor, con el manuscrito de las Tablas Rudolfinas Bajo el brazo. Einstein como sabemos, fue un niño aislado y encerrado en sí mismo. No habló los tres años. Daremos un salto hasta 1905, año en el que comenzaron a cristalizar sus pensamientos pudiendo escribir cuatro artículos memorables que lo situaron en ese lugar de privilegio de los verdaderos maestros.

N0, Einstein no llegó a la Física y la Cosmología en bicicleta, él cogió una autopista mayor, esa que está conformada por los pensamientos y que nos pueden llevar más lejos, de lo que cualquier vehículo nos podrá llevar nunca. El primero de aquellos -ahora famosos- artículos, fue publicado tres días después de cumplir los veintiseis años, contribuiría a poner los fundamentos de la física cuántica. Otro modificó el curso de la teoría atómica y la mecánica estadística. Los otros dos enunciaron lo que se conoció como la teoría de la relatividad especial.

Cuando Planck, por aquel entonces director editorial de la Revista científica Annalen der Physik, levantó la mirada después de leer el artículo sobre la relatividad especial, sabiendo inmediatamente que el mundo había cambiado. La era Newton había terminado y había surgido una nueva ciencia reemplazarla.

La odisea que llevó a Einstein hasta la relatividad especial -y de ella a la relatividad general, que expresaría la cosmología de los espacios curvos- empezó cuando tenía cinco años y su padre le mostró una brujula de bolsillo para que estuviera entretenido pero, aquello, le fascinó y, no podía saber qué magia hacia que la aguja señalara siempre hacisa el mismo lugar sin tener en el movimiento. Al preguntar, le dijeron que la Tierra está envuelta dentro de un campo magnético que era el responsable de tal “milagro” y, aquello, al joven Einstein, le maravilló y despertó su curiosidad que nunca le dejó entonces. Él decía que detrás de las cosas debe haber algo profundamente oculto, que nos podría explicar el por qué se comportan de ciertas maneras.

Como antes decía, en el siglo XX hemos podido ser testigos de múltiples y maravillosos descubrimientos científicos que han cambiado la concepción que del mundo podíamos tener: La teoría de Planck del cuanto que nos llevó directamente a la Mecánica Cuántica, el Relatividad de Einstein que nos lleva a un espacio-tiempo de cuatro dimensiones, nos dijo que la luz marcaba el límite de transmitir la información y, también, que la masa y la energía eran una misma cosa, así como que, ¡el Tiempo!, era relativo y no absoluto. Más tarde, en su ampliación de la teoría en 1916, nos dijo que la presencia de grandes masas distorsionaba el espacio-tiempo.

      Deformación de la malla espacio-tiempo

Estos dos claros exponentes de aquella revolución científica nos abrieron los ojos y la mente a un Universo distinto que , después de dichas teorías, tenía más sentido. Otro de aquellos descubrimientos explosivos, fue la teoría cosmológica del big bang, que surgió como combinación de ambas, y, justo es que se diga,  quienes fueron sus protagonistas que, no por sabido, estará demás dejar aquí un pequeño homenaje.

Cuando Einstein publicó en 1916 la teoría de la relatividad general era consciente de que ésta modificaría la universal de Newton: la solución a sus ecuaciones no sólo sustituyo el planteamiento dinámico de fuerza de atracción por otro geométrico de deformación del espacio-tiempo, sino que permitía explicar el universo en su conjunto.

Resultado de imagen de El Universo de Einstein

El Puente de Einstein-Rosen es una teoría creada por Albert Einstein.

Fue él el primer sorprendido al encontrar que dicha solución global traía como consecuencia un mundo cambiante, un universo que inicialmente estimó en contracción. Como esto no le cabía en la cabeza introdujo un término en las ecuaciones que contrarrestara el efecto gravitatorio: una fuerza repulsiva, a la que llamó constante cosmológica (Λ) constante dotaba al espacio vacío de una presión que mantenía separados a los astros, logrando así un mundo acorde a sus pensamientos: estático, finito, homogéneo e isótropo.

“La ecuación que gobierna la aceleración de la expansión del Universo, incluyendo la constante cosmológica. El aspecto de la gravedad incluye densidad (p) y presión (ρ) de la materia y la enegía, el signo negativo significa que este aspecto ralentiza la expansión. La constante cosmológica, representada con Λ, tiene signo positivo, por lo tanto contribuye a la aceleración. El parámetro “a” es un factor de escala que mide el tamaño del Universo, y los puntos dobles indican la segunda derivación (aceleración) con respecto al tiempo.”

 

 

Más tarde, Einstein comentaría que la introducción de constante, había sido el mayor error de su vida, porque (con una mejor estimación de la densidad) podía haber predicho la expansión del universo antes de que fuera observada experimentalmente. Claro que, su excusa era admisible, cuando el introdujo la constante cosmológica, nadie sabía que el universo estaba en expansión. Sin embargo, estudios posteriores han venido a confirmarla.

                             La Cruz de Einstein

Con todo y a pesar de su enorme importancia, la teoría de la relatividad no llegó a tener verdadera importancia hasta que, en 1919, Arthur Eddintong confirmó la predicción del físico alemán con respecto a la curvatura de la luz, aprovechó el eclipse solar de Sol de ese año. De la noche a la mañana, Einstein se convirtió en el físico más popular del mundo al predecir con su ingenio y con su enorme intuición fenómenos que eran reales antes de que éstos fueran comprobados. Así, con carácter desenfadado, expresándose en términos sencillos y muy distintos ( estirados) que los de sus colegas, había dado respuesta a preguntas que habían sido formuladas pero, que nadie hasta entonces, había sabido contestar.

El astrónomo holandés Willem de Sitter  obtuvo en 1917 una solución a las ecuaciones del sabio alemán, sugiriendo la posibilidad de que el universo fuera infinito, aparentemente estático y de densidad prácticamente nula en el que tan solo había energía. Por otro lado, el matemático ruso Alexander Friedmann consiguió en 1922 varias soluciones a las ecuaciones proponiendo universos que se contraían o que se expandían, según los valores que tomara la constante cosmológica. Cuando su se publicó en Alemania, Einstein respondió con una nota en la misma revista presumiendo un error matemático. El error resultó finalmente inexistente, pero Einstein tardó en rectificar, por lo que la respuesta de Friedmann quedó en un segundo plano.

Lo cierto es que Einstein, ha dado en el “blanco” con muchas de sus Ideas y, si pudiéramos coger una Gran Nave superlumínica y recorriéramos el espacio interestelar paseando por las distintas regiones del Universo, veríamos que – el vaticinó-,  todo es igual en todas partes: Cúmulos y supercúmulos de Galaxias, Galaxias cuajadas de estrellas en cúmulos y sueltas con sus sistemas planetarios, púlsares de giros alucinantes, magnéteres creando inmensos capos electromagnéticos, agujeros negros que se tragan todo lo que traspasa el Horizonte de suscesos, Hermosas y brillantes Nebulosas de las que surgen las nuevas estrellas, nuevos mundos y, muy probablemente… nuevas formas de vida.

Está claro que pensar siquiera en que en nuestro universo, dependiendo de la región en la que nos encontremos, habrá distintas leyes físicas, sería pensar en un universo chapuza. Lo sensato es pensar como Einstein y creer que en cualquier parte del universo rigen las mismas leyes físicas, hasta que no se encuentre pruebas reales a de lo contrario, los científicos suponen con prudencia que, sea cual fueren las causas responsables de las pautas que llamamos “Leyes de la Naturaleza”, es mucho más inteligente adoptar la creencia de la igualdad física en cualquier parte de nuestro universo por muy remota que se encuentre; los elementos primordiales que lo formaron fueron siempre los mismos.

File:Gravity Probe B.jpg

Arriba Satélite Gravity Probe B. Dedicado a medir la curvatura del campo gravitatorio terrestre debido a la teoría de la relatividad de Einstein. Abajo los científicos chinos comandados por Juan Yin crearon fotones entrelazados mediante la estimulación de un cristal con luz ultravioleta, que produjo  un par de fotones con la misma longitud de onda, pero opuestos. Por separado, ambas teorías funcionan muy bien y se pueden medir y comprobar límites excepcionales. Sin embargo, si las juntamos…

Resultado de imagen de Gravedad cuántica

Los “universos” de lo pequeño y lo grande parecen incompatibles. Sin embargo, en las cuerdas sí encajan

Cuando los físicos empezaron a apreciar el papel de las constantes en el dominio cuántico y explotar la nueva teoría de la gravedad de Einstein para describir el universo en conjunto, las circunstancias eran las adecuadas para que alguien tratara de casarlas. Y, entonces, en eso estamos pero, el casamiento, no se consuma.

Hay aspectos de la física que me dejan totalmente sin habla y quedan fuera de nuestra realidad que, inmersa en lo cotidiano de un mundo macroscópico, nos aleja de ese otro mundo misterioso e invisible donde residen los cuantos que con su comportamiento, me obligan a pensar y me transportan este mundo material nuestro a ese otro fascinante, donde residen las maravillas del universo, sus cimientos infinitesimales en los que residen las “ladrillos” de las estrellas y galaxias…también de los mundos y de los seres vivos. La materia es tan compleja que aún no hemos podido llegar a comprenderla…del todo.

emilio silvera

¡¡Feliz aniversario!!

$
0
0

Richard Feynman.

Richard Feynman, divulgador excepcional

Precisamente hoy se cumplen 100 años de su nacimiento, y, como Einstein y otros físicos excepcionales, quedará en la Historia de la Física por sus grandes ideas y su peculiar manera de divulgar esta rama de la Ciencia. Los alumnos se agolpaban para asistir a sus clases, un auténtico espectáculo.

 

Resultado de imagen de Richard Feynman en sus clases

 

Hacia un gran espectáculo de sus clases que, explicaba con gran pasión

 

“Este viernes, 11 de mayo, habría cumplido 100 años uno de los científicos más excéntricos de la historia. Y mira que hay para dar y tomar, pero Richard Feynman tenía una personalidad arrolladora, una manera de pensar nada convencional, un gran sentido del humor y una capacidad para divulgar la física que le convirtieron en una estrella mediática.”

 

¡Le recordamos con afgecto y admiración!

Velocidades inimaginables

$
0
0

En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.

Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividadespecial de Einstein.

Resultado de imagen de cuanto tarda la luz del sol en llegar a la luna

Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.

Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:

E = mc2

Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividadtuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividadtambién sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.

Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.

La formulación de newton es bien conocida, en la segunda imagen que se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.

Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.

Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.

Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.

Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.

Desde que se puso en órbita el telescopio espacial de rayos gamma Fermi, el 11 de junio de 2008, ha detectado poblaciones enteras de objetos nunca antes vistos. El último hallazgo de Fermi afecta al púlsar J1823-3021A, avistado en 1994 con el radiotelescopio Lovell, en Inglaterra. Un equipo internacional de expertos se ha dado cuenta de que esta estrella pulsante emite rayos gamma y gracias a Fermi ha podido caracterizar sus inusuales propiedades. Los resultados de su investigación se publican en el último número de Science. Lo cierto es que han descubierto el púlsar de milisegundos más joven y con la fuerza magnética más potente

Resultado de imagen de No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.

No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.

El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).

La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.

Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.

Resultado de imagen de Constante de estructura fina

La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.

En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.

También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).

La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.

  • La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
  • La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
  • Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.

Los gravitones son el bosón hipotético de la fuerza fundamental gravedad. Con esta partícula se podria unificar la mecánica cuántica y la teoría de la relatividad especial. Un dato interesante es que se según la teoría de cuerdas los gravitones están...

La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.

La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.

Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.

Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.

La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.

La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadronespara mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.

La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.

La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.

Resultado de imagen de Losa rayos cósmicos

Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.

Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.

Nombre Símbolo Masa (MeV) Carga Espín Vida media (s)
Fotón γ 0 0 1
Leptones (L = 1, B = 0)
Electrón e- 0’5109990 ½
Muón μ- 105’6584 ½ 2’1970 × 10-6
Tau τ
Neutrino electrónico νe ~ 0 0 ½ ~ ∞
Neutrino muónico νμ ~ 0 0 ½ ~ ∞
Neutrino tauónico ντ ~ 0 0 ½ ~ ∞
Mesones (L = 0, B = 0)
Pión + π+ 139’570 2’603 × 10-8
Pión – π- 139’570 2’603 × 10-8
Pión 0 π0 134’976 0’84 × 10-16
Kaón + k+ 493’68 1’237 × 10-8
Kaón – k- 493’68 1’237 × 10-8
Kaón largo kL 497’7 5’17 × 10-8
Kaón corto kS 497’7 0’893 × 10-10
Eta η 547’5 0 0 5’5 × 10-19
Bariones (L = 0, B = 1)
Protón p 938’2723 + ½
Neutrón n 939’5656 0 ½ 887
Lambda Λ 1.115’68 0 ½ 2’63 × 10-10
Sigma + Σ+ 1.189’4 + ½ 0’80 × 10-10
Sigma – Σ- 1.1974 ½ 7’4× 10-20
Sigma 0 Σ0 0 ½ 1’48 × 10-10
Ksi 0 Ξ0 1.314’9 0 ½ 2’9 × 10-10
Ksi – Ξ- 1.321’3 ½ 1’64 × 10-10
Omega – Ω- 1.672’4 0’82 × 10-10

Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con  y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π-, al igual que ocurre con k+ y k-. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.

Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.

Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.

Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planckh, dividido por . Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.

El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electronespudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.

Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.

Resultado de imagen de Los Bosones

En la segunda imagen podemos ver los signos del fotón, las W+, W- y Zº, así como el Gluon y por último, el reciente Bosón de Higgs. Cada una de estas partículas representan intermediación en las cuatro fuerzas fundamentales de la Naturaleza: El fotón las radiaciones electromagnéticas (la luz entre ellas), la W y Zº la fuerza nuclear electrodébil, los gluones la nuclear fuerte, el Bosón de Higgs que dicen proporciona la masa de las partíuclas, y, ausente está el gravitón, intermediario de la Gravedad que no ha podido ser hallado.

Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermionesse comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.

Resultado de imagen de Fermiones de espín semi-entero

En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.

Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.

Uno de los protones se transmuta en un neutrón por medio de la interacción débil, transformando un quark “up”, en “down”. Este proceso consume energía (el neutrón tiene ligeramente más masa que..

En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:

  • La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
  • Comparada con las demás interacciones, ésta tiene un alcance muy corto.
  • La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
  • Los mediadores de la interacción débil, llamados W+, W- y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.

A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).

Resultado de imagen de La interacción fuerte

La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.

Resultado de imagen de La interacción fuerte

Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).

La interacción es fuerte. En realidad, la más fuerte de todas.

Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento ha sido una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.

Existen esperanzas de que el LHC empleando energías más elevadas, nos pueda dar alguna sorpresa y encuentre objetos largamente perseguidos.

emilio silvera


El “universo” de las Partículas II

$
0
0

Estamos hablando de las partículas y no podemos dejar a un lado el tema del movimiento rotatorio de las mismas. Usualmente se ve cómo la partícula gira sobre su eje, a semejanza de un trompo, o como la Tierra o el Sol, o nuestra galaxia o, si se me permite decirlo, como el propio universo. En 1.925, los físicos holandeses George Eugene Uhlenbeck y Samuel Abraham Goudsmit aludieron por primera vez a esa rotación de las partículas. Éstas, al girar, generan un minúsculo campo electromagnético; tales campos han sido objeto de medidas y exploraciones, principalmente por parte del físico alemán Otto Stern y el físico norteamericano Isaac Rabi, quienes recibieron los premios Nobel de Física en 1.943 y 1.944 respectivamente, por sus trabajos sobre dicho fenómeno.

Resultado de imagen de Magnetismo de los electrones

Esas partículas (al igual que el protón, el neutrón y el electrón), que poseen espines que pueden medirse en números mitad, se consideran según un sistema de reglas elaboradas independientemente, en 1.926, por Fermi y Dirac; por ello, se las llama y conoce como estadísticas Fermi-dirac. Las partículas que obedecen a las mismas se denominan fermiones, por lo cual el protón, el electrón y el neutrón son todos fermiones.

Hay también partículas cuya rotación, al duplicarse, resulta igual a un número par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son bosones, como por ejemplo la partícula alfa.

Imagen relacionada

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de esta teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico dad. Dichas partículas (como dije antes) son bosones, que tienden a juntarse.

Los bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. Para bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de fermiones idénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.

Resultado de imagen de Espacio de dos dimensiones

En un espacio de dos dimensiones es posible que haya partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones. Estas partículas se conocen con el nombre de aniones; para aniones idénticos, la función de ondas no es simétrica (un cambio de fase de +1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1. Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

Resultado de imagen de El principio de exclusión de Pauli

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo estado cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7K) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos dorman una única entidad (un superátomo). Este efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender cómo forma  un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Resultado de imagen de los neutrones

Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en  definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Sea como fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

¿Qué es el antineutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos.

Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma forma que las partículas corrientes forman la materia ordinaria.

Resultado de imagen de La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un antideuterón. Desde entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros antinúcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, para tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

No parece que dichas observaciones fuesen un éxito. ¿Es posible que el universo esté formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? Dado que la materia y la antimateria son equivalente en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaría la otra, y el universo debería estar compuesto de iguales cantidades de la una y de la otra.

Resultado de imagen de La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

                              Aquí detectaron lograron encontrar la anti-materia por primera vez

Este es el dilema. La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los quásares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros, como el único mecanismo conocido para producir la energía requerida.

Con esto de la antimateria me ocurre igual que con el hecho, algunas veces planteado, de la composición de la materia en lugares lejanos del universo. “Ha caído una nave extraterrestre y nuestros científicos han comprobado que está hecha de un material desconocido, casi indestructible”. Este comentario se ha podido oír en alguna película de ciencia ficción. Podría ser verdad (un material desconocido), sin embargo, no porque la nave esté construida por una materia distinta, sino porque la aleación es distinta y más avanzada a partir de los materiales conocidos del universo. En cualquier parte del universo, por muy lejana que pueda estar, rigen los mismos principios y las mismas fuerzas: la materia y la energía son las mismas en cualquier parte. Lo único que puede diferir es la forma en que se utilice, el tratamiento que se le pueda dar, y sobre todo, el poseer el conocimiento y la tecnología necesarios para poder obtener el máximo resultado de las propiedades que dicha materia encierra, porque, en última instancia, ¿es en verdad inerte la materia?

El experimento Alpha para el estudio de la antimateria

 

 

El experimento Alpha para el estudio de la antimateria - Maximilien Brice / CERN

Todo lo que podemos ver en el Universo, sin excepción, está hecho de materia. Tiene y encierra tantos misterios la materia que estamos aún a años luz de saber y conocer sobre su verdadera naturaleza. Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos, pero que tampoco sabemos, en realidad, a qué son debidas. Sí, sabemos ponerles etiquetas como la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio, y con mayor frecuencia, en los elementos que conocemos como transuránidos.

Resultado de imagen de Transuránidos

A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de su ruptura, sobrepasando a la emisión de partículas alfa. ¡Parece que la materia está viva! Son muchas las cosas que desconocemos, y nuestra curiosidad nos empuja continuamente a buscar esas respuestas.

El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o el antineutrón), y por lo tanto, han sido denominados leptones (de la voz griega leptos, que dignifica “delgado”).

Aunque el electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1.940), el problema de su estructura, si la hay, aún no está resuelto. Conocemos su masa y su carga negativa que responden a 9’1093897 (54) × 10-31 Kg la primera, y 1’60217733 (49) × 10-19 culombios la segunda, y también su radio clásico r0 igual a e2/(mc2) = 2’82 × 10-13 cm. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve una carga eléctrica, sea la que fuese (sabemos cómo actúa y cómo medir sus propiedades, pero aún no sabemos qué es), que tenga asociada un mínimo de masa.

Lo cierto es que el electrón es una maravilla en sí mismo. El universo no sería como lo conocemos si el electrón fuese distinto a como es; bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.

Imagen relacionada

                                          Muchos granos de arena conforman la inmensa playa

¡No por pequeño se el insignificante!

Recordémoslo, todo lo grande está hecho de cosas pequeñas. En realidad, existen partículas que no tiene asociada ninguna masa en absoluto, es decir, ninguna masa en reposo. Por ejemplo, las ondas de luz y otras formas de radiación electromagnética se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones*). Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda, se denomina fotón, de la palabra griega que significa “luz”.

El fotón tiene una masa de 1, una carga eléctrica de 0, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma de que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este término se reserva para la familia formada por el electrón, el muón y la partícula tau, con sus correspondiente neutrinos: υe, υμ y υτ.

Imagen relacionada

Existen razones teóricas para suponer que cuando  las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitaciones. Esas ondas pueden, así mismo, poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.

La forma gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón, y por tanto, ha de ser inimaginablemente difícil de detectar.

Resultado de imagen de Detectando gravitones

   No será fácil detectar gravitones

De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm de longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas) desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegase a captar la cienbillonésima parte de un centímetro. Las débiles ondas de los gravitones, que proceden del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitacionales. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaron el hallazgo de Weber.

En cualquier caso, no creo que a estas alturas alguien pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es 0, su carga es 0, y su espín es 2. Como el fotón, no tiene antipartícula; ellos mismos hacen las dos versiones.

emilio silvera

El “universo” de las partículas I

$
0
0

¿Qué no será capaz de inventar el hombre para descubrir los misterios de la naturaleza?

Resultado de imagen de Rutherford encuentra la partícula alfa

Ha pasado mucho tiempo desde que Rutherford identificara la primera partícula nuclear (la partícula alfa). El camino ha sido largo y muy duro, con muchos intentos fallidos antes de ir consiguiendo los triunfos (los únicos que suenan), y muchos han sido los nombres que contribuyen para conseguir llegar al conocimiento que actualmente tenemos del átomo y del núcleo; los electrones circulando alrededor del núcleo, en sus diferentes niveles, con un núcleo compuesto de protones y neutrones que, a su vez, son constituidos por los quarks allí confinados por los gluones, las partículas mediadoras de la fuerza nuclear fuerte. Pero, ¿qué habrá más allá de los quarks?, ¿las supercuerdas vibrantes? Algún día se sabrá.

Partículas

Imagen relacionada

El universo de las partículas es fascinante. Cuando las partículas primarias chocan con átomos y moléculas en el aire, aplastan sus núcleos y producen toda clase de partículas secundarias. En esta radiación secundaria (aún muy energética) la que detectamos cerca de la Tierra, por los globos enviados a la atmósfera superior, han registrado la radiación primaria.

El físico estadounidense Robert Andrews Millikan, que recogió una gran cantidad de información acerca de esta radiación (y que le dio el nombre de rayos cósmicos), decidió que debería haber una clase de radiación electromagnética. Su poder de penetración era tal que, parte del mismo, atravesaba muchos centímetros de plomo. Para Millikan, esto sugería que la radiación se parecía a la de los penetrantes rayos gamma, pero con una longitud de onda más corta.

Resultado de imagen de Los rayos cósmicos que llegan a la Tierra

Otros, sobre todo el físico norteamericano Holly Compton, no estaban de acuerdo en que los rayos cósmicos fuesen partículas. Había un medio para investigar este asunto; si se trataba de partículas cargadas, deberían ser rechazadas por el campo magnético de la Tierra al aproximarse a nuestro planeta desde el espacio exterior. Compton estudió las mediciones de la radiación cósmica en varias latitudes y descubrió que en realidad se curvaban con el campo magnético: era más débil cera del ecuador magnético y más fuerte cerca de los polos, donde las líneas de fuerza magnética se hundían más en la Tierra.

Las partículas cósmicas primarias, cuando entran en nuestra atmósfera, llevan consigo unas energías fantásticas, muy elevadas. En general, cuanto más pesado es el núcleo, más raro resulta entre las partículas cósmicas. Núcleos tan complejos como los que forman los átomos de hierro se detectaron con rapidez; en 1.968, otros núcleos como el del uranio. Los núcleos de uranio constituyen sólo una partícula entre 10 millones. También se incluirán aquí electrones de muy elevada energía.

Resultado de imagen de Se  descubre el Positrón

Ahora bien, la siguiente partícula inédita (después del neutrón) se descubrió en los rayos cósmicos. A decir verdad, cierto físico teórico había predicho ya este descubrimiento. Paul Adrien Dirac había aducido, fundándose en un análisis matemático de las propiedades inherentes a las partículas subatómicas, que cada partícula debería tener su antipartícula (los científicos desean no sólo que la naturaleza sea simple, sino también simétrica). Así pues, debería haber un antielectrón, salvo por su carga que sería positiva y no negativa, idéntico al electrón; y un antiprotón, con carga negativa en vez de positiva.

En 1.930, cuando Dirac expuso su teoría, no llamó demasiado la atención en el mundo de la ciencia. Pero, fiel a la cita, dos años después apareció el antielectrón. Por entonces, el físico americano Carl David Anderson trabajaba con Millikan en un intento por averiguar si los rayos cósmicos eran radiación electromagnética o partículas. Por aquellas fechas, casi todo el mundo estaba dispuesto a aceptar las pruebas presentadas por Compton, según las cuales, se trataría de partículas cargadas; pero Millikan no acababa de darse por satisfecho con tal solución.

Anderson se propuso averiguar si los rayos cósmicos que penetraban en una cámara de ionización se curvaban bajo la acción de un potente campo magnético. Al objeto de frenar dichos rayos lo suficiente como para detectar la curvatura, si la había, puso en la cámara una barrera de plomo de 6’35 mm de espesor. Descubrió que, cuando cruzaba el plomo, la radiación cósmica trazaba una estela curva a través de la cámara; y descubrió algo más. A su paso por el plomo, los rayos cósmicos energéticos arrancaban partículas de los átomos de plomo. Una de esas partículas dejó una estela similar a la del electrón. ¡Allí estaba, pues, el antielectrón de Dirac! Anderson le dio el nombre de positrón. Tenemos aquí un ejemplo de radiación secundaria producida por rayos cósmicos. Pero aún había más, pues en 1.963 se descubrió que los positrones figuraban también entre las radiaciones primarias.

Abandonado a sus propios medios, el positrón es tan estable como el electrón (¿y por qué no habría de serlo si el idéntico al electrón, excepto en su carga eléctrica?). Además, su existencia puede ser indefinida. Ahora bien, en realidad no queda abandonado nunca a sus propios medios, ya que se mueve en un universo repleto de electrones. Apenas inicia su veloz carrera (cuya duración ronda la millonésima de segundo), se encuentra ya con uno.

Así, durante un momento relampagueante quedaron asociados el electrón y el positrón; ambas partículas girarán en torno a un centro de fuerza común. En 1.945, el físico americano Arthur Edwed Ruark sugirió que se diera el nombre de positronio a este sistema de dos partículas, y en 1.951, el físico americano de origen austriaco  Martin Deutsch consiguió detectarlo guiándose por los rayos gamma característicos del conjunto.

Pero no nos confundamos, aunque se forme un sistema positronio, su existencia durará, como máximo, una diezmillonésima de segundo. El encuentro del electrón-positrón provoca un aniquilamiento mutuo; sólo queda energía en forma de radiación gamma. Ocurre pues, tal como había sugerido Einstein: la materia puede convertirse en energía y viceversa. Por cierto, que Anderson consiguió detectar muy pronto el fenómeno inverso: desaparición súbita de rayos gamma para dar origen a una pareja electrón-positrón. Este fenómeno se llama producción en pareja. Anderson compartió con Hess el premio Nobel de Física de 1.936.

Poco después, los Joliot-Curie detectaron el positrón por otros medios, y al hacerlo así realizaron, de paso, un importante descubrimiento. Al bombardear los átomos de aluminio con partículas alfa, descubrieron que con tal sistema no sólo se obtenían protones, sino también positrones. Cuando suspendieron el bombardeo, el aluminio siguió emitiendo positrones, emisión que sólo con el tiempo se debilitó. Aparentemente habían creado, sin proponérselo, una nueva sustancia radiactiva. He aquí la interpretación de lo ocurrido según los Joliot-Curie: cuando un núcleo de aluminio absorbe una partícula alfa, la adición de los dos protones transforma el aluminio (número atómico 13) en fósforo (número atómico 15). Puesto que las partículas alfa contienen cuatro nucleones en total, el número masivo se eleva 4 unidades, es decir, del aluminio 27 al fósforo 31. Ahora bien, si al reaccionar se expulsa un protón de ese núcleo, la reducción en una unidad de sus números atómicos y masivos hará surgir otro elemento, o sea, el silicio 30.

Puesto que la partícula alfa es el núcleo del helio, y un protón es el núcleo del hidrógeno, podemos escribir la siguiente ecuación de esta reacción nuclear:

aluminio 27 + helio 4 = silicio 30 + hidrógeno 1

Nótese que los números másicos se equilibran:

27 + 4 = 30 + 1

Adentrarse en el universo de las partículas que componen los elementos de la tabla periódica, y en definitiva, la materia conocida, es verdaderamente fantástico.

Tan pronto como los Joliot-Curie crearon el primer isótopo radiactivo artificial, los físicos se lanzaron en tropel a producir tribus enteras de ellas. En realidad, las variedades radiactivas de cada elemento en la tabla periódica son producto de laboratorio. En la moderna tabla periódica, cada elemento es una familia con miembros estables e inestables, algunos procedentes de la naturaleza, otros sólo del laboratorio. Por ejemplo, el hidrógeno presenta tres variedades: en primer lugar, el corriente, que tienen un solo protón. En 1.932, el químico Harold Urey logró aislar el segundo. Lo consiguió sometiendo a lenta evaporación una gran cantidad de agua, de acuerdo con la teoría de que los residuos representarían una concentración de la forma más pesada del hidrógeno que se conocía, y, en efecto, cuando se examinaron al espectroscopio las últimas gotas de agua no evaporadas, se descubrió en el espectro una leve línea cuya posición matemática revelaba la presencia de hidrógeno pesado.

El núcleo de hidrógeno pesado está constituido por un protón y un neutrón. Como tiene un número másico de 2, el isótopo es hidrógeno. Urey llamó a este átomo deuterio (de la voz griega deutoros, “segundo”), y el núcleo deuterón. Una molécula de agua que contenga deuterio se denomina agua pesada, que tiene puntos de ebullición y congelación superiores al agua ordinaria, ya que la masa del deuterio es dos veces mayor que la del hidrógeno corriente. Mientras que ésta hierve a 100º C y se congela a 0º C, el agua pesada hierve a 101’42º C y se congela a 3’79º C. El punto de ebullición del deuterio es de -23’7º K, frente a los 20’4º K del hidrógeno corriente. El deuterio se presenta en la naturaleza en la proporción de una parte por cada 6.000 partes de hidrógeno corriente. En 1.934 se otorgó a Urey el premio Nobel de Química por su descubrimiento del deuterio.

El deuterio resultó ser una partícula muy valiosa para bombardear los núcleos. En 1.934, el físico australiano Marcus Lawrence Edwin Oliphant y el austriaco P. Harteck atacaron el deuterio con deuterones y produjeron una tercera forma de hidrógeno, constituido por un protón y dos neutrones. La reacción se planteó así:

hidrógeno 2 + hidrógeno 2 = hidrógeno 3 + hidrógeno 1

Este nuevo hidrógeno superpesado se denominó tritio (del griego tritos, “tercero”); su ebullición a 25º K y su fusión  a 20’5º K.

Como es mi costumbre, me desvío del tema y sin poderlo evitar, mis ideas (que parecen tener vida propia), cogen los caminos más diversos. Basta con que se cruce en el camino del trabajo que realizo un fugaz recuerdo; lo sigo y me lleva a destinos distintos de los que me propuse al comenzar. Así, en este caso, me pasé a la química, que también me gusta mucho y está directamente relacionada con la física; de hecho son hermanas: la madre, las matemáticas, la única que finalmente lo podrá explicar todo.

emilio silvera

Algunos desarrollos de la Física Teórica…Son notables

$
0
0

Hasta hace muy pocos años la Gravitación y la Mecánica Cuántica eran dos campos de la Física Teórica que utilizaban metodologías muy distintas y que estaban prácticamente desconectados entre sí. Por una parte, la interacción gravitatoria está descrita por la Teoría de la Relatividad General de Einstein, que es una teoría clásica (es decir, no cuántica) en la que la Gravedad se representa como una propiedad geométrica del espacio y del tiempo. Por otro lado, gobierna el mundo de las partículas atómicas y subatómicas. Su generalización relativista (la Teoría Cuántica de Campos) incorpora los principios de la Teoría Especial Relativista y, junto con el principio gauge, ha permitido construir con extraordinario éxito el llamado Modelo Estándar de la Física de las Partículas Elementales.

Resultado de imagen de El Modelo Estandar de la f´çisica de partículas

Con sus 20 parámetros aleatorios (parece que uno de ellos ha sido hallado -el bosón de Higgs-), el Modelo estándar de la física de partículas que incluye … sólo tres de las cuatro fuarzas fundamentales. La Gravedad se niega a juntarse con las otras fuerzas.

La interacción electromagnética, por ejemplo, es la responsable de las fuerzas que controlan la estructura atómica, reacciones químicas y todos los fenómenos electromagnéticos. Puede explicar las fuerzas entre las partículas cargadas, pero al contrario que las interacciones gravitacionales, pueden ser tanto atractivas como repulsivas. Algunas partículas neutras se desintegran por interacciones electromagnéticas. La interacción se puede interpretar tanto como un modelo clásico de fuerzas (ley de Coulomb) como por el intercambio de unos fotones virtuales. Igual que en las interacciones gravitatorias, el hecho de que las interacciones electromagnéticas sean de largo alcance significa que tiene una teoría clásica bien definida dadas por las ecuaciones de Maxwell. La teoría cuántica de las interacciones electromagnéticas se describe con la electrodinámica cuántica, que es una forma sencilla de teoría gauge.

Imagen relacionada

            El electromagnetismo está presente por todo el Universo

La interacción fuerte es unas 102 veces mayor que la interacción electromagnética y, como ya se dijo antes, aparece sólo entre los hadrones y es la responsable de las fuerzas entre nucleones que confiere a los núcleos de los átomos su gran estabilidad. Actúa a muy corta distancia dentro del núcleo (10-15 metros) y se puede interpretar como una interacción mediada por el intercambio de mesones virtuales llamados Gluones. Está descrita por una teoría gauge llamada Cromodinámica cuántica.

Las teorías gauge explican satisfactoriamente la dinámica de las interacciones electromagnéticas, fuertes y débiles en un gran rango de distancias. Sin embargo, a pesar que la Teoría General de la Relatividad puede formularse como una teoría gauge, todos los intentos de introducir en ella de manera completamente satisfactoria los principios de la Mecánica Cuántica, han fracasado. No obstante, los desarrollos realizados en el marco de la Teoría de Cuerdas en los últimos años han dado lugar a una convergencia, al menos metodológica, entre estos dos campos de la Física Fundamental.

https://ponungeologentuvida.files.wordpress.com/2012/04/teoria-del-big-bang.jpg

                        Lo cierto es que buscamos incansables para saber de qué está hecho el “mundo”

La piedra angular de esta inesperada conexión es la llamada correspondencia gravedad/teoría gauge. En su forma más genérica dicha correspondencia afirma que la dinámica de ciertas teorías cuánticas de campos sin gravedad puede ser descrita por medio de una teoría gravitatoria en un espacio-tiempo que contiene al menos una dimensión adicional.

Para poder comprender con claridad los orígenes y las consecuencias de tan sorprendente relación entre teorías tan diferentes, es interesante recordar como fue descubierta en el contexto de la Teoría de Cuerdas. la Teoría de cuerdas tiene su origen en los años 60-70 como un intento de describir los hadrones(partículas elementales que experimentan interacción fuerte) como estados de una cuerda en movimiento.

                ¡Teoría de cuerdas! (¿)

La longitud de la cuerda se puede identificar con el tamaño del hadrón y sería del orden del fermi (10-15metros). Sin embargo, al analizar en detalle el espectro de modos de vibración de las cuerdas cerradas se descubrió que estas contienen una partícula de espín 2 y masa nula…(¿el gravitón?) que no se corresponde con ningún hadrón y que, en cambio, se identifica de manera natural con el gravitón (el cuanto fundamental de la interacción gravitatoria). De esta forma la Teoría de Cuerdas pasó de ser considerada una teoría de las interacciones fuertes a ser una posible teoría de unificación de las cuatro interacciones fundamentales de la Naturaleza a una escala mucho más pequeña: La longitud de Planck(10-35 metros).

La longitud de Planck se define como:

<br />
\ell_P =<br />
\sqrt\frac{\hbar G}{c^3} \approx<br />
1.616 199 (97) \times 10^{-35} \mbox{ metros}<br />

donde c es la velocidad de la luz en el vacío, G es la constante de gravitación universal, y \hbar es la Constante de Planck racionalizada o reducida.

Una consecuencia sorprendente del estudio cuántico de la cuerda es que ésta debe propagarse en un espacio-tiempo de diez dimensiones. La métrica de dicho espacio-tiempo está también fuertemente constreñida. De hecho, la consistencia mecano-cuántica del movimiento de la cuerda en un espacio curvo impone que la métrica de este debe satisfacer unas ecuaciones que,  en el límite en el que la longitud de la cuerda se considera muy pequeña, se reducen a las ecuaciones de Einstein de la relatividad general. Así pues, las ecuaciones fundamentales de la gravedad clásica en diez dimensiones se puede obtener de la dinámica cuántica de la cuerda.

En los años noventa se descubrió que el espectro de la Teoría de Cuerdas contiene, además de los modos de vibración asociados a las diferentes partículas, otros estados que están extendidos a lo largo de varias dimensiones espacio-temporales. Dichos espacios se denominan Branas y son paredes de dominio en el espacio-tiempo diez-dimensional que corresponden a estados no-perturbativos de la Teoría de Cuerdqas similares a los solitones de las teorías cuánticas de campo. En particular, las denominadas Dp-Branas son objetos que pueden estar extendidos a lo largo de p dimensiones espaciales y una temporal para 0 ≤ p ≤ 9. Uno puede imaginárselas como hiperplanos (p+1)-dimensionales. En particular la D3-Branas están extendidas a lo largo de cuatro dimensiones (tres espaciales y una temporal).

 

Claro, todo es pura conjetura (hasta que no sea verificado de forma experimental). Increíblemente el mundo de las branas es tan colosalmente extraño como lo es el infinitecimal mundo de las partículas cuánticas, con la salvedad de que, al tratar de objetos aún más pequeños, es decir aquellos que posiblemente existan más allá de los Quarks, la fascinación sube de tono al toparnos con un universo de cosas “imposibles”, bueno, mejor alejado de lo que nos dice el sentido común que (está visto),  no es el mejor de los sentidos.

Las D-branas aparecen en muchas discusiones modernas relacionadas con las cuerdas (por ejemplo, en la entropía de los agujeros negros). Suelen tratarse como si fueran objetos clásicos que yacen dentro del espacio-tiempo completo 1 + 9 (o 1 + 10) dimensiones. La “D” viene de “Dirichlet”, por analogía con el tipo de problema de valor de frontera conocido como un problema de Dirichlet, en el que hay una frontera de género tiempo sobre la que se especifican datos (según Peter G. Lejeune Dirichlet, un eminente matemático francés que vivió entre 1.805 y 1.859).

Imagen
Imagen

                     No resulta fácil para nosotros imaginar el Mundo Brana

Las D-Branas son objetos dinámicos que pueden moverse, deformarse y cambiar de estado interno. Una de sus características fundamentales es que este último está caracterizado por un campo gauge que viv3e en su interior. Así podremos decir que las D-Branas albergan teorías de gauge en su seno. Esta es una realización novedosa de la simwetría gauge que está en la base de la correspondencia gravedad/teoría gauge. Además, dado que la Teoría de Cuerdas es una teoría gravitatoria, cualquier objeto masivo (y en particular las D-Branas) tiene asociado una métrica que describe la distorsión gravitatoria del espacio-tiempo en torno a él. En el caso de las D-Branas estas métricas son fáciles de encontrar y son similares a la clásica solución de Schwazschild de la relatividad general. En 1997 el joven físico argentino Juan Maldacena sugirió  utilizar esta solución de gravedad para describir la teoría gauge que vive en las D-Branas.

¿Podría ser nuestro universo una membrana flotando en un espacio de más dimensiones, que se rompe muchas veces en un universo circundante? Según una rama de la teoría de las cuerdas llamada braneword, hay una gran cantidad de dimensiones extra de espacio, y aunque la gravedad puede llegar a salir, nosotros estamos confinados a nuestro propio universo “brana”, con sólo tres dimensiones. Neil Turok, de la Universidad de Cambridge en el Reino Unido, y Paul Steinhardt, de la Universidad de Princeton en Nueva Jersey, EE.UU., han trabajado en cómo el Big Bang se podría haber provocado cuando nuestro universo se enfrentó violentamente con otro. Se repite el enfrentamiento, produciendo un nuevo Big Bang de vez en cuando, por lo que si el modelo del universo cíclico es correcto, el cosmos puede ser inmortal. ¡Por imaginar que no quede!

Sólo vamos a ser conscientes de dimensiones extra allí donde inciden directamente sobre las D-brana en la que “vivimos”. Más que una imagen de tipo “espacio cociente” que evoca la analogía de Kaluza-Kleinoriginal: El gráfico representa un modelo de manguera de un espacio-tiempo de dimensiones más altas de tipo Kaluza-Klein, donde la longitud, o mejor, la dimensión a lo largo de la longitud de la manguera representa el 4-espacio-tiempo normal, y la dimensión alrededor de la manguera representa la dimensión extra “pequeñas” (quizá escala de Planck). Imaginemos un “ser” que habite en este mundo, que rebasa estas dimensiones extra “pequeñas”, y por ello no es realmente consciente de ellas.

Resultado de imagen de En la propuesta de Maldacena de las dos descripciones (gauge y gravitatoria) son duales y complementarias entre sí.

En la propuesta de Maldacena de las dos descripciones (gauge y gravitatoria) son duales y complementarias entre sí. En principio nos puede parecer confusa la afirmación de que la gravedad juega un papel relevante en la física de la teoría gauge. En los cursos de física nosm enseñan que la gravedad es mucho más débil que las otras fuerzas, y que, por lo tanto, su efecto es despreciable salvo a distancias realmente pequeñas o masas realmente grandes. Para resolver esta paradoja hay que tener en cuenta que la gravedad de la que estamos hablando no es la de nuestro universo aproximadamente plano y (posiblemente) con una pequeña constante cosmológica positiva, sino que se trata de una teorìa auxiliar en más de cuatro dimensiones y con constante cosmológica negativa.

Para seguir explicando el tema, mucho tendríamos que escribir. Sin embargo, quede aquí esta entrada que, al menos, puede despertar alguna curiosidad en los lectores que, aconsejados por lo leido, busquen más sobre el tema que, sin duda alguna, llega a ser fascinante.

Fuente: Muchos de los párrafos aquí insertos, han sido transcritos de un trabajo de Alfon V Ramallo del Departamento de Física de Partículas de la Universidad de Santiago de Compostela.

PD.

Aclaración: Cuando mencionamos una teoría gauge, lo estamos haciendo de cualquiera de las teorías cuánticas de campos creadas para explicar las interacciones fundamentales. Una teoría gauge requiere un grupo de simetría para los campos y los potenciales (el grupo gauge). En el caso de la electrodinámica, el grupo es abeliano, mientras que las teorías gauge para las interacciones fuertes y débiles utilizan grupos no abelianos. Las teorías gauge no abelianas son conocidas como teorías de Yang-Mills. esta diferencia explñica por qué la electrodinámica cuántica es una teoría mucho más simple que la cromodinámica cuántica, que describe las interacciones fuertes, y la teoría electrodébil, que es la teoría unificada de las interacciones débiles y las electromagnéticas. En el caso de la Gravedad Cuántica, el Grupo Gauge es mucho más complicado que los grupos gauge tanto de las interacciones fuertes como de las débiles.

¡La Física! ¡Qué complejidad!

emilio silvera

¿La Física? Mucho más de lo que nos pueda parecer

$
0
0

Para ser llamado científico, un método de investigación debe basarse en lo empírico y en la medición, sujeto a los principios específicos de las pruebas y el razonamiento, hay que demostrar con certeza la teoría.

Empecé a estudiar física hace ahora unos 50 años. Y poco a poco he ido viendo  que una parte de la física iba dejando de ser ciencia, olvidando el método de Galileo, y avanzando hacia un sistema dogmático, místico e iniciático.  Recordemos que el método dogmático es aquel en el cual se exige aceptar una afirmación que no esta apoyada en ningún hecho comprobable: La afirmación de que las tablas de la ley las había entregado una deidad, por ejemplo.  Hoy es imposible, en el campo de la física, no aceptar la afirmación incomprobable, de que el mundo empezó en un Big-Bang, con una cierta energía que no se sabe que era, y moviéndose de una forma que exige un razonamiento circular que pasa de energía a frecuencias de algo que se desconoce,  a energías de caracter desconocido a frecuencias de ….., y así indefinidamente.

 Resultado de imagen de Imagen del Big Bang

¿Qué produjo el Big Bang? ¿Qué había antes allí?

Pero como con las tablas de la ley, nadie puede subir a la montaña a verificar las afirmaciones expresadas, que sin embargo hay que creer bajo pena de excomunión. Nadie puede volar en el tiempo hacia atrás hasta hace unos miles de millones de años, para verificar la hipótesis.

El sistema avanza hacia el misticismo: ¿Que otra cosa  es la idea de las supercuerdas, una idea que para Steven Weinberg, padre de la Gran Unificacion, era ilusionante, pero se ha revelado incapaz de tener algo que ver con la realidad?  O la SUSY, la supersimetría que postula que, por ejemplo, los electrones, con spin fraccionario, tengan simétricos con spin entero, selectrones que nadie ha medido ni de lejos.

Y se está convirtiendo en iniciático. Para ”descubrir” el Higgs, el CERN cerró las puertas y aisló a sus dos equipos durante años, en un sistema indigno de la idea de la ciencia, que había sido pública y abierta para todos hasta ese momento. El CERN ha publicado los resultados de sus dos equipos pero, o estoy muy equivocado, no ha distribuido los datos originales, las fotografías de las trazas de los productos de desintegració.  (Si, dos veces, pues si hay Higgs, ¿a qué tanto misterio?

Sólo vemos los productos de los productos de la desaparición de la partícula buscada.  En las sociedades místicas, tras un periodo de iniciación para los elegidos, las verdades se revelaban siempre en ceremonias secretas bajo la terrible promesa de no revelar los ritos nunca fuera de la institución.

Otro de los padres de la Gran Unificación, el físico Abdus Salam, daba como razón poderosa para la búsqueda de la misma su fé en un único dios. Según él, la naturaleza debería tener una única fuerza, correspondiente a esa única deidad.

El padre de la mecánica cuántica, Niels Bohr, apremiado por Einstein, entre otros, llegó a decir que de esa forma de analizar el mundo atómico y sub-atómico,  de esa mecánica cuántica había que tomar las reglas de cálculo, pero que había que renunciar a entender lo que pasaba en él.  Esto dicho por un supuesto científico que había renunciado a entender la naturaleza, pero que controló, hasta su muerte, la concesión de los premios Nobel de física.

Es tremendamente importante considerar esto que he escrito aquí, en todos los caminos de la ciencia. Hoy la presión es publicar, aunque lo que se publique sea mera copia no entendida de otros trabajos publicados anterior o simultáneamente.  Esos trabajos se acumulan en las revistas científicas, de donde no salen a las empresas ni hacia la técnica. Los resultados de un enorme tanto por ciento de la investigación no son aprovechados por aquellos que la han financiado, que dejan que esos resultados caigan en el olvido.

Mientras que miles de científicos trabajan de manera seria e incansable sobre asuntos y proyectos reales que, en su momento, darán una respuesta y en sus trabajos de laboratorio,  sus resultados se aprovechan para la sociedad, otros cientos de miles de ellos, destinan inmensas cantidades de dinero y esfuerzo que se desperdician en desarrollos místicos sin utilidad alguna. Antes de acometer un proyecto habría que ver las posibilidades reales de los mismos.

Claro que, pensándolo bien, tampoco Colón sabía hacia donde iba cuando emprendió su viaje.

Edward Witten revisita la teoría de supercuerdas perturbativa en Strings 2012.

“Me gusta esta figura porque muestra muy claramente lo que conocemos en física de partículas, lo que esperamos explorar en las próximas décadas, y lo que creemos conocer, aunque nunca llegaremos a explorar de forma directa. La partícula con más masa conocida tiene menos de 200 GeV y todavía se sigue explorando entre 10 a 200 GeV en busca de nuevas partículas. Basta recordar que se acaba de descubrir una partícula con 125 GeV de masa, el bosón de Higgs, y que muchos físicos creen que la partícula responsable de la materia oscura tiene una masa en este rango. El LHC y sus sucesores en las próximas décadas explorarán las energías entre 100 y 5000 GeV (difícilmente podrán llegar más lejos). Sin embargo, hay un desierto hasta energías de 10 000 000 000 GeV (la escala de Planck) que no hemos explorado, que no podremos explorar en el siglo XXI y del que no conocemos absolutamente nada,”

 

 

Dibujo20151124 iter construction 2015

 

“Bernard Bigot, director general de ITER, el reactor de fusión experimental que se está construyendo en Cadarache, Francia, ha anunciado que la primera inyección de plasma (que marca el final de su construcción) se retrasará hasta 2025. Recuerda que el proyecto se inició en 2006 y se planificó la primera inyección de plasma para 2016, pero en 2010 se retrasó hasta 2019.”

A veces, queremos imitar la Naturaleza sin llegar a ser conscientes de que, nunca la podremos igualar. ¿Qué materiales aquí en la Tierra podrían soportar temperaturas de millones de grados sin deteriorarse).”

Aún hay ciencia. Pero hay disciplinas que se están, tristemente, alejando de ella aunque se consideran públicamente, y así lo afirman, como los que marcan el camino del futuro de la misma. Terminarán olvidadas, como ha ocurrido con toda la mística iniciática. Pero de momento aún nos dicen, como los sufíes, que son los únicos que están cerca de la verdad.

La Ciencia es una cosa de la que todos sabemos como anda sus caminos y cuando se puede considerar digna de su nombre, otra cosa muy distinta será el especular y aventurar “teorías” que no llegan a ninguna parte, toda vez que tienen la imposibilidad de ser demostradas y, eso, amigos míos, es como hablar de la existencia de Dios.

Partículas, antipartículas, fuerzas…

$
0
0

Bajo la “definición basada en quarks y leptones”, las partículas elementales y compuestas formadas de quarks (en púrpura) y leptones (en verde) serían la “materia”; mientras los bosones “izquierda” (en rojo) no serían materia. Sin embargo, la energía de interacción inherente a partículas compuestas (por ejemplo, gluones, que implica a los neutrones y los protones) contribuye a la masa de la materia ordinaria.

 

 

 

File:Annihilation.png

 

Esquema de una aniquilación electrón-positrón.

 

Ya hemos descrito en trabajos anteriores las dos familias de partículas elementales: Quarks y Leptones. Pero hasta ahí, no se limita la sociedad del “universo” infinitesimal. Existen además las antifamilias. A quarks y electrones se asocian, por ejemplo, antiquarks y antielectrones. A cada partícula, una antipartícula.

Uno de los primeros éxitos de la teoría relativista del campo cuántico fue la predicción de las anti-partículas: nuevos cuantos que eran la imagen especular de las partículas ordinarias. Las antipartículas tienen la misma masa y el mismo spin que sus compañeras las partículas ordinarias, pero cargas inversas. La antipartícula del electrón es el positrón, y tiene, por tanto, carga eléctrica opuesta a la del electrón. Si electrones y positrones se colocan juntos, se aniquilan, liberando la energía inmensa de su masa según la equivalencia masa-energía einsteniana.

                      Una partícula y su antipartícula no pueden coexistir: hay aniquilación de ambas.

¿Cómo predijeron los físicos la existencia de antipartículas? Bueno, por la «interpretación estadística» implicaba que la intensidad de un campo determinaba la probabilidad de hallar sus partículas correspondientes. Así pues, podemos imaginar un campo en un punto del espacio describiendo la creación o aniquilación de sus partículas cuánticas con una probabilidad concreta. Si esta descripción matemática de la creación y aniquilación de partículas cuánticas se inserta en el marco de la teoría relativista del campo cuántico, no podemos contar con la posibilidad de crear una partícula cuántica sin tener también la de crear un nuevo género de partícula: su antipartícula. La existencia de antimateria es imprescindible para una descripción matemáticamente coherente del proceso de creación y aniquilación según la teoría de la relatividad y la teoría cuántica.

La misteriosa sustancia

conocida como “materia oscura” puede ser en realidad una ilusión, creada por la interacción gravitacional entre partículas de corta vida de materia y antimateria. Un mar hirviente de partículas en el espacio puede crear la gravedad repulsiva.

Algunas no se paran en barra, y, por sobresalir y obtener unos minutos de gloria, son capaces de cualquier cosa. El verdadero físico, ante este cartel, quedó asombrado y se preopueso investigar de quá iba todo aquello.

“Investigando un poco, la historia, hasta donde puedo determinarla, es que Alejandro Gallardo es un estudiante de la Facultad de Ingeniería de la UNAM, que está (o quiźa estaba) por presentar su examen de grado en estos días (sin ningún sinodal del área de gravitación) y que tiene alguna relación con la sociedad de astrónomos aficionados que ostensiblemente organizaba la conferencia. Desde hace al menos diez años labora en un intento de describir una fuerza de repulsión gravitatoria usando álgebra elemental, falsando así tanto la gravedad Newtoniana como la Relatividad General. En esto es similar a innumerables personas que hacen ciencia marginal o pseudociencia (entendida como algo que no es ciencia pero que pretende hacerse pasar por ciencia).”

Resultado de imagen de Puede ser posible que las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la "materia oscura". La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto

Puede ser posible que las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la “materia oscura”. La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto. Como consecuencia, los pares de partícula-antipartícula virtuales en el vacío cuántico y sus dipolos de forma gravitacional (una carga gravitacional positivos y negativos) pueden interactuar con la materia bariónica para producir fenómenos que se suele atribuir a la materia oscura. Fue el  físico del CERN, Dragan Slavkov Hajdukovic, quien propuso la idea, y demostró matemáticamente que estos dipolos gravitacionales podrían explicar las curvas de rotación de las galaxias observadas sin la materia oscura en su estudio inicial. Sin embargo,  señaló que quedaba mucho por hacer.

Pero sigamos con la cuántica…

El pionero en comprender que era necesario que existiesen antipartículas fue el físico teórico Paul Dirac, que hizo varías aportaciones importantes a la nueva teoría cuántica. Fue él quien formuló la ecuación relativista que lleva hoy su nombre, y a la que obedece el campo electrónico; constituye un descubrimiento comparable al de las ecuaciones del campo electromagnético de Maxwell. Cuando resolvió su ecuación, Dirac se encontró con que además de describir el electrón tenía soluciones adicionales que describían otra partícula con una carga eléctrica opuesta a la del electrón. ¿Qué significaría aquello? En la época en que Dirac hizo esta observación, no se conocían más partículas con esta propiedad que el protón. Dirac, que no deseaba que las partículas conocidas proliferasen, decidió que las soluciones adicionales de su ecuación describían el protón.

{\displaystyle \left(\alpha _{0}mc^{2}+\sum _{j=1}^{3}\alpha _{j}p_{j}\,c\right)\psi (\mathbf {x} ,t)=i\hbar {\frac {\partial \psi }{\partial t}}(\mathbf {x} ,t)}

“La llamada ecuación de Dirac es la versión relativista de la ecuación de ondas de la mecánica cuántica y fue formulada por Paul Dirac en 1928. Da una descripción de las partículas elementales de espín ½, como el electrón, y es completamente consistente con los principios de la mecánica cuántica y de la teoría de la relatividad especial. Además de dar cuenta del espín, la ecuación predice la existencia de antimateria.”

Pero, tras un análisis más meticuloso, se hizo evidente que las partículas que describían las soluciones adicionales tenían que tener exactamente la misma masa que el electrón. Quedaba así descartado el protón, cuya masa es por lo menos, 1.800 veces mayor que la del electrón. Por tanto, las soluciones adicionales tenían que corresponder a una partícula completamente nueva de la misma masa que el electrón, pero de carga opuesta: ¡El antielectrón! Esto quedó confirmado a nivel experimental en 1932 cuando Carl Anderson, físico del Instituto de Tecnología de Calífornia, detectó realmente el antielectrón, que hoy se llama positrón.

Antes de empezar, debemos recordar que el Premio Nobel de Física de 1936 se repartió a partes iguales entre Victor Franz Hess y Carl David Anderson. Merece la pena leer la Nobel Lecture de Carl D. Anderson, “The production and properties of positrons,” December 12, 1936, quien nos explica que en esta imagen un “electrón” de 63 MeV atraviesa un placa de plomo de 6 mm y emerge con una energía de 23 MeV, pero lo hace con la curvatura “equivocada” como si fuera una partícula de carga positiva, como si fuera un protón pero con la masa de un electrón. La Nobel Lecture muestra muchas otras fotografías de positrones y electrones. Anderson afirma: “The present electron theory of Dirac provides a means of describing many of the phenomena governing the production and annihilation of positrons.”

Resultado de imagen de quien nos explica que en esta imagen un “electrón” de 63 MeV atraviesa un placa de plomo de 6 mm y emerge con una energía de 23 MeV, pero lo hace con la curvatura “equivocada” como si fuera una partícula de carga positiva,

Por otro lado, el Premio Nobel de Física de 1933 se repartió a partes iguales entre Erwin Schrödinger y Paul Adrien Maurice Dirac. También vale la pena leer la Nobel Lecture de Paul A. M. Dirac, “Theory of electrons and positrons,” December 12, 1933, aunque no cuente la historia de su descubrimiento, afirma que su ecuación predice el “antielectrón” de soslayo: ”There is one other feature of these equations which I should now like to discuss, a feature which led to the prediction of the positron.” (fuente: Francis (th)E mule Science’s News).

Resultado de imagen de Las antipartículasResultado de imagen de Las antipartículas

La aparición de las antipartículas cambió definitivamente el modo de pensar de los físicos respecto a la materia. Hasta entonces, se consideraba la materia permanente e inmutable. Podían alterarse las moléculas, podían desintegrarse los átomos en procesos radiactivos, pero los cuántos fundamentales se consideraban invariables. Sin embargo, tras el descubrimiento de la antimateria realizado por Paul Dirac hubo que abandonar tal criterio. Heisenberg lo expresaba así:

Resultado de imagen de La ecuación relativista del electrón hecha por Direc

“Creo que el hecho de que Dirac haya descubierto partículas y antipartículas, ha cambiado toda nuestra visión de la física atómica… creo que, hasta entonces, todos los físicos habían concebido las partículas elementales siguiendo los criterios de la filosofía de Demócrito, es decir, considerando esas partículas elementales como unidades inalterables que se hallan en la naturaleza como algo dado y son siempre lo mismo, jamás cambian, jamás pueden transmutarse en otra cosa. No son sistemas dinámicos, simplemente existen en sí mismas. Tras el descubrimiento de Dirac, todo parecía distinto, porque uno podía preguntar: ¿por qué un protón no podría ser a veces un protón más un par electrón-positrón, etc.?… En consecuencia, el problema de la división de la materia había adquirido una dimensión distinta.”

 

Dado que la antimateria tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la antimateria no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de antipartícula viajando al futuro = partícula viajando al pasado?

                Existe un “universo” que se nos escapa de la comprensión

 

La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y antipartículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al reves) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad.

El carácter mutable de la materia se convirtió en piedra angular de la nueva física de partículas. El hecho de que partículas y antipartículas puedan crearse juntas a partir del vacío si se aporta energía suficiente, no sólo es importante para entender cómo se crean las partículas en aceleradores de alta energía, sino también para entender los procesos cuánticos que se produjeron en el Big Bang.

Partículas y campos, clásicos y cuánticos. Las nociones clásicas de partícula y campo comparadas con su contrapartida cuántica. Una partícula cuántica está deslocalizada: su posición se reparte en una distribución de probabilidad. Un campo cuántico es equivalente a un colectivo de partículas cuánticas.

Como ya lo hemos expresado, el conocimiento que se obtuvo sobre la existencia de antifamilias de partículas o familias de antipartículas es una consecuencia de la aplicación de la teoría relativista del campo cuántico, para cada partícula existe una partícula que tiene la misma masa pero cuya carga eléctrica (y otras llamadas cargas internas) son de signo opuesto. Estas son las antipartículas. Así, al conocido electrón, con carga negativa, le corresponde un «electrón positivo» como antipartícula, llamado positrón, descubierto en 1932. El antiprotón, descubierto en 1956, tiene la misma masa que el protón, pero carga eléctrica negativa de igual valor. El fotón, que no tiene masa ni carga eléctrica, puede ser considerada su propia antipartícula.

Un agujero negro es un objeto que tiene tres propiedades: masa, espin y carga eléctrica. La forma del material en un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como Singularidad, de densidad infinita.

Resultado de imagen de Singularidad de densidad infinita

Un agujero negro tiene tres propiedades: masa, espín y carga eléctrica. La forma del material de un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como singularidad, de densidad infinita.

Resultado de imagen de Fotones libres

La luz (fotones), no son una onda distinta que un electrón o protón, etc.

1°- “No se dispersan”, no son más pequeñas, como las ondas del agua (olitas) cuando tiramos una piedrita, a medida que se alejan de su centro; sino que en el caso de la luz son menos partículas, pero son siempre el mismo tipo de onda (determinada frecuencia), igual tamaño.

2°- Las ondas con más energía son más grandes, los fotones al igual que las partículas son más pequeñas, contra toda lógica (contracción de Lorentz).

3°- No necesitan de un medio material para desplazarse. Viajan en el vacío. El medio que usan para viajar, es el mismísimo espacio.

4°- Su cualidad de onda no es diferente de las partículas. Lo podemos ver en la creación de pares y la cualidad de onda de las partículas, etc. En ningún momento la partícula, es una cosa compacta (ni una pelotita), siempre es una onda, que no se expande. En la comparación con la ola, sería como un “montón” o un “pozo” de agua, con una dirección, lo que conocemos como ecuación de Schrödinger. En ningún momento la partícula, es una pelotita; la ola sobre el agua, no es un cuerpo que se mueve sobre el agua, no es un montón de agua que viene (aunque parece), sino una deformación del agua. Así la partícula, no es un montón de algo, sino una deformación del espacio.

La curvatura está relacionadas con la probabilidad de presencia, no es una bolita que está en uno de esos puntos, sino que es una onda en esa posición. El fotón es una onda que no necesita de un medio material para propagarse, se propaga por el espacio vacío. Así como una onda de sonido es una contracción-expansión del medio en que se propaga, el fotón es una contracción-expansión del espacio (del mismísimo espacio), razón por la cual entendemos que el espacio se curva, se contrae y expande. La rigidez del medio, da la velocidad de la deformación (velocidad de  la onda), en el caso de la rigidez del espacio da una velocidad “c”.Esta onda por causa de la contracción del tiempo (velocidad “c”), no se expande, sino que se mantiene como en su origen (para el observador ), como si fuese una “burbuja”, expandida o contraída, en cada parte, positiva-negativa

Cada partícula está caracterizada por un cierto número de parámetros que tienen valores bien definidos: su masa, carga eléctrica, spin o rotación interna y otros números, conocidos como cuánticos. Estos parámetros son tales que, en una reacción, su suma se mantiene y sirve para predecir el resultado. Se dice que hay conservación de los números cuánticos de las partículas. Así, son importantes el número bariónico, los diversos números leptónicos y ciertos números definidos para los quarks, como la extrañeza, color, etc. Estos últimos y sus antipartículas tienen cargas eléctricas (± 1/3 o ± 2/3) y números bariónicos (±1/3) fraccionarios. No todos los números asociados a cada partícula han sido medidos con suficiente precisión y no todas las partículas han sido detectadas en forma aislada, por lo menos de su ligamento, como el caso de

los quarks

De los Quarks y de los gluones.

Los gluones son una especie de «partículas mensajeras» que mantienen unidos a los quarks. Su nombre proviene del término inglés “glue”, que significa pegamento, en español quizás podría ser gomón. Ahora, en cuanto a los quarks, ya hicimos referencia de ellos anteriormente. Pero recordemos aquí, que fueron descubiertos en 1964 por Murray Gell-Mann, como los componentes más reducidos de la materia. Hasta entonces se pensaba que los átomos consistían simplemente en electrones rodeando un núcleo formado por protones y electrones.

En estado natural, quarks y gluones no tienen libertad. Pero si se eleva la temperatura a niveles 100.000 veces superiores, como se ha hecho en aceleradores de partículas, a la del centro del Sol, se produce el fenómeno del desconfinamiento y por un brevísimo tiempo quedan libres. En ese preciso momento aparece lo que se suele llamar plasma, «una sopa de quarks y gluones» que equivale al estado en que se podría haber encontrado la naturaleza apenas una milésima de segundo luego del Big Bang.

11-three_quarks 11-heart2quarks_small

Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos. Los protones y neutrones están formados, cada uno, por 3 quarks que se mantienen unidos gracias a los gluones (El gluón es la partícula portadora de interacción nuclear fuerte, fuerza que mantiene unida los núcleos atómicos). A temperaturas superiores se vence la fuerza nuclear fuerte y los protones y neutrones se dividen, formando esta sopa denominada plasma Gluón-Quark.

Resultado de imagen de Los Quarks libres

Pero por ahora aquí, nos vamos a quedar con los quarks al natural. Normalmente, los quarks no se encuentra en un estado separados, sino que en grupos de dos o tres. Asimismo, la duración de las vidas medias de las partículas, antes de decaer en otras, es muy variable (ver tablas).

Por otra parte, las partículas presentan una o más de las siguientes interacciones o fuerzas fundamentales entre ellas. Por un lado se tiene la gravitación y el electromagnetismo, conocidas de la vida cotidiana. Hay otras dos fuerzas, menos familiares, que son de tipo nuclear y se conocen como interacciones fuertes y débiles.

La gravitación afecta a todas las partículas, es una interacción universal. Todo cuerpo que tiene masa o energía está sometido a esta fuerza. Aunque es la más débil de las interacciones, como las masas son siempre positivas y su alcance es infinito, su efecto es acumulativo. Por ello, la gravitación es la fuerza más importante en cosmología.

Resultado de imagen de Los campos magnéticos están presentes por todo el Universo

                            Los campos magnéticos están presentes por todo el Universo

La fuerza electromagnética se manifiesta entre partículas con cargas eléctricas. A diferencia de las demás, puede ser de atracción (entre cargas de signos opuestos) o de repulsión (cargas iguales). Esta fuerza es responsable de la cohesión del átomo y las moléculas. Mantiene los objetos cotidianos como entidades con forma propia. Un vaso, una piedra, un auto, el cuerpo humano. Es mucho más fuerte que la gravitación y aunque es de alcance infinito, las cargas de distinto signo se compensan y sus efectos no operan a grandes distancias. Dependiendo de las circunstancias en que actúen, estas interacciones pueden manifestarse como fuerzas eléctricas o magnéticas solamente, o como una mezcla de ambos tipos.

La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.

La interacción nuclear débil es causa de la radioactividad natural y la desintegración del neutrón. Tiene un rol capital en las reacciones de fusión del hidrógeno y otros elementos en el centro de las estrellas y del Sol. La intensidad es débil comparada con las fuerzas eléctricas y las interacciones fuertes. Su alcance es muy pequeño, sólo del orden de 10-15 cm.

Archivo:CNO Cycle.svg

La interacción fuerte es responsable de la cohesión de los núcleos atómicos. Tiene la intensidad más elevada de todas ellas, pero es también de corto alcance: del orden de 10-13 cm. Es posible caracterizar las intensidades de las interacciones por un número de acoplamiento a, sin dimensión, lo que permite compararlas directamente:

Fuerte as = 15

Electromagnéticas a = 7,3 x 10-3

Débil aw 3,1 x 10-12

Gravitacional aG = 5,9 x 10-39

Por otro lado, la mecánica cuántica considera que la interacción de dos partículas se realiza por el intercambio de otras llamadas «virtuales». Tienen ese nombre porque no son observables: existen por un tiempo brevísimo, tanto más corto cuanto mayor sea su masa, siempre que no se viole el principio de incertidumbre de Heisenberg de la teoría cuántica (que en este contexto dice que el producto de la incertidumbre de la energía por el tiempo de vida debe ser igual o mayor que una constante muy pequeña). Desaparecen antes de que haya tiempo para que su interacción con otras partículas delate su existencia.

Monografias.com

                                      El fotón  virtual común se desplaza hacia la partícula menos energética.

Dos partículas interactúan al emitir una de ellas una partícula virtual que es absorbida por la otra. Su emisión y absorción cambia el estado de movimiento de las originales: están en interacción. Mientras menos masa tiene la partícula virtual, más lejos llega, mayor es el rango de la interacción. El alcance de la interacción es inversamente proporcional a la masa de la partícula portadora o intermedia. Por ejemplo, la partícula portadora de la fuerza electromagnética es el fotón, de masa nula y, por lo tanto, alcance infinito. La interacción gravitacional también tiene alcance infinito y debe corresponder a una partícula de masa nula: se le denomina gravitón. Naturalmente tiene que ser neutro. (Aún no ha sido vistos ni en pelea de perros).

Resultado de imagen de Bosones W+, W- y Zª

Como ya hicimos mención de ello, a las fuerzas nucleares se les asocian también partículas portadoras. Para la interacción débil estas partículas se llaman bosones intermedios, expresados como W+, W- y Zº (neutro). El W- es antipartícula del W+. Los W tienen masas elevadas comparadas con las otras partículas elementales. Lo de bosones les viene porque tienen spin entero, como el fotón y el gravitón, que también los son, pero que tienen masas nulas. Las fuerzas fuertes son mediadas por unas partículas conocidas como gluones, de los cuales habría ocho. Sin embargo, ellos no tienen masa, pero tienen algunas de las propiedades de los quarks, que les permiten interactuar entre ellos mismos. Hasta ahora no se han observado gluones propiamente tal, ya que lo que mencionamos en párrafos anteriores corresponde a un estado de la materia a la que llamamos plasma. Claro está, que es posible que un tiempo más se puedan detectar gluones libres cuando se logre aumentar, aún más, la temperatura, como está previsto hacerlo en el acelerador bautizado como “Relativistic Heavy Ion Collider”, empotrado en Estados Unidos de Norteamérica.

TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES

tabla3

Una partícula y su antipartícula no pueden coexistir si están suficientemente cerca como para interactuar. Si ello ocurre, ellas se destruyen mutuamente: hay aniquilación de las partículas. El resultado es radiación electromagnética de alta energía, formada por fotones gamma. Así, si un electrón está cercano a un positrón se aniquilan en rayos gamma. Igual con un par protón-antiprotón muy próximos.

La reacción inversa también se presenta. Se llama «materialización o creación de partículas» de un par partícula-antipartícula a partir de fotones, pero se requieren condiciones físicas rigurosas. Es necesario que se creen pares partícula-antipartícula y que los fotones tengan una energía mayor que las masas en reposo de la partículas creadas. Por esta razón, se requieren fotones de muy alta energía, de acuerdo a la relación de Einstein E=mc2 . Para dar nacimiento a electrones/positrones es necesario un campo de radiación de temperaturas mayores a 7×109 °K. Para hacer lo mismo con pares protón/antiprotón es necesario que ellas sean superiores a 2×1012 °K. Temperaturas de este tipo se producen en los primeros instantes del universo.

Resultado de imagen de Gran emisión de rayos GammaResultado de imagen de Gran emisión´çon de rayos gamma

Se detectan grandes emisiones de rayos gamma en explosiones supernovas y otros objetos energéticos

Los rayos gamma están presentes en explosiones de supernovas, colisión de estrellas de neutrones… Todos los sucesos de altas energías los hace presente para que nuestros ingenios los detecten y podamos conocer lo que la materia esconde en lo más profundo de sus “entrañas”. Aún no hemos podido conocer en profundidad la materia ni sabemos, tampoco, lo que realmente es la luz.

emilio silvera

¡La Luz! ¡La Mecánica Cuántica! Nuestro Universo

$
0
0

El universo primitivo, en una espectacular imagen en 3D


                      Cuando en nuestro Universo quedaron libres los fotones… ¡Se hizo la Luz!

En alguna parte he podido leer que para comprender la realidad en sus niveles más elementales, basta con conocer el comportamiento de dos infinitesimales objetos: el electrón y el fotón. Todo el argumento de la QED [electrodinámica cuántica] gira en torno a un proceso fundamental: la emisión de un único fotón por un único electrón.

Cuando el movimiento de un electrón es alterado súbitamente, puede responder desprendiendo un fotón. La emisión de un fotón es el suceso básico de la mecánica cuántica:

Resultado de imagen de Electrones en movimiento dentro del átomo

 Un equipo de científicos lograron filmar por primera vez un electrón en movimiento gracias a una tecnología reciente que genera pulsos cortos e intensos de luz láser.

Toda la luz visible que vemos, así como las ondas de radio, la radiación infrarroja y los rayos X, está compuesta de fotonesque han sido emitidos por electrones, ya sea en el Sol, el filamento de una bombilla, una antena de radio o un aparato de rayos.

Los electrones no son las únicas partículas que pueden emitir fotones. Cualquier partícula eléctricamente cargada puede hacerlo, incluido el protón. Esto significa que los fotones pueden saltar entre dos protones o incluso entre un protón y un electrón. Este hecho es de enorme importancia para toda la ciencia y la vida en general. El intercambio continuo de fotonesentre el núcleo y los electrones atómicos proporciona la fuerza que mantiene unido al átomo. Sin estos fotones saltarines, el átomo se desharía y toda la materia dejaría de existir.

Foto

Se ha conseguido observar por primera vez la desintegración radiativa del neutrón.
Dentro de los núcleos de los átomos hay neutrones y protones. En condiciones normales y mientras que están ahí los neutrones son estables. Sin embargo los neutrones libres son inestables, tienen una vida media de unos 10 minutos, y se desintegran produciendo un protón un electrón y un antineutrino. Pero los físicos nucleares teóricos predijeron que una de cada mil veces los neutrones decaerían en todas esas partículas y además en un fotón.

Foto

Típicamente el neutrón decae en un protón, un antineutrino y un electrón. Muy raramente lo hace radiativamente emitiendo además un fotón. Diagrama: Zina Deretsky, National Science Foundation.

Mientras que un electrón pertenece al grupo de partículas llamadas fermiones, los fotones pertenecen a la familia de los bosones. Intentemos comprender esta película que es la intermediaria de todas las formas de radiación electromagnética.

…protagonizada por bosones

Los fermiones hacen posible la materia “al estilo tradicional”, mientras que los bosones son elementos muy raros desde la forma de pensar a que estamos acostumbrados el común de los mortales. Para no complicarnos, la tabla periódica de elementos existe porque los fermiones no pueden “ser iguales”: no pueden solaparse uno sobre otro y se repelen si los obligamos. Es lo que damos por hecho cuando hablamos de materia, que cada pedazo de ésta ocupa su lugar y tiene sus propias cualidades.

Toda la materia que conocemos, la que forma las estrellas y los mundos y las galaxias, esa que llamamos luminosa o bariónica, la que emite radiación, está hecha de Leptones y Quarks, partículas que son Fermiones, y, esas otras partículas intermediarias de las cuatro fuerzas fundamentales, son las que pertenecen a la familia de los Bosones, tales como el Fotón, las W+, W- y Zº, los Gluones y el Gravitón.

Los bosones carecen de este sentido de la individualidad que tienen los Fermiones, digamos que poseen “alma grupal” y, en su estado más puro, todos forman una misma “súperpartícula”.

Para entenderlo mejor, conviene recordar que las partículas no son bolitas como nos siguen enseñando en la escuela, sino que más allá de esta imagen existen como ondas o, al menos, sus funciones se equiparan al comportamiento de una onda.

En la década de 1920, Albert Einstein y el hindú Satyendra Nath Bose pronosticaron un quinto estado de la materia: el condensado de Bose-Einstein (BEC), el cual fue conseguido en laboratorio en 1995, algo que le valió el premio Nobel de 2001 a los científicos que lo lograron.

Un condensado de Bose-Einstein es un estado de la materia que se da en ciertos materiales a muy baja temperatura. En este estado de la materia, todos los átomos que lo constituyen se encuentran en el nivel de mínima energía, denominado estado fundamental. Descubierto en 1924 para los fotones por el indio Bose y por Einstein, no fue obtenido en laboratorio hasta 1995 por Cornell y Wieman al enfriar átomos a pocos nanokelvin por encima del cero absoluto. El condensado de Bose-Einstein fue la “molécula del año” según la revista Science en 1995 ya que se trata de un sistema cuántico macroscópico similar a una molécula pero con millones de átomos. Un átomo en un gas se mueve a una velocidad de unos unos 1000 km/h (unos 300 m/s) pero un condensado de Bose-Einstein se mueve a sólo 1 cm/s. Un condensado de Bose-Einstein es respecto a la materia ordinaria, como la luz de un láser es respecto a la de una bombilla. Gracias a ello se puede fabricar un láser de átomos, que en lugar de producir un haz de luz como un láser óptico, produce un haz (coherente) de átomos. En 1997 Ketterle fabricó el primer láser de átomos que producía un haz de átomos de sodio.

Resultado de imagen de el primer láser un haz de átomos de sodio

Cuando ciertas formas de materia [bosones] se enfrían hasta casi el cero absoluto, sus átomos se ponen en el estado de energía más baja, de modo que todos sus átomos vibran al unísono y se hacen coherentes. Las funciones de onda de todos los átomos se solapan, de manera que, en cierto sentido, un BEC [condensado de Bose-Einstein] es como un “superátomo” gigante en donde todos los átomos individuales vibran al unísono.

Al enfriar los átomos, su velocidad disminuye hasta que las longitudes de onda de cada uno de ellos se vuelven casi planas, superponiéndose unas a otras para formar una única onda que los describe a todos.

Así que un BEC se forma cuando los átomos en un gas sufren la transición de comportarse como “bolas de billar” al estilo de la física clásica, a comportarse como una onda gigante de materia al estilo de mecánica cuántica:

Si creamos dos BECs y los colocamos juntos, no se mezclan como gases ordinarios ni rebotan como lo harían dos sólidos. Donde los dos BECs se superponen, ellos “interfieren” como las ondas: delgadas capas paralelas de materia son separadas por capas delgadas de espacio vacío. El patrón se forma porque las dos ondas se suman donde sus crestas coinciden, y se cancelan donde una cresta se encuentra con un valle — a lo cual llamamos interferencia “constructiva” y “destructiva” respectivamente. El efecto es similar al de dos ondas que se superponen cuando dos piedras son lanzadas a un lago.


…ambientada en el vacío…

Y ahora, retrocedamos un poco más en este asunto del misterio que nos ocupa. Gracias a la tecnología láser, la física ha podido comprobar el extremo poder de la luz. Los láseres pueden hacer que las partículas virtuales se vuelvan reales. Pero, primero, aclaremos conceptos…

Las “Partículas virtuales”son partículas fundamentales que están constantemente surgiendo aparentemente de la nada y permanecen en el espacio-tiempo la friolera de una milésima de trillonésima de segundo –una cantidad que se forma poniendo una veintena de ceros a la derecha de la coma—. A pesar de denominarse “virtuales”, sus efectos son muy reales: la constante agitación de este burbujeo cuántico de partículas hace que el vacío tenga energía. Y esto es algo que afecta a la realidad, pues en ésta las fuerzas de atracción y repulsión dependen de la masa, y la masa no es sino energía expresada en unidades diferentes: E=mc².

Resultado de imagen de representación de partículas virtuales

Partículas virtuales que surgen de la NADA. Claro que, surgieron,¡es porque había! La Nada no existe.!

En el uso corriente la palabra vacío significa espacio vacío, espacio del que se ha extraído todo el aire, vapor de agua u otro material. Eso es también lo que significa para un físico experimental que trabaja con tubos de vacío y bombas de vacío. Pero para un físico teórico, el término vacío tiene muchas más connotaciones. Significa una especie de fondo en el que tiene lugar el resto de la física. El vacío representa un potencial para todas las cosas que pueden suceder en ese fondo. Significa una lista de todas las partículas elementales tanto como de las constantes de la Naturaleza que se pondrían de manifiesto mediante experimentos en dicho vacío. En resumen, significa un ambiente en el que las leyes de la física toman una forma particular. Un vacío diferente significa leyes de la física diferentes; cada punto en el paisaje representa un conjunto de leyes que son, con toda probabilidad, muy diferentes de las nuestras pero que son, en cualquier caso, posibilidades consistentes. El modelo estándar es meramente un punto en el paisaje de posibilidades.


La energía del vacío es, por tanto, la suma total de las energías de todas las partículas posibles. Es la llamada “energía oscura” que hace que el universo se expanda, haciendo frente a la atracción de la gravedad, y que proporciona alrededor del 80% de la materia-energía al universo –un 26% es “materia oscura”, y sólo un 4% es la materia conocida hasta el momento—.

Pero, ¿cómo una partícula virtual se convierte en real? Es decir, ¿cómo queda “atrapada” en el espacio-tiempo de forma más estable?

¡Los fotones de Yang-Mills adquieren su masa y el principio gauge se sigue cumpliendo! Al principio esta visión no mereció la atención que merecía. Por una parte, la gente pensó que el modelo era feo. El principio gauge estaba ahí, pero ya no era el tema central. El “Campo de Higgs había sido puesto ahí “a propósito” y la “partícula de Higgs, en sí misma, no era una “partícula gauge

La Teoría de la Sipersimetría establece que, por cada partícula de materia, nace una gemela de antimateria. La antimateria es igual que la materia, pero con carga opuesta. Por ejemplo, el electrón tiene carga negativa, y su partícula de antimateria, el positrón, positiva. Materia y antimateria se aniquilan mutuamente pero, por algún motivo aún no aclarado, la simetría se rompió en algún momento, surgiendo más materia que antimateria, de ahí que nuestro universo, materia, pueda existir.

Pero hay algo más en todo esto. Y para ello, la luz es la clave.

Controlar los estados cuánticos macroscópicos de osciladores micromecánicos no es fácil; hacerlo con luz (fotones) requiere el acoplamiento coherente entre …

Una de los modelos teóricos elaborados para superar la visión de la gravedad de Einstein indica que los fotones de los rayos gamma de alta energía viajarían algo más despacio que los de baja energía, lo que viola el axioma del sabio alemán acerca de que toda radiación electromagnética, desde las ondas radio hasta los rayos gamma, viajan en el vacío a la misma velocidad (la de la luz). Sin embargo, no ha sido verificado mediante experimento, con lo cual, Einstein sigue teniendo razón.

 protagonizada por la “luz” como la propia …

Ya en los años 30, los físicos predijeron que un campo eléctrico muy fuerte, que no es sino un espacio alterado por la actividad de un montón de fotones coordinados, podría impulsar a las partículas virtuales con carga opuesta en diferentes direcciones, impidiendo que la materia y la antimateria se aniquilen.

Según el efecto de creación de pares,   un fotón con energía suficiente, lo que equivale a tener el doble de la energía que posee un electrón en reposo, da lugar a una pareja de electrón y positrón.

Aunque esto ya se consiguió en los años 90 a pequeña escala, gracias al desarrollo de la tecnología láser los científicos creen que estarán cerca de conseguir crear materia “en serie” mediante este proceso en unos pocos años.

Sabemos desde 1932, que un fotón gama con suficiente energía, puede formar un par de antipartículas, al interactuar con un átomo masivo, como el plomo. Pero el problema no termina, sino que, el electrón formado por un rayo gama, no interactúa con este tipo de fotón (gama), sino uno de luz visible,

Por otra parte, una vez que existen las partículas, los fotones interactúan sin cesar con ellas, siendo absorbidos y emitidos por las mismas de manera ininterrumpida.

Y de ello nace el movimiento gracias al cual todo existe en el espacio-tiempo. Sin movimiento, nuestra realidad desaparecería.

La carencia de masa de un fotón está ligada a su movimiento. Para que un cuerpo alcance la velocidad de la luz, su masa ha de ser cero. Y, como Einstein explicó en su día, la luz se mueve siempre a la velocidad de la luz. Si pretendemos que un fotónse pare, en lugar de ralentizarse observaremos que desaparece. Y, como se ha dicho al principio, si estos “fotones saltarines”  desaparecieran, toda la materia dejaría de existir.

Su esencia es el movimiento y su misión, según parece, hacer girar la rueda de la existencia.

Ello es así debido al impacto de los fotones sobre las partículas elementales. La energía transmitida por un fotón es inversamente proporcional a su longitud de onda. Cuanto menos longitud de onda, más energía. Así, un fotón de luz visible tiene la energía suficiente para hacer reaccionar a un bastón de la retina. Si nos movemos en el espectro electromagnético, los fotones con longitud de onda ultravioleta pueden expulsar a los electrones de los átomos. Más allá, los rayos gamma pueden romper protones y neutrones

Y ahora, vayamos al meollo de la cuestión e indaguemos en la cita con que se iniciaba este artículo: ¿qué hace que los electrones absorban y emitan fotones? Esto, en otros términos, vendría a ser lo mismo que preguntarnos: ¿por qué existe nuestro universo?

…con un misterio: el 137…

¿Qué determina el momento exacto en que un electrón emite un fotón? La física cuántica dice que nada lo hace, pues la Naturaleza es caprichosa en sus niveles más elementales. Aunque no es caótica en extremo, sólo probabilística.

A diferencia de la física newtoniana, la mecánica cuántica nunca predice el futuro en función del pasado. En su lugar, ofrece reglas muy precisas para computar la probabilidad de varios resultados alternativos de un experimento.

Y la probabilidad de que un electrón emita o absorba un fotón es la constante de estructura fina. El valor de esa constante es 1/137.

En otras palabras, sólo un afortunado electrón de cada 137 emite un fotón. Este es el significado de alfa: es la probabilidad de que un electrón, cuando se mueve a lo largo de su trayectoria, emita caprichosamente un fotón.

El inverso de la constante de estructura fina es 137. Desde su descubrimiento, éste número ha traído de cabeza a los grandes científicos.

   \alpha^{-1} =   137.035 999 710 (96)

 

No puedo recordar si fue  Richard Feynman o León Lederman, quien sugirió que todos los físicos pusiesen un cartel en sus despachos o en sus casas que les recordara cuánto es lo que no sabemos. En el cartel no pondría nada más que esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina. Este número guarda relación con la probabilidad de que un electrón emita o absorba un fotón. La constante de estructura fina responde también al nombre de alfa, y sale de dividir el cuadrado de la carga del electrón por el producto de la velocidad de la luz y la constante de Planck. Tanta palabra no significa otra cosa sino que ese solo número, 137, encierra los meollos del electromagnetismo (el electrón), la relatividad (la velocidad de la luz) y la teoría cuántica (la constante de Planck). Menos perturbador sería que la relación entre todos estos importantes conceptos hubiera resultado ser un uno o un tres o quizás un múltiplo de pi. Pero ¿137?

… es un número que determina la fuerza de una interacción) y equivale a 1/137,03599911.

“Lo más notable de este notable número es su adimensionalidad. La velocidad de la luz es de unos 300.000 kilómetros por segundo. Abraham Lincoln medía 1,98 metros. La mayoría de los números vienen con dimensiones. Pero resulta que cuando uno combina las magnitudes que componen alfa, ¡se borran todas las unidades! El 137 está solo: se exhibe desnudo a donde va. Esto quiere decir que a los científicos de Marte, o a los del decimocuarto planeta de la estrella Sirio, aunque usen Dios sabe qué unidades para la carga y la velocidad y qué versión de la constante de Planck, también les saldrá 137. Es un número puro.”

 

Leon Ledderman

Resultado de imagen de Wolfgang Pauli

Uno de los padres de la mecánica cuántica, Wolfgang Pauli, se obsesionó tanto con este número que dijo que, de poder hacerle una pregunta a Dios, sería esta: “¿Por qué 137?”

Gracias a su gran amistad con Carl G. Jung, Pauli conoció el mundo “alternativo” de los estudios sobre la psique y accedió a la tradición esotérica que ha acompañado al hombre desde el principio de los tiempos. Es así como supo que 137 se aproxima al valor correspondiente al ángulo áureo. Esto es, la versión circular del número áureo  o φ (phi).

      Sin fotones… ¡El Universo sería inestable, sería otro universo diferente!

En realidad, el ángulo de oro es, más o menos, 137,5º, y está presente en todo proceso natural donde se dé una combinación de espirales. Así, por ejemplo, las hojas de una planta surgen a lo largo del tallo cada 137,5º, pues así se logra la mayor eficiencia de espacio y de captación de la luz solar, ya que únicamente con éste ángulo es posible evitar que ninguna hoja obstaculice a las demás en la toma de luz sin que existan espacios muertos o vacíos.

Esta semejanza entre los valores de la constante de estructura fina y el ángulo áureo llevó a la doctora Raji Heyrovska  a buscar el ángulo áureo en el universo atómico (véase versión en español de su estudio).

Que esto sea así no debería extrañarnos, pues si el número áureo es una constante en toda la Naturaleza, su versión angular es la apropiada para estar presente en el universo cuántico, donde, recordemos, los elementos básicos de la realidad se reducen a funciones de onda.

…y un final místico.

Los fotones no tienen masa ni carga eléctrica. Sin embargo, pueden “extraer” del vacío partículas con masa y carga, tanto negativa como positiva.

Más allá de la matería y la energía, del tiempo y del espacio, el concepto de función de onda nos introduce en una realidad abstracta de donde surge todo.Y si, como hemos dicho, a menor longitud de onda mayor energía, también es posible afirmar que, en eso que David Bohm llamaba “orden implicado”, cuanto menor es la longitud de una onda cuántica, mayor es la presencia de masa en el espacio-tiempo.

Para la física, las matemáticas se han mostrado como la realidad que subyace a la materia. Todo se puede reducir a números, entidades que forman y organizan el espacio-tiempo. En este nivel de realidad, ni la materia ni la energía existen como tales, sino que demuestran ser el resultado de la interacción de entidades abstractas.

En esta pasión por los números, no podemos evitar recordar la versión cabalística de la filosofía perenne. Para la Kabbalah, lo divino responde a la “Nada”, ya que lo trascendente no puede ser aprehendido desde nuestra posición en el mundo finito.

En el momento de la Creación, la luz infinita se habría divido, quedando encerrada en conductos que, al romperse, producen la materia y, en definitiva, la fractura de la unidad primordial de la luz.

Esta materia o qelippot, en el sentido de “conchas” o caparazones que “encierran” la luz y rompen la harmonía unitaria de la luz, es el origen del mundo, de su finitud y causa del mal en la realidad no-divina. El mundo creado es así una fractura de la harmonía de la luz que crea la diferenciación y la tensión entre unas cosas y otras: este es el origen del mal, de la falta de harmonía que debe recuperarse en el curso de la historia.

Resultado de imagen de La Kabbalah enseña y nos lleva al espíritu

¡Qué a estas alturas de la vida, existan personas,  que estén inmersos en estas patrañas! No lo entenderé nunca


La Kabbalah enseña, según esto, el camino para desarrollar la Vasija interior donde recibir la Luz, la cual, según va llenando dicha vasija, nos acerca a la unidad del Espíritu. Es así que la Luz, al tiempo que es “absorbida” por el alma, puede ser “proyectada” en el mundo mediante los actos del hombre trascendido.

Que la luz ha sido usada por todos los movimientos espirituales para referirse a lo divino es algo que a nadie se le escapa. La imagen que la Kabbalah ofrece aquí no es muy diferente de la que podríamos encontrar en textos rosacruces o en escritos orientales, entre otros.

Sin embargo, si esta vez he preferido usar el hermetismo hebreo es, como he mencionado, por su pasión hacia los números. Y es que el valor numérico para el término hebreo de “kabbalah” (cuya traducción es “recepción”) es…

como muchos ya sabrán…

Efectivamente…

137.

Resultado de imagen de Implicaciones del número 137 en el funcionamiento del universo

Ciencia y tradición hermética unidas por un número que, en ambas, define la interacción entre luz y materia.

Cosas…

Luz que, también en ambos casos, procede de la Nada.

Decía Jung que el espacio y el tiempo son conceptos hipostasiados, fenómenos que hemos decidido convertir en reales. La física teórica y la consolidación de la mecánica cuántica han dejado claro, a lo largo de las últimas décadas, que toda esta realidad por la que combatimos, matamos, morimos, odiamos, repudiamos, humillamos, codiciamos, envidiamos o ansiamos consiste, simplemente, en Nada.

Nada…

Una ilusión de la psique por la que renunciamos a indagar en el misterio de la Vida y nuestra experiencia momentánea en el espacio-tiempo se convierte en un vagar ausentes, asumiendo que todo es un sinsentido.

A veces, en momentos de bajón, me pregunto si no será por eso por lo que, casi cien años después, nos siguen diciendo que la física cuántica es muy complicada para que lleguemos a entenderla…

Lo más triste, sin embargo, es que lo aceptamos…

Todo esto lo he leido o aprendido de gente que son más sabias que yo, ideas que tienen sus fuentes en trabajos realizados con la misión y el propósito de desvelar los secretos de la Naturaleza para saber, como es el Universo.

¿Lo conseguiremos alguna vez? Hilbert creía que sí.

emilio silvera

Materia de sombra, Axiones, ¿WIMPs en el Sol? ¿Y la vida?

$
0
0

Es curioso como a veces, la realidad de los hechos observados, vienen a derribar esas barreras que muchos ponen en sus mentes  negar lo evidente. Por ejemplo: Los extraordinarios resultados de la sonda Kepler, que en su primer año de misión ha encontrado ya 1.235 candidatos a planetas, 54 de ellos en la zona habitable de sus estrellas, ha permitido a los investigadores extrapolar el número total de mundos que podría haber sólo en la Vía Láctea, nuestra galaxia. Y ese número ronda los 50.000 millones. De los cuales, además, unos 500 millones estarían a la distancia adecuada de sus soles para permitir la existencia de agua en estado líquido, una condición necesaria para la vida.

Imagen relacionada

         Los planetas como la Tierra proliferan por todo el Universo

Planetas parecidos a la Tierra, como arriba nos dicen, hay miles de millones y sólo cabe esperar que estén situados en los lugares adecuados  que la vida tenga la oportunidad de surgir acogida por el ecosistema ideal del agua líquida, una atmósfera acogedora y húmeda, temperatura ideal media y otros parámetros que la vida reqiere para su existencia.

Recreación del sistema solar en formación, con la protoestrella y el disco de polvo y gas que la rodea. | Bill Saxton/NRAO

   Recreación del sistema solar en formación, con la protoestrella y el disco de polvo y gas que la rodea

Un equipo de astrónomos internacionales pertenecientes al Observatorio Europeo Austral (ESO), el más importante del mundo, investiga la formación de un posible  sistema planetario a partir de discos de material que rodea a una estrella joven. Según un comunicado difundido hoy por el centro astronómico que se levanta en la región norteña de Antofagasta, a través del “Very Large Telescope”(VLT), los científicos han estudiado la materia que rodea a una estrella joven.

Según los astrónomos, los planetas se forman a partir de discos de material que rodean a las estrellas, pero la transición  discos de polvo hasta sistemas planetarios es rápida y muy pocos son identificados en esta fase. Uno de los objetos estudiados por los astrónomos de ESO, es la estrella T Chamaleontis (T-Cha), ubicada en la pequeña constelación de Chamaleón, la cual es comparable al sol pero en sus etapas iniciales.

Dicha estrella se encuentra a  330 años luz de la Tierra y tiene 7 millones de años de edad, lo que se considera joven para una estrella. “Estudios anteriores han demostrado que T Cha es un excelente objetivo para estudiar cómo se forman los sistemas planetarios”, señala el astrónomo Johan Olofsson, del Max Planck Institute of Astronomy de Alemania.

Algunas veces hablando de los extensos y complejos temas que subyacen en la Astronomía, lo mismo hablamos de “materia de sombre” que de “supercuerdas” y, se ha llegado a decir que existe otro universo de materia de sonbra que existe en paralelo al nuestro. Los dos universos se separaron  la Gravedad se congeló sepapándose de las otras fuerzas. Las partículas de sombra interaccionan con nosotros sólo a través de la fuerza de la gravedad, lo cual las convierte en candidatas ideales para la tan traida y llevada “materia oscura”.

Llegamos a los Axiones.

Resultado de imagen de Axiones

El  actual de la cuestión es que los cosmólogos creen saber que hay una gran cantidad de materia oscura en el Universo y, han conseguido eliminar la candidatura de cualquier tipo de partícula ordinaria que conocemos. En tales circunstancias no se  llegar a otra conclusión que la materia oscura debe de existir en alguna forma que todavía no hemos visto y cuyas propiedades ignoramos totalmente. Sin embargo, se atreven a decir que, la Gravedad, es el efecto que se produce cuando la “materia oscura” pierde consistencia… , o algo así.  ¡Cómo son!

A los teóricos nada les gusta más que aquella situación en la cual puedan dejar volar libremente la imaginación sin miedo a que nada tan brusco  un experimento u observación acabe con su juego. En cualquier caso, han producido sugerencias extraordinarias acerca de lo que podría ser la “materia oscura” del universo.

                Lo que hay en el Universo…no siempre lo podemos comprender.

Otro de los WIMPs favoritos se llama axión.  el fotino y sus compañeros, el axión fue sugerido por consideraciones de simetría. Sin embargo, a diferencia de las partículas, sale de las Grandes Teorías Unificadas, que describen el Universo en el segundo 10ˉ³5, más que de las teorías totalmente unificadas que operan en el tiempo de Planck.

Resultado de imagen de Axiones

 mucho tiempo han sabido los físicos que toda reacción entre partículas elementales obedece a una simetría que llamamos CPT. Esto significa que si miramos la partícula de una reacción, y luego vemos la misma reacción cuando (1) la miramos en un espejo, (2) sustituimos todas las partículas por antipartículas y (3) hacemos pasar la película hacia atrás, los resultados serán idénticos. En este esquema la P significa paridad (el espejo), la C significa conjugación de carga (poner las antipartículas) y T la reversa del tiempo (pasar la película al revés).

Se pensaba que el mundo era simétrico respecto a CPT porque, al menos al nivel de las partículas elementales, era simétrico respecto a C, P y T independientemente. Ha resultado que no es éste el caso. El mundo visto en un espejo se desvía un tanto al mundo visto directamente, y lo mismo sucede al mundo visto cuando la película pasa al revés. Lo que sucede es que las desviaciones entre el mundo real y el inverso en cada uno de estos casos se cancelan una a la otra cuando miramos las tres combinadas.

Aunque esto es verdad,  es verdad que el mundo es casi simétrico respecto a CP actuando solos y a T actuando solo; es decir, que el mundo es casi el mismo si lo miran en un espejo y sustituyen las partículas por antipartículas que si lo miran directamente. Este “casi” es lo que preocupa a los físicos. ¿Por qué son las cosas casi perfectas, pero les falta algo?

La respuesta a esta cuestión parece que  estar en la posible existencia de esa otra partícula apellidada axión. Se supone que el Axión es muy ligero (menos de una millonésima parte de la masa del electrón) e interacciona sólo débilmente con otra materia. Es la pequeña masa y la interacción débil lo que explica el “casi” que preocupa a los teóricos.

Las branas son entidades físicas conjeturadas por la teoría M y su vástago, cosmología de branas.  En la teoría M, se postula la existencia de p-branas y d-branas (ambos nombres provienen parasintéticamente de “membrana”). Las p-branas son objetos de dimensionalidad espacial p (por ejemplo, una cuerda es una 1-brana). En cosmología de branas,  el término “brana” se utiliza para referirse a los objetos similares al universo cuadridimensional que se mueven en un sustrato de mayor dimensión. Las d-branas son una clase particular de p-branas.

Un escenario posible imagina que el Universo empieza con todas sus dimensiones espaciales comportándose de una manera democrática, pero luego, algunas de las dimensiones quedan atrapadas y permanecen compactadas de manera tal que son infinitesimales, están el el límite de Planck y permanecen, como digo, estáticas y muy pequeñas desde entonces en ese lugar invisible al que no podemos llegar

Explicar todo el Universo con una sóla teoría es… Algo ambicioso pero… ¡habrá que esperar!

   En el mundo cuántico, todo puede ser posible

 nos asomamos a la Teoría de cuerdas, entramos en un “mundo” lleno de sombras en los que podemos ver brillar, a lo lejos, un resplandor cegador. Todos los físicos coinciden en el hecho de que es una teoría muy prometedora y de la que parece se podrán obtener buenos rendimientos en el futuro pero, de momento, es imposible verificarla.

El misterio de las funciones modulares podría ser explicado por quien ya no existe, Srinivasa Ramanujan, el hombre más extraño del mundo de los matemáticos. Igual que Riemann, murió antes de cumplir cuarenta años, y como Riemann antes que él, trabajó en total  en su universo particular de números y fue capaz de reinventar por sí mismo lo más valioso de cien años de matemáticas occidentales que, al estar aislado del mundo en las corrientes principales de los matemáticos, le eran totalmente desconocidos, así que los buscó sin conocerlos. Perdió muchos años de su vida en redescubrir matemáticas conocidas.

Dispersas  oscuras ecuaciones en sus cuadernos están estas funciones modulares, que figuran entre las más extrañas jamás encontradas en matemáticas. Ellas reaparecen en las ramas más distantes e inconexas de las matemáticas. Una función que aparece una y otra vez en la teoría de las funciones modulares se denomina ( ya he dicho otras veces) hoy día “función de Ramanujan” en su honor. Esta extraña función contiene un término elevado a la potencia veinticuatro.

Resultado de imagen de Universo en la Sombra Blog de emilio silvera

          ¿Podeis imaginar la existencia de un Universo en permanente sombra?

La idea de un universo en sombra nos proporciona una manera sencilla de pensar en la materia oscura. El universo dividido en materia y materia se sombra en el Tiempo de Planck, y  una evolucionó de acuerdo con sus propias leyes. Es de suponer que algún Hubble de sombra descubrió que ese universo de sombra se estaba expandiendo y es de suponer que algunos astrónomos de sombras piensan en nosotros  candidatos para su materia oscura.

¡ que incluso haya unos ustedes de sombras leyendo la versión de sombra de este trabajo!

Partículas y Partículas Supersimétricas

         Partículas y partículas supersimétricas

Partículas son las que todos conocemos y que forman la materia, la supersimétricas, fotinos, squarks y otros, las estamos buscando sin poder hallarlas.

Estas partículas son predichas por las teorías que unifican todas las fuerzas de la naturaleza. Forman un conjunto de contrapartidas de las partículas a las que estamos habituados,  son mucho más pesadas. Se nombran en analogía con sus compañeras: el squark es el compañero supersimétrico del quark, el fotino del fotón, etc. Las más ligeras de estas partículas podrían ser la materia oscura. Si es así,  partícula probablemente pesaría al menos cuarenta veces más que el protón.

Materia de sombra, si existe, no hemos sabido dar con ella y, sin embargo, existen indicios de que está ahí

En algunas versiones de las llamadas teorías de supercuerdas hay todo un universo de materia de sombra que existe paralelo con el nuestro. Los dos universos se separaron  la gravedad se congeló separándose de las otras fuerzas. Las partículas de sombra interaccionan con nosotros sólo a través de la fuerza de la gravedad, lo que las convierte en candidatas ideales para la materia oscura.

Axiones

El Axión es una partícula muy ligera (pero presumiblemente muy común) que, si existiera, resolvería un problema antiguo en la teoría de las partículas elementales. Se estima que  una masa menor que una millonésima parte de la del electrón y se supone que impregna el universo de una manera semejante al fondo de microondas. La materia oscura consistiría en agregaciones de axiones por encima del nivel general de fondo.

Criostato CDMS

Construímos inmensos aparatos de ingeniosas propiedades tecnológicas  tratar de que nos busquen las WIMPs.

¿WIMPs en el Sol?

A lo largo de todo el  se ha dado a entender que todas estas partículas candidatas a materia oscura de la que hemos estado hablando, son puramente hipotéticas. No hay pruebas de que ninguna de ellas se vaya a encontrar de hecho en la naturaleza. Sin embargo sería negligente si no mencionase un argumento –un diminuto rayo de esperanza- que tiende a apoyar la existencia de WIMPs de un  u otro. Este argumento tiene que ver con algunos problemas que han surgido en nuestra comprensión del funcionamiento y la estructura del Sol.

Creemos que la energía del Sol viene de reacciones nucleares profundas dentro del núcleo. Si éste es el caso en realidad, la teoría nos dice que esas reacciones deberían estar produciendo neutrinos que en principio son detectables sobre la Tierra. Si conocemos la temperatura y composición del núcleo (creemos), entonces podemos predecir exactamente cuántos neutrinos detectaremos. Durante más de veinte años se llevó a cabo un experimento en una mina de oro de Dakota del Sur para detectar esos neutrinos y, desgraciadamente, los resultados fueron desconcertantes. El número detectado fue de sólo un tercio de lo que se esperaba. Esto se conoce como el problema del neutrino solar.

“El problema de los neutrinos solares se debió a una gran discrepancia  el número de neutrinos que llegaban a la Tierra y los modelos teóricos del interior del Sol. Este problema que duró  mediados de la década de 1960 hasta el 2002, ha sido recientemente resuelto mediante un  entendimiento de la física de neutrinos, necesitando una modificación en el modelo estándar de la física de partículas,”

La segunda característica del Sol que concierne a la existencia de WIMPs se refiere al hecho de las oscilaciones solares.  los astrónomos contemplan cuidadosamente la superficie solar, la ven vibrar y sacudirse; todo el Sol puede pulsar en períodos de varias horas. Estas oscilaciones son análogas a las ondas de los terremotos, y los astrónomos llaman a sus estudios “sismología solar”. Como creemos conocer la composición del Sol, tenemos que ser capaces de predecir las propiedades de estas ondas de terremotos solares. Sin embargo hay algunas duraderas discrepancias entre la teoría y la observación en este campo.

No  mucho que los astrónomos han señalado que si la Galaxia está en realidad llena de materia oscura en la  de WIMPs, entonces, durante su vida, el Sol habría absorbido un gran número de ellos. Los WIMPs, por tanto, formarían parte de la composición del Sol, una parte que no se había tenido en cuenta hasta ahora. Cuando los WIMPs son incluidos en los cálculos, resultan dos consecuencias: primero, la temperatura en el núcleo del Sol resulta ser menor de lo que se creía, de forma que son emitidos menos neutrinos, y segundo, las propiedades del cuerpo del Sol cambian de tal modo que las predicciones de las oscilaciones solares son exactas.

         nos atrevemos a exponer una imagen que nos muestra la distribución de los WIMPs

Este resultado es insignificante en lo que se refiere a la existencia de WIMPs, pero  no debemos despreciar las coincidencias halladas, lo más prudente será esperar a nuevos y más avanzados experimentos (SOHO y otros). Tanto el problema del neutrino como las oscilaciones se pueden explicar igualmente  por otros efectos que no tienen nada que ver con los WIMPs. Por ejemplo, el tipo de oscilaciones de neutrinos podría resolverse si el neutrino solar tuviera alguna masa, aunque fuese muy pequeña, y diversos cambios en los detalles de la estructura interna  del Sol podrían explicar las oscilaciones. No obstante estos fenómenos solares constituyen la única indicación que tenemos de que uno de los candidatos a la materia oscura pueda existir realmente.

Toda  charla sobre supersimetría y teoría últimas da a la discusión de la naturaleza de la materia oscura un tono solemne que no tiene ningún parecido con la forma en que se lleva en realidad el debate entre los cosmólogos. Una de las cosas que más me gusta de este campo es que todo el mundo parece ser capaz de conservar el sentido del humor y una distancia respecto a su propio trabajo, ya que, los buenos científicos saben que, todos los cálculos, conjeturas, hipótesis y finalmente teorías, no serán visadas en la aduana de la Ciencia, hasta que sean muy, pero que muy bien comprobadas mediante el experimento y la observación y, no una sino diez mil veces  de que puedan ser aceptadas en el ámbito puramente científico.

                                                             El el Sol podemos hallar algunas respuestas

Posiblemente, el LHC nos pueda decir algo al respecto si, como no pocos esperan, de sus colisiones surgen algunas partículas supersimétricas que nos hablen de ese otro mundo oscuro que, estando en este, no hemos sabido encontrar  este momento. Otra posibilidad sería que la tan manoseada materia oscura no existiera y, en su lugar, se descubriera otro fenómeno o mecanismo natural desconocido hasta ahora que, incidiendo en el comportamiento de expansión del Universo, nos hiciera pensar en la existencia de la “materia oscura”  cubrir el hueco de nuestra ignorancia.

     Vuelve al trabajo buscando partículas SUSY

Hace algún tiempo, en esas reuniones periódicas que se llevan a cabo entre científicos de materias relacionadas: física, astronomía, astrofísica, comología…, alguien del grupo sacó a relucir la idea de la extinción de los dinosaurios y, el hombre se refirió a la teoría (de los muchas que circulan) de que el Sol, en su rotación alrededor de la Vía Láctea, se salía periódicamente fuera del plano de la Galaxia. Cuando hacía esto, el polvo existente en ese plano podía cesar de proteger la Tierra, que entonces quedaría bañada en rayos cósmicos letales que los autores de la teoría pensaban que podían permeabilizar el cosmos. Alguien,  el fondo de la sala lanzó: ¿Quiere decir que los dinosaurios fueron exterminados por la radiación de fotinos?

La cosa se tomó a broma y risas marcaron el final de la reunión en la que no siempre se tratan los temas con esa seriedad que todos creen, toda vez que, los conocimientos que tenemos de las cosas son muy limitados y tomarse en serio lo que podría no ser… ¡No sería nada bueno!

Por ejemplo, si vemos la imagen de arriba y un letrero que diga: “Dopar un aislante topológico con impurezas magnéticas rompe la simetría de inversión temporal y abre una nueva vía a la espintrónica.”  Para la mayoría de los presentes, el galimatías no le dirá nada y, sin embargo, para otros al tanto de las cuestiones de física, le parecerá que: “Los aislantes topológicos son materiales que conducen electrones en su superficie exterior, pero actúan como aislantes en su volumen interior.  propiedad tiene su origen en la forma en que los electrones se mueven a través del material. Los electrones poseen un espín mecánico-cuántico que apunta hacia “arriba” o hacia “abajo”. El espín es normalmente independiente del movimiento de los electrones, pero dentro de los aislantes topológicos, el espín de los electrones está estrechamente relacionado con su movimiento.”

¡Qué cosas! Lo que digo siempre… ¡Nunca llegaremos a saberlo todo!

emilio silvera


La Física Cuántica nos revelará los secretos del Cosmos

$
0
0

Resultado de imagen de Pauli y el neutrino

En 1.930, el físico Wolfgang Pauli propuso la hipótesis de una nueva e invisible partícula denominada neutrino para dar cuenta de la energía pérdida en ciertos experimentos sobre radiactividad que parecían violar la conservación de la materia y la energía. Pauli comprendió, no obstante, que los neutrinos serían casi imposibles de observar experimentalmente, porque interaccionarían muy débilmente y, por consiguiente, muy raramente con la materia.

Por ejemplo, si pudiéramos construir un bloque sólido de plomo de varios años-luz de extensión desde nuestro Sistema Solar hasta Alpha Centaury y lo pusiéramos en el camino de un haz de neutrinos, aun saldrían algunos por el extremo opuesto.  Pueden atravesar la Tierra como si ni siquiera existiese y, de hecho, billones de neutrinos emitidos por el Sol están atravesando continuamente nuestros cuerpos, tanto de día como de noche.  Pauli admitió: “He cometido el pecado más grave, he predicho la existencia de una partícula que nunca puede ser observada.”

Resultado de imagen de Buscando neutrinos

Buscando neutrinos en laboratorios subterráneo

Los neutrinos han sido objeto de grandes proyectos para su localización, y, escondidos en las profundidades de la Tierra, en minas abandonadas, han sido instalados grandes depósitos de agua pesada que, detectaban a los neutrinos que allí interaccionaban y que eran detectados por ordenador. Hay empresas que parecen descabelladas y, sin embargo, son las que nos traen los mayores éxitos.

Si repasamos la historia de la Ciencia, seguramente encontraremos muchos motivos para el optimismo.  Witten con su Teoría M,  está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck.

Como ya he contado en otras ocasiones, él dijo:

Resultado de imagen de Edward Witten

“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles.  En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible.  Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas…  La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante veinticinco años.”

En su opinión Las buenas ideas siempre se verifican.

Resultado de imagen de La Gravedad de NewtonResultado de imagen de El campo eléctrico de Faraday

Resultado de imagen de El electromagnetismo de Maxwell

Resultado de imagen de La teoría del electrón de Dirac

Resultado de imagen de La función de onda de Schrödinger

Es más fácil mostrar la relación con la ecuación de Schrödinger, generalizando esta función de onda a una forma exponencial compleja, mediante la fórmula de …

Los ejemplos son innumerables: La Gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de la relatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría del electrón de Paul Dirac, el principio incertidumbre de Heisemberg, la función de ondas de Schrödinger, y tantos y tantos otros.

Resultado de imagen de El experimento en física

Casi todos ellos se quejaban de que se insistiera tanto en el experimento, sin embargo, había que reconocer que, sin éste, ninguna teoría podría ser validada.

El premio Nóbel Paul Dirac incluso llegó a decir de forma más categórica:”Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas.”

O, en palabras del físico John Ellis del CERN: “como decía en una envoltura de caramelos que abrí hace algunos años:  “ Es sólo el optimista el que consigue algo en este mundo”

Dispersión de neutrones. La dispersión inelástica de neutrones en un cristal es el resultado de la interacción de un neutrón lanzado contra los átomos en vibración de la red cristalina. En teoría cuántica de campos, el proceso se modeliza de manera más sencilla al introducir los cuantos de las ondas sonoras del cristal, los fonones, entendiéndolo como la absorción o emisión de un fonón por el neutrón.
Partículas y campos, clásicos y cuánticos. Las nociones clásicas de partícula y campo comparadas con su contrapartida cuántica. Una partícula cuántica está deslocalizada: su posición se reparte en una distribución de probabilidad. Un campo cuántico es equivalente a un colectivo de partículas cuánticas.

Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y, finalmente, también como todos ustedes, decido según mi propio criterio, que no obligatoriamente, coincidirá con alguna de esas opiniones, y, en algún caso, hasta me permito emitir, la mía propia.

Resultado de imagen de Teoría de cuerdasImagen relacionada

Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en este mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa.

El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas, cuando su “ámbito natural” está en la energía de Planck.  Esta fabulosa energía fue liberada sólo en el propio instante de la creación. Lo que quiere decir, que la teoría de supercuerdas es naturalmente una teoría de la Creación.

Resultado de imagen de Arno Penzias y Robert Wilson de los Bell telephone Laboratories

           Arno Penzias y Robert Wilson

Fuimos capaces de predecir que el big bang produjo un “eco” cósmico reverberando en el Universo y que podría ser medido por los instrumentos adecuados.   De hecho, Arno Penzias y Robert Wilson de los Bell telephone Laboratories ganaron el premio Nóbel en 1978 por detectar este eco del big bang, una radiación de microondas que impregna el Universo conocido. El que el eco del big bang debería estar circulando por el Universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio.

La propia idea de medir el Eco de la Creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial.

Imagen relacionada

Su lógica, sin embargo, era aplastante.  Cualquier objeto, cuando se calienta, emite radiación de forma gradual.  Esta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un horno y, cuanto más se calienta, mayor es la frecuencia de radiación que emite.  Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura.  (De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana, examinando su color).  Esta radiación se denomina RADIACIÓN DE CUERPO NEGRO.

Resultado de imagen de Visores nocturnos para el ejercito

Esta radiación (como no), ha sido aprovechada por los ejércitos que mediante visores nocturnos pueden operar en la oscuridad.  De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojos.  Esta es también la razón de que nuestros automóviles cerrados se calienten en verano, ya que, la luz del Sol atraviesa los cristales del automóvil y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja.  Sin embargo, esta clase de radiación, no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura.

Resultado de imagen de Efecto invernadero del planeta

Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra y, de este modo, calentar gradualmente el planeta.

Gamow razonó que el big bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación.  Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la Creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles para detectar esta radiación “fósil”.

Imagen relacionada

La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del big bang, el Universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que esta impregnando todo el Universo.  Antes de este momento, el Universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación.  Esto significa que el Universo era opaco, como una niebla espesa absorbente e impenetrable.

Pasados 300.000 años, la radiación no era tan potente, se había enfriado, y por lo tanto la luz podía atravesar grandes distancias sin ser dispersada.  En otras palabras, el Universo se hizo repentinamente mayor y transparente.

Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario, un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica.

Resultado de imagen de La radiación de cuerpo negro en todas las longitudes de onda

La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro.  Se extiende sobre todo el rango de longitud de onda y la distribución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas.

Hablar, sin más especificaciones, radiación, es estar refiriéndonos a una energía que viaja en forma de ondas electromagnéticas o fotones por el Universo.  También nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas alfa o beta de una fuente radiactiva o neutrones de un reactor nuclear.

Resultado de imagen de La radiación actínida es la electromagnética que es capaz de iniciar una reacción química

               El término es usado especialmente para la radiación ultravioleta …

La radiación actínida es la electromagnética que es capaz de iniciar una reacción química.  El término es usado específicamente para la radiación ultravioleta y también para denotar radiación que podría afectar a las emulsiones fotográficas.

Radiación blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, poli cromática, de sincrotrón, ultravioleta, de la teoría cuántica, de radiactividad…    y, como se puede ver, la radiación en sus diversas formas, es, un Universo en sí misma.

Resultado de imagen de La Ley de radiación de Planck

Siempre me llamó la atención y se ganó mi admiración el físico alemán Max Planck (1858-1947), responsable, entre otros muchos logros, de la ley de radiación de Planck que, da la distribución de energía radiada por un cuerpo negro.  Introdujo en Física el concepto novedoso de que la energía es una entidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua.

Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.

Einstein se inspiró en este trabajo para a su vez, presentar el suyo propio sobre el efecto fotoeléctrico donde la energía máxima cinética del fotoelectrón, Em’ esta dada por la ecuación que lleva su nombre:

Planck publicó en 1.900, un artículo sobre la radiación de cuerpo negro que, sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros, como el mismo Einstein, Heisemberg, Schrördinger, Dirac, Feymann, etc.

Resultado de imagen de Max Planck fue reconocido por sus méritos

Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de Planck, radiación de Planck, longitud de Planck, unidades de Planck, etc.  Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de la física.

Pongamos un par de ejemplos de su ingenio:

1)     Longitud de Planck que  vale 10-35 metros

Esta escala de longitud (veinte ordenes de magnitud menor que el tamaño del protón 10-15 m.) es a la que la descripción clásica de la gravedad cesa de ser válida y deber ser tenida en cuenta la mecánica cuántica.

En la formula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c es la velocidad de la luz.

 Masa de Planck

2)   vale 10-8 kg.

Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck.  Está dada por la ecuación 2), donde ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional (los mismos términos de la ecuación 1), pero intercambiándolos de manera que tienen otro significado).

Resultado de imagen de Teor´çia cuántica de la Gravedad

La descripción de una partícula elemental de esta masa, o partículas que interaccionan con energías por partículas equivalentes a ella (a través de), requiere una teoría cuántica de la gravedad.  Como la masa de Planck es del orden de 10-8 Kgs (equivalente a una energía de 10-19 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales es del orden de 7 TeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas.

Resultado de imagen de Únicamente, en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck:

Únicamente, en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el Universo primitivo, de acuerdo con la teoría del Big Bang, motivo este por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas condiciones.

Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable para nosotros), es la que necesitamos para verificar la teoría de supercuerdas.

Siempre, desde que puedo recordar, me llamó la atención los misterios y secretos encerrados en la Naturaleza y, la innegable batalla mantenida, a lo largo de la historia, por los científicos para descubrirlos.

emilio silvera

Relatividad Especial: Luz, velodidad, tiempo, masa-energía

$
0
0

La radiación electromagnética es el producto de la variación periódica de los campos eléctrico y magnético. Un campo es una región del espacio en la que la materia está sometida a algún tipo de fuerza. En el caso de la radiación electromagnética, los campos son producidos por las partículas cargadas en movimiento. La luz visible es un tipo de radiación electromagnética. A veces se comporta como una ondaque se propaga en el espacio, y otras veces se comporta como un conjunto de fotones. A este fenómeno se le denomina dualidad de la radiación.

Los distintos tipos de radiación electromagnética dependen directamente de las características de la onda, que son: frecuencialongitud de onda amplitud o intensidad. En realidad, como veremos a continuación, la frecuencia y la longitud de onda están directamente relacionadas, por lo que para describir completamente una onda, (la radiación electromagnética en nuestro caso) basta con dar información acerca de su amplitud y frecuencia (o longitud de onda). Las ondas electromagnéticas transportan energía siempre a la misma velocidad en el vacío: 299792 kilómetros por segundo, lo que se conoce como velocidad de la luz (c).

No todas las formas de  radiación electromagnética pueden ser captadas por el ojo humano que sólo puede ver la que se nos aparece en forma de luz visible y de la cual depende nuestra consciencia visual del universo y sus contenidos. La Relatividad Especial nos dice que es precisamente  la luz la que marca el límite de la velocidad que en el Universo se puede alcanzar. No vamos a meternos ahora en la polémica de si son ondas o partículas, o, las dos cosas según los casos. Sin embargo, una cosa sí que tenemos que dejar clara: Es una constante universal, aunque algunos se empeñen en querer quitarle esa primacía.

File:Wormhole travel as envisioned by Les Bossinas for NASA.jpg

“El empuje warpempuje por curvatura impulso de deformación o impulso de distorsión es una forma teórica de propulsión superlumínica. Este empuje permitiría propulsar una nave espacial a una velocidad equivalente a varios múltiplos de la velocidad de la luz, mientras se evitan los problemas asociados con la dilatación relativista del tiempo.”

¿Será científicamente posible superar la velocidad de la Luz?  ¿Los motores de curvatura que impulsaban a la nave Enterprise en sus  escarceos por el espacio pueden convertirse en una realidad y permitirnos superar la velocidad de la luz?. Bueno,  unos “científicos” de los que no recuerdo sus nombres, así lo han declarado. Sin embargo, si la velocidad de la luz puede ser superada, antes de que dicha proesa la puedan conseguir los hombres, creo que, si tal cambio de una constante natural llegara a producirse, sólo podría venir de cambios producidos en la misma Naturaleza,y, por nuestra parte, no podremos nunca superar la velocidad de la luz pero, sí podremos burlarla encontrando otros caminos hacia mundos y estrellas lejanos en remotas regiones del Universo.

Aunque muchas veces comentado, trataré de nuevo el tema de la velocidad de la luz y sus implicaciones reales en el transcurso del tiempo. La relatividad del movimiento es, por una parte, la clave para comprender la teoría de Einstein, y al mismo tiempo una fuente potencial de confusión.

¡El Tiempo transcurre inexorable, nada puede evitar que, como luciérnagas o gotas de agua, se escurra entre los “dedos” de nuestras efímeras vidas.

No es nada fácil dar una definición del tiempo, los intentos de hacerlo terminan a menudo dando vueltas y vueltas hasta llegar al punto de partida.  Sin ir más lejos, en un trabajo mío de título “Pasado, Presente y Futuro. Una ilusión llamada Tiempo“, intenté explicar lo que es el tiempo y hablé de él desde distintos ángulos y bajo distintos puntos de vista. Durante muchas páginas trate el tiempo y me remonte hasta el Big Bang como fuente de su nacimiento, allí, junto a su hermano, el espacio, nació el tiempo. Sin embargo y pese a mi esfuerzo por esbozar una imagen escenificando lo que el Tiempo es… ¡No lo conseguí! Al igual que los mejores filósofos, fracasé en el intento y, la explicación es fácil: Nadie puede dar razón de algo que no conoce.

 En aquella ocasión, entre otras muchas cosas, hablé del reloj atómico de cesio-33, de la velocidad de la luz, de la fórmula matemática que explicaba la dilatación del tiempo a través de la velocidad, del tiempo de Planck, de las transformaciones de Lorentz, tiempo terrestre, tiempo dinámico, tiempo bariónico, tiempo estándar, tiempo universal, ¿cuántos conceptos de tiempo podemos tener? Y, sin embargo, seguimos sin saber lo que el tiempo es, si es que, realmente, es algo más que una abstracción de nuestras mentes.

Podemos medir el tiempo en un reloj de luz pero nuestro objetivo es comprender cómo afecta el movimiento al transcurso del tiempo. Se conoce como “reloj de luz” al más sencillo del mundo y que consiste en dos pequeños espejos montados el uno frente al otro sobre un soporte, y entre ellos hay un único fotón de luz que salta del uno al otro. Si los espejos están separados unos 15 cm, el fotón tardará alrededor de una milmillonésima de segundo en realizar un viaje de ida y vuelta. Se puede considerar que el “tictac” de un reloj de luz se produce cada vez que un fotón hace un viaje de ida y vuelta completo. Mil millones de tictac indicarían que ha transcurrido un segundo. El fotón de uno a otro espejo realizando el viaje de ida y vuelta mil millones de veces en un segundo. El fotón no tiene masa y su velocidad es la de la luz, 299.792.458 m/s.

Resultado de imagen de La luz desde el Sol a la Tierra ¿que tarda en llegar?

Tenemos que mencionar el carácter constante de la velocidad de la luz, y que el mismo implica que un reloj pueda marcar su tictac más lentamente.  O dicho de otra manera, viajar a velocidades cercanas a la de la luz ralentiza el tiempo, así lo determina la teoría de la relatividad especial de Einstein. El tiempo transcurre más lentamente para un individuo en movimiento que para otro individuo que se encuentre en reposo. Si el razonamiento absolutamente sencillo que nos ha llevado a esta conclusión es correcto, entonces, ¿no tendríamos, por ejemplo, que poder vivir más tiempo estando en movimiento que permaneciendo inmóviles? Después de todo, si el tiempo transcurre más lentamente para un individuo en movimiento que para uno que está quieto, esta disparidad se podrá aplicar también, además de al tictac de un reloj, al latido de un corazón y al deterioro de algunas partes del cuerpo. Esto es así, y se ha confirmado directamente, no para la esperanza de vida de los humanos, sino para ciertas partículas del microespacio: los muones. No obstante, existe una pega importante que nos impide proclamar el hallazgo de la fuente de la juventud.

Resultado de imagen de La ilusión de la fuente de la juventud que muchos han querido encontrar

La ilusión de la fuente de la juventud que muchos han querido encontrar. NO existen los espejos mágicos

Pensar en la existencia de la fuente de la Juventud, no es nada nuevo. Muchos han sido los que la han buscado sin encontrarla, y, sin embargo, yo he tenido esa suerte pero, a pesar de ello, no es eterna como tantos esperaban. La “eternidad” no existe. Si acaso, en alguna circunstancia el paso del Tiempo se podría retrasar.

Cuando se encuentran en reposo en el laboratorio, los muones se desintegran mediante un proceso muy semejante a la desintegración de la radiactividad, en un promedio de tiempo de alrededor de dos millonésimas de segundo. Esta desintegración es un hecho experimental apoyado en una cantidad enorme de pruebas. El muón tiene una vida de 2 millonésimas de segundo, llegado a ese tiempo, se desintegra, explota para descomponerse en electrones y neutrinos.

Resultado de imagen de Fotografía facilitada por el Centro Europeo de Investigación Nuclear (CERN) de la reconstrucción de las primeras colisiones de iones de plomo, vistas por el detector de partículas llamado Solenoide Compacto de Muones (CMS) en la sede del CERN en Ginebra, Suiza.

                 Solenoide Compacto de Muones (CMS)

Estos experimentos con iones de plomo abren ´una nueva avenida en la investigación del programa del acelerador para sondear la materia tal como era en los primeros instantes del Universo´, justo después del Big Bang, según el CERN.

Resultado de imagen de Fotografía facilitada por el Centro Europeo de Investigación Nuclear (CERN) de la reconstrucción de las primeras colisiones de iones de plomo, vistas por el detector de partículas llamado Solenoide Compacto de Muones (CMS) en la sede del CERN en Ginebra, Suiza.

Fotografía facilitada por el Centro Europeo de Investigación Nuclear (CERN) de la reconstrucción de las primeras colisiones de iones de plomo, vistas por el detector de partículas llamado Solenoide Compacto de Muones (CMS) en la sede del CERN en Ginebra, Suiza.

LHC.svg
Cadena de aceleradores
del Gran Colisionador de Hadrones (LHC)

Fotografía facilitada por el Centro Europeo de Investigación Nuclear (CERN) de la reconstrucción en línea del sistema High Level Trigger (HLT) que muestra pistas del Inner Tracking System (ITS) y la Cámara de Proyección de Tiempo (TPC) del ALICE de las primeras colisiones de iones de plomo, vistas por el detector de partículas llamado Solenoide Compacto de Muones (CMS) en la sede del CERN en Ginebra, Suiza. Estos experimentos con iones de plomo abren ´una nueva avenida en la investigación del programa del acelerador para sondear la materia tal como era en los primeros instantes del Universo, justo después del Big Bang, según el CERN.

Pero si los muones no están en reposo en el laboratorio, sino que viajan a través de un aparato denominado acelerador de partículas que los impulsa hasta alcanzar la velocidad de la luz, el promedio de su esperanza de vida medido por los científicos en el laboratorio aumenta drásticamente. Esto sucede realmente. A una velocidad de 298.168 kilómetros por segundo (alrededor del 99’5% de la velocidad de la luz), el tiempo de vida del muón se multiplica aproximadamente por diez. La explicación de esto, de acuerdo con la relatividad especial, es que los “relojes de pulsera” que llevan los muones hacen tictac mucho más lentamente que los relojes del laboratorio que están en reposo y su tictac es más rápido, o sea al ritmo normal cotidiano del transcurso del tiempo. Esta es una demostración muy directa y expresiva del efecto que produce el movimiento en el paso del tiempo. Si las personas pudieran moverse tan rápido como estos muones, su esperanza de vida subiría hasta los 800 años, al multiplicarse por el mismo factor 10 de los muónes.

¿Que dónde está el truco?

mujer calle

                                                   Este movimiento no implica cambio alguno al no ser relativista, es un simple desplazamiento de lugar

Bueno, el que los muones en movimiento vivan 10 veces más tiempo que los muones en reposo se debe precisamente a que el movimiento “muy rápido” detiene el tiempo, no por completo, sino que lo ralentiza y lo hace ir más despacio.  Claro que no todos los movimientos pueden conseguir este milagro.En nuestras vidas cotidianas en las que nos movemos con velocidades muy pequeñas comparadas con la de la luz, el tiempo transcurre de manera normal que, será rápido o lento en función de las circunstancias personales de cada uno de nosotros.

                                          El Tiempo vuela

Resultado de imagen de El tiempo es efímero en la felicidad

         El Tiempo se hace eterno si hay dolor, en la felicidad es efímero

Cuando pensamos en las extrañas cosas que pueden ocurrir en relación al tiempo, nos encontramos dentro de un mundo fascinante que no siempre comprendemos. Recordad la paradoja de los gemelos y otras similares relacionadas con el transcurrir del tiempo. Y, los sesudos científicos han pensado en múltiples situaciones en las que se producen curiosos fenómenos. Otras veces lo he contado: Imaginemos un tren que viaja a 120 Km/h.

En uno de los vagones viaja un padre y su hijo. El niño, asomado por la ventanilla, en el momento de pasar frente a una estación en la que el Jefe observa el paso del tren comprobando la hora, el niño con toda su fuerza, arroja una pequeña pelota de goma en el mismo sentido de la marcha del tren, y la velocidad alcanzada por la pelota es de 20 Km/h.

Ahora bien, encargamos medir la velocidad de la pelota (suponiendo que ambos tienen un aparato de medida adecuado), tanto al padre del niño que viaja con él en el tren, como al Jefe de Estación  que, parado en el andén,  observa el paso del mismo.

¿Qué medida nos dará cada uno? Cada observador nos dará una medida distinta del mismo suceso y ambas medidas serán las correctas.

El padre del niño nos dirá que la velocidad de la pelota es de 20 Km/h, mientras que el Jefe de Estación, parado en el andén, nos dirá que la pelota va a una velocidad de 140 Km/h. Ambos aciertan, aplicando la relatividad hay que tener en cuenta que el padre del niño hace la medida de la velocidad de la pelota cuando él está montado en el tren que está en movimiento en el mismo sentido en que va la pelota, lo cual hace que sólo mida la velocidad de la pelota, 20 Km/h. (si lo que estuvieran miendo ambos fuera la velocidad de la luz, la medida sería la misma para ambos).

Sin embargo, el aparato de medir la velocidad que sostiene el Jefe de Estación, en reposo en el andén, mide la suma de las dos velocidades la del Tren 120 + 20 de la pelota, lo que resulta una velocidad real de 140 Km/h, a la velocidad de la pelota hay que sumar la velocidad del tren.

    ¡La que formó el buen hombre!

Este ejemplo es cotidiano y se coge la velocidad como protagonista de la demostración de lo que es la teoría de la relatividad especial. En el ejemplo del muón (que se podría extrapolar a una persona que viajara en una nave espacial a velocidades cercanas a la de la luz), el protagonista es el Tiempo, que como consecuencia de una alta velocidad se detiene para transcurrir más lento en función de la velocidad a la que se esté viajando, es el efecto predicho por la teoría de Einstein y demostrados experimentalmente.  Los tiempos son relativos al movimiento de los observadores. El reloj viajero es más lento en un factor de

.

En otras ocasiones, comentando esto mismo, hice referencia al conocido, o más bien conocida paradoja de los gemelos. Uno, astronauta que parte para Alfa Centauro, y el otro, profesor que le despide. Ambos tienen 38 años. La nave parte hacia la estrella vecina y hace el viaje de ida y vuelta a la velocidad de la luz, descansando un día para tomar datos de la estrella.  Al regreso, el hermano gemelo del astronauta va a recibirlo y cuando éste desciende de la nave, tiene la edad de 46’6 años,  es decir,  8,6 años más que cuando salió que es el tiempo que ha tardado la nave en hacer el viaje de ida y vuelta, mientras que él ya está jubilado, tiene mucha más edad.

Resulta exactamente lo mismo que en el experimento del múón, el tiempo del gemelo astronauta que viajó muy rápido, pasó mucho más lento que el tiempo del gemelo profesor que siguió en la Tierra a un ritmo muchísimo más lento. Así la ecuación es inversa:

Movimiento rápido  =  Tiempo más lento y Movimiento más lento = Tiempo más rápido.

Por muy rápidos que podamos ir, aunque consigamos estirar el tiempo, todo sería una falsa ilusión, ya que, en ese exceso de tiempo sólo podríamos realizar las mismas cosas que en el tiempo normal, sólo que más lentamente.

Pero la ecuación no debe equivocarnos; el gemelo de la Tierra, el que ahora es más viejo, en realidad ha vivido mucho más que el otro, ha vivido toda una vida con todo lo que eso conlleva, mientras que el otro hermano, el viajero, sólo ha vivido un viaje; sí, algo largo (8’6 años luz), pero en dicho espacio de tiempo, al ser muy lento, sólo cabían las incidencias de un viaje en una nave espacial, mientras que el otro hermano ha comprimido el tiempo en cuanto a los muchos hechos que ha podido meter dentro, así que para él pasó mucho más rápido.

En realidad no es que el astronauta viviera más tiempo, sino que su tiempo pasaba mucho más lentamente porque él estaba corriendo más que su hermano, y corriendo tanto no da tiempo para hacer muchas cosas, sin embargo corriendo menos nos dará tiempo para todo. Ya sabes…Si tienes prisa…visteté despacio.

¡Qué locura!

Sí, es algo complicado, más de lo que pueda parecer, y sin embargo muy real. El astronauta vivió ese periodo de tiempo a cámara lenta, por eso “su tiempo” fue más largo o se tardó más tiempo para medirlo por el hecho cierto de que transcurría más lento. El fenómeno desapareció en el momento de tomar tierra, donde el tiempo era de nuevo el mismo para los dos hermanos. Así que durante la vida de 800 años al que antes aludíamos, en realidad podríamos hacer exactamente las mismas cosas que en la vida de 80 años, sólo que más lentamente.

einstein-teorias

                         Tenía buenas intenciones cuando propuso sus teorías pero, ¡la que ha formado!

La Relatividad Especial también dice que ocurre algo interesante al movernos a través del tiempo espacial, especialmente cuando tu velocidad relativa a otros objetos es cercana a la velocidad de la luz. El tiempo pasa más lentamente para ti que para las personas que has dejado atrás. No observarás este efecto hasta que regreses a esas personas estacionarias.

Así que después de todo esto llegamos a la conclusión del principio, la relatividad del movimiento es, por una parte, la clave para comprender la teoría de Einstein, y al mismo tiempo (repito) una fuente de confusión; hay que centrarse muy profundamente en el problema para llegar a verlo, de manera clara, en tu cabeza. A mí, al principio, no me entraba la idea. Después de un tiempo de ahondar en la relatividad especial, por fin se hizo la luz, y efectivamente el tiempo va más despacio para quien se mueva muy rápido.

En la vida cotidiana, donde las velocidades son pequeñas, las diferencias entre alguien que corre y otro que está parado, puede ser tan insignificante que, en realidad, es despreciable. Se podría viajar más rápido que la luz por un puente de Einstein-Rosenpero, ¿dónde están esos puentes? Que sepamos, nadie ha visto ninguno.

Otra curiosidad de la relatividad especial es que el objeto que se mueva a la velocidad de la luz se acorta a lo largo de la dirección del movimiento.  Por ejemplo, las ecuaciones de la relatividad especial demuestran que un objeto que se mueva aproximadamente al 98 por ciento de la velocidad de la luz, será medido por un observador inmóvil como un 80% más corto que cuando estaba parado, es lo que se conoce como la “Contracción de Lorentz”, que también es totalmente cierta. Pero además, a estas velocidades ocurre otra curiosidad: la masa del objeto aumenta considerablemente, ya que como el universo limita la velocidad que podemos alcanzar a la de la luz, cuando nos estamos acercando a ella, la energía que se traducía antes en velocidad, a partir de cierto punto se convierte en masa. No podemos olvidar que E = mc2, nos dice que la masa es energía y la energía es masa, son dos aspectos de la misma cosa.

Esquema sobre la contracción de Lorentz. (X′,cT′) representan las coordenadas de un observador en reposo a una barra, mientras que (X,cT) son las coordenadas de otro observador con respecto a dicha barra, por la naturaleza pseudoeuclídea del espacio-tiempo aun cuando el primer observador mide una longitud l, el segundo mide una longitud menor l/γ < l.

Einstein, en un principio, denominó a su teoría no como de la relatividad, la llamó teoría de la invariabilidad, para reflejar el carácter invariable de la velocidad de la luz. La obra de Einstein demostró que conceptos tales como espacio y tiempo, que anteriormente parecían estar separados y ser absolutos e inamovibles, en realidad están entrelazados y son relativos. Einstein demostró además que otras propiedades físicas del universo, sorprendentemente también están interrelacionadas. Arriba de esta misma página se reseña su famosa fórmula como uno de los ejemplos más importantes que afirma (y quedó más que demostrado) que E (energía) de un objeto y m (su masa) no están separados y se puede determinar la energía a través de la masa del objeto (multiplicando esta dos veces por la velocidad de la luz, o sea por c2).

Resultado de imagen de Aferrados a la Eternidad

                            Efímeros momentos… ¡La Eternidad no existe!

Sí, hemos podido comprobar millones de veces que masa y energía son la misma cosa. Sin embargo, en la actualidad desconocemos la naturaleza de la “materia y de la energía oscuras” que constituyen la mayor porción de aquello que compone el Universo (imagen: cúmulo de galaxias MACS J0717,


Volvamos a un muón que se desplaza a un 99’999 por ciento de la velocidad de la luz, y su masa se multiplica por 224; a un 99’999 por ciento de la velocidad de la luz se multiplica por un factor que es más de 70.000.  Como la masa del muón aumenta sin límite a medida que su velocidad se aproxima a la de la luz, sería necesario un impulso dado con una cantidad infinita de energía para alcanzar o superar la barrera de la velocidad de la luz. Como una cantidad infinita de energía no existe, de nuevo aparece el límite que el universo impone a la velocidad, nada podrá superar la velocidad de la luz. Al menos en este universo que conocemos donde las constantes universales, como la masa del electrón, la constante de estructura fina, o la velocidad de la luz, son como son para que el universo sea como lo conocemos y para que nosotros podamos estar aquí.

Resultado de imagen de Sin las constantes universales no habría vida

Una mínima variación en alguna de estas constantes universales,  seguramente habría impedido que nosotros surgiéramos a la vida en el planeta Tierra. Sin embargo, algunos no se paran a pensar y, de buenas a primeras, nos dicen que la velocidad de la luz no es el límite de la velocidad que se puede alcanzqar en nuestro Universo. ¿Será posible? ¿Cómo algunos no piensan antes de hablar?

emilio silvera

La masa y la energía ¿De donde vienen?

$
0
0

No es ningún secreto que la obra más famosa de la denominada literatura árabe, Alf Laylah wa-Laylah (Las mil y una noches), era en realidad una antigua obra persa.  Hazar Afsana ( un millar de cuentos), que contenía distintos relatos, muchos de los cuales eran de origen Indio.  Con el paso del tiempo, se hicieron adiciones a obra, no sólo a partir de fuentes árabes, sino también griegas, hebreas, turcas y egipcias.  La obra que hemos leído (casi) todos, en realidad, es un compendio de historias y cuentos de distintas nacionalidades, aunque la ambientación que conocemos, es totalmente árabe.

 

Los físicos que abordan el multiverso coinciden en que sería imposible visitar los universos vecinos, pero pueden estar ahí. / The Washington Post (Washington Post)

 

Nuestro universo, con lo inmenso que es, con centenares de miles de millones de galaxias visibles y tantos millones de estrellas en cada una de ellas, puede que no sea el único que exista. Tal vez hay otros universos, distintos del que conocemos, y alguno parecido… ¿Sería posible visitarlos? ¿Echarles un vistazo? ¿Comprobar siquiera si efectivamente están por ahí como burbujas aisladas… a no ser que entren algunas en colisión? Medio centenar de expertos estadounidenses, europeos y españoles se han reunido esta semana en un encuentro científico de alto nivel celebrado en la Universidad Autónoma de Madrid (UAM) para discutir precisamente los multiversos y las teorías en las que emerge su existencia.

 

fotografías

En realidad, cuando observamos el Universo y vemos los fenómenos que ahí ocurren, las transiciones de fase que se producen en la materia, las energías desatadas que por todas partes son proyectadas en explosiones de supernovas y colisiones de estrellas de neutrones o agujeros negros, cuando dos inmensas galaxias se funden en una y se fusionan mediante un Vals de Gravedad que dura algunos millones de años… Cuando todo eso ocurre, podríamos pensar que, la Vida, no está preparada para ese entorno. Sin embargo, ¡aquí estamos!

Como nos dice la filosofía, nada es como se ve a primera vista, todo depende del punto de vista desde el que miremos las cosas, de la perspectiva que nos permita nuestra posición física y, la intelectual también. No todos podemos ver las cosas de la misma manera. La imagen de abajo que es una Nebulosa como otras tantas, ¿qué te dice a tí? ¿qués es lo que ahí puedes ver? ¿qué deduces de los componentes de la nebulosa? ¿qué puede surgir de ahí y de otros lugares como este de abajo? ¿Cómo llegó a formarse tal conglomerado de gas y polvo?

http://juancarrion.files.wordpress.com/2010/05/feynman.jpg

 

Richard Feynman

 

“Siempre me ha intrigado que, cuando se trata de aplicar las leyes tal como las entendemos actualmente, una computadora necesite hacer un número infinito de operaciones lógicas para efectuar cálculos relativos a lo que sucede en cualquier zona insignificante del tiempo. ¿Cómo puede suceder todo eso en un espacio diminuto? ¿Por qué se necesita una cantidad infinita de operaciones lógicas para averiguar lo que va a pasar en un fragmento diminuto de espacio-tiempo? A menudo he formulado la hipótesis de que en última instancia la física no necesitará una expresión matemática, ya que al fin se descubrirá la maquinaria y las leyes llegarán a ser sencillas, como un juego de ajedrez con todas sus aparentes complejidades.”

 

 

              Patrón de un kilogramo.

El cemento del Universo: Leptones y Quarks. Pero a partir de estos infinitesimales objetos, se conforman muchos otros conceptos que, como la Masa y la Carga eléctrica le van dando forma y comprensión a esos fenómenos que hemos podido llegar a observar y comprender. ¿De qué estamos hechos? El Modelo Estándar de Partículas Elementales ha dejado al descubierto una aceptable explñicación para comprender eso y mucho más.
El misterio de la masa
Resultado de imagen de La masa y la materia
De forma cotidiana denominamos masa a la cantidad de materia de un cuerpo. Prácticamente toda la masa de los átomos que componen la materia se debe a la masa de sus núcleos. La masa de los núcleos atómicos esencialmente corresponde a la de los protones y neutrones que los forman. Sin embargo, la masa de un protón o un neutrón es mucho mayor que la suma de las masas de los quarks que los forman (éstas son tan pequeñas que sólo explican el 1% de la masa total). El 99% de la masa de protones y neutrones está asociada a la energía cinética de los quarks en su interior, que se mueven a velocidades relativistas, pero que no escapan por estar confinados por la fuerza de color. Esta masa corresponde por tanto a una energía interna de las partículas compuestas.
La energía interna no puede, sin embargo, explicar la masa de las partículas elementales (como los propios quarks, los leptones o los bosones Z y W), por no estar compuestos de partículas más pequeñas.
¿Cuál es el origen de la masa de las partículas elementales?

 

 

Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron.  Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”.  , por lo menos, tenemos una respuesta parcial, en absoluto completa.  Una voz potente y ¿segura? nos dice: “!Higgs¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgs presenta el problema en un contexto ; no se trata sólo del muón. Proporciona, por lo menos, una fuente común todas las masas. La nueva pregunta feynmaniana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas la matería?

La variación de la masa con el de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen dicho que el concepto de masa sea un atributo fundamental de la materia.  Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron de él “renormalizándolo”, ese truco matemático que emplean cuando no saben encontrar la respuesta al problema planteado.

Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas.  que la historia de Higgs se tenga en pie: la masa no es una propiedad intrinseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.

La idea de que la masa no es intrinseca la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en laque los espines estarían asociados siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.

¡Ah, una cosa más! Hemos hablado de los bosones gauge y de su espín de una unidad; hemos comentado también las partículas fermiónicas de la materia (espin de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espin cero.  El espín supone una direccionalidad en el espacio, pero el campo de Higgs da masa a los objetos dondequiera que estén y sin direccionalidad.  Al Higgs se le llama a veces “bosónescalar” [sin dirección] por esa razón.

La interacción débil, recordareis, fue inventada por E. Fermin describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme de procesos en el dominio de energía de los 100 MeV.  Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar el bosón Higgs origen de la masa… y algunas cosas más.

Resultado de imagen de Fabiola Gianotti, portavoz del experimento ATLAS, ofreció algunos avances

      

        Fabiola Gianotti, portavoz del experimento ATLAS, ofreció algunos avances:

“En nuestros observamos claros signos de una nueva partícula compatible con la teoría de Higgs, con un nivel aproximado de 5 sigma [99,977% de eficiencia], en la región de masa alrededor de los 126 GeV. El increíble rendimiento del LHC y el ATLAS y los enormes esfuerzos de mucha gente nos han traído a excitante punto, pero hace falta un poco más de tiempo para preparar estos resultados cara a su publicación.”

 

El Modelo Estándar describe las partículas de todo cuanto nos rodea, incluso de nosotros mismos. Toda la materia que podemos observar, sin embargo, no parece significar más que el 4% del total. Higgspodría ser el puente para comprender el 96% del universo que permanece oculto.

El 4 de julio de 2012 se anunció el descubrimiento de un bosón. Punto. En diciembre de 2012 se empezó a hablar de “un” Higgs (en lugar de “el” Higgs), pero oficialmente seguía siendo un nuevo bosón. ¿Importa el Higgs de que se trate? El Premio Nobel de Física para el bosón de Higgs sólo será concedido cuando el CERN afirme con claridad y rotundidad que se ha descubierto “el” Higgs, si el CERN es conservador, la Academia Sueca lo es aún más. Sin embargo, el rumor es que quizás baste con que el CERN diga que se ha descubierto “un” Higgs. Al final se concedió.

¿Por qué, a pesar de todas las noticias surgidas el CERN, creo que no ha llegado el momento de celebrarlo? ¿Es acaso el Higgs lo encontrado? Al menos a mí me faltan expliaciones sobre el verdadero mecanismo mediante el cual las partículas adquieren masa.

Hay que responder montones de preguntas.  ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión de LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o las hace incrementarse? ¿Y, cómo podemos saber más al respecto? También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del Universo, añadiendo, pues, un peso más a la carga que ha de soportar el Higgs.

El campo de Higgs, tal y como se lo concibe , se puede destruir con una energía grande, o temperaturas altas. Estas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puso y de resplandeciente simetría es demasiado caliente Higgs. Pero cuando la temperatura cae bajo los 10’5 grados kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas.  Así por ejemplo, de Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada.

El Universo se expande y se enfría, y entonces viene el Higgs (que engorda los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe. Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W-, Z0, y por otra una interacción electromagnética, llevada por los fotones. Es como si algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que las hiciera parecer que tienen mucha masa. Para otras partículas, el Higgs es el agua, y para otras, los fotones y quizá los neutrinos, es invisible.

Cada suceso, la línea del haz es el eje común de los cilindros de malla de alambre ECAL y HCAL. ¿Cuál es el mejor candidato W? el mejor candidato Z? En cada evento, ¿dónde ocurrió la colisión y el decaimiento de las partículas producidas? Lo cierto es que, en LHC se hacen toda clase de pruebas para saber del mundo de las partículas, de dónde vienen y hacia dónde se dirigen y, el Bosón de Higgs, es una asignatura pendiente a pesar de las noticias y de los premios

De todas las maneras, es tanta la ignorancia que tenemos sobre el origen de la masa que, nos agarramos como a un clavo ardiendo el que se ahoga, en caso, a la partícula de Higgs que viene a ser una de las soluciones que le falta al Modelo Estándar para que todo encaje con la teoría.

¡Ya veremos en que termina todo esto! Y, aunque el que suena siempre es Higgs, lo cierto es que los autores de la teoría del “Bosón de Higgs”, son tres a los que se ha concedido, junto al CERN, el Premio Principe de Asturias. Peter Ware Higgs —el primero en predecir la existencia del bosón— junto a los físicos François Englert, y el belga Robert Brout—fallecido en el año 2011—.

Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas.  La utilizaron los teóricos Steven Weinberg y V. Salam, que trabajaban por separado, comprender como se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, Wy Z0 de masa grande.  Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glasgow, quien tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martines Veltman y Gerard’t Hooft.  También hay otras a los que había que mencionar, pero lo que siempre pasa, quedan en el olvido de manera muy injusta.  Además, ¿Cuántos teóricos hacen falta para encender una bombilla?

La verdad es que, casi siempre, han hecho falta muchos.  Recordemos el largo recorrido de los múltiples detalle sueltos y físicos que prepararon el terreno para que, llegara Einstein y pudiera, uniéndolo todo, exponer su teoría relativista.

Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, dice que es una alfombra bajo la que barremos nuestra ignorancia.  Glasgow es menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales.  La objeción principal: que no teníamos la menor prueba experimental que parece que va asomando la cabeza en el LHC.

Esperemos que la partícula encontrada, el bosón hallado, sea en realidad el Higgs dador de masa a las demás partículas pero… ¡Cabe la posibilidad de que sólo sea el hermano menor! de la familia. El modelo estándar es lo bastante fuerte decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.

Después de todo esto, tal como lo están planteando los del CERN,  se llegar a la conclusión de que, el campo de Higgs, el modelo estándar y nuestra idea de cómo se hizo el Universo dependen de que se encuentre el Bosón de Higgs.  Y , por fin, el mayor Acelerador del mundo, el LHC, nos dice que el Bosón ha sido encontrado y las pruebas tienen una fiabilidad enorme.

¡La confianza en nosotros mismos, no tiene límites! Pero el camino no ha sido recorrido por completo y quedan algunos tramos que tendremos que andar para poder, al fín, dar una explicación más completa, menos oscura y neblinosa que lo que hasta el momento tenemos, toda vez que, del Bosón de Higgs y de su presencia veráz, dependen algunos detalles de cierta importancia para que sean confirmados nuestros conceptos de lo que es la masa y, de paso, la materia.

¿Pasará igual con las cuerdas?

Pero volviendo al principal tema aquí tratado, ya todo eso quedó sobrepasado y el Bosón de Higgs (según nos dijeron los del CERN), ha sido descubierto para que le concedieran el Nobel de Física a Peter Ware Higgs —el primero en predecir la existencia del bosón— junto al físico François Englert. Desgraciadamente,   el belga Robert Brout -también merecedor al premio- no pudo estar presente, se marchó antes de tiempo para hacerlo posible.

emilio silvera

Fuente principal: León Lederman

Intrincada búsqueda: ¡La Gravedad cuántica!

$
0
0
Resultado de imagen de Relatividad y Gravedad Cuántica. Universidad de Cambridge
Cuando hablamos de Gravedad cuántica, estamos tratando de abarcar mucho más, de lo que en realidad podemos. Esas sencillas palabras ¡Gravedad cuántica!, están apuntando hacia un horizonte hasta el momento presente inalcanzable y que, integra muchas ideas e intuiciones que los físicos teóricos han expuesto con generosidad.

 

Nunca han importado muchos los peligros que tengamos que correr para buscar las respuestas de lo profundamente escondido en la Naturaleza, ni tampoco ha importado hasta donde ha tenido que viajar la imaginación para configurar modelos y teorías que, más tarde, queremos verificar.

 

 

Resultado de imagen de La conciencia humana

 

 

“La naturaleza de la conciencia humana”, Penrose opina no es de naturaleza puramente algorítmica sino que incluiría elementos no computables. Penrose apunta que una teoría cuántica de la gravitación debería ser no lineal, y si bien podría ser realmente determinista sería claramente no computable lo que explicaría que los fenómenos cuánticos de medición nos parecieran impredecibles tal como realmente observamos.

También una teoría cuántica de la gravedad debería ampliar nuestro conocimiento de efectos cuánticos predichos por enfoques tentativos de otras teorías cuánticas, como la existencia de radiación de Hawking.”

 

¡Y mucho más sobre este mismo tema!

 

 

Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.

Resultado de imagen de Es gran teoría del todo en la Física

“El concepto de una “teoría del todo” está arraigado en el principio de causalidad y su descubrimiento es la empresa de acercarnos a ver a través de los ojos del demonio de Laplace.  Aunque dicha posibilidad puede considerarse como determinista, en una “simple fórmula” puede todavía sobrevivir la física fundamentalmente probabilista, como proponen algunas posturas actuales de la mecánica cuántica. Esto se debe a que aun si los mecanismos que gobiernan las partículas son intrínsecamente azarosos, podemos conocer las reglas que gobiernan dicho azar y calcular las probabilidades de ocurrencia para cada evento posible. Sin embargo, otras interpretaciones de la ecuación de Schrödinger conceden poca importancia al azar: este solo se tendría importancia dentro del átomo y se diluiría en el mundo macroscópico. Otras no obstante la niegan completamente y la consideran una interpretación equivocada de las leyes cuánticas. En consecuencia, la mayor dificultad de descubrir una teoría unificada ha sido armonizar correctamente leyes que gobiernan solo un reducido ámbito de la naturaleza y transformarlas en una única teoría que la explique en su totalidad, tanto en su mundo micro como macroscópico y explique la existencia de todas las interacciones fundamentales: las fuerzas gravitatoriaelectromagnéticanuclear fuerte y nuclear débil.”

 

 

 

Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?). Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal. Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado!

¿Quién puede ir a la longitud de Planck para poder contemplar esas cuerdas vibrantes si es que están allí?

Ni vemos la longitud de Planck ni las dimensiones extra y, nos dicen que para poder profundizar hasta esa distancia, necesitamos disponer de la Energía de Planck, es decir 1019 GeV, una energía que ni en las próximas generaciones estará a nuestro alcance. Pero mientras tanto, hablamos de que, en 2.015, el LHC buscará las partículas de la “materia oscura”. ¡Qué gente!

La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa. En el Hiperespacio, todo es posible. Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.

Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas. Todo debe ser contestado a partir de una ecuación básica.

¿Dónde radica el problema?

Nuestro universo ¿es tridimensional y no podemos esas dimensiones extra de las que tanto hablan en las teorías más avanzadas pero, no verificadas?

El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni el nuevo acelerador de partículas LHC que con sus 14 TeV no llegaría ni siquiera a vislumbrar esas cuerdas vibrantes de las que antes os hablaba.

La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías. Ya sabéis lo que pasa cuando queremos juntar la relatividad con la cuántica: ¡Aparecen los infinitos que no son renormalizables!

Con sus 20 parámetros aleatorios (parece que uno de ellos ha sido hallado -el bosón de Higgs-), el Modelo estándar de la física de partículas que incluye sólo tres de las interacicones fundamentales -las fuerzas nucleares débil y fuerte y el electromagnetismo-, ha dado un buen resultado y a permitido a los físicos trabajar ampliamente en el conocimiento del mundo, de la Naturaleza, del Universo. Sin embargo, deja muchas preguntas sin contestar y, lo cierto es que, se necesitan nuevas maneras, nuevas formas, nuevas teorías que nos lleven más allá.

¡Necesitamos algo más avanzado!

Se ha dicho que la función de la partícula de Higgs  es la de dar masa a las partículas que conocemos y están incluidas en el Modelo estándar, se nos ha dicho que ha sido encontrada y el hallazgo ha merecido el Nobel de Física. Sin embargo… nada se ha dicho de cómo ésta partícula transmite la masa a las demás. Faltan algunas explicaciones.

El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo. El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.

¿Es el efecto frenado que sufren las partículas que corren por el océano de Higgs, el que les da la masa?

Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs. Las partículas influidas por este campo, toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético. Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.

Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein. La masa, m, tiene en realidad dos partes. Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.

Peor la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más

apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.

Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.

La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.

Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs(de ahí la expectación creada por el acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas –Las masas de los W+, W-, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?

No dejamos de experimentar para saber cómo es nuestro mundo, la Naturaleza, el Universo que nos acoge

Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-Salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles. En la unidad hay cuatro partículas mensajeras sin masa –los W+, W-, Zº fotón que llevan la fuerza electrodébil. Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébilse fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Hay otra descripción según la cual el Higgs oculta la simetría con su poder dador de masa.

Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.

Relatividad y Gravedad Cuántica. Universidad de Cambridge.Resultado de imagen de Relatividad y Gravedad Cuántica. Universidad de Cambridge
Roger Penrose es uno de los nuevos humanistas del siglo que se ha interesado por los problemas de las matemáticas, de la física, de la biología, de la psicología y de la filosofía. Siguiendo el modelo de Popper de los tres mundos, ha trabajado sobre la flecha del mundo 1 de la física, al mundo 2 de la conciencia, y del mundo 3 de las matemáticas. Complejos mundos que finalmente están conectados por esos hilos invisibles que mantiene al universo unido en todas sus partes, ¡las que piensan también!

Resultado de imagen de supercuerdas

La teoría de supercuerdas tiene tantas sorpresas fantásticas que cualquiera que investigue en el tema reconoce que está llena de magia. Es algo que funciona con tanta belleza… Cuando cosas que no encajan juntas e incluso se repelen, si se acerca la una a la otra alguien es capaz de formular un camino mediante el cual, no sólo no se rechazan, sino que encajan a la perfección dentro de ese sistema, como ocurre ahora con la teoría M que acoge con naturalidad la teoría de la relatividad general y la teoría mecánico-cuántica; ahí, cuando eso se produce, está presente la belleza.

Resultado de imagen de Supercuerdas

Lo que hace que la teoría de supercuerdas sea tan interesante es que el marco estándar mediante el cual conocemos la mayor parte de la física es la teoría cuántica y resulta que ella hace imposible la gravedad. La relatividad general de Einstein, que es el modelo de la gravedad, no funciona con la teoría cuántica. Sin embargo, las supercuerdas modifican la teoría cuántica estándar de tal manera que la gravedad no sólo se convierte en posible, sino que forma parte natural del sistema; es inevitable para que éste sea completo.

¿Por qué es tan importante encajar la gravedad y la teoría cuántica? Porque no podemos admitir una teoría que explique las fuerzas de la naturaleza y deje fuera a una de esas fuerzas. Así ocurre con el Modelo Estándar que deja aparte y no incluye a la fuerza gravitatoria que está ahí, en la Naturaleza.

La teoría de supercuerdas se perfila como la teoría que tiene implicaciones si tratamos con las cosas muy pequeñas, en el microcosmos; toda la teoría de partículas elementales cambia con las supercuerdas que penetra mucho más; llega mucho más allá de lo que ahora es posible.

Imagen relacionada

La topología es, el estudio de aquellas propiedades de los cuerpos geométricos que permanecen inalteradas por transformaciones continuas. La topología es probablemente la más joven de las ramas clásicas de las matemáticas. En contraste con el álgebra, la geometría y la teoría de los números, cuyas genealogías datan de tiempos antiguos, la topología aparece en el siglo diecisiete, con el nombre de analysis situs, ésto es, análisis de la posición.

De manera informal, la topología se ocupa de aquellas propiedades de las figuras que permanecen invariantes, cuando dichas figuras son plegadas, dilatadas, contraídas o deformadas, de modo que no aparezcan nuevos puntos, o se hagan coincidir puntos diferentes. La transformación permitida presupone, en otras palabras, que hay una correspondencia biunívoca entre los puntos de la figura original y los de la transformada, y que la deformación hace corresponder puntos próximos a puntos próximos. Esta última propiedad se llama continuidad, y lo que se requiere es que la transformación y su inversa sean ambas continuas: así, trabajarnos con homeomorfismos.

Imagen relacionada

                                                                  Steam Community: Steam Artwork.

 ”En cada instante de la historia del universo existe una distancia que determina un límite u horizonte para el universo observable en esa época, el cual está fijado por la distancia que ha viajado la luz desde la singularidad inicial del Big Bang (ver horizontes en cosmología). Este horizonte tiene el efecto de ser el límite de distancia para la cual dos regiones del Universo pueden estar causalmente conectadas, es decir, que una señal luminosa haya podido llegar desde una de las regiones hasta la otra.”

En cuanto a nuestra comprensión del universo a gran escala (galaxias, el Big Bang…), creo que afectará a nuestra idea presente, al esquema que hoy rige y, como la nueva teoría, el horizonte se ampliará enormemente; el cosmos se presentará ante nosotros como un todo, con un comienzo muy bien definido y un final muy bien determinado.

Para cuando eso llegue, sabremos lo que es, como se genera y dónde están situados los orígenes de esa “fuerza”, “materia”, o, “energía” que ahora no sabemos ver para explicar el anómalo movimiento de las galaxias o la expansión del espacio que corre sin freno hacia… ¿Otro universo que tira del nuestro, como ocurren con las galaxias que terminan por fusionarse?

emilio silvera

¿La Física? ¡Una maravilla! Nos dice cómo funciona la Naturaleza

$
0
0

Resultado de imagen de Libro Partículas, Gerard ´t Hooft,Resultado de imagen de Libro Partículas, Gerard ´t Hooft,

En su Libro Partículas, Gerard ´t Hofft, Premio Nobel de Física, nos cuenta:
“En el mundo de los seres vivos, la escala o tamaño crea importantes diferencias. En muchos aspectos, la anatomía de un ratón es una copia de la de un elefante, pero mientras que un ratón trepar por una pared prácticamente vertical sin mucha dificultad (y se puede caer desde una altura varias veces mayor que su propio tamaño sin hacerse daño), un elefante no sería capaz de realizar tal hazaña. Con bastante generalidad se puede afirmar que los efectos de la gravedad son menos importantes cuanto menores sean los objetos que consideremos (sean vivos o inanimados).”

Cuando llegamos a los seres unicelulares, se ve que ellos no hay distinción entre arriba y abajo. Para ellos, la tensión superficial del agua es mucho más importante que la fuerza de la gravedad a esa escala. Tranquilamente se pueden mover y desplazar por encima de una superficie acuática. Los pluricelulares no pueden hacer tal cosa.

Resultado de imagen de La tensión superficial

La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos de Van der Waals. fuerza tiene un alcance muy corto; para ser precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente 1/r7. Esto significa que si se reduce la distancia dos átomos a la mitad de la fuerza de Van der Waals con la que se atraen uno a otro se hace 2 × 2 × 2 × 2 × 2 × 2 × 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza. El conocimiento de esta fuerza se debe a Johannes Diderik Van der Waals (1837 – 1923) con su tesis sobre la continuidad del líquido y gaseoso que le haría famoso, ya que en esa época (1873), la existencia de las moléculas y los átomos no estaba completamente aceptado.

La tensión superficial del agua, es el efecto físico (energía de atracción entre las moléculas) que “endurece” la capa superficial del agua en reposo y permite a algunos insectos, como el mosquito y otros desplazarse por la superficie del agua sin hundirse.

El famoso físico inglés James Clerk Maxwell, que formuló la teoría del electromagnetismo de Faraday, quedó muy impresionado por este de Van der Waals.

Los tamaños de los seres uniceculares, animales y vegetales, se miden en micrómetros o “micras”, donde 1 micra es 1/1.000 de milímetro, aproximadamente el tamaño de los detalles más pequeños que se pueden observar con un microscopio ordinario. El mundo de los microbios es fascinante, pero no es el objeto de este trabajo, y continuaremos el viaje emprendido las partículas elementales que forman núcleos, átomos, células y materia, así como las fuerzas que intervienen en las interacciones fundamentales del universo y que afecta a todo lo que existe.

 

Hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo.

Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).

Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

Radiación de Cuerpo Negro

Un cuerpo negro es un objeto teórico o ideal que absorbe toda la luz y toda la energía radiante que incide sobre él. Nada de la radiación incidente se refleja o pasa a través del cuerpo negro. A pesar de su , el cuerpo negro emite luz y constituye un modelo ideal físico para el estudio de la emisión de radiación electromagnética. El nombre Cuerpo negro fue introducido por Gustav Kirchhoff en 1862.

La luz emitida por un cuerpo negro se denomina radiación de cuerpo negro. Todo cuerpo emite energía en de ondas electromagnéticas, siendo esta radiación, que se emite incluso en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de onda superiores a las de la luz visible (es decir, de menor frecuencia). Al elevar la temperatura no sólo aumenta la energía emitida sino que lo hace a longitudes de onda más cortas; a esto se debe el cambio de color de un cuerpo cuando se calienta. Los cuerpos no emiten con igual intensidad a todas las frecuencias o longitudes de onda, sino que siguen la ley de Planck.

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = hν, donde E es la energía del paquete, ν es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo nueva condición, el resultado coincidió perfectamente con las observaciones.

Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ν de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza, esto lo veremos más adelante.

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.

Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿qué significan realmente estas ecuaciones?, ¿qué es lo que están describiendo? Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.

Resultado de imagen de LOS ELECTRONES COMO UNA NUBE Y UNA ONDAResultado de imagen de cOMPORTAMIENTO DE LOS ELECTRONES COMO ONDA O COMO NUBE

Pero en los electrones todo es diferente. Su comportamiento parece estar envuelto en el misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?

Niels Bohr consiguió responder a esta pregunta de tal que con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.

Si la mecánica cuántica tiene cosas extrañas y el espín es una de ellas. Y si uno piensa que la intuición le ayudará a comprender todo esto, pues no lo hará, o es poco probable que lo haga. Las partículas tienen un espín fundamental. Al igual que la carga eléctrica o la masa, el espín ayuda a definir que de partícula es cada una.

Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.

La posición y el momento de una partícula nunca lo podremos saber con precisión ilimitada.

No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.

Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planckh, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.

La mecánica cuántica es muy extraña a nuestro “sentido común”, sabemos que se desenvuelve en ese “universo” de lo muy pequeño, alejado de nuestra vida cotidiana en el macrocosmos tetradimensional que, no siempre coincide con lo que, en aquel otro ininitesimal acontece.

Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisemberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.

Es cierto que, existe otro universo dentro de nuestro del que, aún, nos queda mucho por aprender.

La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (Ψ) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un dado.

Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.”

Imagen relacionada

                                                 ¿Podría ser el Universo un Holograma?

También Gerard ’t Hooft es el autor de lo que han dado en llamar principio holográfico es una conjetura especulativa acerca de las teorías de la Gravedad Cuántica propuesta en 1993 por este autor,  y mejorada y promovida por Leonard Susskin en 1995. Postula que toda la información contenida en cierto volumen de un espacio  concreto se puede conocer a partir de la información codificable sobre la frontera de dicha región. Una importante consecuencia es que la cantidad máxima de información que puede contener una determinada región de espacio rodeada por una superficie diferenciable está limitada por el área total de dicha superficie.

Por ejemplo, se pueden modelar todos los eventos que ocurran en un cuarto o una habitación creando una teoría en la que sólo tome en cuenta lo que suceda en sus paredes. En el principio holográfico también se afirma que por cada cuatro Unidades de Planck  existe al menos un grado de libertad  (o una unidad constante de Bolttzmann k de máxima entropía). Esto se conoce como frontera de Bekenstein:

S\le\frac{A}{4}

 

 

donde S es la entropía y A es la unidad de mensura considerada. En unidades convencionales la fórmula anterior se escribe:

S\le \left( \frac{kc^3}{G\hbar} \right) \frac{A}{4} = k \frac{A}{4\ell_P^2}

 

donde:

Claro que esta… ¡Es otra Historia!

emilio silvera

Viewing all 959 articles
Browse latest View live