Quantcast
Channel: Física – Blog de Emilio Silvera V.
Viewing all 959 articles
Browse latest View live

¿El Modelo Estándar? ¡La perfección imperfecta!

$
0
0

Demos una vuelta por el Modelo Estándar.

 

Hablar de todo esto nos lleva a recorrer un largo camino

 

Con el título que arriba podemos leer de “La perfección imperfecta”, me quiero referir al Modelo estándar de la física de partículas y de las interacciones fundamentales y, algunos,  han llegado a creer que sólo faltan algunos detalles técnicos y, con ellos, la física teórica está acabada. Tenemos un modelo que engloba todo lo que deseamos saber acerca de nuestro mundo físico. ¿Qué más podemos desear? Los pobres ilusos no caen en la cuenta de que el tal Modelo, al que no podemos negarle su valía como una herramienta muy valiosa para la física, no deja de estar incompleto y, además, ha sido construido con algunos parámetros aleatorios (unos veinte) que no tienen justificación. Uno de ellos era el Bosón de Higgs y, según nos han contado los del LHC, ha sido hallado. Sin embargo, esperamos que nos den muchas explicaciones que no han estado presente en todas las algaradas y fanfarrias que dicho “hallazgo” ha producido, incluidos los premios Principe de Asturias y el Nobel. ¡Veremos en que queda todo esto al final!

 

 

 

 

Bueno, lo que hasta el momento hemos logrado no está mal del todo pero, no llega, ni con mucho, a la perfección que la Naturaleza refleja y que, nosotros perseguimos sin llegar a poder agarrar sus múltiples entrecijos y parámetros que conforman ese todo en el que, sin ninguna clase de excusas, todo debe encajar y, de momento, no es así. Muchos son los flecos sueltos, muchas las incognitas, múltiples los matices que no sabemos perfilar.

Es cierto que, el Modelo estándar, en algunos momento, nos produce y nos da la sensación de que puede ser perfecto. Sin embargo, esa ilusoria perfección, no es permanente y en algunas casos efímera. En primer lugar, podríamos empezar a quejarnos de las casi veinte constantes que no se pueden calcular. Pero si esta fuese la única queja, habría poco que hacer. Desde luego, se han sugerido numerosas ideas para explicar el origen de estos números y se han propuesto varias teorías para “predecir” sus valores. El problema con todas estas teorías es que los argumentos que dan nunca llegan a ser convincentes.

 

 

Resultado de imagen de El Modelo estándar

 

 

¿Por qué se iba a preocupar la Naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo,  tal como el proncipio de la relatividad,  pero nos resistimos a abandonar todos los demás principios que ya conocemos; ¡esos, después de todo, han sido enormemente útiles en el descubrimiento del Modelo estándar! una herramienta que ha posibilitado a todos los físicos del mundo para poder construir sus trabajos en ese fascinante mundo de la mecánica cuántica, donde partículas infinitesimales interactúan con las fuerzas y podemos ver, como se comporta la materia en determinadas circunstancias. El mejor lugar para buscar nuevos principios es precisamente donde se encuentran los puntos débiles de la presente teoría.

 

 

 

 

Con esta imagen nos decían:
“Colisión del Bosón de Higgs desintegrándose en fermiones”. Primeras evidencias de un nuevo modo de desintegración del bosón de Higgs. Las primeras evidencias de la desintegración del recién descubierto bosón de Higgs en dos partículas denominadas tau, pertenecientes a la familia de partículas que compone la materia que vemos en el Universo. Hasta ahora los experimentos del LHC habían detectado la partícula de Higgs mediante su desintegración en otro tipo de partículas denominadas bosones, portadoras de las fuerzas que actúan en la Naturaleza, mientras las evidencias de desintegraciones en fermiones no eran concluyentes. Esta es la primera evidencia clara de este nuevo modo de desintegración del bosón de Higgs.”

La regla universal en la física de partículas es que cuando las partículas chocan con energías cada vez mayores, los efectos de las colisiones están determinados por estructurtas cada vez menores, más pequeñas en el espacio y en el tiempo. Supongamos por un momento que tenemos a nuestra disposición un Acelerador de Partículas 10.000 veces más potente que el LHC, donde las partículas pueden adquirir esas tantas veces más energías de las alcanzadas actualmente. Las colisiones que tendrían lugar nos dirían algo acerca de los detalles estructurales de esas partículas que ahora no conocemos, que serían mucho más pequeñas que las que ahora podemos contemplar. En este punto se me ocurre la pregunta: ¿Seguiría siendo correcto el Modelo estándar? 0, por el contrario, a medida que nos alejemos en las profundidades de lo muy pequeño, también sus normas podrían variar al mismo tiempo que varían las dimensiones de los productos hallados. Recordad que, el mundo no funciopna de la misma manera en nuestro ámbirto macroscópico  que ante ese otro “universo” cuántico de lo infinitesimal.

 

¿Podeis imaginar conseguir colisiones a 70.000 TeV? ¿Que podríamos ver? Y, entonces, seguramente, podríamos oir en los medios la algarada de las protestas de algunos grupos:  “Ese monstruo creado por el hombre puede abrir en el espacio tiempo agujeros de gusano que se tragará el mundo y nos llevará hacia otros universos” Comentarios así estarían a la orden del día. Los hay que siempre están dispuestos a protestar por todo y, desde luego, no siempre llevan razón, toda vez que, la mayoría de las veces, ignoran de qué están hablando y juzgan si el conocimiento de causa necesario para ello. De todas las maneras, sí que debemos tener sumo cuidado con el manejo de fuerzas que… ¡no siempre entendemos! Cuando el LHC se vuelva a poner en marcha, se utilizarán energías que llegan hasta los 14 TeV, y, esas son palabras mayores.

¿Justifica el querer detectar las partículas que conforman la “materia oscura”, o, verificar si al menos, podemos vislumbrar la sombra de las “cuerdas” vibrantes de esa Teoria del Todo, el que se gasten ingentes cantidades de dinero en esos artilugios descomunales? Bueno, a pesar de todos los pesares, la respuesta es que SÍ, el rendimiento y el beneficio que hemos podido recibir de los aceleradores de partículas, justifica de manera amplia todo el esfuerzo realizado, toda vez que, no solo nos ha llevado a conocer muchos secretos que la Naturaleza celosamente guardaba, sino que, de sus actividades hemos tenido beneficios muy directos en ámbitos como la medicina, las comunicaciones y otros que la gente corriente desconocen.

Resultado de imagen de El Modelo estándar

Hoy, el Modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero tenemos algunas razones para sospechar que tales predicciones resultan estar muy alejadas de la realidad, o, incluso, ser completamente falsas. Cuando tenemos la posibilidad de llegar más lejos, con sorpresa podemos descubrir que aquello en lo que habíamos creído durante años, era totalmente diferente. El “mundo” cambia a medida que nos alejamos más y más de lo grande y nos sumergimos en ese otro “mundo” de lo muy pequeño, allí donde habitan los minúsculos objetos que conforman la materia desde los cimientos mismos de la creación.

Encendamos nuestro supermicroscopio imaginario y enfoquemosló directamente en el centro de un protón o de cualquier otra partícula. Veremos hordas de partículas fundamentales desnudas pululando. Vistas a través del supermicroscopio, el modelo estándar que contiene veinte constantes naturales, describen las fuerzas que rigen la forma en que se mueven. Sin embargo, ahora esas fuerzas no sólo son bastante fuertes sino que también se cancelan entre ellas de una forma muy especial; están ajustadaspara conspirar de tal manera que las partículas se comportan como partículas ordinarias cuando se vuelven a colocar el microscopio en la escala de ampliación ordinaria. Si en nuestras ecuaciones matemáticas cualquiera de estas constantes fueran reemplazadas por un número ligeramente diferente, la mayoría de las partículas obtendrían inmediatamente masas comparables a las gigantescas energías que son relevantes en el dominio de las muy altas energías. El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural.

 

¿Implica el ajuste fino un diseño con propósito? ¿Hay tantos parámetros que deben tener un ajuste fino y el grado de ajuste fino es tan alto, que no parece posible ninguna otra conclusión?

Antes decía: “El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural”.  Es lo que se llama el “problema del ajuste fino”. Vistas a través del microscopio, las constantes de la Naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático, no hay nada que objetar, pero la credibilidad del Modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas o, lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas.

¿Y por qué debería ser el modelo válido hasta ahí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables, ellas podrían modificar completamente el mundo que Gulliver planeaba visitar. Si deseamos evitar la necesidad de un delicado ajuste fino de las constantes de la Naturaleza, creamos un nuevo problema:

 

        Es cierto que nuestra imaginación es grande pero… No pocas veces ¡la realidad la supera!

¿Cómo podemos modificar el modelo estándar de tal manera que el ajuste-fino no sea necesario? Está claro que las modificiaciones son necesarias , lo que implica que muy probablemente hay un límite más allá del cual el modelo deja de ser válido. El Modelo estándar no será más que una aproximación matemática que hemos sido capaces de crear, tal que todos los fenómenos observados hasta el presente están de acuerdo con él, pero cada vez que ponemos en marcha un aparato más poderoso, debemos esperar que sean necesarias nuevas modificaciones para ir ajustando el modelo, a la realidad que descubrimos.

¿Cómo hemos podido pensar de otra manera? ¿Cómo hemos tenido la “arrogancia” de pensar que podemos tener la teoría “definitiva”? Mirando las cosas de esta manera, nuestro problema ahora puede muy bien ser el opuesto al que plantea la pregunta de dónde acaba el modelo estándar: ¿cómo puede ser que el modelo estándar funcione tan extraordinariamente bien? y ¿por qué aún no hemos sido capaces de percibir nada parecido a otra generación de partículas y fuerzas que no encajen en el modelo estándar? La respuesta puede estar en el hecho cierto de que no disponemos de la energía necesaria para poder llegar más lejos de lo que hasta el momento hemos podido viajar con ayuda de los aceleradores de partículas.

Resultado de imagen de Foto de El hallazgo de una nueva partícula abre un nueva era para la física

Resultado de imagen de La encargada del proyecto Atlas en el CERN explica el hallazgo del Bosón de Higgs

   Fabiola Gianotti, un importante baluarte en el CERN

Ella se encargó de hacer la presentación de los resultados del experimento ATLAS, durante el seminario del Centro Europeo de Física de Partículas (CERN) para presentar los resultados de los dos experimentos paralelos que buscan la prueba de la existencia de la “partícula de Higgs,  base del modelo estándar de física.

La pregunta “¿Qué hay más allá del Modelo estándar”? ha estado facinando a los físicos durante años. Y, desde luego, todos sueñan con llegar a saber, qué es lo que realmente es lo que conforma el “mundo” de la materia, qué partículas, cuerdas o briznas vibrantes. En realidad, lo cierto es que, la Física que conocemos no tiene que ser, necesariamente, la verdadera física que conforma el mundo y, sí, la física que conforma “nuestro mundo”, es decir, el mundo al que hemos podido tener acceso hasta el momento y que no necesariamente tiene que coincidir con el mundo real que no hemos podido alcanzar.

O, como decía aquél: ¡Que mundo más hermoso, parece de verdad!

 

                                       Siempre hay más de lo que el ojo ve

No todo lo que vemos es, necesariamente, un reflejo de la realidad de la Naturaleza que puede tener escondidos más allá de nuestras percepciones, otros escenarios y otros objetos, a los que, por ahora,  no hemos podido acceder, toda vez que, físicamente tenemos carencias, intelectualmente también, y, nuestros conocimientos avanzar despacio para conseguir, nuevas máquinas y tecnologías nuevas que nos posibiliten “ver” lo que ahora nos está “prohibido” y, para ello, como ocurre siempre, necesitamos energías de las que no disponemos.

 

Hay dos direcciones a lo largo de las cuales se podría extender el Modelo estándar, tal lo conocemos actualmente, que básicamente se caraterizan así:

- Nuevas partículas raras y nuevas fuerzas extremadamente débiles, y

- nuevas partículas pesadas y nuevas estructuras a muy altas energías.

Podrían existir partículas muy difíciles de producir y de detectar y que, por esa razón, hayan pasado desapaercibidas hasta. La primera partícula adicional en la que podríamos  pensar es un neutrinorotando a derecha. Recordaremos que si se toma el eje de rotación paralelo a la dirección del movimiento los neutrinos sólo rotan a izquierdas, pero… ¡esa sería otra historia!

http://4.bp.blogspot.com/-HfR7qGN039Q/T5w_3J0KeKI/AAAAAAAABcY/fcJMR0S7tIw/s1600/Experimento-con-neutrinos.jpg

Los neutrinos siempre me han fascinado. Siempre se han manifestado como si tuvieran masa estrictamente nula. Parece como si se movieran exactamente con la velocidad de la luz. Pero hay un límite para la precisión de nuestras medidas. Si los neutrinos fueran muy ligeros, por ejemplo, una cienmillonésima de la masa del electrón, seríamos incapaces de detectar en el laboratorio la diferencia éstos y los neutrinos de masa estrictamente nula. Pero, para ello, el neutrino tendría que tener una componente de derechas.

En este punto, los astrónomos se unen a la discusión. No es la primera vez, ni será la última, que la astronomía nos proporciona información esencial en relación a las partículas elementales. Por ejemplo, debido a las interacciones de corriente neutra (las interacciones débiles originadas por un intercambio Zº), los neutrinos son un facto crucial en la explosión  supernova de una estrella. sabemos que debido a las interacciones por corriente neutra, pueden colisionar con las capas exteriores de la estrella y volarlas con una fuerza tremenda.

http://latabernaglobal.com/wp-content/uploads/2012/02/NEUTRIN1.jpg

En realidad, los neutrinos nos tienen mucho que decir, todavía y, no lo sabemos todo acerca de ellos, sino que, al contrario, son muchos los y fenómenos que están y subyacen en ellos de los que no tenemos ni la menor idea que existan o se puedan producir. Nuestra ignorancia es grande, y, sin embargo, no nos arredra hablar y hablar de cuestiones que, la mayoría de las veces…ni comprendemos.

Aquí lo dejar´ñe por hoy, el tema es largo y de una fascinación que te puede llevar a lugares en los que no habías pensado al comenzar a escribir, lugares maravillosos donde reinan objetos exóticos y de fascinante porte que, por su pequeñez, pueden vivir en “mundos” muy diferentes al nuestro en los que, ocurren cosas que, nos llevan el asombro y también, a ese mundo mágico de lo fascinante y maravilloso.

Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.

emilio silvera


La misteriosa mecánica cuántica

$
0
0

Algunos se empeñan en que las leyes de la física se simplifican en dimensiones más altas. Y, lo cierto es que, al no haberlas visto nunca -no están en nuestro plano de universo-, nos inventamos mil y una imagen pretendiendo que las representen pero, en realidad, no lo hacen, Simplemente son figuras extrañas y espacios curvos de Riemann de enrevesado diseño que son…, otra cosa.

Teoría de la cuerda heterótica

 Resultado de imagen de La teoría de cuerdas heterótica

 

 

“En física, una cuerda heterótica es una mezcla peculiar (o híbrido) de la cuerda bosónica y de la supercuerda (el adjetivo heterótico viene de la palabra griega “heterosis”). En teoría de cuerdas, en las excitaciones con desplazamiento izquierdo y desplazamiento derecho casi no “se hablan”, y es posible construir una teoría de cuerdas con excitaciones de desplazamiento izquierdo que “piensan” que viven en una cuerda bosónica que se propaga en D = 26 dimensiones, mientras que las excitaciones de desplazamiento derecho “piensan” que pertenecen a supercuerdas en D = 10 dimensiones.”
.

Resultado de imagen de La teoría de cuerdas heterótica

Así como las cuerdas son los elementos centrales de la teoría a escala fundamental, las branas son los elementos que caracterizarían al universo en escala …


En una de las teorías de cuerdas, la conocida como heterótica, se tiene que desarrollar en el espacio 26–dimensional de las vibraciones de sentido contrario a las agujas del reloj de la cuerda heterótica que tiene espacio suficiente para explicar todas las simetrías encontradas en la teoría de Einstein y en la teoría cuántica. Así, por primera vez, la geometría pura ha dado una simple explicación de por qué el mundo subatómico debería exhibir necesariamente ciertas simetrías que emergen del enrollamiento del espacio de más dimensiones: Las simetrías del dominio subatómico no son sino remanentes de la simetría del espacio de más dimensiones.

Resultado de imagen de Cúmulos de galaxias

Las galaxias, las estrellas y los mundos… Y muchas más cosas, respetan patrónes simétricos que hacen de cada una de sus figuras, una misma estructuración que las hacen similares en un plano general, independientemente de que cada objeto tenga sus propias peculiaridades.

Esto significa que la belleza y simetrías encontradas en la naturaleza pueden ser rastreadas en última instancia hasta el espacio multidimensional.  Por ejemplo, los copos de nieve crean bellas figuras hexagonales, ninguna de las cuales es exactamente igual a otra, han heredado sus estructuras de las formas en que sus moléculas han sido dispuestas geométricamente, determinada básicamente por las cortezas electrónicas de estas moléculas, que a su vez nos llevan de nuevo a las simetrías rotacionales de la teoría cuántica, dadas por O (3).

Resultado de imagen de Las bellas figuras de los copos de nieve

                        Los copos de nieve mirados al microscopio forman bellas figuras

       ¿Que podemos decir de la bella delicadeza de una rosa?

Resultado de imagen de Un bello arco iris

Del bonito arcoíris ¿quién no tiene la experiencia de contemplarlo?.  Este ha bajado a besar la bonita laguna, y, desde luego, también aquí encontramos la simetría de la Naturaleza.

 

 

No hay dos cristales de nieve iguales pero la simetría de todos es la misma (de aspecto exagonal aunque desde el punto de vista estrictamente cristalográfico, trigonal. La razón se encuentra en la estructura cristalina del hielo (mostrada en color en el centro) que tiene exactamente la misma simetría y la transmite a los cristales.

Podemos concluir diciendo que las simetrías que vemos a nuestro alrededor, desde un arco iris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría decadimensional original. Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia.

Dado el enorme poder de sus simetrías, no es sorprendente que la teoría de supercuerdas sea radicalmente diferente de cualquier otro tipo de física.  De hecho, fue descubierta casi por casualidad. Muchos físicos han comentado que si este accidente fortuito no hubiese ocurrido, entonces la teoría no se hubiese descubierto hasta bien entrado el siglo XXI. Esto es así porque supone una neta desviación de todas las ideas ensayadas en el pasado siglo XX. No es una extensión natural de tendencias y teorías populares en este siglo que ha pasado; permanece aparte.

       Las súper-cuerdas van más lejos que todo esto

Imagen relacionada

 

 

“La idea base del Principio de Equivalencia de la Relatividad General es la equiparación entre aceleración y gravedad. Este Principio de Equivalencia, incorporado por la Relatividad General en 1916, sirvió a las teorías de Albert Einstein para justificar una segunda relatividad del tiempo independiente de la definida por la Relatividad Especial.”

 

 

Resultado de imagen de Una teoría cuántica de la gravedad

“Por el contrario, la teoría de la relatividad general de Einstein tuvo una evolución normal y lógica. En primer lugar, su autor, postula el principio de equivalencia. Luego reformuló este principio físico en las matemáticas de una teoría de campos de la gravitación basada en los campos de Faraday y en el tensor métrico de Riemann. Más tarde llegaron las “soluciones clásicas”, tales como el agujero negro y el Big Bang. Finalmente, la última etapa es el intento actual de formular una teoría cuántica de la gravedad. Por lo tanto, la relatividadgeneral siguió una progresión lógica, desde un principio físico a una teoría cuántica.”

 

Geometría → teoría de campos → teoría clásica → teoría cuántica.

Contrariamente, la teoría de supercuerdas ha estado evolucionando hacia atrás desde su descubrimiento accidental en 1.968. Esta es la razón de que nos parezca extraña y poco familiar, estamos aún buscando un principio físico subyacente, la contrapartida del principio de equivalencia de Einstein.

Resultado de imagen de la teoría de cuerdas

                                    Suponemos que las cuerdas están más allá de los Quarks

Uno de los secretos más profundos de la teoría de cuerdas, que aún no es bien comprendido, es por qué está definida solo en diez , once y veintiséis dimensiones. De todas las maneras, como nos dice Michiu Kaku, ese Físico que mira hacia el futuro, habría que tener presente las funciones modulares del Ramanujan para ver sí, dentro de ellas, están las respuestas de esas preguntas que, por ahora, nadie ha sabido contestar.

Gran parte de este trabajo es original del libro Hiperespacio de Michio Kaku, y, desde luego, como él nos anuncia, la Física tiene muchas de las respuestas que buscamos, sin embargo, también como nos dice la misma Física, algunas veces esas respuestas están situadas en la parte más simple de lo que estamos estudiando y, sin embargo, nos empeñamos en ahondar, de manera innecesaria hacia lo más profundo e incomprensible para buscar lo que tenemos delante de nuestras propias narices.

Si el límite de todas las teorías están marcados por las unidades de Planck, ya sabemos hasta dónde podemos llegar y, desde luego, la verificación de la Teoría de cuerdas, si como dicen los expertos necesita de la energía de Planck (1019 GeV) para ser verificada, entonces, nos queda mucho que esperar porque, ¿cuándo podrán tener los humanos esa energía a su disposición?

Existen límites a los que aún no han podido llegar nuestras teorías, y, el Límite de Planck es el que marca las fronteras de las teorías actuales que, nunca han podido llegar tan lejos como lo que nos dice esta simple ecuación:

longitud-planck

Resultado de imagen de el físico Mahiko Suzuki,

            Gabriele Veneziano es un físico italiano                  Mahico Suzuki

La teoría nació casi por casualidad en 1.968 cuando dos jóvenes físicos teóricos, Gabriel Veneziano y Mahiko Suzuki, estaban hojeando independientemente libros de matemáticas. Figúrense ustedes que estaban buscando funciones matemáticas que describieran las interacciones de partículas fuertemente interactivas. Mientras estudiaban en el CERN, el Centro Europeo de Física Teórica en Ginebra, Suiza, tropezaron independientemente con la función beta de Euler , una función matemática desarrollada en el S. XIX por el matemático Leonhard Euler. Se quedaron sorprendidos al descubrir que la función beta de Euler ajustaba casi todas las propiedades requeridas para describir interacciones fuertes de partículas elementales.

Según he leído, durante un almuerzo en el Lawrence Berkeley Laboratory en California, con una espectacular vista del Sol brillando sobre el puerto de San Francisco, Suzuki le explicó a Michio Kaku mientras almorzaban la excitación de descubrir, prácticamente por casualidad, un resultado parcialmente importante. No se suponía que la física se pudiera hacer de ese modo casual.

Resultado de imagen de la función Beta de Euler

Función beta. Representación de la función para valores reales positivos de x e y. En matemáticas, la función beta1 es una función especial estrechamente relacionada con la función gamma. Fue estudiada originalmente por Euler y Legendre. No obstante, su nombre le fue dado por Jacques Binet

Tras el descubrimiento, Suzuki, muy excitado, mostró el hallazgo a un físico veterano del CERN. Tras oír a Suzuki, el físico veterano no se impresionó. De hecho le dijo a Suzuki que otro físico joven (Veneziano) había descubierto la misma función unas semanas antes. Disuadió a Suzuki de publicar su resultado. Hoy, esta función beta se conoce con el nombre de modelo Veneziano, que ha inspirado miles de artículos de investigación iniciando una importante escuela de física y actualmente pretende unificar todas las leyes de la física.

Resultado de imagen de El trabajo en física  de Veneziano-Suzuki

En 1970, el Modelo de Veneziano-Suzuki (que contenía un misterio), fue parcialmente explicado cuando Yoichiro Nambu, de la Universidad de Chicago, y Tetsuo Goto, de la Nihon University, descubrieron que una cuerda vibrante yace detrás de sus maravillosas propiedades.

Así que, como la teoría de cuerdas fue descubierta hacia atrás y por casualidad, los físicos aún no conocen el principio físico que subyace en la teoría de cuerdas vibrantes y sus maravillosas propiedades.

El último paso en la evolución de la teoría de cuerdas (y el primer paso en la evolución de la relatividadgeneral) aún está pendiente de que alguien sea capaz de darlo.

     Así, Witten dice:

“Los seres humanos en el planeta tierra nunca dispusieron del marco conceptual que les llevara a concebir la teoría de supercuerdas de manera intencionada, surgió por razones del azar, por un feliz accidente. Por sus propios méritos, los físicos del siglo XX no deberían haber tenido el privilegio de estudiar esta teoría muy avanzada a su tiempo y a su conocimiento. No tenían (ni tenemos ahora mismo) los conocimientos y los prerrequisitos necesarios para desarrollar dicha teoría, no tenemos los conceptos correctos y necesarios.”

 

Actualmente, Edwar Witten es el físico teórico que, al frente de un equipo de físicos de Princeton, lleva la bandera de la teoría de supercuerdas con aportaciones muy importantes en el desarrollo de la misma. De todas las maneras, aunque los resultados y avances son prometedores, el camino por andar es largo y la teoría de supercuerdas en su conjunto es un edificio con muchas puertas cerradas de las que no tenemos las llaves para acceder a su interior y mirar lo que allí nos aguarda.

Ni con esta colección podremos abrir la puerta que nos lleve a la Teoría cuántica de la gravedad que, según dicen, subyace en la teoría M

El problema está en que nadie es lo suficientemente inteligente para resolver la teoría de campos de cuerdas o cualquier otro enfoque no perturbativo de esta teoría. Se requieren técnicas que están actualmente más allá de nuestras capacidades. Para encontrar la solución deben ser empleadas técnicas no perturbativas, que son terriblemente difíciles. Puesto que el 99 por ciento de lo que conocemos sobre física de altas energías se basa en la teoría de perturbaciones, esto significa que estamos totalmente perdidos a la hora de encontrar la verdadera solución de la teoría.

Nosotros, como el gato, estamos ante un enredo que no sabemos como solucionar. Nos faltan los conocimientos para ello. Y, como nuestras mentes evolucionan al ritmo que tiene impuesto el Universo, tendremos esas respuestas cuando llegue el momento, cuando estémos preparados para ello. Sobre todo, el conocimiento necesario para manejar las implicaciones que de tales conocimientos se pueden derivar.

¿Por qué diez dimensiones?

Resultado de imagen de Teorçía de diez dimensiones

                                 Esta no se conformaba con 10 ni con 11, sino que necesitó 26

Uno de los secretos más profundos de la teoría de cuerdas, que aún no es bien comprendido, es por qué está definida sólo en diez, once y veintiséis dimensiones. Si calculamos cómo se rompen y se vuelven a juntar las cuerdas en el espacio N-dimensional, constantemente descubrimos que pululan términos absurdos que destruyen las maravillosas propiedades de la teoría. Afortunadamente, estos términos indeseados aparecen multiplicados por (N-10). Por consiguiente, para hacer que desaparezcan estas anomalías, no tenemos otra elección cuántica que fijar N = 10. La teoría de cuerdas, de hecho, es la única teoría cuántica conocida que exige completamente que la dimensión del espacio-tiempo esté fijada en un número único, el diez.

Por desgracia, los teóricos de cuerdas están, por el momento, completamente perdidos para explicar por qué se discriminan las diez dimensiones.  La respuesta está en las profundidades de las matemáticas, en un área denominada funciones modulares.

Al manipular los diagramas de lazos de Kikkawa, Sakita y Virasoro creados por cuerdas en interacción, allí están esas extrañas funciones modulares en las que el número 10 aparecen en los lugares más extraños.

Estas funciones modulares son tan misteriosas como el hombre que las investigó, el místico del este. Quizá si entendiéramos mejor el trabajo de este genio indio, comprenderíamos por qué vivimos en nuestro universo actual.

El misterio de las funciones modulares podría ser explicado por quien ya no existe, Srinivasa Ramanujan, el hombre más extraño del mundo de los matemáticos. Igual que Riemann, murió antes de cumplir cuarenta años, y como Riemann antes que él, trabajó en total aislamiento en su universo particular de números y fue capaz de reinventar por sí mismo lo más valioso de cien años de matemáticas occidentales que, al estar aislado del mundo en las corrientes principales de los matemáticos, le eran totalmente desconocidos, así que los buscó sin conocerlos. Perdió muchos años de su vida en redescubrir matemáticas conocidas.

En los cuardenos perdidos de Ramanujan podrían estar las respuestas. Dispersas entre oscuras ecuaciones en sus cuadernos están estas funciones modulares, que figuran entre las más extrañas jamás encontradas en matemáticas. Ellas reaparecen en las ramas más distantes e inconexas de las matemáticas. Una función que aparece una y otra vez en la teoría de las funciones modulares se denomina (como ya he dicho otras veces) hoy día “función de Ramanujan” en su honor. Esta extraña función contiene un término elevado a la potencia veinticuatro.

Así trabajaba la mente de Ramanujan que tenía las matemáticas en su cabeza

Resultado de imagen de Ramanujan y el numero 24

Pasando de las figuras a los números, otro mínimo famoso es el número de Ramanujan: el 1729. En cierta ocasión, G. H. Hardy le comentó al genial matemático indio que era un número poco interesante, y Ramanujan replicó: “No diga eso, Hardy, 1729 es el menor número que se puede expresar de dos maneras distintas como suma de dos cubos”.

Efectivamente, 1729 = 103 + 93 = 123 + 13; pero ¿es realmente el menor número con esta propiedad?

 

Resultado de imagen de Ramanujan y la potencia 24 24

El número 24 aparece repetidamente en la obra de Ramanujan. Este es un ejemplo de lo que las matemáticas llaman números mágicos, que aparecen continuamente donde menos se esperan por razones que nadie entiende.   Milagrosamente, la función de Ramanujan aparece también en la teoría de cuerdas. El número 24 que aparece en la función de Ramanujan es también el origen de las cancelaciones milagrosas que se dan en la teoría de cuerdas.  En la teoría de cuerdas, cada uno de los veinticuatro modos de la función de Ramanujan corresponde a una vibración física de la cuerda. Cuando quiera que la cuerda ejecuta sus movimientos complejos en el espacio-tiempo dividiéndose y recombinándose, deben satisfacerse un gran número de identidades matemáticas altamente perfeccionadas. Estas son precisamente las entidades matemáticas descubiertas por Ramanujan. Puesto que los físicos añaden dos dimensiones más cuando cuentan el número total de vibraciones que aparecen en una teoría relativista, ello significa que el espacio-tiempo debe tener 24 + 2 = 26 dimensiones espacio-temporales.

               Reflejos de luz polarizada sobre una superficie de un disco

Para comprender este misterioso factor de dos (que añaden los físicos), consideramos un rayo de luz que tiene dos modos físicos de vibración. La luz polarizada puede vibrar, por ejemplo, o bien horizontal o bien verticalmente. Sin embargo, un campo de Maxwell relativista Aµ tiene cuatro componentes, donde µ = 1, 2, 3, 4. Se nos permite sustraer dos de estas cuatro componentes utilizando la simetría gauge de las ecuaciones de Maxwell.  Puesto que 4 – 2 = 2, los cuatro campos de Maxwell originales se han reducido a dos. Análogamente, una cuerda relativista vibra en 26 dimensiones.  Sin embargo, dos de estos modos vibracionales pueden ser eliminados cuando rompemos la simetría de la cuerda, quedándonos con 24 modos vibracionales que son las que aparecen en la función de Ramanujan.

     Es posible que, en las matemáticas de Ramanujan estén algunas respuestas

Cuando se generaliza la función de Ramanujan, el 24 queda reemplazado por el número 8. Por lo tanto, el número crítico para la supercuerda es 8+2=10. Este es el origen de la décima dimensión que exige la teoría. La cuerda vibra en diez dimensiones porque requiere estas funciones de Ramanujan generalizadas para permanecer auto consistente. Dicho de otra manera, los físicos no tienen la menor idea de por qué 10 y 26 dimensiones se seleccionan como dimensión de la cuerda. Es como si hubiera algún tipo de numerología profunda que se manifestara en estas funciones que nadie comprende. Son precisamente estos números mágicos que aparecen en las funciones modulares elípticas los que determinan que la dimensión del espacio-tiempo sea diez.

En el análisis final, el origen de la teoría decadimensional es tan misterioso como el propio Ramanujan. Si alguien preguntara a cualquier físico del mundo por qué la naturaleza debería existir en diez dimensiones, estaría obligado a responder “no lo sé”. Se sabe en términos difusos, por qué debe seleccionarse alguna dimensión del espacio tiempo (de lo contrario la cuerda no puede vibrar de una forma cuánticamente autoconsistente), pero no sabemos por qué se seleccionan estos números concretos.

¡Son tantas las cosas que no sabemos!

Publica: emilio silvera

PD. Le damos las gracias a Michio Kaku por sus ideas y su manera futurista de ver la Física.

Desde el pasado pero, ¡siempre hacia el futuro!

$
0
0

[IMG]

                      Imagem cedida por Diamond Light Source

Acelerador de partículas construido en las instalaciones del Diamond Ligth Source en Oxfordshire (Inglaterra). Llamado la Fuente luminosa de diamante, el Diamond synchrotron comenzó a funcionar en enero de 2007. La luz que puede generar este artefacto es 100 mil millones de veces más brillante que un rayo X estándar médico.

Un acelerador de partículas (como todos sabemos) es, a grandes rasgos, una máquina que mediante campos electromagnéticos acelera partículas hasta que alcanzan velocidades inimaginables. Luego, por ejemplo, hacen chocar estas partículas y así se consigue saber de qué está formada la materia en sus partes más diminutas (mucho más diminutas que un átomo). Eso es lo que hace el LHC.

Sin embargo, en el caso de este acelerador, los científicos esperaban usar la luz del Diamond synchrotron para “leer” los textos antiguos que han sufrido el daño significativo. Porque los potentes rayos Xpermitirán hacerlo sin ni siquiera abrir el libro. El synchrotron emite un rayo X tan poderoso que, al incidir en una voluta, permite producir una imagen de 3-D del texto.

La técnica ya había sido aplicada satisfactoriamente en textos escritos con la tinta de hierro, que los escribanos comenzaron a usar en el siglo XII. Algunas de las tintas hechas con extractos vegetales y sales de hierro utilizadas en el Siglo XII deterioran el tipo de pergamino utilizado, imposibilitando la lectura de documentos valiosos. Simplemente he querido incluir esta introducción para que os hagais una idea de hasta donde puede llegar nuestro ingenio.

Resultado de imagen de Ilustración de la mano de un robot

                                                                       (ilustración de un nano robot)

Si hablamos de nuevos inventos en los campos más diversos, nos podríamos sorprender de lo que se ha conseguido en los últimos años que, desde  una “mano robótica” capaz de realizar toda clase de movimientos, “El sexto sentido”, una interfaz gestual portable que permite la interacción entre los gestos y los movimientos naturales del cuerpo humano con una computadora,  o, un Implantes de retina, que devuelve la visión a pacientes con degeneración macular y ceguera mediante implantes microelectrónicos. Entre los últimos inventos dedestaca una variedad de plástico hecha con orina de cerdo y lentes de contacto biónicos. Se inventa un proceso capaz de cultivar parte de un corazón humano a partir de células madre, una máquina que puede imprimir una novela completa de 300 páginas en tan solo 3 minutos y por un costo ínfimo, una batería que funciona con cualquier solución azucarada y enzimas de digestión de glucosa capaz de extraer electrones que crean electricidad…

Resultado de imagen de Inventos del siglo XXI

                                                 Corazones artificiales

Las nuevas tecnologías y los inventos que se están produciendo en el diglo XXI, harían abrir la boca por el asombro a los filósofos naturalistas del pasado que trataban de profundizar en el conocimiento de la Naturaleza. Ellos fueron los que pusieron las primeras piedras del Edificio que hoy, llamamos Ciencia.

Corazones e Hígados artificiales, el guante de braille para ciegos, o, yendo más allá…

Resultado de imagen de un guante brailleResultado de imagen de Higados artificiales

Un “Diente telefónico”. Se trata de un minúsculo implante que se coloca en el diente molar y que mediante un complejo sistema de señales y vibraciones permite recibir llamadas telefónicas. Tejido artificial nanotecnológico, Parche hormonal anticonceptivo, o, esa invención que hace posible que con una pequeña gota nos permite descubrir si en una bebida se ha vertido alguna de las llamadas “drogas del depredador” como las GHB o la Ketamina. Estas drogas suelen utilizarse por violadores y secuestradores pues facilitan dicho crimen al desinhibir a la víctima. El “Motor a nanoescala”, lo suficientemente pequeño como para viajar en la espalda de un virus. Un dispositivo que administra medicamentos a través de ondas sonoras que sustituyen las inyecciones, siendo igual de efectivas. Plástico inteligente capaz de modificar su estructura ante la exposición de determinadas longitudes de onda. Un dispositivo móvil creado por Aqua Sciences que permite beber agua del aire. ¿Os imaginais lo que supondrá eso en la travesía de un desierto? INSCENTINEL inventa un sistema de entrenamiento para que abejas sean capaces de detectar bombas y explosivos.

Como se descubrió la penicilina

  Las cosas no llegaron por arte de magia… ¡muchas ideas hicieron falta!

Ahora miramos a nuestro alrededor y todo lo que vemos que ocurre nos parece lo normal, que las cosas son así. Sin embargo, habría que pensar -por ejemplo, en el ámbito de la física de partículas- que, el diluvio de estructuras subnucleares que desencadenó “el acelerador”  de partículas, fue tan sorprende como los objetos celestes que descubrió el telescopio de Galileo. Lo mismo que pasó con la revolución galileana, con la venida de los aceleradores de partículas, la Humanidad adquirió unos conocimientos nuevos e insospechados acerca de cómo era el mundo, la naturaleza de la materia.

Que en este caso de los aceleradores se refería al “espacio interior” en lugar de al “espacio exterior” no los hacía menos profundos ni menos importantes. El descubrimiento de los microbios y del universo biológico invisible por Pasteur fue un descubrimiento similar y, ya puestos, haremos notar que pocos se acuerdan ya de Demócrito, aquel filósofo sontiente que, tomó prestado de los antiguos hindúes, la idea del á-tomo, la expresión “más pequeña de la materia” que era “indivisible”.

Ahora sabemos que Demócrito estaba equivocado y que el átomo, sí se puede dividir. Sin embargo, él señaló un camino y, junto a Empédocles, el que hablaba de “elementos” como agua, aire, fuego y tierra, para significar que eran los componentes, en la debida proporción de todo lo que existía…, junto a otros muchos, nos han traído hasta aquí. Así que, los inventos que antes se mencionaban, no han llegado porque sí, ha sido un largo camino, mucha curiosidad y mucho trabajo y, no lo olvidemos: ¡Observar, Imaginar y Experimentar!

Nos dimos cuenta y estaba claro que la búsqueda de la menor de las partículas requería que se expandiese la capacidad del ojo humano: primero lupas, después microscopios y, finalmente… ¡Aceleradores! que, utilizando energías inimaginables ( 14 TeV), nos llevaría hasta las entrañas de la materia que tratamos de conocer.

Todos estos experimentos en los aceleradores han posibilitado muchos de los avances que hoy día conocemos en los distintos campos del saber humano. Generalmente, cuando se habla de aceleradores de partículas, todos piensan en el Bosón de Higgs y cosas por el estilo. Sin embargo, las realidades prácticas de dichos ingenios van mucho más allá.

CERN

“La “gran ciencia” (big science) genera tecnología, tecnología punta, genera industria, mucha industria, genera riqueza. Los grandes aceleradores de partículas, como el LHC del CERN, son ejemplos perfectos de ello. La tecnología de aceleradores de partículas ha permitido desarrollar dispositivos de implantación iónica que se utilizan para la fabricación de mejores semiconductores, para la fabricación prótesis de rodilla más duraderas, para la fabricación de neumáticos menos contaminantes, para el desarrollo de nuevas terapias contra el cáncer. Esto último gracias a que lo último de lo último en superimanes superconductores está en los grandes aceleradores. Esta tecnología ha permitido desarrollar y permitirá mejorar los potentes imanes necesarios en el diagnóstico clínico (como en resonancia magnética nuclear) y para terapias contra el cáncer basadas en haces de protones. Nos lo cuenta Elizabeth Clements, en “Particle physics benefits: Adding it up,” Symmetry, dec. 2008″ (Francis (th)E mule Science’s News).

Beneficios de la investigación básica en Física de Partículas: La tecnología desarrollada en los aceleradores de partículas tiene beneficios indirectos para la Medicina, la Informática, la industria o el medio ambiente. Los imanes superconductores que se usan para acelerar las partículas han sido fundamentales para desarrollar técnicas de diagnóstico por imagen como la resonancia magnética. Los detectores usados para identificar las partículas son la base de los PET, la tomografía por emisión de positrones (antipartícula del electrón). Y muchos hospitales utilizan haces de partículas como terapia contra el cáncer.

Con velocidades 10.000 mayor que una conexión típica, “The Grid” podrá enviar un catálogo completo de información desde Gran Bretaña a Japón en menos de 2 segundos. Esta red, creada en el centro de física de partículas CERN, puede proveer el poder necesario para transmitir imágenes holográficas; permitir juegos en línea con cientos de miles de personas, y ofrecer una telefonía de alta definición en video al precio de una llamada local

Así, la World Wide Web (WWW), el ‘lenguaje’ en el que se basa Internet, fue creado en el CERN para compartir información entre científicos ubicados alrededor del mundo, y las grandes cantidades de datos que se producen motivan el desarrollo de una red de computación global distribuida llamada GRID. Los haces de partículas producidos en aceleradores tipo sincrotrón o las fuentes de espalación de neutrones, instrumentos creados para comprobar la naturaleza de la materia, tienen aplicaciones industriales en la determinación de las propiedades de nuevos materiales, así como para caracterizar estructuras biológicas o nuevos fármacos. Otras aplicaciones de la Física de Partículas son la fabricación de paneles solares, esterilización de recipientes para alimentos o reutilización de residuos nucleares, entre otros muchos campos.

Tambien en el campo de la Astronomía, el LHC, nos puede ayudar a comprender cosas que ignoramos. Nos henmos preguntado sobre la existencia de estrellas de Quarks-Gluones, y, sobre el tema, algo nos ha dicho ya el Acelerador Europeo de Partículas que trata de llegar hasta “la materia oscura” y algunos otros enigmas que nos traen de cabeza.

No es extraño encontrarnos una mañana al echar una mirada a la prensa del día, con noticias como éstas:

Colisión de iones pesados registrada por el experimento ALICE. (Imagen: CERN.)

El acelerador europeo ha obtenido plasma de quarks-gluones, el primer estado de la materia tras el Big Bang.

 

 

Resultado de imagen de Los del CERN quieren descubrir la partícula oscuras

 

Los del LHC quieren encontrar la partícula “oscura”

 

“No todo son bosones de Higgs en las instalaciones del CERN. Aún hay muchas preguntas sobre el universo y sus partículas que se pueden responder a base de colisiones de alta energía. Y en eso, elLHC es el mejor. Un grupo de investigadores del consorcio europeo ha realizado nuevas mediciones de la que creen que es el primer tipo de materia que hubo durante los instantes iniciales del universo. El plasma de quarks-gluones.

Los quarks y los gluones son, respectivamente, los ladrillos y el cemento de la materia ordinaria. Durante los primeros momentos tras el Big Bang, sin embargo, no estaban unidos constituyendo partículas —como protones o neutrones— sino que se movían libremente en estado de plasma. A base de colisionar iones de plomo —que es un átomo muy pesado— a velocidades cercanas a las de la luz, el LHC pudo recrear durante pequeños lapsos de tiempo las que se creen fueron las condiciones de los primeros momentos del universo.

El plasma de quarks-gluones es extremo y efímero. Por eso los investigadores han tenido que analizar los resultados de más de mil millones de colisiones para obtener resultados significativos.”

Evento de colisión de 7 TeV visto por el detector LHCb. El experimento del LHCb en el LHC estará bien ubicado para explorar el misterio de la antimateria. Crédito: LHC, CERN. Ya sabéis que, durante muchos años, la ausencia de antimateria en el Universo ha atormentado a los físicos de partículas y a los cosmólogos: mientras que el Big Bang debería haber creado cantidades iguales de materia y antimateria, no observamos ninguna antimateria primordial hoy en día. ¿Dónde ha ido? Los experimentos del LHC tienen el potencial de dar a conocer los procesos naturales que podrían ser la clave para resolver esta paradoja.

Cada vez que la materia es creada a partir de energía pura, se genera la misma cantidad de partículas y antipartículas. Por el contrario, cuando la materia y la antimateria se encuentran, se aniquilan mutuamente y producen luz. La antimateria se produce habitualmente cuando los rayos cósmicos chocan contra la atmósfera de la Tierra, y la aniquilación de materia y antimateria se observa durante los experimentos de física en los aceleradores de partículas.

Equipos de físicos en todo el mundo siguen analizando datos. Aquellas primeras colisiones de protones a la alta energía prevista de 7 Teraelectronvoltios (TeV), una potencia jamás alcanzada en ningún acelerador antes, nos puede traer noticias largamente esperadas y desvelar misterios, contestar a preguntas planteadas y, en definitiva, decirnos cómo es la Naturaleza allí, donde el ojo humano no puede llegar pero, si la inteligencia.

Lo cierto es que, todos tenemos que convenir en el hecho cierto de que, el LHC es el mayor experimento físico de la historia de la Ciencia y que, de seguro, nos dará la oportunidad de comprender muchas cuestiones que antes se nos aparecían oscuras e indistinguibles entre la bruma de esa lejanía infinitesimal de la cuántica. Ahora, tenemos una herramienta capaz de llevarnos hasta aquellos primeros momentos en los que se construyó la historia del universo y, si podemos, de esta manera “estar allí”, veremos, con nuestros propios ojos lo que pasó y por qué pasó de esa manera.

Toda esta larga exposición de temas, de alguna manerta conectados, viene al caso para dejar claro que, aquellos detractores del LHC, no llevaban la razón y, sus protestas no tenían un contenido científico. El Acelerador de Partículas que llamamos abreviadamente LHC, nos ha dado y nos seguirá dando, muchos beneficios para toda la Humanidad.

emilio silvera

El “mundo” que nos rodea

$
0
0

Resultado de imagen de No siempre sabemos ver el mundo que nos rodea

No siempre sabemos ver el mundo que nos rodea. El que miremos no significa que estemos viendo lo que realmente hay delante de nuestros ojos y, muchas veces, no son los ojos los únicos que pueden “ver” lo que hay más allá de lo que la vista puede alcanzar. Anoche, hasta una hora avanzada, estuve releyendo el Libro “Así de Simple” de John Gribbin, y, pareciéndome interesante os saqué un pequeño resumen del comienzo. Aquí os lo dejo.

El mundo que nos rodea parece ser un lugar complicado. Aunque hay algunas verdades sencillas que parecen eternas (las manzanas caen siempre hacia el suelo y no hacia el cielo; el Sol se levanta por el este, nunca por el oeste), nuestras vidas, a pesar de las modernas tecnologías, están todavía, con demasiada frecuencia, a merced de los complicados procesos que producen cambios drásticos y repentinos. La predicción del tiempo atmosférico tiene todavía más de arte adivinatorio que de ciencia; los terremotos y las erupciones volcánicas se producen de manera impredecible y aparentemente aleatorias; las fluctuaciones de la economía siguen ocasionando la bancarrota de muchos y la fortuna de unos pocos.

Sobre la posición de la salida del sol

               Sobre la posición de la salida del sol

 

Desde la época de Galileo (más o menos, a comienzos del siglo XVII) la ciencia ha hecho progresos –enormes-, ignorando en gran medida estas complejidades y centrándose en cuestiones sencillas, intentando explicar por qué las manzanas caen al suelo y por qué el Sol se levanta por el este. Los avances fueron de hecho tan espectaculares que hacia mediados del siglo XX ya se había dado respuesta a todas las cuestiones sencillas. Conceptos tales como la teoría general de la relatividad y la mecánica cuántica explicaron el funcionamiento global del universo a escalas muy grandes y muy pequeñas respectivamente, mientras el descubrimiento de la estructura del ADN y el modo en que éste se copia de una generación a otra hizo que la propia vida, así como la evolución, parecieran sencillas a nivel molecular. Sin embargo, persistió la complejidad del mundo a nivel humano –al nivel de la vida-. La cuestión más interesante de todas, la que planteaba cómo la vida pudo haber surgido a partir de la materia inerte, siguió sin respuesta.

Un descubrimiento así no podía dejar al mundo indiferente. En unos años el mundo científico se puso al día y la revolución genética cambió los paradigmas establecidos. Mucha gente aún no está preparada para aceptar el comienzo de una era poderosa en la que el ser humano tiene un control de sí mismo mayor al habitual. Había nacido la Ingeniería genética.

Resultado de imagen de Cien mil millones de neuronas

                                          Más neuronas que estrellas en la Vía Láctea

No debe extrañarnos que sea precisamente a escala humana donde se den las características más complejas del universo. Las que se resisten más a rendirse ante los métodos tradicionales de la investigación científica. Realmente, es posible que seamos lo más complejo que existe en el universo. La razón es que, a escalas más reducidas, entidades tales como los átomos se comportan individualmente de un modo relativamente sencillo en sus interacciones mutuas, y que las cosas complicadas e interesantes surgen, cuando se unen muchos átomos de maneras complicadas e interesantes, para formar organismos tales como los seres humanos.

Pero este proceso no puede continuar indefinidamente, ya que, si se unen cada vez más átomos, su masa total aumenta hasta tal punto que la Gravedad aplasta toda la estructura importante y la aniquila. Un átomo, o incluso una molécula tan simple como la del agua, es algo más sencillo que un ser humano, porque tiene poca estructura interna; una estrella, o el interior de un planeta, es también algo más sencillo que un ser humano porque la gravedad aplasta cualquier estructura hasta aniquilarla. Esta es la razón por la cual la ciencia puede decirnos más sobre el comportamiento de los átomos y el funcionamiento interno de las estrellas o los planetas que sobre el modo en que las personas nos comportamos.

Sí, hemos podido llegar a conocer lo que ocurre en el Sol, y sabemos de sus procesos interiores y exteriores, de las ráfagas de partículas que en sus épocas activas, nos envía continuamente hacía la superficie del planeta y, que no sólo provoca esas bonitas Auroras, sino que, su intensa radiación y magnetismo incide en todos los atilugios que tenemos para leer los datos de… ¡tántas cosas!

Cuando los problemas sencillos se rindieron ante el empuje de la investigación, fue algo natural que los científicos abordaran rompecabezas más complicados que iban asociados con sistemas complejos, para que por fin fuera posible comenzar a comprender el funcionamiento del mundo a una escala más humana compleja y, para ello, hubo que esperar hasta la década de 1960, que fue cuando aparecieron los poderosos y rápidos (para lo que se estilaba en aquella época) ordenadores electrónicos. Estos nuevos inventos empezaron a ser conocidos por un público más amplio entre mediados y finales de la década de 1980, primero con la publicación del libro, ahora convertido en un clásico, Order out of Chaos, de Ilya Prigogine e Isabelle Stergers, y luego, con Chaos, de James Gleick.

Las personas sencillas que, aunque tengan una educación aceptable, no están inmersas en el ámbito de la ciencia, cuando oyen hablar de Complejidad y Caos en esas áreas, sienten, de primeras, una especie de rechazo por aquello que (ellos creen) no van a comprender. Sin embargo, la cuestión no es tan difícil como a primera vista pudiera parecer, todo consiste en tener la posibilidad de que alguien, de manera “sencilla” (dentro de lo posible), nos explique las cosas dejando a un lado las matemáticas que, aunque describen de manera más amplia y pura aquellos conceptos que tratamos, también es verdad que, no siempre, están al alcance de todos. Un conocimiento básico de las cosas más complicadas, es posible. También la relatividad general y la mecánica cuántica, se consideraron, cuando eran nuevas, como unas ideas demasiado difíciles para que cualquiera las entendiera, salvo los expertos –pero ambas se basan en conceptos sencillos que son inteligibles para cualquier persona lega en la materia, siempre que esté dispuesta a aceptar su parte matemática con los ojos cerrados-. E la misma manera, el Caos y la Complejidad, también pueden ser entendidos y, si tenemos la suerte de tener un buen interlocutor que nos sepa explicar, aquellos conceptos básicos sobre los que se asientan tanto el Caos como la Complejidad, veremos maravillados como, de manera natural, la luz se hace en nosotros y podemos entender lo que antes nos parecía inalcanzable.

Resultado de imagen de Formación de galaxias

Se cree que las galaxias se han formado por la acumulación gravitacional de gas, algún tiempo después de la época de la recombinación. Las nubes de gas podrían haber comenzado a formar estrellas, quizás como resultado de las colisiones mutuas. El tipo de galaxia generado podría depender del ritmo al que el gas era transformado en estrellas, formándose las elípticas cuando el gas se convertía rápidamente en estrellas, y las espirales si la transformación de estrellas era lo suficientemente lenta como para permitir crecer de forma significativa un disco de gas.

http://apod.nasa.gov/apod/image/1003/m78_torregrosa.jpg

            Nubes moleculares en Orión que son los materiales primigenios para complejidades futuras

Las galaxias evolucionan al convertir progresivamente su gas remanente en estrellas, si bien no existe probablemente una evolución entre las diferentes tipos de la clasificación del conocido sistema de Hubble. No obstante, algunas galaxias elípticas pudieron haberse creado por la colisión y posterior fusión de dos galaxias espirales.

NGC 5426/5427

NGC 5426 y NGC 5427 son dos galaxias espirales de tamaños similares involucradas en una danza espectacular. No es seguro que esta interacción culmine en una colisión y a la larga en la fusión de las dos galaxias, aunque éstas ya han sido ya afectadas. Conocidas ambas con el nombre de Arp 271, su danza perdurará por decenas de millones de años, creando nuevas estrellas como resultado de la mutua atracción gravitacional entre las galaxias, un tirón observable en el borde de las estrellas que ya conectan a ambas. Ubicada a 90 millones de años-luz de distancia hacia la constelación de Virgo (la Virgen), el par Arp 271 tiene unos 130.000 años-luz de extensión. Fue descubierta originalmente en 1785 por William Herschel. Muy posiblemente nuestra Vía Láctea sufrirá una colisión similar en unos cinco mil millones de años más con la galaxia vecina Andrómeda, que ahora está ubicada a cerca de 2,6 millones de años-luz de la Vía Láctea.

Sí, mirando las imagenes nos da la sensación de cierto Caos y Complejidad

Tenemos que entender que, algunos sistemas (“sistema” no es más que una palabra de la jerga científica para asignar cualquier cosa, como un péndulo que oscila, o el sistema solar, o el agua que gotea de un grifo) son muy sensibles a sus condiciones de partida, de tal modo que una diferencia mínima en el “impulso” inicial que les damos ocasiona una gran diferencia en cómo van a acabar, y existe una retroalimentación, de manera que lo que un sistema hace afecta a su propio comportamiento. Así, a primera vista, parece que la guía es sencilla y, nos puede parecer mentira que así sea. Sin embargo, esa es la premisa que debemos tener en cuenta. Nos podríamos preguntar: ¿Es realmente verdad, que todo este asunto del Caos y de la Complejidad se basaba en dos ideas sencillas –la sensibilidad de un sistema a sus condiciones de partida, y la retroalimentación-¿ La respuesta es que sí.

La mayor parte de los objetos que pueden verse en el cielo nocturno son estrellas, unos pocos centenares son visibles a simple vista. Una estrella es una bola caliente principalmente compuesta por hidrógeno gaseoso. El Sol es un ejemplo de una estrella típica y común. La gravedad impide que el gas se evapore en el espacio y la presión, debida a la alta temperatura de la estrella, y la densidad impiden que la bola encoja. En el corazón de la estrella, la temperatura y la densidad son lo suficientemente altas para sustentar a las reacciones de fusión nuclear, y la energía, producida por estas reacciones, hace su camino a la superficie y la irradia al espacio en forma de calor y luz. Cuando se agota el combustible de las reacciones de fusión, la estructura de la estrella cambia. El proceso de producir elementos, cada vez más pesados, a partir de los más livianos y de ajustar la estructura interna para balancear gravedad y presión, es llamado evolución estelar.

Observar una estrella a través del telescopio permite conocer muchas de sus importantes propiedades. El color de una estrella es un indicador de su temperatura y ésta, a su vez, depende de una combinación entre la masa de la estrella y su fase evolutiva. Usualmente, las observaciones también permiten encontrar la luminosidad de la estrella o la tasa con la cual ella irradia energía, en forma de calor y luz.

Todas las estrellas visibles a simple vista forman parte de nuestra galaxia, la Vía Láctea. La Vía Láctea es un sistema compuesto por unos cien mil millones de estrellas, junto con una considerable cantidad de material interestelar. La galaxia tiene forma de un disco chato sumergido en un halo débil y esférico. La gravedad impide que las estrellas se escapen y, sus movimientos, hacen que el sistema no colapse. La Vía Láctea no posee un límite definido, la distribución de las estrellas decrece gradualmente con distancias crecientes del centro. El SDSS detecta estrellas más de un millón de veces más débiles que las que podemos ver a simple vista, lo suficientemente lejos para ver la estructura de la Vía Láctea.

De algún modo, esto es como decir que “todo lo que hay” sobre la teoría especial de la relatividad es que la velocidad de la luz es la misma para todos los observadores. Sin embargo, la complejidad de la estructura que se levanta sobre este hecho sencillo resulta asombrosa y requiere algunos conocimientos matemáticos para poder apreciarla plenamente. Claro que, eso no quita para que, un buen comunicador le pueda transmitir a otras personas mediante explicaciones sencillas lo esencial de la relatividad especial y general y también, sobre la esencia de la mecánica cuántica, y, de la misma manera, podríamos hablar del Caos y de la Complejidad. Debemos ser conscientes de que, el Caos, puede surgir a partir del Orden y que, la Complejidad, siempre llega a través de la sencillez de un comienzo. Podemos estar al borde del Caos y, de manera milagrosa ver que, también a partir de él surge la normalidad y lo nuevo que, no en pocas ocasiones pueden ser nuevas formas de vida. De la misma manera, las transformaciones de los elementos sencillos, bajo ciertas condiciones, llegan a adquirir una complejidad inusitada que, de alguna manera, es necesaria para que, en este mundo que nos rodea, existan seres que, como nosotros, sean el ejemplo más real y de más alto nivel que está presente en el Universo. Y, de la misma manera que nosotros estamos aquí, en un minúsculo sistema solar habitando un pequeño planeta que reúne todas las condiciones necesarias para la vida, de la misma forma digo, estarán poblados otros muchos planetas de otros muchos sistemas solares repartidos por nuestra Galaxia y por las otras que, a cientos de miles pululan por el Universo, y, todos esos seres “racionales”, se preguntaran las mismas cosas que nosotros y estarán interesados en descubrir los mismos misterios, los mismos secretos de la Naturaleza que, presintiendo que existen, tienen la intuición de que serán las respuestas esperadas para solucionar muchos de los problemas e inseguridades que ahora, en nuestro tiempo, nos aquejan.

Claro que, la mente nunca descansa. Acordaos de Aristarco de Samos que, en el siglo III a. C., ya anunció que la Tierra orbitaba alrededor del Sol y, Copérnico, que se llevó el premio, no lo dijo hasta el año 1543. Esto nos viene a demostrar que, a pesar de la complejidad del mundo, lo realmente complejo está en nosotros, en nuestras mentes que, presienten lo que pueda ser, intuyen el por qué de las cosas, fabrican pensamientos que, mucho más rápidos que la luz, llegan a las galaxias lejanas y, con los ojos de la mente pueden, atisbar aquellas cosas de las que, en silencio, ha oído hablar a su intuición dentro de su mente siempre atenta a todo aquello que puede ser una novedad, una explicación, un descubrimiento.

vista de la tierra y el sol de la órbita (la imagen de la tierra tomada de http://visibleearth.nasa.gov) Foto de archivo - 4911867

                          Vista de la Tierra y el Sol de la órbita

Ahora estamos centrados en el futuro aquí en la Tierra pero, sin dejar de la mano ese futuro que nos espera en el espacio exterior. Es pronto aún para que el hombre vaya a las estrellas pero, algún día, ese será su destino y, desde ya, debe ir preparándose para esa aventura que sólo está a la espera de tener los medios tecnológicos necesarios para hacerla posible. Mientras tanto, jugamos con las sondas espaciales que enviamos a planetas vecinos para que, nos vayan informando de lo que están hechos aquellos mundos –grandes y pequeños- que, en relativamente poco tiempo, serán visitados por nuestra especie para preparar el salto mayor.

emilio silvera

Nuevos hallazgos

$
0
0

Cinco asombrosos descubrimientos de la Física en 2017

 

 

Los cristales de tiempo constituyen una nueva forma de materia

“En septiembre del año pasado, dos equipos independientes de la Univesridad de Princeton y la Estación Q de Microsoft en la Universidad de California lograban demostrar, teóricamente y en contra de la opinión mayoritaria, que los “cristales de tiempo” no son simples curiosidades matemáticas, sino que pueden existir en la realidad.”

 

Resultado de imagen de Fusión de dos estrellas de neutrones

 

La primera observación de la fusión de dos estrellas neutrones, el origen de los rayos cósmicos y la creación de cristales de tiempo en el laboratorio, entre los hallazgos del año

 

 

 

 

La revista especializada Physics World ha escogido los diez grandes avances de la Física de este año. Destaca, por supuesto, el comienzo de una nueva era de la Astrofísica tras la primera detección con telescopios y ondas gravitacionales de la fusión de dos estrellas de neutrones. También cita la creación de cristales de tiempo en el laboratorio, el descubrimiento de que los rayos cósmicos llegan de más allá de la galaxia o el uso de muones para revelar un enorme vacío en la Gran Pirámide de Guiza. Aquí te mostramos algunos de esos hallazgos -la mayoría te los contamos en su día-, y puedes ver la lista completa en la web de la publicación.

  1. La fusión de estrellas de neutrones

  2. No hay lista de hallazgos científicos del año en la que no aparezca este descubrimiento. Y no es para menos. Por primera vez, los científicos lograban observar con telescopios y escuchar con ondas gravitacionales el mismo fenómeno cósmico, la fusión de dos estrellas de neutrones que formó una brutal kilonova en una galaxia a 130 millones de años luz.

  3. Todo empezó el 17 de agosto de 2017, cuando los observatorios LIGO y Virgo detectaron una posible señal de ondas gravitacionales. Dos segundos después, el telescopio espacial Fermi de la NASA captó un estallido de rayos gamma, una potente emisión de energía que se sospecha se origina en la fusión de estrellas de neutrones. Astrónomos de todo el mundo se pusieron en alerta y el fenómeno se convirtió en el evento astrofísico más estudiado de la historia: 70 observatorios y 3.674 científicos de todo el mundo estuvieron pendientes del mismo.

  4. Esta observación inauguraba una nueva disciplina: la llamada Astrofísica de múltiples mensajeros, que se encarga de observar el Universo a través de telescopios y «escuchar» a través de ondas gravitacionales. Además, la observación aportó una serie de descubrimientos científicos, como el origen del oro y el de los estallidos de rayos gamma, además de volver a confirmar las predicciones de la Relatividad de Einstein, entre otras aportaciones.

  5. Los rayos cósmicos provienen de más allá de la galaxia

Los rayos cósmicos provienen de más allá de la galaxia – A. Chantelauze / S. Staffi / L. Bret / Pierre Auger Observatory

 

Los Quarks invisibles

$
0
0

Resultado de imagen de Teoría de las partículas elementales Quarks

Una vez que se ha puesto orden entre las numerosas especies de partículas, se puede reconocer una pauta. Igual que Dimitri Ivanovich Mendeleev descubrió el sistema periódico de los elementos químicos en 1869, así también se hizo visible un sistema similar para las partículas. Esta pauta la encontraron independientemente el americano Murray Gell-Mann y el israelí Yuval Ne’eman. Ocho especies de mesones, todos con el mismo espín, u ocho especies de bariones, con el mismo espín, se podían reagrupar perfectamente en grupos que llamaremos multipletes. El esquema matemático correspondiente se llama SU(3). Grupletes de ocho elementos forman un octete “fundamental”. Por esta razón Gell-Mann llamó a esta teoría el “óctuplo camino”. Lo tomó prestado del budismo de acuerdo con el cual el camino hacia el nirvana es el camino óctuplo.

                              Rueda del dharma.

El Noble Camino Óctuple es considerado, según el budismo, como la vía que lleva al cese del sufrimiento. Este cese del sufrimiento se conoce como nirvana. Puede ser que eso fuese lo que sintiera Gell-Mann al finalizar sus trabajos, y, de ahí la adopción del nombre y todo lo que lleva consigo de simbología.

Resultado de imagen de prestado del budismo de acuerdo con el cual el camino hacia el nirvana es el camino óctuplo.

El noble camino es una de las enseñanzas budistas fundamentales; la cuarta parte de las Cutro Nobles Verdades. En la simbología budista, el noble camino es usualmente representado con la rueda del dharma, donde cada rayo representa un elemento del sendero. Este símbolo también se utiliza para el budismo en general.

Los elementos del noble camino óctuple se subdividen en tres categorías básicas: sabiduría, conducta ética y entrenamiento de la mente (o meditación); para rehabilitar y desacondicionar la mente. En todos los elementos del noble camino, la palabra «correcta» es una traducción de la palabra “sammā” (en pali), que significa ‘plenitud’, ‘coherencia’, ‘perfección’ o ‘ideal’. El noble camino es: Sabiduría.

Pero sigamos con el trabajo.

Las matemáticas SU(3) también admiten multipletes de diez miembros. Cuando se propuso este esquema se conocían nueve bariones con espín 3/2. Los esquemas SU(3) se obtienen al representar dos propiedades fundamentales de las partículas, la extrañeza S frente al isoespín I₃ , en una gráfica.

Resultado de imagen de cámara de burbujas

Imagen de trazas en la cámara de burbujas del primer evento observado incluyendo bariones Ω, en el Laboratorio Nacional Brookhaven. Dependiendo de su masa y tamaño las partículas producen distintos remolinos en la cámara de burbujas.

De esta manera, Gell-Mann predijo un décimo barión, el omega-menos (Ω¯), y pudo estimar con bastante precisión su masa porque las masas de los otros nueve bariones variaban de una forma sistemática en el gráfico (también consiguió entender que las variaciones de la masa eran una consecuencia de una interacción simple). Sin embargo, estaba claro que la Ω¯, con una extrañeza S = -3, no tenía ninguna partícula en la que desintegrarse que no estuviera prohibida por las leyes de conservación de la interacción fuerte. De modo que, la Ω¯ sólo podía ser de tan sólo 10¯²³ segundos como los demás miembros del multiplete, sino que tenía que ser del orden de 10¯¹⁰ segundos. Consecuentemente, esta partícula debería viajar varios centímetros antes de desintegrarse y esto la haría fácilmente detectable. La Ω¯ fue encontrada en 1964 con exactamente las mismas propiedades que había predicho Gell-Mann.

Resultado de imagen de La partícula Omega menosResultado de imagen de La partícula Omega menos

Se identificaron estructuras multipletes para la mayoría de los demás bariones y mesones y Gell-Mann también consiguió explicarlas. Sugirió que los mesones, igual que los bariones, debían estar formados por elementos constitutivos “más fundamentales aún”. Gell-Mann trabajaba en el Instituto de Tecnología de California en Pasadena (CalTech), donde conversaba a menudo con Richard Feynman. Eran ambos físicos famosos pero con personalidades muy diferentes. Gell-Mann, por ejemplo, es conocido como un entusiasta observador de Pájaros, familiarizado con las artes y la literatura y orgulloso de su conocimiento de lenguas extranjeras.

Resultado de imagen de Resultado de imagen de richard feynman frases

A comienzos de los años sesenta, un profesor del Instituto de Tecnología de California (Caltech) imparte un curso completo de física ante una cada día más numerosa. Su nombre: Richard Feynman

Feynman fue un hombre hecho a sí mismo, un analista riguroso que se reía de cualquier cosa que le recordara la autoridad establecida. Hay una anécdota que parece no ser cierta de hecho, pero que me parece tan buena que no puedo evitar el contarla; podía haber sucedido de esta forma. Gell-Mann le dijo a Feynman que tenía un problema, que estaba sugiriendo un nuevo tipo de ladrillos constitutivos de la materia y que no sabía qué nombre darles. Indudablemente debía haber de haber pensado en utilizar terminología latina o griega, como ha sido costumbre siempre en la nomenclatura científica. “Absurdo”, le dijo Feynman; “tú estás hablando de cosas en las que nunc ase había pensado antes. Todas esas preciosas pero anticuadas palabras están fuera de lugar. ¿Por qué no los llamas simplemente “shrumpfs”, “quacks” o algo así?”.

Resultado de imagen de frase de Fynnegan’s Wake de James Joyce; “¡Tres quarks para Muster Mark!”

Los pequeños componentes de la materia ordinaria

Cuando algún tiempo después le pregunté a Gell-Mann, éste negó que tal conversación hubiera tenido lugar. Pero la palabra elegida fue quark, y la explicación de Gell-Mann fue que la palabra venía de una frase de Fynnegan’s Wake de James Joyce; “¡Tres quarks para Muster Mark!”. Y, efectivamente así es. A esas partículas les gusta estar las tres juntas. Todos los bariones están formados por tres quarks, mientras que los mesones están formados por un quark y un antiquark.

Resultado de imagen de Las matemáticas SU(3) también admiten multipletes de diez miembros

Los propios quarks forman un grupo SU(3) aún más sencillo. Los llamaremos “arriba (u)”, “abajo” (d), y “extraño” (s). Las partículas “ordinarias” contienen solamente quarks u y d. Los hadrones “extraños” contienen uno o más quarks s (o antiquarks ŝ).

La composición de quarks de espín 3/2 se puede ver en cualquier tabla de física.. La razón por la que los bariones de espín ½ sólo forman un octete es más difícil de explicar. Está relacionada con el hecho de que en estos estados, al menos dos de los quarks tienen que ser diferentes unos de otros.

Resultado de imagen de Resultado de imagen de Los Hadrones

Junto con los descubrimientos de los Hadrones y de sus componentes, los Quarks, durante la primera mitad del sigo XX, se descubrieron otras partículas. Los Hadrones forman dos ramas, los mesones formados por dos qiuarks y los bariones por tres.

Resultado de imagen de Las matemáticas SU(3) también admiten multipletes de diez miembros

               La Mecánica cuántica es muy extraña

Realmente, la idea de que los hadrones estuvieran formados por ladrillos fundamentales sencillos había sido también sugerida por otros. George Zweig, también en el Cal Tech, en Pasadena, había tenido la misma idea. Él había llamado a los bloques constitutivos “ases!, pero es la palabra “quark” la que ha prevalecido. La razón por la que algunos nombres científicos tienen más éxito que otros es a veces difícil de comprender.

Pero en esta teoría había algunos aspectos raros. Aparentemente, los quarks (o ases) siempre existen en parejas o tríos y nunca se han visto solos. Los experimentadores habían intentado numerosas veces detectar un quark aislado en aparatos especialmente diseñados para ello, pero ninguno había tenido éxito.

Loa quarks –si se pudieran aislar- tendrían propiedades incluso más extrañas. Por ejemplo, ¿cuáles serían sus cargas eléctricas? Es razonable suponer que tanto los quarks u como los quarks s y d deban tener siempre la misma carga. La comparación de la tabla 5 con la tabla 2 sugiere claramente que los quarks d y s tienen carga eléctrica -1/3 y el quark u tiene carga +2/3. Pero nunca se han observado partículas que no tengan carga múltiplo de la del electrón o de la del protón. Si tales partículas existieran, sería posible detectarlas experimentalmente. Que esto haya sido imposible debe significar que las fuerzas que las mantienen unidas dentro del hadrón son necesariamente increíblemente eficientes.

Resultado de imagen de Los neutrinos de los leptones

Todos sabemos que los Lepotines son: El elentrón, el Muón y la partícula Tau y, cada una de ellas tiene su tipo de neutrino: el electrónico, el muónico y el tauónico.

Aunque con la llegada de los quarks se ha clarificado algo más la flora y la fauna de las partículas subatómicas, todavía forman un conjunto muy raro, aún cuando solamente unas pocas aparezcan en grandes cantidades en el universo (protones, neutrones, electrones y fotones). Como dijo una vez Sybren S. de Groot cuando estudiaba neutrinos, uno realmente se enamora de ellos. Mis estudiantes y yo amábamos esas partículas cuyo comportamiento era un gran misterio. Los leptones, por ser casi puntuales, son los más sencillos, y por tener espín se ven afectados por la interacción que actúa sobre ellos de forma muy complicada, pero la interacción débil estaba bastante bien documentada por entonces.

Los hadrones son mucho más misteriosos. Los procesos de choque entre ellos eran demasiado complicados para una teoría respetable. Si uno se los imagina como pequeñas esferas hachas de alguna clase de material, aún quedaba el problema de entender los quarks y encontrar la razón por la que se siguen resistiendo a los intentos de los experimentadores para aislarlos.

emilio silvera

Si queréis saber más sobre el tema, os recomiendo leer el libro Partículas de Gerard ´t Hooft

¡La Física! ¿Estará perdiendo el Norte?

$
0
0
Rocas interpretadas como pequeños deltas en un lago superficial de...

    Curiosity descubre un antiguo Lago en Marte

    ¿Queremos imitar el salto cuántico viajar más rápido?

A finales del siglo XIX y principios del XX algunos podían creer que los secretos de la Naturaleza estaban todos descubiertos gracias a los hallazgos que en el pasado hicieran Newton y otros y más recientemente Maxwell, Planck, Einstein y otros muchos que, con sus trabajos nos desvelaron cómo funcionaba la gravedad, qué era en realidad la electricidad y el magnetismo y también, nos llevaron el fascinante mundo de lo muy pequeño con el cuanto de acción, h, de Planck que nos trajo poco más tarde, la mecánica cuántica.

Resultado de imagen de La mecánica cuántica

Que nos habla del “universo” de lo muy pequeño, lo que el ojo no ve

La mecánica, la óptica, la electricidad… todo estaba descubierto y explicado. Los científicos de la época pansaban que sus futuros colegas sólo se dedicarían a realizar medidas para obtener las constantes con mayor precisión vez. Después de todo aquello, se siguió avanzando y continuamos haciéndonos preguntas creyendo que nos llevarían a las respuestas últimas.

Si, por ejemplo, las supercuerdas nos conducen a las respuestas últimas, entonces, ¿en qué dirección debemos nuestra investigación?, ¿es que nos hemos introducido tanto en el mundo de lo desconocido y lo ininteligible que estamos a punto de ahogarnos en un mar de lo absurdo?, ¿estamos enterrados bajo tántas preguntas de los imposibles que deberíamos considerarnos perdidos?, ¿tiene algún sentido especular acerca de la “Teoria de Todo” en un  mundo extraño de las unidades de Planck?

Bueno, si queremos ser sinceros…, podemos discrepar de algunas de las cuestiones que hoy se están debatiendo y ser críticos con otras. Sin embargo, no podremos negar los avances que realmente se están logrando en el mundo de las nuevas tecnologías que, gracias a la Física, ya están en el futuro y, en nuestras vidas cotidianas lo estamos viendo continuamente.

Por otra , nada despierta más nuestra curiosidad que lo ininteligible y, precisamente por eso, tiene tanto éxito y llama la atención teorías como la de las supercuerdas. Miremos, por ejemplo, lo que es tan curioso en el mundo de la longitud de Planck es que no podemos encontrar absolutamente ningún modelo que nos pueda dar una descripción razonablemente autoconsistente de partículas que interaccionan entre sí con fuerzas gravitatorias tan intensas y que, al mismo tiempo, obedezcan a las leyes de la mecánica cuántica. Por tanto, incluso si hubiéramos sido capaces de realizar experimentos con choques de partículas con energías planckianas, no hubiéramos sabido como comparar los resultados con una teoría. Aquí hay para los físicos: hacer una teoría. No nos importa demasiado como describa esa teoría la interacción gravitatoria, pero tenemos suficientes requisitos en la lista como para que encontrar  esa candidata a ser la teoría sea una labor extremadamente difícil. La Teoría de Supercuerdas parecía estar a punto de conseguirlo, pero falló en los últimos momentos. Dicen que necesitamos la energía de Planck para poder verificarla y, si es así, nos queda espera para rato.

Imagen relacionada

Mientras buscamos esas teorías que están más allá de nuestras posibilidades reales de hoy, la Ciencia no se para y sigue avanzando en otros muchos campos que, como antes decía, nos están llevando a pasos agigantados un futuro que ya está con nosotros y, lo está haciendo con tal rapidez que ni nos hemos percatado de ello.

En cuanto a esa soñada Teoria de Todo, en primer lugar debe ser matemáticamente exacta y tiene que permitirnos calcular con extrema precisión el comportamiento de las partículas bajo todas las circunstancias imaginables. Por ahí circulan una y mil “teorías” que exponen las ideas más variopintas que imaginarnos podamos pero, desgraciadamente, son inútiles para los físicos porque sus descripciones no reúnen el rigor ni la prcisión que deben estar presentes en toda buena teoría. Por otra , los físicos prefieren que la teoría trate la fuerza gravitatoria de tal manera que esté de acuerdo con la obtenida en la formulación de la teoría de la relatividad general de Einstein. Sabemos que la fuerza gravitatoria cuerpos pesados como las estrellas y los planetas obedece a esta teoría con gran exactitud (como ha sido confirmado espectacularmente en las observaciones de los púlsares, estrellas compactas que rotan a gran velocidad. Nuestra teoría candidata debería explicar estas observaciones).

No digamos de los intrincados caminos que la Física ha sobrevolado cuando se ha querido meter en la posibilidad de viajes en el Tiempo y, los físicos se encontraron con una y mil paradojas extrañas. Además, como nos ocurre con la Teoría de cuerdas, al meternos en un sendero desconocido y de intrincados peligros…nunca hemos podido llegar al final después de largos y costosos recorridos. ¿Servirá para algo los muchos esfuerzos realizados?

Por otra somos conscientes y conocedores de que las leyes de la mecánica cuántica son inexorables y, por tanto, queremos que nuestra teoría sea formulada en términos de la mecánica cuántica. Tanto la mecánica cuántica como la teoría de la relatividad tienen la propiedad de que, tan pronto como uno admita la más pequeña desviación de esos principios, ambas darían lugar a una teoría totalmente diferente, que de ninguna manera se parecería al mundo que conocemos (o pensamos conocer). “Un poco relativista” o “un poco mecanicuántico” tan poco sentido como “un poco embarazado”. Podríamos imaginar, por otra parte, que la mecánica cuántica o la relatividad general, o ambas, serían marcos demasiado restrictivos nuestra avanzada teoría, de manera que habría que extender sus principios, llegar más lejos.

     Estas cuerdas también vibran pero, de otra manera

Resultado de imagen de Diferencias en partículas y formas entre el modelo estándar y la Teoría de Cuerdas

El Modelo estándar debería contener la fuerza gravitatoria pero, se resiste a juntarse con las otras fuerzas

La cuerda es cuántica y gravitatoria, de sus entrañas surge, por arte de magia, la partícula mensajera de la fuerza de gravedad: el gravitón. Funde de natural las dos teorías físicas más poderosas de que disponemos, la mecánica cuántica y la relatividad general, y se convierte en supercuerda -con mayores grados de libertad- es capaz de describir bosones y fermiones, partículas de fuerza y de materia. La simple vibración de una cuerda infinitesimal podría unificar todas la fuerzas y partículas fundamentales.

Resultado de imagen de Diferencias en partículas y formas entre el modelo estándar y la Teoría de Cuerdas

Parece que todo está hecho de cuerdas, incluso el espacio y el tiempo podrían emerger de las relaciones, más o menas complejas, cuerdas vibrantes. La materia-materia, que tocamos y nos parece tan sólida y compacta, ya sabíamos que está casi vacía, pero no imaginábamos que era tan sutil como una cuerda de energía vibrando. Los átomos, las galaxias, los agujeros negros, todo son marañas de cuerdas y supercuerdas vibrando en diez u once dimensiones espaciotemporales.

Está claro que no trato de explicar aquí una teoría que no comprendo y, el tratar el tema se debe a la curiosidad de tratar de indicar el camino, o, los caminos, por los que se podría llegar más lejos, al , algo más allá. De una cosa si que estoy seguro: ¡Las cuatro fuerzas fundamentales del Universo, un día fueron una sola fuerza!

En el universo existen numerosas estrellas cuyas masas son considerablemente mayores que las del Sol, debido a lo cual, la fuerza gravitotoria en su superficie es considerablemente más intensa que sobre la Tierra o sobre el Sol. La enorme cantidad de materia de una de esas estrellas causa una presión inimaginablemente alta en su interior, pero como  las tenperaturasd en el interior de las estrellas es también altísima, se produce una presión contraria que evita que la estrella se colapse. La estrella, sin embargo, pierde calor continuamente. Al proncipio de su vida, en las estrellas se producen todo de reacciones nucleares que mantienen su temperatura alta y que incluso la pueden elevar, pero antes o después el combustible nuclear se acaba. Cuanto más pesada sea la estrella, mayor es la prsión y la temperatura, y más rápidamente se consume su combustible. La contrapresión disminuye progresivamente y la estrella se va colapsando bajo la presión,  según dismunye el tamaño de la estrella, la fuerza gravitatoria aumenta hasta que finalmente se produce una implosión -un colapso repentino y completo- que no puede ser evitado por más tiempo: ¡ha nacido un agujero negro!

Según todos los indicios, cuando la estrella es muy masiva, la Improsión finaliza convirtiendo toda la inmensa masa de la estrella en un A. N., pero antes, explota como supernova y llena el espacio de los materiales complejos que han sido fabricados en sus nucleares, siembra el espacio con una Nebulosa de la que, años más tarde, nacerán nuevas estrellas y nuevos mundos…Y, ¿quién sabe? ¡Si nuevas formas de Vida!

A menudo implosión libera tanto calor que las capas exteriores de la estrella explotan por la presión de la radiación, y la implosión queda interrumpida produciéndose una esfera extremadamente compacta de “material nuclear” que conocemos como una estrella de neutrones. Algunas veces, estas estrellas de neutrones rotan con una tremenda velocidad (más de 500 revoluciones/segundo), y, debido a irregularidades en la superficie, emiten una señal de radio que pulsa con esa velocidad.

Resultado de imagen de La implosión de una estrella masivaResultado de imagen de La implosión de una estrella masiva

Una estrella masiva cuando agota su combustible nuclear de fusión implosiona y se derrumba bajo el peso de su propia masa. Pero antes se produce una explosión supernova para, de inmediato, comenzar a contraerse sobre sí misma hasta quedar convertida en un agujero negro dejando una gran nebulosa en una extensa región del Espacio

Si todos estos sucesos pudieran ser observados una distancia segura, las señales emitidas por el material durante la implosión pronto serían demasiado débiles para ser detectadas y, en el caso de un afgujero negro, el objeto se vuelve de ese color y desaparece de nuestra vista convertido en una “bola de gravedad pura”, se pueden calcular sus propiedades con precisión matemática. Sólo se necesitan tres parámetros para caracterizar completamente al agujero negro: su masa, su movimiento angular (cantidad de movimiento de rotación) y su carga eléctrica.

También se calcular como se comportan los chorros de partículas cuando se aventuiran cerca del agujero negro. Hawking ya nos habló de ello y explicó con suficiente claridad, lo que pasaba era que, en contra de lo que pudiéramos pensar, el agujero emite un débil flujo de partículas en ciertas circunstancias. ¿Esas partículas son reales! Agujero Negro está emitiendo un flujo constante de partículas de todas las especies concebibles.

Resultado de imagen de El Telescopio Espacial Hubble y ChandraResultado de imagen de El Telescopio Espacial Hubble y Chandra

El Telescopio Espacial Hubble y Chandra han captado la imagen de un impresionante anillo de Agujeros negros. La fotografía corresponde al conjunto Arp 147, en el que aparecen 2 galaxias interactuando entre sí y que se ubican a una distancia de 430 millones de años luz de la Tierra. La NASA combinó datos del Chandra con imágenes del Hubble. Mientras los tonos rojos, azules y verdes fueron resultado del trabajo del Hubble; los de color magenta, del Chandra. La captura muestra un anillo formado por estrellas masivas que evolucionaron rápidamente y explotaron en supernovas, como consecuencia de una colisión galáctica. Es así como dejaron densas estrellas de neutrones y posiblemente, también agujeros negros.

En el Universo ocurren sucesos que no podemos ni imaginar, tales son las fuerzas y energías que ahí están presentes y que dan lugar a maravillas que desembocan en transiciones de fase que convierten unas cosas en otras muy distintas haciendo que la diversidad exista, que la belleza permanezca, que la monotonía no sea el camino.

Resultado de imagen de Cerca de un agujero negro

Es cierto que nunca hemos podido estar tan cerca de un agujero negro como poder comprobar, in situ, la radiación Hawking que, para su formulación, sólo utilizó leyes bien establecidas de la naturaleza y que, por tanto, el resultado debería ser incuestionable, pero no es del todo cierto por dos razones:

La primera razón es que nunca ( he dicho) hemos sido capaces de observar un agujero negro de cerca y mucho de un tamaño tan pequeño que su radiación Hawking pueda ser detectada. Ni siquiera sabemos si tales miniagujeros negros existen en nuestro universo, o si sólo forman una minoría extremadamente escasa entre los objetos del cielo. Aunque pensemos conocer la teoría, no nos habría hecho ningún daño haber podido comprobar sus predicciones de una o de otra. ¿Sucede todo exactamente como pensamos actualmente que debería suceder?

Otros, como Gerald ´t  Hooft, consiguieron construir otras teorías alternativas y le dieron resultados distintos a los de Hawking, en la que el Agujero Negro podia radiar con una intensidad considerablemente mayor que la que la teoría de Stephen predecía.

Hay un aspecto relacionado con la radiación Hawking mucho más importante. El agujero negrodisminuye su tamaño al emitir partículas, y la intensidad de su radiación crece rápidamente según se reduce su tamaño. Justo de llegar a los estadios finales, el tamaño del agujero negro se hará comparable a la longitud de Planck y toda la masa llegará a ser sólo un poco mayor que la masa de Planck, Las energías de las partículas emitidas corresponderan a la masa de Planck.

¡Solamente una teoría completa de la Gravedad Cuántica podrá predecir y describir exactamente lo que sucede al agujero negro en ese ! es la importancia de los Agujeros Negros la teoría de partículas elementales en la Longitud de Planck. Los agujeros negros serían un laboratorio ideal para experimentos imaginarios. Todos alcanzan, por sí mismos, el régimen de energía de los números de Planck, y una buena teoría debe ser capaz de decirnos como calcular en ese caso. casi una década, Gerad ´t Hoofft ha resaltando esa objeción en la teoría de supercuerdas: no nos dice nada de los agujeros negros y mucho de cómo un agujero negro comenzar su vida como un agujero negro de tamaño “astronómico” y acabar su vida explosivamente.

Lo cierto es que, andamos un poco perdidos y no pocos físicos (no sabemos si de manera interesada), insisten una y otra vez, en cuestiones que parecen no llevar a ninguna parte y que, según las imposibilidades que nos presentan esos caminos, no sería conveniente elegir otros derroteros para indagar nuevas físicas mientras tanto, avanzan las tecnologías, se adquieren más potentes y nuevas formas de energías que nos puedan permitir llegar a sondear las cuerdas y poder vislumbrar si, es cierto, que pueda existir alguna “materia oscura”, o, si existen bosones dadores de masa, o…¡tántas cosas más que, la lista, sería interminable! de las cosas que no sabemos, y, sin embargo,  hablamos de taquiones y axiones.

emilio silvera

Notas:

“El axión es una partícula subatómica peculiar. Su existencia (todavía no demostrada) fue postulada por la teoría de Peccei-Quinn en 1977 para resolver el problema CP fuerte y así explicar la conservación de la simetría CP en el marco de la cromodinámica cuántica (QCD), suponiendo que sería una partícula de masa muy pequeña y sin carga eléctrica.”

“Un taquión (del griego ταχυόνιον takhyónion de ταχύς takhýs‘rápido, veloz’) es toda aquella partícula hipotética capaz de moverse a velocidades superlumínicas. A los taquiones se les atribuyen muchas propiedades extrañas, sobre todo por parte de los autores de ciencia ficción.”

La Física y el Tiempo

$
0
0

dosnudos.jpg

Para el topólogo, un nudo es una curva continua, cerrada y sin puntos dobles. Esta curva está situada en un espacio de tres dimensiones y se admite que pueda ser deformada, estirada, comprimida, aunque está “prohibido” hacerle cortes. Cuando se puede, a través de diversas manipulaciones, se pasa de un nudo a otro y se dice que son equivalentes. Claro que, algunos se abstraen en cuestiones con otras, al parecer, no relacionadas.

Un viejo amigo bromeaba diciendo que el Andante en do menor de la Sinfonía Concertante de Mozart conseguía devolverle a su intimidad anímica de partida, y que por eso, en su opinión, plasmaba de forma inefable el tiempo cíclico, o mejor aún, una CTC (“curva de género de tiempo cerrada”). Y transcurridos los doce minutos que dura ese movimiento, volvíamos a escucharlo una vez más. Mientras, discutíamossin cesar sobre el tiempo.

                                                       No es bueno perder la perspectiva

Hay un tiempo para cada cosa. Un tiempo para soñar, inconmensurable, un tiempo para vivir, siempre corto, un tiempo para filosofar, misterioso,…, y un tiempo para la ciencia, sujeto a número.

Me gustaría empezar definiendo el tiempo, pero no sé. Sesudos pensadores, como Platón y Aristóteles, lo ensayaron con brillantez. El tiempo es una imagen móvil de la eternidad. Esta imagen es eterna, pero se mueve según número, dirá Platón en el TIMEO. El tiempo es el número de movimiento según el antes y el después…El tiempo no es movimiento, sino movimiento en tanto en cuanto admite enumeración. El tiempo es una especie de número. El tiempo es obviamente aquello que se cuenta, no aquello con lo cual contamos, escribirá Aristóteles en su FÍSICA.

http://jovenespepe.files.wordpress.com/2010/08/ecleciastes.jpg

           Alguna vez, en simbiosis con la Naturaleza, podemos sentir como se ha parado el tiempo

Son definiciones muy sugestivas, aunque teñidas de circularidad: movimiento en el tiempo, tiempo a través del movimiento. Agustín de Hipona vio esto claramente. Célebre es asimismo su declaración: Si nemo a me quaerat, scio; si quaerenti explicari velim, nescio (CONFESIONES). En uno de los análisis más penetrantes del tema, sugirió Agustín la mente como fuente de tiempo: En ti es, mente mía, donde mido los tiempos.

Time is what happens when nothing else happens, afirma Feynman; para a continuación advertir que toda definición del tiempo es necesariamente circular, y que lo importante no es decir qué es el tiempo, sino decir cómo se mide lo que llamamos tiempo. En su enciclopédico tratado sobre la gravitación, Misner, Thorne y Wheeler nos recuerdan de forma sencilla y profunda lo que toda medida del tiempo físico debe cumplir: Time is defined so that motion looks simple.

El tiempo es un concepto inventado por el hombre para ordenar, primero, sus sensaciones y actos, y luego, los fenómenos. Decían los escolásticos: Tempus est ens rationis cum fundamento in re. La primera unidad natural debió ser el día, por la ciclidad conspicua de las salidas del Sol. Los grandes avances científicos y tecnológicos a lo largo de los siglos han estado vinculados a los adelantos en la precisión con que se ha ido midiendo el tiempo. Hoy disponemos de relojes que aseguran un segundo en 20 millones de años, y el paso de la femtoquímica a la attofísica empieza a ser una realidad.

No pocas veces nos podemos ver perdidos en la vorágina de lo que llamamos tiempo, algo tan enorme que, en realidad, no sabemos lo que es. No lo hemos llegado a comprender, y, por si fuero poco, tampoco sabemos, si en realidad existe.

El tiempo antes de Einstein.

La física nació en torno al tiempo. Las regularidades en los ciclos astrales permitieron al acierto en las predicciones apoyadas en esta periodicidad, y con ello despertó sin duda la confianza del hombre en la racionalidad, inclinándole a escoger el cosmos frente al caos.

Breve historia de la medida del tiempo

La longitud de las sombras fue uno de los primeros métodos usados para fijar las horas. En el Museo Egipcio de Berlín hay un fragmento de piedra que posiblemente sea de un reloj de sol de alrededor de 1500 a.C. Los babilonios desarrollaron los relojes de sol, y se dice que el astrónomo Anaximandro de Mileto los introdujo en Grecia en el siglo VI a.C.

En el siglo II a C, Eratóstenes, de la biblioteca de Alejandría, concibió y llevó a cabo la primera medida de las dimensiones de la Tierra de la que se tiene noticia. En el Año Internacional de la Astronomía, una de las actividades que se llevaron a cabo fue, precisamente averiguar el radio terrestre por el mismo método.

Aparte de relojes de sol, en la antigüedad se usaron también relojes de arena, de agua, cirios y lámparas de aceite graduadas.

En la segunda mitad del siglo XIII aparecen los primeros relojes mecánicos. Su precisión era muy baja (10-20%). En el XIV se mejoran, con el invento del escape de rueda catalina, y ya se alcanzan precisiones de 20 a 30 minutos por día (1-2%). Por allá al año 1345 se empieza a dividir las horas en minutos y segundos.

El tiempo físico asoma en el siglo XIV, en el Merton College Oxford y luego en la Universidad de París, con Oresme. Se representa en una línea horizontal, mientras en vertical se disponen las cualidades variables. Son los primeros gráficos de función (en este caso, función del tiempo). La cinemática celeste brinda un buen reloj a través de la segunda ley de Kepler, midiendo tiempos mediante áreas. La ley armónica de Kepler permitirá medirlos a través de longitudes. Galileo desarrolló la cinemática terrestre, y sugirió el reloj de péndulo. A Huygens debemos la técnica de medida del tiempo que ha llegado a nuestros días, y que suministró relojes más precisos y transportables mediante volantes oscilatorios acoplados a resortes de calidad.

Reloj de péndulo de Huygens

Diseño del reloj de péndulo de Huygens, 1656 (imagen de dominio público).

La importancia, no sólo científica sino económica, de disponer de relojes precisos y estables, queda reflejada en el premio ofrecido por el gobierno inglés de la reina Ana en 1714, que dispuso that a reward be settled by Parliament upon such person o persons as shall discover a more certain and practicable method of ascertainig longitude that any yet in practice. La recompensa era de 20, 000 libras para el que presentara un cronómetro capaz de determinar la longitud con error menor de 30´ de arco al término de un viaje a las Indias occidentales, equivalente a mantener el tiempo con error menor de 2 minutos tras seis semanas de viaje. Se la llevó casi medio siglo después el relojero británico John Harrison (1693-1776), con un reloj, conocido como H4, que incorporaba correcciones por variación en la temperatura, y que en un primer viaje de 81 días desde Porstmouth a Puerto Real (Jamaica) en 1761-62 se retrasó 5 s, esto es, de precisión 10⁻⁶ (10; 44).

Después se pasó a los de diapasón, de aquí a los de cuarzo, y hoy los atómicos ofrecen precisiones desde 10⁻¹² – 10⁻¹⁵ (Cs) hasta 10⁻¹⁶ (máser de H).

Una red de relojes atómicos de cesio, sincronizados mediante ondas de radio, velan actualmente por la exactitud de la hora sobre el planeta. Como señala Davies (10), ya no nos sirve como cronómetro el giro de la Tierra alrededor de su eje. Aunque durante siglos ha sido este viejo trompo un magnífico reloj de referencia, la falta de uniformidad de su giro (las mareas, por ejemplo, lo frenan incesantemente y alargan con ello el día en un par de milésimas de segundo por siglo, perceptible para los finos cronómetros actuales), y otras desviaciones estacionales, cuantitativamente similares a estos retrasos seculares, pero irregulares y de signo variable, son circunstancias que en conjunto obligan a añadir al tiempo civil un segundo intercalar cada uno o dos años (el último lo fue el 1 de enero de 1999, a las 0 horas) con el fin de remediar la asincronía entre los tiempos atómicos y los días astronómicos. El día no tiene 86 400 s justos (donde el segundo se define como la duración de 9 192 631 770 períodos de una determinada vibración de los átomos de Cs. Hoy la tecnología alcanza precisiones fabulosas: relojes que en treinta millones de años se desviarían a lo sumo en un diminuto segundo, como el NIST-F1 (Boulder, Colorado).

Por norma general y para mayor exactitud del sistema, dentro del campo visual de cualquier receptor GPS siempre hay por lo menos 8 satélites presentes. Cada uno de esos satélites mide 5 m de largo y pesa 860 kg . La energía eléctrica que requieren para su funcionamiento la adquieren a partir de dos paneles compuestos de celdas solares adosadas a sus costados. Están equipados con un transmisor de señales codificadas de alta frecuencia, un sistema de computación y un reloj atómico de cesio, tan exacto que solamente se atrasa un segundo cada 30 mil años.

La posición que ocupan los satélites en sus respectivas órbitas facilita que el receptor GPS reciba, de forma constante y simultánea, las señales de por lo menos 6 u 8 de ellos, independientemente del sitio donde nos encontremos situado. Mientras más señales capte el receptor GPS, más precisión tendrá para determinar las coordenadas donde se encuentra situado.

Incluso hay relojes de pulsera comerciales (receptores de señales de radio) con precisión de un segundo por millón de años garantizada por un reloj atómico en una lejana estación. La naturaleza de altísima precisión: la estabilidad del púlsar binario b1855+09 puede ser de unas partes en 10¹⁵ o incluso mejor.

El tiempo en Newton:

En los PRINCIPIA, Newton empieza con una renuncia a definir el tiempo: El tiempo, el espacio, el lugar y el movimiento son de todos bien conocidos. Y no los defino. Pero digo que el vulgo no concibe esas cantidades más que por su relación a cosas sensibles. Para evitar ciertos prejuicios que de aquí se originan, es conveniente distinguirlas en absolutas y relativas, verdaderas y aparentes, matemáticas y vulgares.

Resultado de imagen de El Tiempo absoluto de newton

A continuación, sin embargo, Newton se arrepiente de su primer impulso y aclara: El tiempo absoluto, verdadero y matemático, de suyo y por su propia naturaleza fluye uniformemente sin relación a nada externo y se llama también duración: el tiempo relativo, aparente y vulgar es cualquier medida sensible y externa (exacta o no uniforme) de la duración por medio del movimiento y se usa vulgarmente en lugar del tiempo verdadero: tal como la hora, el día, el mes, el año.

¿Qué significa que el tiempo fluye? ¿Qué el tiempo “se mueve en el tiempo”? De nuevo la pescadilla mordiéndose la cola. El absolutismo del tiempo newtoniano recibió encendidas críticas. Leibniz opuso su idea de espacio y tiempos puramente relativos, el primero como un orden de coexistencia, el segundo como un orden de sucesiones de las cosas; ambos, espacio y tiempo, son phœnomena bene fundata. Los argumentos dinámicos con que Newton arropa su tesis de la naturaleza absoluta de la rotación y con ello la de un espacio absoluto, apoyo posterior para el tiempo absoluto, también hallan fuertes objeciones. Para Berkeley esas razones de Newton lo único que muestran es la importancia del giro respecto de las masas lejanas del Universo y no respecto de un espacio absoluto, que él no acepta. Ernst Mach, en la segunda mitad del XIX, insistirá decididamente en este punto de vista, y desde su positivismo acosará los absolutos newtonianos. De “medieval”, “no científico”, “metafísico”, tilda Mach a Newton: No tenemos derecho a hablar de un tiempo “absoluto”: de un tiempo independiente de todo cambio. Tal tiempo absoluto no puede medirse por comparación con ningún movimiento; por tanto no tiene valor práctico ni científico, y nadie tiene derecho a decir que sabe algo de él. Es una concepción metafísica vana.

El tiempo en Einstein:

El tiempo newtoniano, absoluto, el nos es familiar, tuvo que dejar paso al tiempo einsteniano, mutable y relativo, con tantos “ahora” por suceso cuantos estados de movimiento mutuo imaginemos.

El tercero de los trabajo enviados por Albert Einstein (AE) en su Annus Mirabilis de 1905 a Annalen der Physik lleva por título “Zur Elektrodynamik Bewegter Körper” (“Sobre la electrodinámica de los cuerpos en movimiento”). Junto con el quinto, titulado “Ist der Trägheit eines Körpers von seinem Energieinhalt abhängig?” (“¿Depende la inercia de un cuerpo de su contenido de energía?”), constituyen lo que hoy se llama TEORÍA ESPECIAL DE LA RELATIVIDAD.

Da A.E. un par de razones para justificar su tercer trabajo:

  1. La insatisfacción que le produce la asimetría en la descripción maxwelliana de los fenómenos electromagnéticos: la acción entre un conductor y un imán depende solo del movimiento relativo entre ambos, pero la teoría de Maxwell distingue entre el caso de conductor en reposo y el caso de imán en reposo: a) En el primer caso el campo magnético móvil engendra un campo eléctrico, con una energía determinada, que a su vez produce corrientes en el conductor en reposo. b) En el segundo caso, no se produce ningún campo electrónico, sino una fuerza electromotriz en el conductor, sin energía asociada, que engendra una corriente como en el caso anterior.
  2. La incapacidad de la óptica y del electromagnetismo (EM) para detectar el movimiento respecto del lichtmedium, es decir, de un inercial privilegiado. Esto le sugiere que la óptica y el EM tienen las mismas ecuaciones en todos los inerciales (sistemas en los que las leyes de la mecánica de Newton son las mismas). Y AE eleva esto a un principio, que llama “Prinzip der Relativität”, y le añade un compañero, aparentemente incompatible con él: “La velocidad de la luz en vacío es siempre la misma, con independencia del estado de movimiento del cuerpo emisor”.

¿Será ese de arriba el rayo de luz de Einstein, o, por el contrario, será un asteroide que se nos viene encima?

Siendo todavía muy joven, en 1895-1896, ya le preocupaba el EM y la luz, como recordaba en 1955: “Si persiguiéramos a la velocidad de la luz un rayo de luz, veríamos una onda independiente del tiempo. ¡Tal cosa, sin embargo, no existe! Este fue el primer experimento mental, infantil, en relación con la teoría especial de la relatividad”.

Este tercer trabajo de Einstein en 1905 no contiene ninguna referencia a otros trabajos, ni suyos ni de otros (como Lorentz o Poincaré).

Consciente de que su postulado de la constancia de la velocidad de la luz choca frontalmente con la ley galileana de adición de velocidades, Albert Einstein revisa los cimientos de la Física, empezando por definir físicamente y con sumo cuidado el concepto de Gleichzeitigkeit o simultaneidad entre sucesos. Considera un sistema inercial, para el que supone válida la geometría euclidiana para calcular distancias entre objetos estacionarios a través de sus coordenadas respecto de sus ejes cartesianos. Si A, B son dos observadores estacionarios, provistos de relojes iguales, y A (B) manda una señal luminosa a B (A), quien la devuelve sin tardanza a A (B), diremos que el reloj de A está sincronizado con el reloj de B si

t(B) – t(A) = t’(A) – t(B),

donde t(A) es el tiempo marcado por el reloj de A cuando envía la señal a B, t(B) lo que marca el reloj de B al llegarle la señal de A y reemitirla, y t’(A) la lectura del reloj de A al recibir la devolución de B.

Resultado de imagen de determinación de la velocidad de la luz por Galileo

No parece el mejor método para medir la velocidad de la luz, el empleado por Galileo. Claro que, en aquellos tiempos…¿Qué se podía hacer?

Supone Albert Einstein que esta definición no lleva a contradicciones, que es en principio posible entre cualquier par de observadores estacionarios en el inercial, y que la relación de sincronización anterior es de equivalencia: Si A está sincronizada con B, también B lo está con A, y si además B lo está con C, también A y C lo están. A esto le siguen ecuaciones que quiero obviar para no dar complejidad al trabajo.

No existe “el” presente

Pasa Albert Einstein a enunciar con precisión el principio de relatividad y el postulado de la constancia de la velocidad de la luz en el vacío:

  1. Las leyes que rigen los cambios de los sistemas físicos son las mismas en todos los inerciales.
  2. Todo rayo de luz se mueve en cualquier inercial con una misma velocidad, c, independientemente del movimiento de su fuente.

Como consecuencia, demuestra que el concepto de sincronía, y por ende de simultaneidad, es relativo, no absoluto. La noción de “presente”, “ahora” o cualquier instante determinado depende del referencial inercial.

Energía Taquiónica

           Algunos incluso hablaron de ernegía taquiónica

¿Más rápido que la luz?

¿Existen partículas que se muevan con velocidad superior a la de la luz? Sí; por ejemplo, cualquier partícula que lleve en agua, a temperatura entre 0 y 50 ºC, una velocidad ν > c / n, n = 1.3, irá más deprisa en ese medio que los fotones del espectro visible. Lo mismo ocurre con la mayoría de los rayos cósmicos que llegan a la atmósfera; son superlumínicos en relación con la velocidad de la luz en el aire. Precisamente en esta posibilidad de rebasar la velocidad de la luz en un medio reside el efecto Cerenkov.

Resultado de imagen de La velocidad de los taquiones

                  “La ignorancia afirma o niega rotundamente; la Ciencia duda.”

Lo que no se conocen son taquiones, o partículas que se muevan más deprisa que la luz en el vacío. Si existieran, podrían utilizarse para mandar información al pasado. Violando el orden causa-efecto. Por ello se “decreta” su inexistencia.

En fin, que la velocidad de la luz en el vacío, al menos que sepamos, es infranqueable. Es un límite impuesto por la Naturaleza al que habrá que vencer, no superándolo (que no se puede), sino mediante una artimaña física inteligente que logre burlar dicho límite.

Aparte de algún que otro añadido, el artículo (parcialmente expuesto aquí -se obviaron partes complejas), es del Físico de la Universidad Complutense D. Alberto Galindo Tixaire. Fue publicado en el Volumen 19, número 1 de la Revista Española de Física en 2005 Año Mundial de la Física

Año mundial de la Física

En realidad, un Homenaje a Einstein por haber pasado más de un siglo desde aquel acontecimiento memorable de la Relatividad Especial en el año 1.905 y estar a punto de cumplirse otro siglo desde su relatividad general de 1905. Dos acontecimientos que marcaron el camino de la Física y la Cosmología. Precisamente ahora, se cumplen los 100 años desde que Einstein diera al mundo la segunda parte de su Teoría.

emilio silvera


Cosas de Física

$
0
0

El condensado de Bose-Einstein

Los cinco grandes descubrimientos de la Física de los últimos 25 años
NIST/JILA/CU-Boulder
Un nuevo estado de agregación de la materia, el condensado de Bose-Einstein

Sólido, líquido y gaseoso. Así es como la mayoría de la gente respondería si se les preguntara cuáles son los estados de la materia. Pero existe un cuarto, el plasma, y un quinto aún menos conocido: el Condensado de Bose-Einstein (CBE).

 

 

Se trata de un estado de la materia que se produce cuando las partículas denominadas bosones pierden sus características individuales para colapsar en un único estado colectivo en el que los efectos cuánticos se manifiestan en una escala macroscópica. Esta condensación fue predicha por Satyendra Nath Bose y Albert Einstein en la década de los 20 del pasado siglo.

Se trata también de la materia más fría que se conoce. Varios experimentos de laboratorio han conseguido formar CBE a temperaturas de apenas media milmillonésima de grado por encima del cero absoluto, es la temperatura más baja posible del Universo (-273 grados) y a la que cesa la actividad atómica.

 

 

 

Imagen relacionada

 

 

Seguramente habrá algún otro que aún no conozcamos porque, ¿qué clase de materia es la que conforma un agujero negro? Allí la materia que entra es atrapada hacia lo que llamamos singularidad que al parecer es lo mas denso que existe en nuestro Universo.

 

 

 

Los cinco grandes descubrimientos de la Física de los últimos 25 años
Archivo
La expansión del Universo es cada vez más rápida

En la década de los 20 del pasado siglo, el astrónomo Edwin P. Hubble confirmaba que el Universo no ha dejado de crecer desde el momento mismo en que surgió, a partir de la gran explosión, el Big Bang, hace 13.800 millones de años, según los últimos datos más precisos. En los 90, se descubrió que esa expansión, además, se está acelerando y es cada vez más rápida a medida que pasa el tiempo.

Lo que causa esta expansión fue denominado energía oscura, un tipo de energía de la que apenas sabemos nada. Junto a la materia oscura, completamente diferente a la materia ordinaria que todos conocemos, conforman el 96% de la masa total del Universo. Solo el 4% está hecho de materia ordinaria, la que forma todos los planetas, estrellas y galaxias que podemos ver.

El descubrimiento de la expansión acelerada del Universo sacudió las cimientos de todo lo que sabemos sobre el Cosmos.

Sí, los Neutrinos tienen masa

Los cinco grandes descubrimientos de la Física de los últimos 25 años
Archivo
Detector de neutrinos en Tokio

Durante mucho tiempo se creyó que los neutrinos, unas misteriosas partículas subatómicas, no tenían masa. Sin embargo, investigaciones posteriores demostraron que se transforman alternativamente, lo que solo es posible si tienen masa, aunque muy pequeña, menos de una milmillonésima de la masa de un átomo de hidrógeno. Este hallazgo ha obligado a revisar la teoría de las partículas elementales y fuerzas fundamentales de la naturaleza.

La masa de los neutrinos es tan ligera que pasan sin problema a través de planetas enteros sin ser interferidos ni siquiera por uno de sus átomos. Tampoco tienen carga eléctrica, por lo que los neutrinos no están sujetos a alteraciones magnéticas de ninguna clase y no son alterados por la fuerza de la gravedad. Se mueven libremente en cualquier clase de ambiente y condición.

Fuente: Reportaje de prensa.

¿Viajes en el Tiempo? ¡Otro sueño de la Humanidad!

$
0
0

En cromodinámica cuántica, la propiedad de libertad asintótica hace que la interacción entre quarks sea más débil cuanto más cerca están unos de otros (confinación de los quarks) y la fuerza crece cuando los quarks tratan de separarse, es la única fuerza que crece con la distancia. Los quarks y los gluones están confinados en una región cuyo valor se define por:

R » ћc /L » 10-13 cm

Poder contemplar Quarks libres sólo podría haber sido posible en aquellos primeros momentos, antes de la formación de los hadrónes. En realidad, la única manera de que pudiéramos observar quarks libres, sería en un ambiente con la temperatura del universo primitivo, es la temperatura de desconfinamiento.

Ahora se cree que el Big Crunch nunca se producirá y que la muerte del Universo será térmica, es decir, una temperatura del cero absoluto que lo paralizará todo, ni los átomos se moveran en ese frío de muerte que dejará un universo congelado donde ni brillaran las estrellas ni estará presente ninguna clase de vida.

En la parte anterior de este mismo trabajo,  estaba hablando del Big Crunch y me pasé a otro (los quarks), así que cerremos este capítulo del Big Crunch que está referido a un estado final de un universo cerrado de Friedmann  (es decir, uno en el que la densidad excede a la densidad crítica). Dicho universo se expande desde el Big Bang inicial, alcanza un radio máximo, y luego colapsa hacia un Big Crunch, donde la densidad de la materia se vuelve infinita después de que la gravedad haga parar la expansión de las galaxias que, lentamente al principio, y muy rápidamente después, comenzarán a desplazarse en sentido contrario, desandarán el camino para que toda la materia del universo se junte en un punto, formado una singularidad en la que dejaría de existir el espacio-tiempo. Después del Big Crunch debería haber otra fase de expansión y colapso, dando lugar a un universo oscilante.  universo que se va y universo que viene.

Pero, ¿y nosotros?, ¿qué pintamos aquí?

¡Mirado así no parece que seamos gran cosa!

Antes de pasar a otros temas, retomemos el de los viajes en el tiempo y las paradojas que pueden originar.

Una versión de la máquina del tiempo de Thorne consiste en dos cabinas, cada una de las cuales contiene dos placas de metal paralelas. Los intensos cambios eléctricos creados entre cada par de placas de metal paralelas (mayores que cualquier cosa posible con la tecnología actual) rizan el tejido del espacio-tiempo, creando un agujero en el espacio que une las dos cabinas. Una cabina se coloca entonces en una nave espacial y es acelerada a velocidades próximas a la de la luz, mientras que la otra cabina permanece en la Tierra. Puesto que un agujero de gusano puede conectar dos regiones des espacio con tiempos diferentes, un reloj en la cabina de la nave marcha más despacio que un reloj en la cabina de la Tierra. Debido a que el tiempo transcurriría a diferentes velocidades en los dos extremos del agujero de gusano, cualquiera que entrase en un extremo del agujero de gusano sería instantáneamente lanzado al pasado o al futuro.

Stephen Hawking

Viajar al pasado y conocer a personajes famosos a los que contar las novedades científicas. Algunos dicen que el viaje en el Tiempo está prohibido, aunque es posible. Siempre hemos tenido una gran imaginación y, cuando se sabíamos contestar a una cuestión compleja… ¡Inventamos la respuesta!

Normalmente, una de las ideas básicas de la física elemental es que todos los objetos tienen energía positiva. Las moléculas vibrantes, los vehículos que corren, los pájaros que vuelan, los niños jugando tienen todos energía positiva. Por definición, el espacio vacío tiene energía nula. Sin embargo, si podemos producir objetos con “energías negativas” (es decir, algo que tiene un contenido de energía menor que el vacío), entonces podríamos ser capaces de generar configuraciones exóticas de espacio y tiempo en las que el tiempo se curve en un circulo.

Parece que la función de las placas metálicas paralelas consiste en generar la materia o energía exótica necesaria para que las bocas de entrada y salida del agujero de gusano permanezcan abiertas y, como la materia exótica genera energía negativa, los viajeros del tiempo no experimentarían fuerzas gravitatorias superiores a 1g, viajando así al otro extremo de la galaxia e incluso del universo o de otro universo paralelo de los que promulga Stephen Hawking. En apariencia, el razonamiento matemático de Thorne es impecable conforme a las ecuaciones de Einstein.

Normalmente, una de las ideas básicas de la física elemental es que todos los objetos tienen energía positiva. Las moléculas vibrantes, los vehículos que corren, los pájaros que vuelan, los niños jugando tienen todos energía positiva. Por definición, el espacio vacío tiene energía nula. Sin embargo, si podemos producir objetos con “energías negativas” (es decir, algo que tiene un contenido de energía menor que el vacío), entonces podríamos ser capaces de generar configuraciones exóticas de espacio y tiempo en las que el tiempo se curve en un circulo.

                Muchas son las máquinas del tiempo que hemos desarrollado en nuestra imaginación

Por el momento, al no ser una propuesta formal, no hay veredicto sobre la máquina del tiempo de Thorne. Su amigo, Stephen Hawking, dice que la radiación emitida en la entrada del agujero sería suficientemente grande como contribuir al contenido de materia y energía de las ecuaciones de Einstein. Esta realimentación de las ecuaciones de Einstein distorsionaría la entrada del agujero de gusano, incluso cerrándolo para siempre. Thorne, sin embargo, discrepa en que la radiación sea suficiente para cerrar la entrada.

Aquí es donde interviene la teoría de supercuerdas. Puesto que la teoría de supercuerdas es una teoría completamente mecanocuántica que incluye la teoría de la relatividad general de Einstein como un subconjunto, puede ser utilizada para calcular correcciones a la teoría del agujero de gusano original.

En principio nos permitiría determinar si la condición AWEC es físicamente realizable, y si la entrada del agujero de gusano permanece abierta para que los viajeros del tiempo puedan disfrutar de un viaje al pasado.

Nuestra línea de universo resume toda nuestra historia, que nacemos hasta que morimos. Cuanto más rápido nos movemos más se inclina la línea de universo. Sin embargo, la velocidad más rápida a la que podemos viajar es la velocidad de la luz. Por consiguiente, una de este diagrama  espacio-temporal está “prohibida”; es decir, tendríamos que ir a mayor velocidad que la luz para entrar en esta zona prohibida por la relatividad especial de Einstein, que nos dice que nada en nuestro universo puede viajar a velocidades superiores a c.

Agujero de gusano

            Agujero de Gusano

“Amos Ori describe una máquina para viajar en el tiempo que podría ser construida por una civilización más avanzada que la nuestra dentro de 100 o 200 años. Esa máquina tendría la capacidad teórica de provocar una curvatura del espacio con un campo de gravedad local en su interior suficientemente poderoso que sería en la práctica una máquina para viajar en el tiempo. “

                 Sí, ¿pero dónde está esa energía negativa para viajar en el Tiempo?

Resultado de imagen de average weak energy condition o AWEC

Este concepto más bien simple se conoce con un nombre que suena complicado: la condición de energía media débil (average weak energy condition, o AWEC). Como Thorne tiene cuidado en señalar, la  AWEC debe ser violada; la energía debe hacerse temporalmente negativa para que el viaje en el tiempo tenga éxito. Sin embargo, la energía negativa ha sido históricamente anatema para los relativistas, que advierten que la energía negativa haría posible la antigravedad y un montón de otros fenómenos que nunca se han visto experimentalmente.

Pero Thorne señala al momento que existe una forma de obtener energía negativa, y esto es a través de la teoría cuántica.

 Imagen relacionada

Estamos inmersos en una gran sopa cuántica de la que no somos conscientes pues la mayor parte de la energía que circula a nuestro alrededor, es imperceptible para nuestros sentidos físicos….

En 1.948, el físico holandés Hendrik Casimir demostró que la teoría cuántica puede crear energía negativa: tomemos simplemente dos placas de metal paralelas y descargadas ordinariamente, el sentido común nos dice que estas dos placas, puesto que son eléctricamente neutras, no ejercen ninguna fuerza entre sí. Pero Casimir demostró que, debido al principio de incertidumbre de Werner Heisenberg, en el vacío que separa estas dos placas existe realmente una agitada actividad, con billones de partículas y antipartículas apareciendo y desapareciendo constantemente. Aparecen a partir de la “nada” y vuelven a desaparecer en el “vacío”. Puesto que son tan fugaces, son, en su mayoría, inobservables, y no violan ninguna de las leyes de la física. Estas “partículas virtuales” crean una fuerza neutra atractiva entre estas dos placas que Casimir predijo que era medible.

Resultado de imagen de Fuerza Casimir

Cuando Casimir publicó el artículo, se encontró con un fuerte escepticismo. Después de todo, ¿cómo pueden atraerse dos objetos eléctricamente neutros, violando así las leyes normales de la electricidad clásica? Esto era inaudito. Sin embargo, en 1.985 el físico M. J. Sparnaay observó este efecto en el laboratorio, exactamente como había predicho Casimir. Desde entonces (después de un sin fin de comprobaciones), ha sido bautizado como el efecto Casimir.

Una manera de aprovechar el efecto Casimir mediante grandes placas metálicas paralelas descargadas, sería el descrito para la puerta de entrada y salida del agujero de gusano de Thorne para poder viajar en el tiempo.

Por el momento, al no ser una propuesta formal, no hay veredicto sobre la máquina del tiempo de Thorne. Su amigo, Stephen Hawking, dice que la radiación emitida en la entrada del agujero sería suficientemente grande como para contribuir al contenido de materia y energía de las ecuaciones de Einstein. Esta realimentación de las ecuaciones de Einstein distorsionaría la entrada del agujero de gusano, incluso cerrándolo para siempre. Thorne, sin embargo, discrepa en que la radiación sea suficiente para cerrar la entrada.

Aquí es donde interviene la teoría de supercuerdas. Puesto que la teoría de supercuerdas es una teoría completamente mecanocuántica que incluye la teoría de la relatividad general de Einstein como un subconjunto, puede ser utilizada para calcular correcciones a la teoría del agujero de gusano original.

En principio nos permitiría determinar si la condición AWEC es físicamente realizable, y si la entrada del agujero de gusano permanece abierta para que los viajeros del tiempo puedan disfrutar de un viaje al pasado.

         Podríamos ver como se forman las nebulosas y nacen y mueren las estrellas

Antes comentaba algo sobre disfrutar de un viaje al pasado pero, pensándolo bien, no estaría yo tan seguro. Rápidamente acuden a mi mente múltiple paradojas que, de una u otra especie han sido narradas, principalmente por escritores de ciencia-ficción que, por lo general, son los precursores del futuro.

Si viajar en el tiempo finalmente pudiera ser posible, cosas parecidas a esta locura ¡”podrían ocurrir”! I. B. S. Haldane, nos decía:

“La naturaleza no sólo es más extraña de lo que suponemos; es más extraña de lo que podamos suponer”.

emilio silvera

¡Qué maravilla! Poder imaginar…y comprobar

$
0
0

¿Mini agujeros negros que atraviesan la Tierra a diario?

                                ¿Mini agujeros negros que atraviesan la Tierra a diario?

Algunos consideran que unos 400 mini agujeros negros podrían atravesar la Tierra cada año. Además, podrían ser detectables por sus fuertes emisiones electromagnéticas. Quizás ha llegado la hora de buscarlas. Cosas como esta se leen de vez en cuando y también otras que…

Resultado de imagen de Mini agujeros negros que atraviesan la Tierra a diario

“Como si de fantasmas cósmicos se tratase, es posible que agujeros negrosen miniatura atraviesen la Tierra diariamente sin crear ningún peligro, como sugiere un estudio reciente.

Esta nueva teoría pone fin al temor de que poderosas máquinas como el Gran Colisionador de Hadronespuedan crear agujeros negros capaces de tragarse el planeta.

Los autores del estudio creen que estos minúsculos agujeros negros tienen un comportamiento completamente distinto al de sus hermanos mayores, llamados agujeros negros astrofísicos o de masa estelar.

A pesar de tener la masa de aproximadamente mil coches, un mini agujero negro es más pequeño que un átomo. Con ese tamaño un agujero negro no podría atraer mucha materia y en su lugar atraparía átomos y algunas moléculas más grandes a órbitas circulares, al igual que los protones atraen a los electrones en los átomos.

Así, los autores del estudio llaman a los mini agujeros negros que atraen materia a las órbitas «equivalentes gravitatorios de los átomos».”

 

 

Resultado de imagen de LHC

 

 

¿Os acordáis? Tanto miedo a que el Gran Colisionador de Hadrones (LHC) de Ginebra formara un agujero negro que podría haber atraído toda la materia a su alrededor y que pudiera haber destruído el planeta y resulta que, según un grupo de investigadores, es posible que este tipo de fenómenos, al menos los que son muy diminutos, atraviesen la Tierra cada día sin que ocurra absolutamente nada, son inofensivos y su ínfimo tamaño los hace inofensivos. Y esto, según un atrevido estudio publicado por una pareja de físicos en arXiv. org,  porque quizás interactúen con la materia de forma muy diferente a como se creía hasta ahora.

Los mini agujeros negros (si realmente existen) podrían ser diferentes a los gigantes que nos ha enseñado la astrofísica y cuya imagen todos tenemos en la cabeza. Los agujeros astrofísicos se originan cuando se colapsan las grandes estrellas para crear una región en el espacio cuya gravedad es tan potente que nada puede escapar a su atracción. Sus dimensiones son monstruosas. El que se encuentra en el centro de nuestra galaxia tiene 4 millones de veces la masa del Sol.

                    Si alguna vez existieron nunca ningún ingenio tecnológico lo pudo captar

“Sin embargo, el caso de los microagujeros es diferente en ese aspecto, puesto que la pequeña masa de un microagujero negro podría ser del orden de la masa de Planck, que es aproximadamente 2 × 10−8 kg ó 1,1 × 1019GeV. A esta escala, la fórmula de la termodinámica del agujero negro predice que el miniagujero negro podría tener una entropía de sólo 4π nats; una temperatura Hawking de \frac{T_p}{8\pi} , requiriendo energía térmica cuántica comparable aproximadamente a la masa del miniagujero negro completo; y una longitud de onda Compton equivalente al radio de Schwarzschild del agujero negro (esta distancia siendo equivalente a la longitud de Planck). Este es el punto donde la descripción gravitacional clásica del objeto no es válida, siendo probablemente muy importantes los efectos cuánticos de la gravedad.”

Resultado de imagen de Mini agujeros negros

Todo esto me recuerda lecturas en las que, un gran físico, Gerard ´t Hooft, nos contaba como había dedicado gran parte de su tiempo al estudio y la investigación del comportamiento de los agujeros negros y de cómo las consideraciones obtenidas le llevaron a ese alto nivel sobre las leyes últimas de la física. Él suponía tener un pequeño agujero negro que obedecía tanto a las leyes de la mecánica cuántica como a las de la gravedad y, se preguntaba: ¿cómo se debería describir su comportamiento?

Resultado de imagen de Mini agujeros negros

¿Se comportaría ese agujero negro como si fuera un átomo o molécula que obedece las leyes de la mecánica cuántica? No todo el mundo está de acuerdo con ese punto de vista. Algunos dicen que los agujeros negros son algo totalmente diferentes.  ¿Pero que es tan diferente en ellos? Los agujeros negros emiten partículas, igual que hacen los átomos radiactivos. Entonces, ¿por qué no deberían seguir las mismas reglas? Para decirlo de otra manera más clara, ´t Hooft creía que ellos tenían que obedecer absolutamente esas leyes si tenemos que creer en alguna clase de “ley y orden” a escala de la longitud de Planck.

Uno de los resultados de sus cálculos le produjo una enorme sorpresa. ¡Se encontró prácticamente con las mismas expresiones matemáticas que las de la Teoría de cuerdas! La fórmula para la captura y emisión de partículas por un agujero negro es exactamente igual a la fórmula de Veneziano. Aquello era extraño ya que no era un tema de cuerdas.

Muchas son las sorpresas que nos darán todavía los agujeros negros que esconden muchos secretos sin desvelar

Claro que la teoría de cuerdas está por acabar y es difícil predecir si finalmente será compatible con la teoría de la Gravedad. En cualquier caso, ambas teorías están incompletas y tienen mucho más que decir…en el futuro. Seguramente serán simplemente los comienzos de algo mucho más profundo y bello que, de una vez por todas nos explique como es, en realidad, el Universo que habitamos.

La deformación del espacio-tiempo, de la materia, las transiciones de fase aún no comprendidas, lo que hay más allá de los Quarks, esas cuerdas vibrantes que se suponen…serán el primer estadio de la materia. Si creemos a Stephen Hawking, los agujeros negros son sólo el principio de algo más profundo, de una deformación mucho más seria del “espaciotiempo espumoso”.

Allí donde está presente la espuma cuántica de la que hablaban Wheeler y Planck. Y eso no es todo. Algunos como el mismo Hawking y sobre todo Sydney  Coleman de Harvard, especulan con el papel que en todo esto juegan los “agujeros de gusano”, esos conductos del espaciotiempo que nos podrían llevar hacia otras latitudes muy lejanas e incluso, hacia otras galaxias. Tales rarezas son admitidas por la teoría de Einstein y, como nuestra imaginación es imparable… Pasa lo mismo que ocurre en la mecánica cuántica, en la que todo lo que está permitido sucede obligatoriamente, es decir, si alguna configuración es posible, ésta tiene una probabilidad de que realmente ocurra.

Claro que, seguramente y al final del camino, los agujeros de gusano sólo serían una semilla que daría lugar al nacimiento de una teoría mejor, más avanzada y fiable que nos marcara el verdadero camino para burlar el muro que supone la velocidad de la luz sin tener que violar esa constante.

Muchas son las cosas que aún nos resultan misteriosas pero, ¿Qué alcanzaremos en el futuro? ¿Podremos realmente dominar y disponer de la energía de Planck que nos lleve hasta lugares inimaginables? ¿Serán nuestras mentes capaces de evolucionar hasta el extremo de que, algún día muy lejano en el futuro pudiéramos estar conectados con el ritmo vital del Universo, la energía pura que todo lo rige? Manejar esas potentes energías sería manejar los mundos, el espacio y, sobre todo, el Tiempo tan vital para nosotros.

¡Atravesar la pared y salir por el otro lado! El principio de incertidumbre dá lugar también a un efecto curioso conocido como efecto túnel: si se dispara un perdigón de plástico contra un muro el perdigón rebotará, porque no tiene energía suficiente para penetrarlo, pero a nivel de partículas fundamentales, la mecánica cuántica muestra inequívocamente que las funciones de onda de las partículas que constituyen el perdigón tienen todas ellas una parte diminuta que SÍ SALE a través del muro. ¿

Está claro que si nos dejamos llevar por nuestras elucubraciones, sin querer, nos metemos en terrenos donde las ideqas comienzan a ser extravagantes, entramos en el ámbito de la filosofía y, ¿por qué no? en el de la ciencia ficción pensando en lo que podría ser. Comenzamos a imaginar como viajeremos en el futuro imitando a los electrones cuando dan su “salto cuántico” y, de esa manera, iremos tan ricamente de un universo a otro al dominar esa cosmología cuántica que nos permitirá realizar ¡tántas maravillas!

Así, las partículas microscópicas pueden tomar prestada energía suficiente para hacer lo que es imposible desde el punto de vista de la física clásica, es decir abrirse camino, como por un túnel, a través del muro ( aunque dado la enorme cantidad de partículas que posee el muro el efecto túnel se vuelve muy improbable pues todas y cada una de las partículas tendrían que tener la suerte de poder abrirse camino juntas

Esta escena que la hemos visto en muchas películas, sólo podría ser posible si no estuvieran los electrones rodeando a los átomos que conforman la pared. Cuando batimos palmas, por ejemplo, nuestras manos no pasan la una a través de la otra precisamente por eso, porque los electrones lo impiden y forman un caparazón electromagnético alrededor de todos los átomos que componen nuestras manos que, al batirlas chocan entre sí.

Cuando dejamos volar nuestra imaginación ayudada por los pocos conocimientos que de las cosas tenemos, podemos llegar a conclusiones realmente curiosas.

emilio silvera

De lo pequeño a lo grande y, conocer la Naturaleza…¡No será fácil!

$
0
0
“Una formulación muy hermosa que, creo, procede de América es la siguiente: alguien que ha golpeado a otro afirma que sólo ha movido sus puños libremente; el juez, sin embargo, replica: «La libertad de movimiento de tus puños está limitada por la nariz de tu vecino».

 

Imagen relacionada

 

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7º K) se formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un superátomo). efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

 

 

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

 

 

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuantica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.

Los bosones tienen un angular n h / 2p, donde n es cero o un entero y h es la constante de Planck.  bosones idénticos, la función de ondas es siempre simétrica.  Si solo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermionesidénticos es siempre antisimétrica.

 

 

http://farm5.static.flickr.com/4140/4745204958_afd02b2486.jpg

 

 

La mejor teoría explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y ajustes ad-hoc, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas.

 

 

 

La relación el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. En un espacio de dos dimensiones es posible que existan partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones.  Estas partículas se conocen con el de aiones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1.  Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

 

 

 

 

Resulta  fácil comprender cómo  un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Particularmente creo que, si el neutrón masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Sea fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

 

 

 

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

 

¿Qué es el antineutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos. Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma que las partículas corrientes forman la materia ordinaria.

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un antideuterón. entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros antinúcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

…, ¿Hay masas de antimateria en el Universo? ¿Galaxias de antimateria?

 

 

 

 

Bueno, sabemos que no son las galaxias las que se alejan, sino que es el espacio el que se expande. Lo que no sabemos es encontrar antimateria en el espacio interestelar y, si la hay y está presente… ¡Aún no la hemos podido localizar! Algunos dicen que hay galaxias de antimateria y, yo digo que tengo un pariente en la galaxia Astrinia del cúmulo Ultramón a diez mil millones de años-luz de nuestra región.

No parece que dichas observaciones, al menos hasta el , hayan sido un éxito.

 

 

http://upload.wikimedia.org/wikipedia/commons/b/b9/Cosmological_composition.jpg

 

 

Según estimaciones recientes, resumidas en gráfico de la NASA, alrededor del 70% del contenido energético del Universo consiste en energía oscura, cuya presencia se infiere en su efecto sobre la expansión del Universo pero sobre cuya naturaleza última no se sabe casi nada.

¿Es posible que el Universo este formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? dado que la materia y la antimateria son equivalentes en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaria la otra, y el Universo debería estar compuesta de iguales cantidades de la una y de la otra.

 

 

 

 

Este es el dilema.  La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los causares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros como el único mecanismo conocido para producir la energía requerida.

Estábamos hablando de mecánica cuántica y me pasé, sin que me diera , al ámbirto de la antimateria y el espacio del macro universo de las galaxias. Sin embargo, y aunque parezcan temas dispares, lo cierto es que, a medida que profundizamos en estas cuestiones, todas nos llevan, de una u otra manera,  a relacionar el “mundo de lo muy pequeño” con el “mundo” de lo muy grande que, al fín y al cabo, está hecho de lo que existe en el primero, es decir, partículas infinitesimales de materia y… ¡de antimateria! para que todo quede compensado.

Sus dimensiones y masa le permiten ¡lo imposible! para nosotros. La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos fuerza de Van der Vaalls. esta fuerza tiene un alcance muy corto. para ser más precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente proporcional a 1/r7. Esto significa  que si se reduce la distancia entre dos átomos a la mitad, la fuerza de Van der Vaalls con la que se atraen uno a otro se hace 2 x 2 x 2 x 2 x 2 x 2 x 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza.

La mecánica cuántica domina en el micromundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua. Se parece más a una ola de histeria que se expande: es una onda de información. Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.

Por el contrario, la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la formación de agujeros negros.

                                      La fuerza nuclear fuerte es la más potente del Universo

Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el espacio y distorsiona el tiempo.

Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.

Resultado de imagen de Unidades de Planck - Stoney

¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son. En realidad, es la propia Naturaleza la que marca esos límites que Stoney-Planck, supieron plasmar en ecuaciones que los marcan.

Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño.  La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 de centímetros, más joven que el tiempo de Planck,  10-43 segundos y supere la temperatura de Planck de 1032 grados.  Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.

En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”.  La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1.975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuiteria de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.

Imagen relacionada

Siempre hemos tratado de buscar información del Universo para saber de nuestro entorno, de nuestro Sistema solar, de nuestra Galaxias, de las galaxias lejanas, y, de las mismas estrellas que alumbran los mundos y permite la vida con su luz y su calor. Hemos llegado a saber que somos “polvo de estrellas”, que los materiales que nos conforman están “fabricados” en sus “hornos nucleares”, la fusión creaelementos que, más tarde, forman parte de los mundos y de los seres vivos.

Imagen relacionada

La velocidad de la luz en el vacío es por definición una constante universal de valor 299.792.458 m/s(suele aproximarse a 3·108 m/s), o lo que es lo mismo 9,46·1015 m/año; la segunda cifra es la usada para definir al intervalo llamado año luz. La información se transmitirá a esa velocidad como máximo, nuestro Universo, no permite mayor rapidez, al menos, por los métodos convencionales.

Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1.981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros.  Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos.

\ell_P =\sqrt\frac{\hbar G}{c^3} \approx 1.616 199 (97) \times 10^{-35} \mbox{ metros} (Longitud de Planck que al cuadrado sería de 10-66 cm2)

Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2.  Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.

                                        Stoney                                                                        Planck

No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas.  Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias.

Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón

    Ilustración de la variación de la constante. UNSW.

“Tras medir alfa en unas 300 galaxias lejanas, vimos un patrón constante: este número, que nos dice la fuerza del electromagnetismo, no es igual en otras partes que en la Tierra, y parecer variar de forma continua a lo largo de un eje”. Algunos se empeñan en variar la constante de estructura fina y, si eso llegara a producirse… las consecuencias serían funestas para nosotros. Otros estudios nos dicen que esa constante, no ha variado a lo largo de los miles de millones de años del Universo y, así debe ser, o, si varió, lo hizo en una escala ínfima.

α = 2πehc ≈ 1/137

αG = (Gmp2)/ hc ≈ 10-38

Si varian algunas de las dos en sólo una diezmillonésima, muchas de las cosas que conforman el Universo serían imposible y, la consecuencia sería, la ausencia de vida.  La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala.  La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”

Lederman

 

Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el producto de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e-), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).

Todo eso está relacionado: leyes fundamentales, constantes, materia y espacio tiempo… ¡nosotros! Es posible (digo posible), que finalmente no seámos ni tanto ni tan poco como a veces creemos. Dejémos en un término medio nuestra valia en el contexto del Universo, aunque, poder crear ideas y pensamientos… ¡No es cosa valadí!

emilio silvera

¿El núcleo del átomo? ¡Una maravilla de la Naturaleza!

$
0
0

Symphony of Science – The Quantum World! (Subtitulado)

El contertulio José C Gómez me envía el enlace de arriba y, por lo simpático, os lo pongo aquí.

 

 

Aunque nos parezcan muy diferentes (que lo son en la física visual), lo cierto es que, en lo esencial,  ambos estarían hechos de los mismos materiales, el hombre gris y la bella humana tienen vidas basadas en el Carbono.
¿Podemos ir más allá? ¿Podemos esperar semejanzas más concretas entre la vida extraterrestre y la vida tal como la conocemos? Creo que sí, que de la misma manera que existen planetas como la Tierra que tendrán paisajes parecidos a los que podemos contemplar en nuestro mundo, de igual forma, dichos planetas podrán albergar formas de vida que, habiendo surgido en condiciones similares a las nuestras de Gravedad, Magnetismo, Radiación, una atmósfera, agua líquida corriendo por los riachuelos…… Habrán seguido el mismo camino que tomamos nosotros y los otros seres que en la fauna terrestre nos acompañan.
Resultado de imagen de El Universo mas asombroso
Es cierto que cuando vemos las cosas con cierta asiduidad y de forma permanente, esa cotidianidad nos hace perder la perspectiva y no pensamos en lo que realmente esas cosas pueden ser y, con las estrellas nos ocurre algo similar, ya que son algo más, mucho más, que simples puntitos luminosos que brillan en la oscuridad de la noche. Una estrella es una gran bola de gas luminoso que, en alguna etapa de su vida, produce energía por la fusión nuclear del hidrógeno para formar helio. El término estrella por tanto, no sólo incluye estrellas como nuestro Sol, que están en la actualidad quemando hidrógeno, sino también protoestrellas, aún no lo suficientemente calientes como para que dicha combustión haya comenzado, y varios tipos de objetos evolucionados como estrellas gigantes y supergigantes, que están quemando otros combustibles nucleares, o las enanas blancas y las estrellas nucleares, que están formadas por combustible nuclear gastado.

                 Las partículas del núcleo atómico. Protón y neutrón.

En 1920 (Rutherford) descdubrió las partículas positivas que forman los átomos, los protones.

Rutherford descubrió que bombardear átomos de nitrógeno con partículas alfa ( y esto es bien sencillo ya que basta con poner la sustancia radiactiva en el aire cuyo 75 % es nitrógeno) se producían una nuevas partículas con estas características:
Su carga eléctrica es la misma que la de los electrones, pero positiva, y su masa es semejante a la del átomo de hidrógeno (recuerda que la masa de los electrones es 1836 menor que la del átomo de hidrógeno. LLamó a estas partículas positivas protones.

Por lo tanto en los núcleos de los átomos hay unas partículas positivas que se llaman protones. En el hidrógeno solo hay una partícula ya que recordemos su masa era casi la misma.

Se comprobó que el número de protones es una característica especial de cada elemento quí­mico, ya que todos los átomos del mismo elemento tienen el mismo número de protones. Se llama nú­mero atómico (Z) al número de protones que tienen los átomos de un elemento químico. A cada elemento químico le corresponde un número atómico desde 1 hasta 106.

Todavía tenemos que buscar otras partículas en el núcleo atómico. La masa de los protones de un núcleo es mucho menor que la masa del núcleo.

ISÓTOPOS

 

Cada elemento químico se caracteriza por el número de protones de su núcleo, que se denomina número atómico (Z). Así, el hidrógeno ( 1H) tiene un protón, el carbono ( 6C) tiene 6 protones y el oxígeno ( 8O) tiene 8 protones en el núcleo.

El número de neutrones del núcleo puede variar. Casi siempre hay tantos o más neutrones que protones. La masa atómica (A) se obtiene sumando el número de protones y de neutrones de un núcleo determinado.

Un mismo elemento químico puede estar constituído por átomos diferentes, es decir, sus números atómicos son iguales, pero el número de neutrones es distinto. Estos átomos se denominan isótopos del elemento en cuestión. Isótopos significa “mismo lugar“, es decir, que como todos los isótopos de un elemento tienen el mismo número atómico, ocupan el mismo lugar en la Tabla Periódica.

isótopos del Hidrógeno

isótopos del Carbono

Desde 1918 estaba probado que existían los isótopos. Estos, eran átomos que tenían propiedades químicas iguales (parecían elementos iguales, por tanto), tenían el mismo número atómico, pero sus masas atómicas eran di­ferentes. En el núcleo debían existir partículas neutras que contribuyeran a la masa pero no tuvieran carga eléctrica.

Estas partículas neutras del núcleo se descubrieron en 1932 y se llamaron neutrones. Chadwick consiguió detectarlas y medir su masa. Un neutrón  tiene una masa ligeramente mayor que la del protón(exactamente 1,00014 veces). Los neutrones proporcionan las fuerzas de unión que estabilizan el núcleo atómico.
Representación aproximada del átomo de Helio,  en el núcleo los protones están representados en rojo y los neutrones en azul. En la realidad el núcleo también es simétricamente esférico.
Hasta aquí tenemos una idea de las partículas que forman el núcleo atómico y de otras propiedades que en él pueden estar presentes. Sin embargo, el núcleo atómico tiene que ser visto como el corazón central del átomo que contiene la mayor parte de su masa, exactamente, el 99,9%. Digamos que el núcleo más masivo que se encuentra en la Naturaleza es el del Uranio-238 que contiene 92 protones y  146 neutrones. El núcleo más simple es el del Hidrógeno que consiste en un único protón.
Resultado de imagen de Neutrones
Hasta aquí hemos dado un repaso sobre los componentes de los núcleos atómicos y algunas de sus particularidades para saber, sobre ellos y tener una idea más exacta de cómo fueron descubiertos y que son en realidad con sus cargas y sus masas. Sin embargo, podemos seguir explicandolo de manera sencilla pero con algo más de detalles.
El tamaño de un átomo

La curiosidad acerca del tamaño y masa del átomo atrajo a cientos de científicos durante un largo período en el que la falta de instrumentos y técnicas apropiadas impidió lograr respuestas satisfactorias. Con posterioridad se diseñaron numerosos experimentos ingeniosos para determinar el tamaño y peso de los diferentes átomos.

El átomo más ligero, el de hidrógeno, tiene un diámetro de aproximadamente 10-10 m (0,0000000001 m) y una masa alrededor de 1,7 x 10-27 kg (la fracción de un kilogramo representada por 17 precedido de 26 ceros y una coma decimal).

 

 

Empecemos por decir que los átomos son muy pequeños, tan pequeños que necesitaríamos una fila de unos diez millones para poder rellenar el espacio que ocupa un milímetro, es decir, los átomos son tan pequeños que los tamaños típicos son alrededor de 100 pm (diez mil millonésima parte de un metro). Una peculiaridad del átomo es que está casi vacío, su estructura conformada por el núcleo rodeado de electrones que orbitan a su alrededor lo hace un objeto singular.
Si el átomo tuviera 10 metros de diámetro el núcleo sería un puntito diminuto central de apenas un milímetro, y, sin embargo… ¡Cuanta complejidad contiene dentro tan minúsculo objeto! Tenemos que señalar que algunos núcleos pueden ser inestable y se desintegran emitiendo partículas Alfa, con carga positiva, mientras que otros emiten partículas Beta, con carga negativa. También pueden emitir radiación Gamma.
Pero dejémos tranquilas a las partículas Alfa y Beta de las que nos ocuparemos en otra oportunidad. El tema de este pequeño trabajo es el núcleo atómico y, a él, nos dedicaremos. Nunca podré dejar de asombrarme ante los hechos mágicos que la Naturaleza es capaz de realizar. En realidad, la Naturaleza se vale de estos pequeños objetos llamados átomos para que unidos sean los responsables de conformar toda la materia que existe (al menos la conocida) estén formando cualquier objeto, grande o pequeño que podamos ver en el Universo. Desde las estrellas y los mundos hasta las inmensas galaxias, todo está conformado por átomos.
Resultado de imagen de El nucleo atómico
Claro que, dichos protones y neutrones están, a su vez, conformados por tripletes de Quarks allí confinados en las entrañas hadrónica y, los retienen la fuerza nuclear fuerte por medio de Bosones llamados Gluones.
Cuando hablamos del núcleo atómico, por lo general, nos referimos a que está hecho de protones y neutrones, dos partículas que pertenecen a la familia de los Hadrones en la rama de los Bariones donde están las partículas de materia. Cuando nos referimos a ellas situadas en el núcleo atómico, las solemos llamar nucleaones.
Pero veámos que hay ahí, dentro de los nucleones (protones y neutrones).
Monografias.com
Los hadrones (protones y neutrones), a su vez, están hechos por otras partículas más pequeñas que pertenecen a la familia de los Quarks. Tanto el protón como el Neutrón están conformados por tripletes de Quarks. El protón de 2 quarks up y un quark down, mientras que el nutrón está hecho por 2 quarksdown y 1 quark up.
La familia Quark

Como no es el objeto del trabao, no hablaremos hoy de los Quarks, y, simplemente diremos que en la naturaleza no se encuentran quarks aislados. Estos siempre se encuentran en grupos, llamados Hadrones. de dos o tres quarks, conocidos como mesones y bariones respectivamente. Esto es una consecuencia directa del confinamiento de color.  En el año 2003 se encontró evidencia experimental de una nueva asociación de cinco quarks, los Pentaquarks, cuya evidencia, en principio controvertida , fue demostrada gracias al Colisionador de Partículas LHC en el pasado Julio de 2.015.

Pero sigamos con lo que nos ocupa y veámos que los Quarks están confinados dentro de los nucleones(protones y neutrones) donde la fuerza fuerte les retiene y nos los deja que se vayan alejando más de lo debido como se explica en el cuadro de arriba.

Dentro del nucleo se desatan las fuerzas de la Naturaleza, la que conocemos como fuerza nuclear fuerte, la más potente de las cuatro fuerzas fundamentales que, intermediada por otras partículas de la familia de los Bosones, los Gluones, no dejan que los Quarks se alejen y son retenidos allí, dentro de los nucleones donde tienen su función de conformar los hadrones másicos del núcleo que le aporta la materia al átomo.

Los Gluones, son las partículas intermediarias de la fuerza fuerte, y, de la misma manera, existen otros Bosones encargados de mediar en las otras fuerzas conocidas de la Naturaleza: El Fotón para los fenómenos electromagnéticos, el Gravitón (no encontrado aún) para la fuerza de Gravedad, y, los W+,  W-y Zº para la fuerza nuclear débil.

Imagen relacionada

Lo cierto es que, el núcleo atómico está cargado positivamente y, tal carga, hace la llamada para que, un enjambre de electrones, con cargas negativas, vengan a rodear el núcleo atómico y, de esa manera, queda estabilidado el átomo, ese pequeño objeto que conforma todas las cosas hechas de materia.

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

Así, los electrones que rodea el núcleo, con su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). Y, sin embargo, la importancia del electrón es vital en el universo.

Repasando todo esto, no puedo dejar de recordar aquellas palabras que el físico Freeman Dyson escribió:

Cuando miramos en el universo e identificamos los muchos accidentes de la física y la astronomía que han colaborado en nuestro beneficio, casi parece que el universo debe haber sabido, en cierto sentido, que nosotros íbamos a venir“.

 

Fijaros en el hecho cierto de que, si la carga del electrón, o, la masa del protón, variaran aunque sólo fuese una diezmillonésima parte… ¡La vida no podría existir en el Universo! Estamos hechos de átomos y, con tal cambio, éstos nunca se habrían podido conformar.

emilio silvera.

Seguimos avanzando

$
0
0

Premio Nobel de Física para los ‘fabricantes’ de herramientas basadas en la luz

GALARDÓN

 

 

La Real Academia Sueca de las Ciencias ha otorgado el premio Nobel de Física al estadounidense Arthur Ashkin (Nueva York, 1922), el francés Gérard Mourou (Albertville, 1944) y la canadiense Donna Strickland por sus trabajos para desarrollar herramientas basadas en la luz. Según han destacado los miembros del jurado, estos tres investigadores han realizado grandes invenciones en el campo de la física del láser.

Resultado de imagen de un método para generar pulsos ópticos ultracortos y de alta intensidad

                         Láser de pulso ultracorto

La mitad del premio es para Ashkin y la otra mitad la comparten Mourou y Strickland, que se convierte en la tercera mujer que gana el Nobel de Física desde que estos premios comenzaron a entregarse en 1895. La primera fue la francesa Marie Curie, que fue reconocida con el Nobel de Física en 1903 junto a su marido Pierre Curie y Henri Becquerel (en 1911 repitió con el de Química). Maria Goeppert-Mayer ganó el Nobel de Física en 1963.

Arthur Ashkin ha sido reconocido por inventar la pinza óptica, un instrumento científico que emplea un rayo láser y que es capaz de captar y mover partículas, átomos, virus y otras células utilizando haces de luz. En 1987 esta herramienta demostró su gran potencial al lograr capturar bacterias vivas sin dañarlas. Fue entonces cuando Ashkin comenzó a investigar los sistemas biológicos. Hoy en día, las pinzas ópticas son muy usadas para investigar lo que los científicos denominan la maquinaria de la vida.

 

 

Imagen relacionada

 

 

Por su parte, Gérard Mourou y Donna Strickland desarrollaron un método para generar pulsos ópticos ultracortos y de alta intensidad, una técnica con aplicaciones en la industria y la medicina. Su revolucionario artículo fue publicado en 1985 y fue la base de la tesis doctoral de Strickland.

El de Física es el segundo de los galardones que la institución comunica esta semana, tras dar a conocer el lunes el de Medicina, que recayó en los investigadores James P. Allison y Tasuku Honjo, por sus descubrimientos para incorporar la inmunoterapia en la batería de armas contra el cáncer.

El galardón en la categoría de Física recayó en 2017 en los investigadores Rainer Weiss (Berlín, 1932), Barry C. Barish (Omaha, EEUU, 1936) y Kip S. Thorne (Logan, EEUU, 1940) por sus investigaciones pioneras e imprescindibles para la detección de las ondas gravitacionales.

 

 

Resultado de imagen de Aparato que detecta las ondas gravitacionales

 

 

Al de Medicina y el de Física, ya entregados, se unirán los anuncios del premio de Química, el miércoles; y el de Economía el lunes 8 de octubre. Oslo acogerá el anuncio del Nobel de la Paz el viernes 5. Por primera vez desde 1949, el premio de Literatura fue aplazado y no se anunciará hasta el próximo año.

Entropía, Gravedad. Materia…¡Vida!

$
0
0

  

Diagrama de la trayectoria del sistema de Lorenz para los valores r = 28, σ = 10, b = 8/3.

Teoría del cáos es la denominación popular de la rama de las matemáticas, la física y otras disciplinas científicas que trata ciertos tipos de sistemas dinámicos  muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro, imposibilitando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinísticos, es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.

Foto

Montaje experimental. Foto: HZB, D.J.P. Morris y A. Tennant. .

Hubo un tiempo, el el Universo muy temprano, en el que la temperatura estaba encima de algunos cientos de veces la masa del protón, cuando la simetría aún no se había roto, y la fuerza débil y electromagnética no sólo eran la misma matemáticamente, sino realmente la misma. Un físico que hibiera podido estar allí presente, en aquellos primeros momento, no habría podido observar ninguna diferencia real entre las fuerzas producidas por el intercambio de estas cuatro partículas: las W, la Z y el Fotón.

Muchas son las sorpresas que nos podríamso encontrar en el universo primitivo, hasta la presencia de agua ha sido detectada mediante la técnica de lentes gravitacionales en la galaxia denominada MG J0414+0534 que está situada en un tiempo en el que el Universo sólo tenía dos mil quinientos millones de años de edad. El equipo investigador pudo detectar el vapor de agua presente en los chorros de emisión de un agujero negro supermasivo. Este tipo de objeto es bastante raro en el universo actual. El agua fue observada en forma de mases, una emisión de radiación de microondas provocada por las moléculas (en este caso de agua) al ser amplificadas por una onda o un campo magnético.

se detecta la mas distante señal de agua en el universo

Los astrónomos han encontrado el más distante indicio de agua en el Universo hasta la fecha. El vapor de agua se cree está contenido en un máser, un chorro sale de un agujero negro supermasivo en el centro de una galaxia, denominada MG J0414 0534. La radiación del agua máser fue emitida cuando el Universo tenía sólo alrededor de 2,5 mil millones de años, una quinta parte de su actual edad. “La radiación que se ha detectado ha tardado 11.1 mil millones de años para llegar a la Tierra, dijo el Dr. John McKean del Instituto de Radio Astronomía (ASTRON) en los Paises Bajos. “Sin embargo, debido a que el Universo se ha expandido como un globo inflado en todo ese tiempo, extiendiendose hacia afuera la distancia entre los puntos ha aumentado y la galaxia en la que el agua se ha detectado esta a aproximadamente 19,8 mil millones de años luz de nosotros actualmente.”

Siguiendo con el trabajo, dejemos la noticia de más arriba (sólo insertada por su curiosidad y rareza), y, sigamos con lo que hemos contado repetidas veces aquí de las fuerzas y la simetría antes de que, el universo se expandiera y enfriara para que, de una sóla, surgieran las cuatro fuerzas que ahora conocemos: Gravedad que campa sola y no quiere juntarse con las otras fuerzas del Modelo Estándar, el electromagnetismo y las nucleares débil y fuerte.

mundo brana

Las fuerzas de la naturaleza que gobiernan la electricidad, el magnetismo, la radiactividad y las reacciones nucleares están confinadas a un “mundobrana” tridimensional, mientras que la gravedad actúa en todas las dimensiones y es consecuentemente más débil. Seguramente ese será el motivo por el cual, encontrar  al Bosón mediador de la fuerza, el Gravitón, resulta tan difícil.

De manera similar, aunque menos clara, las teorías de supersimetrías conjeturaban que las cuatro fuerzas tal vez estaban ligadas por una simitría que se manifestaba en los niveles de energía aún mayores que caracterizaban al universo ya antes del big bang. La intodución de un eje histórico en la cosmolo´gia y la física de particulas (como decía ayer en uno de los trabajos), beneficio a ambos campos. Los físicos proporcionaron a los cosmólogos una amplia gama de herramientas útiles para saber cómo se desarrolló el universo primitivo. Evidentemente, el Big Bang no fue una muralla de fuego de la que se burló Hoyle, sino un ámbito de suscesos de altas energías que muy posiblemente pueden ser comprensibles en términos de teoría de campo relativista y cuántica.

La cosmología, por su parte, dio un tinte de realidad histórica a las teorías unificadas. Aunque ningún acelerador concebible podrían alcanzar las titánicas energías supuestas por las grandes teorías unificadas y de la supersimetría, esas exóticas ideas aún  pueden ser puestas a prueba, investigando su las partículas constituyentes del universo actual son compatibles con el tipo de historia primitiva que implican las teorías.

Gell-Mann, el premio Nobel de física, al respeto de todo esto decía: “Las partículas elementales aparentemente proporcionan las claves de algunos de los misterios fundamentales de la Cosmología temprana… y resulta que la Cosmología brinda una especia de terreno de prueba para alguna de las ideas de la física de partículas elementales.” Hemos podido llegar a descubrir grandes secretos de la naturaleza mediante los pensamientos que, surgidos de la mente desconocida y misteriosa de algunos seres humanos, han podido ser intuidos mediante ráfagas luminosas que nunca sabremos de dónde pudieron surgir )Lorentz, Planck, Einstein, Heisenmberg, Dirac, Eddigton, Feymann, Wheeler… Y, una larga lista de privilegiados que pudieron ver, lo que otros no podían.

http://lamemoriacelular.com/blog/wp-content/uploads/2010/04/celula.png

             Moléculas, átomos y conexiones para formar pensamientos

Hemos llegado a poder discernir la relación directa que vincula el tamaño, la energía de unión y la edad de las estructuras fundamentales de la Naturaleza. Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene. La cosmología sugiere que esta relación resulta del curso de la historia cósmica, que los quarks se unieron primero en las energías extremadamente altas del big bang original  y que a medida que el Universo se expandió, los protones y neutrones compuestos de quarks se unieron para formar núcleos de átomos, los cuales, cargados positivamente, atrajeron a los electrones cargados con electricidad negativa estableciéndose así como átomos completos, que al unirse formaron moléculas.

Si es así (que lo es), cuanto más íntimamente examinemos la Naturaleza, tanto más lejos hacia atrás vamos en el tiempo.   Alguna vez he puesto el ejemplo de mirar algo que no es familiar, el dorso de la mano, por ejemplo, e imaginemos que podemos observarlo con cualquier aumento deseado.

Con un aumento relativamente pequeño, podemos ver las células de la piel, cada una con un aspecto tan grande y  complejo como una ciudad, y con sus límites delineados por la pared celular.  Si elevamos el aumento, veremos dentro de la célula una maraña de ribosomas serpenteando y mitocondrias ondulantes, lisosomas esféricos y centríolos, cuyos alrededores están llenos de complejos órganos dedicados a las funciones respiratorias, sanitarias y de producción de energía que mantienen a la célula.

Ya ahí tenemos pruebas de historia. Aunque esta célula particular solo tiene unos pocos años de antigüedad, su arquitectura se remonta a más de mil millones de años, a la época en que aparecieron en la Tierra las células eucariota o eucarióticas como la que hemos examinado.

Abajo vemos el dorso de la mano algo aumentado

Para determinar dónde obtuvo la célula el esquema que le indicó como formarse, pasemos al núcleo y contemplemos los delgados contornos de las macromoléculas de ADN segregadas dentro de sus genes.  Cada una contiene una rica información genética acumulada en el curso de unos cuatro mil millones de años de evolución.

Almacenado en un alfabeto de nucleótidos de  cuatro “letras”- hecho de moléculas de azúcar y fosfatos, y llenos de signos de puntuación, reiteraciones para precaver contra el error, y cosas superfluas acumuladas en los callejones sin salida de la historia evolutiva-, su mensaje dice exactamente cómo hacer un ser humano, desde la piel y los huesos hasta las células cerebrales.

Si elevamos más el aumento veremos que la molécula de ADN está compuesta de muchos átomos, con sus capas electrónicas externas entrelazadas y festoneadas en una milagrosa variedad de formas, desde relojes de arena hasta espirales ascendentes como largos muelles y elipses grandes como escudos y fibras delgadas como puros.  Algunos de esos electrones son recién llegados, recientemente arrancados a átomos vecinos; otros se incorporaron junto a sus núcleos atómicos hace más de cinco mil millones de años, en la nebulosa de la cual se formó la Tierra.

Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene. Sion embargo, nos queda la duda de: ¿qué podrá haber más allá de los Quarks?

¿Qué no podremos hacer cuando conozcamos la naturaleza real del átomo y de la luz? El fotón,  ese cuánto de luz que parece tan insignificante, nos tiene que dar muchas satisfacciones y, en él, están escondidos secretos que, cuando sean revelados, cambiará el mundo. Esa imagen de arriba que está inmersa en nosotros en en todo el Universo, es la sencillez de la complejidad. A partir de ella, se forma todo: la muy pequeño y lo muy grande.

Resultado de imagen de Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visiónResultado de imagen de Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión

Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión.   Tales núcleos y átomos se formaron dentro de una estrella que estalló mucho antes de que naciera el Sol.  Si podemos aumentar aún más, veremos los tríos de quarks que constituyen protonesneutrones. Los quarks han estado unidos desde que el Universo sólo tenía unos pocos segundos de edad.

Al llegar a escalas cada vez menores, también hemos entrado en ámbitos de energías de unión cada vez mayores.  Un átomo puede ser desposeído de su electrón aplicando sólo unos miles de electrón-voltios de energía.  Sin embargo, para dispersar los nucleones que forman el núcleo atómico se requieren varios millones de electrón-voltios, y para liberar los quark que constituyen cada nucleón.

Uno de los misterios de la naturaleza, están dentro de los protoes y neutrones que, conformados por Quarks, resulta que, si estos fueran liberados, tendrían independientemente, más energía que el protónque conformaban. ?cómo es posible eso?

Introduciendo el eje de la historia, esta relación da testimonio del pasado de las partículas: las estructuras más pequeñas, más fundamentales están ligadas por niveles de energía mayores porque las estructuras mismas fueron forjadas en el calor del big bang. Esto implica que los aceleradores de partículas, como los telescopios, funcionen como máquinas del tiempo.  Un telescopio penetra en el pasado en virtud del tiempo que tarda la luz en desplazarse entre las estrellas; un acelerador recrea, aunque sea fugazmente, las condiciones que prevalecían en el Universo primitivo. El acelerador de 200 Kev diseñado en los años veinte por Cockroft y Walton reproducía algunos de los sucesos que ocurrieron alrededor de un día después del comienzo del big bang. Los aceleradores construidos en los años cuarenta y cincuenta llegaron hasta la marca de un segundo.  El Tevatrón del Fermilab llevó el límite a menos de una milmillonésima de segundo después del comienzo del Tiempo.  El nuevo LHC proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

Esta es una edad bastante temprana: una diez billonésima de segundo es menos que un pestañeo con los párpados en toda la historia humana registrada.  A pesar de ello, extrañamente, la investigación de la evolución del Universo recién nacido indica que ocurrieron muchas cosas aún antes,  durante la primera ínfima fracción de un segundo.

Todos los teóricos han tratado de elaborar una explicación coherente de los primeros momentos de la historia cósmica.  Por supuesto, sus ideas fueron esquemáticas e incompletas, muchas de sus conjeturas, sin duda, se juzgaran deformadas o sencillamente erróneas, pero constituyeron una crónica mucho más esclarecedora del Universo primitivo que la que teníamos antes.

A los cien millones de años desde el comienzo del tiempo, aún no se habían formado las estrellas, si acaso, algunas más precoces.  Aparte de sus escasas y humeantes almenaras, el Universo era una sopa oscura de gas hidrógeno y helio, arremolinándose aquí y allá para formar protogalaxias.

Anti-hidrógeno

He aquí la primera imagen jamás obtenida de antimateria, específicamente un “anti-átomo” de anti-hidrógeno. Este experimento se realizó en el Aparato ALPHA de CERN, en donde los anti-átomos fueron retenidos por un récord de 170 milisegundos (se atraparon el 0.005% de los anti-átomos generados).

A la edad de mil millones de años, el Universo tiene un aspecto muy diferente.  El núcleo de la joven Vía Láctea arde brillantemente, arrojando las sobras de cumulonimbos galácticos a través del oscuro disco; en su centro brilla un quasar blanco-azulado.  El disco, aún en proceso de formación, es confuso y está lleno de polvo y gas; divide en dos partes un halo esférico que será oscuro en nuestros días, pero a la sazón corona la galaxia con un brillante conjunto de estrellas calientes de primera generación.

Resultado de imagen de A la edad de mil millones de años, el Universo tiene un aspecto muy diferente.  El núcleo de la joven Vía Láctea arde brillantemente

Para determinar dónde obtuvo la célula el esquema que le indicó como formarse, pasemos al núcleo y contemplemos los delgados contornos de las macromoléculas de ADN segregadas dentro de sus genes. Cada una contiene una rica información genética acumulada en el curso de unos cuatro mil millones de años de evolución.

Resultado de imagen de Macromoléculas de ADN

Claro que, nuestra historia está relacionada con todo lo que antes de llegar la vida al Universo pudo pasar. ¡Aquella primera célula! Se replicó en la sopa primordial llamada Protoplasma vivo y, siguió evolucionando hasta conformar seres de diversos tipos y, algunos, llegaron a adquirir la conciencia.

Macromolécula

Almacenado en un alfabeto de nucleótidos de cuatro “letras”- hecho de moléculas de azúcar y fosfatos, y llenos de signos de puntuación, reiteraciones para precaver contra el error, y cosas superfluas acumuladas en los callejones sin salida de la historia evolutiva-, su mensaje dice exactamente cómo hacer un ser humano, desde la piel y los huesos hasta las células cerebrales.

    célula cerebral

Si elevamos más el aumento veremos que la molécula de ADN está compuesta de muchos átomos, con sus capas electrónicas externas entrelazadas y festoneadas en una milagrosa variedad de formas de una rareza y de una incleible y extraña belleza que sólo la Naturaleza es capaz de conformar.

        Molécula de ADN

Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión. Tales núcleos átomos se formaron dentro de una estrella que estalló mucho antes de que naciera el Sol. Si podemos aumentar aún más, veremos los tríos de quarks que se  constituyen en protones y neutrones.

                                 Átomo de Carbono

Los quarks han estado unidos desde que el Universo sólo tenía unos pocos segundos de edad. Una vez que fueron eliminados los antiquarks, se unieron en tripletes para formar protones y neutrones que, al formar un núcleo cargado positivamente, atrayeron a los electrones que dieron lugar a formar los átomos que más tarde, conformaron la materia que podemos ver en nuestro universo.

Al llegar a escalas cada vez menores, también hemos entrado en ámbitos de energías de unión cada vez mayores. Un átomo puede ser desposeído de su electrón aplicando sólo unos miles de electrón-voltios de energía. Sin embargo, para dispersar los nucleones que forman el núcleo atómico se requieren varios millones de electrón-voltios, y para liberar los quarks que constituyen cada nucleón se necesitaría cientos de veces más energía aún.

Resultado de imagen de Los Quarks dentro del núcleo están sometidos a la Interacción fuerte,

Los Quarks dentro del núcleo están sometidos a la Interacción fuerte, es decir, la más potente de las cuatro fuerzas fundamentales del Universo, la que mantiene a los Quarks confinados dentro del núcleo atómico por medio de los Gluones.

Introduciendo el eje de la historia, esta relación da testimonio del pasado de las partículas: las estructuras más pequeñas, más fundamentales están ligadas por niveles de energía mayores porque las estructuras mismas fueron forjadas en el calor del big bang.

 

  Haces de protones que chocan cuando viajan a velocidad relativista en el LHC

Esto implica que los aceleradores de partículas, como los telescopios, funcionen como máquinas del tiempo. Un telescopio penetra en el pasado en virtud del tiempo que tarda la luz en desplazarse entre las estrellas; un acelerador recrea, aunque sea fugazmente, las condiciones que prevalecían en el Universo primitivo.

El acelerador de 200 kev diseñado en los años veinte por Cockroft y Walton reproducía algunos de los sucesos que ocurrieron alrededor de un día después del comienzo del big bang.

foto

     Aquel acelerador nada tenía que ver con el LHC de ahora, casi un siglo los separa

Los aceleradores construidos en los años cuarenta y cincuenta llegaron hasta la marca de un segundo. El Tevatrón del Fermilab llevó el límite a menos de una milmillonésima de segundo después del comienzo del Tiempo. El nuevo supercolisionador superconductor proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

El Tevatrón del Fermilab ya estaba en el camino de la modernidad en los avances de la Física

Esta es una edad bastante temprana: una diez billonésima de segundo es menos que un pestañeo con los párpados en toda la historia humana registrada. A pesar de ello, extrañamente, la investigación de la evolución del Universo recién nacido indica que ocurrieron muchas cosas aún antes, durante la primera ínfima fracción de un segundo.

Todos los teóricos han tratado de elaborar una explicación coherente de los primeros momentos de la historia cósmica. Por supuesto, sus ideas fueron esquemáticas e incompletas, muchas de sus conjeturas, sin duda, se juzgaran deformadas o sencillamente erróneas, pero constituyeron una crónica mucho más aclaradora del Universo primitivo que la que teníamos antes.

                                                      Recreación del Universo primitivo

 Bueno amigos, el trabajo era algo más extenso y entrábamos a explicar otros aspectos y parámetros implicados en todo este complejo laberinto que abarca desde lo muy grande hasta la muy pequeño, esos dos mundos que, no por ser tan dispares, resultan ser antagónicos, porque el uno sin el otro no podría existir. Otro día, seguiremos abundando en el tema apasionante  que aquí tratamos.

emilio silvera


¡La Naturaleza! Además de Bella, es…¡Asombrosa!

$
0
0

No pocas veces nos encontramos con hechos que aunque han tenido la participación de los humanos, parecen tener su origen en otro ámbito más alto de éste nuestro, en otro lugar donde el entendimiento sería superior y las mentes tuvieran la potestad de ver secretos de la Naturaleza profundamente escondidos. En física tenemos multitud de ejemplos de esto que digo: Me vienen a la mente las ecuaciones conocidas como de Yang-Mills que indicaban que los gluones, las partículas gauge que transportan la fuerza más poderosa de las cuatro conocidas para mantener unidos los Quarks dentro del núcleo, debían carecer de masa, como los fotones y los gravitones.

¿Por qué, entonces la fuerza nuclear fuerte se hace sentir sólo a corta distancia, cuando la luz y la gravitación tienen un alcanza infinito?

La respuesta la tenemos en la Cromodinámica cuántica, la teoría de la fuerza intensa, es que ésta aumenta su poder cuando los Quarks que aprisiona tratan de separarse, en vez de debilitarse como el electromagnetismo y la gravitación con la distancia, la fuerza nuclear fuerte aumenta. Ahí surgió el origen de confinamiento de los Quarks” que, obligados por una “nube” de Gluones, el Bosón mediador de esta fuerza.

Resultado de imagen de LOs gluones atan los Quarks

También aclaró la Cromodinámica cuántica el funcionamiento de la fuerza débil: el fenómeno antes misterioso de la desintegración radiactiva Beta que pudo ser interpreta ahora como la conversión de un Quark down en un Quark up, convirtiéndose el neutrón,  formado por dos Quarks down y un Quark up, en un protón que consiste en dos Quarks up y un Quark down.

La simetría como se pudo ver más tarde, iba a desempeñar un papel destacado en el ulterior desarrollo de la teoría cuántica de campo, y hasta señaló el camino hacia una teoría unificada de la “supersimetría”, capaz de unir todas las partículas y campos bajo el manto de un sólo conjunto de ecuaciones. Yang escribió:

“La Naturaleza parece aprovechar la representación matemática simple de las leyes de simetría. La elegancia intrínseca y la bella perfección del razonamiento matemático involucrado, así como la complejidad y profundidad de sus consecuencias físicas, son una gran fuente de estímulo para los físicos. Uno aprende a alentar la esperanza de que la Naturaleza posee un orden que podemos aspirar a comprender.”

La Simetría de la Naturaleza nos rodea por todas partes y, a nuestro alrededor, mirémos donde podamos mirar, allí está presente y, sin embargo, de ninguna manera son manifiestas todas las simitrías de la Naturaleza. Vivímos en un mundo imperfecto, en el que muchas de las simetrías que aparecen en las ecuciones están rotas.

De todos es bien conocido que, el mismo Yang, en colobaración con Tsung Dao Lee, identificó una discreta simetría en la fuerza débil, llamada violación de la paridad. En 1956, ambos predijeron sobre bases teóricas, que el espín de las partículas provenientes de la desintegración Beta mostrarían una ligera preferencia por una dirección sobre la otra. Experimentos realizados, así lo confirmaron y les valió el Premio Nobel a Lee y Yang (aunque no a Wu por razones desconocidas). Aquello sirvió para atraer la atención sobre el hecho de que la Naturaleza, sea simétrica en algunos aspectos y asimétrica en otros.

http://2.bp.blogspot.com/_iOUWsYnNbmo/TTYQfmUko1I/AAAAAAAAJ0Y/pRVUWE1ayRk/s1600/dna_galaxy_.jpg

Las conocidas como moléculas quirales pueden existir en dos formas, siendo una la imagen especular no superponible de una sobre la otra, incluso aunque ambas tienen la misma composición química … Si bien los experimentos de laboratorio tienden a producir cantidades iguales de las versiones dextrógiras y levógiras, muchas de las moléculas quirales encontradas en organismos vivos proceden de una de las variedades … Por ejemplo, los aminoácidos que forman las proteínas solo aparecen en la forma levógira, mientras que los azúcares del ADN sólo en la dextrógira … ( la dextrosa o glucosa, es un azúcar que desvía el plano de polarización a la derecha) …

Los científicos han debatido desde hace mucho sobre esta asimetría en los seres vivos … Algunos han defendido que un número igual de ambas versiones de la molécula quiral estaba presente en el inicio de la vida, y que sólo durante la evolución biológica tuvo lugar el desequilibrio … Esa visión se ha ido haciendo cada vez menos popular, no obstante, al darnos cuenta de que el proceso fundamentalmente importante del plegamiento de proteínas parece requerir un desequilibrio quiral, aunque el que la naturaleza haya seleccionado la quiralidad derecha o izquierda para cada molécula durante la evolución implicaría procesos extremadamente complejos …

 

Los investigadores han concluido que es posible crear “moléculas asimétricas de la vida” en condiciones espaciales a partir de una mezcla que inicialmente no contiene ninguna sustancia quiral. El miembro del equipo Laurent Nahon, que trabaja en SOLEIL, señala que la cifra de 1,3% es del mismo orden de magnitud que la fracción de aminoácidos descubiertos en los meteoritos primitivos, por lo que da más peso a la idea de que la asimetría quiral se originó en el espacio …
Lo dicho: ¡Tiene y esconde, tantos secretos la Naturaleza!
Siempre han llamado nuestra atención esas figuras perfectas, armoniosas y simétricas que, aparecen en la Naturaleza, ante nuestros ojos, y, a pesar de que algunas tienen conformaciones complejas, se repiten con una perfección que causa en nosotros  un cierto asombro no exento de curiosidad. Tanto en el “universo” del microcosmos como en el del macrocosmos, existen estructuras regulares y armoniosas en espiral, esféricas o con forma de hélice que nuestra innata curiosidad nos ha llevado a investigar para llegar a saber que obedecen a precisas reglas matemáticas y biológicas en algunos casos.
Imagen relacionada

Los cuernos de una cabra paquistaní, la imagen de un ciclón visto desde el espacio, una galaxia o una concha, la chica que arriba nos mira. Son formas que se nos viene a la vista, aspectos de la realidad que llaman poderosamente nuestra atención y nos lleva a preguntar: ¿Por qué se forman y repiten esas figuras una y otra vez, y, en cada caso, una es la “copia exacta” de todas las demás de su género? ¿Es posible que el hombre, al contemplar tales maravillas comenzara a hacer preguntas y diera lugar al nacimiento de la Ciencia? Las matemáticas comenzaron por el asombro que despertaban las formas geométricas  y de la misma manera, nacieron los primeros problemas de la física clásica centrada en las órbitas de los astros y las trayectorias de proyectiles.

La geología estudia la forma de las piedras y volcanes y la biología se ocupa de las formas de los seres vivos y de como ésta ha ido cambiando a lo largo del tiempo. Pero, ¿cómo explicar los mecanismos que crean el aspecto exterior de la realidad que podemos percibir? ¿Y por qué existen las mismas estructuras tanto en los organismos vivos como en el mundo inanimado?

Resultado de imagen de Observamos la Naturaleza y podemos contemplar formas armoniosas y elegantes, entendiendo que son cuerpos bellos y simétricos en todas sus versiones.

Observamos la Naturaleza y podemos contemplar formas armoniosas y elegantes, entendiendo que son cuerpos bellos y simétricos en todas sus versiones. Por ejemplo, amí siempre me llamó la atención la simetría por traslación que se puede encontrar en la disposición de las hojas.

Si nos fijamos y analizamos como se van desarrollando hacia la estremidad de su rama, aparecen con la misma forma inicial. Un asimetría que está presente en los arganismos que cuentan con una estructura en la que se repiten segmentos iguales, con los mismos aparatos y los mismos órganos, como el trilobites, fósil del Paleozóico (lombriz y sanguijuela), y algunas plantas.

En cambio la simetría por rotación se encuentra en los pétalos de una flor o en los tentáculos de una medusa: aunque sus cuerpos roten, permanecen iguales. No debemos olvidar la simetría bilateral que hace que los lados derecho e izquierdo sean iguales y se presenta en casi todos los animales, incluido nosotros. Pero es uniendo estos aspectos cuando se obtienen figuras realmente armoniosas. Si se trata de desplazamiento y rotación en un  mismo plano hablamos de una espiral, mientras que en el espacio sería una hélice, aunque ambas se encuentran por todas partes en la naturaleza.

Las simetrías se generan mediante las fuerzas que actúan sobre los cuerpos, descritas por leyes rigurosas e inequívocas, como una fórmula matemática y dependen de la existencia de fuerzas distintas que actúan en diversas  direcciones. Si éstas permanecen en equilibrio, no hay preferencia alguna hacia arriba o abajo, a la derecha o a la izquierda, y los cuerpos tenderán a ser perfectamente esféricos, como suele ocurrir en el caso de virus y bacterias. Además, cuando el aspecto no es el de una esfera perfecta, la Naturaleza hará todo lo posible para acercarse a esta forma.

Imagen relacionada

          En todo esto, y, para que así ocurra, tiene que estar presente la Gravedad. Veamos:

Parémonos un momento en la gravitación y generalicemos el concepto de simetría, ampliándolo a las fórmulas matemáticas. Veamos  la fórmula de Newton, pero expresándola con palabras, de esta manera: la fuerza de atracción entre dos cuerpos es proporcional al producto de dos términos: el primero es la masa de un cuerpo dividido por su distancia al otro. El segundo término es la masa del otro cuerpo dividido por su distancia al primero.

Con símbolos matemáticos escribiríamos:

F(M/d) × (m/d)

Es la misma fórmula de siempre, pero la hemos puesto así para visualizar que la gravitación se puede expresar con una fórmula bastante simétrica: los dos términos de la derecha de la ecuación son “casi” simétricos ¿no es verdad?

Este concepto más general de simetría es muy profundo, porque nos lleva a pensar que la Naturaleza y las leyes físicas que la describen también obedecen a las leyes de la simetría, igual que la materia, en sus manifestaciones externas, las obedece en muchos casos.”

¿Sería posible que la simetría material tuviera un paralelismo en la abstracción intelectual que son las leyes físicas? Desde luego hace falta un esfuerzo mental considerable para pasar de lo material a lo intelectual, pero cuando se profundiza en ellla, la conexión aparece.

En la naturaleza existen muchas cosas que nos pueden llevar a pensar en lo complejo que puede llegar a resultar entender cosas que, a primera vista, parecían sencillas. Me explico:

Fijémonos, por ejemplo, en una Flor de Girasol y en las matemáticas que sus semillas conllevan. Forman una serie de números en la que cada cifra es la suma de las dos precedentes (por ejemplo 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233…) se denomina, en términos matemáticos, sucesión de Fibonacci, una ley que se cumple incluso en el mundo vegetal, como hemos podido comprobar en las semillas del girasol, dispuestas en espiral y que respetan ésta fórmula.

En el mundo inorgánico las leyes de la cristalización del agua congelada, determinadas por las fuerzas que actúan entre las moléculas, hacen que los cristales adopten formas que son infinitas y varían con respecto a un tema común: la estrella de seis puntas. Sin embargo, los planetas son esféricos porque han nacido en la nube primordial que rodeaba al Sol, atrayendo materia indeferentemente de todas partes.

Por otro lado, cuando la fuerza de la Gravedad actúa en una dirección y permite distinguir lo alto de lo bajo, los cuerpos asumen formas que gozan de simetría por rotación, en torno a un eje vertical, como las flores, los árboles, las medusas. Si este organismo presente ojos y boca sobre la parte anterior del cuerpo para alcanzar la comida antes que sus competidores (que es lo que sucede con los animales superiores) tenderá a mantener una correrspondencia bilateral, lo que hace relativamente intercambiables derecha e izquierda.

Resultado de imagen de Simetría bilateralResultado de imagen de Simetría bilateralResultado de imagen de Simetría bilateral

Los seres humanos (su exterior) somos buenos ejemplos de esto. Tenemos una casi igualdad entre las dos partes de nuestro cuerpo que se obtendrían dividiéndolo por una línea que pasa por el centro de la nariz y por el centro del ombligo. La figura de arriba muestra el famoso estudio sobre la simetría del cuerpo humano.

¿Cómo podemos llegar a la simetría presente en las manchas del leopardo? Pues, tiene su explicación científica, tanto en este animal como en otros felinos, ocurre ésta particularidad de ser poseedores de una piel exterior que los singulariza de otros por su perfecta simetría y belleza de las formas en su conjunto.

Claro que, en la Naturaleza, nada ocurre porque sí, todo tiene su por qué, y, todo lo que en ella podemos contemplar posee una funcionalidad que está directamente relacionada con su mecánica, con el medio en el que habita, con lo que el Universo espera que haga en su medio y, para ello, dota a cada figura con aquellos “trajes” que mejor les permita realizar aquello para lo que están destinados.

                 Simetría en las galaxias espirales

Vamos a generalizar un paso más el concepto de simetría, planteándonos ahora si es posible que una ley física se cumpla en cualquier lugar. ¿En cualquier lugar… de dónde?, ¿de nuestra ciudad?, ¿de nuestro planeta? No: del universo. Una ley que fuera válida en cualquier lugar del universo sería una ley simétrica respecto al espacio. Se cumpliría dondequiera que se hiciese un experimento para comprobarla.

Fíjense que nuestra idea de simetría se va haciendo más compleja y más profunda. Ahora no nos detenemos en ver si la forma material de un objeto es simétrica, ni de si la escritura de una fórmula matemática es simétrica. Ahora nos preguntamos si una ley física es válida en todo el Universo.

La otra simetría interesante para una ley física es la que se refiere al tiempo. Cierta ley física se cumple ahora; ¿antes también?, ¿se cumplirá pasado algún tiempo? Una ley que fuera cierta en cualquier instante de la historia del universo sería una ley simétrica respecto al tiempo.

Lo que ahora nos preguntamos es: ¿son simétricas o no las leyes de la física?

Resultado de imagen de Simetría radial de la Gravedad

                  Simetría radial de la Gravedad

Hasta donde alcanzan nuestras medidas, las leyes físicas (y, por tanto, la interacción gravitatoria) sí son simétricas respecto al espacio y respecto al tiempo. En cualquier lugar y momento temporal del universo, la Naturaleza se comporta igual que aquí y ahora en lo que se refiere a estas leyes.

Esta simetría es un arma muy poderosa para investigar hacia el pasado y hacia el futuro, ya que nos permite suponer (y, en la medida en que confiemos en la seguridad de la simetría,conocer) condiciones locales donde jamás podremos llegar por la distancia espacial y temporal que nos separa de muchas partes del universo. Así, por ejemplo, gracias a esta simetría, podemos calcular que el Sol lleva 5.000 millones de años produciendo energía y que le quedan, probablemente, otros 5.000 millones hasta que consuma toda su masa. Esto lo podemos aventurar suponiendo que en ese enorme tramo de 5.000 + 5.000 = 10.000 millones de años las leyes físicas que determinan los procesos mediante los cuales el Sol consume su propia masa como combustible (las reacciones nucleares que le permiten producir energía), fueron, son y serán las mismas aquí en el Brazo de orión donde nos encontramos como en los arrabales de la Galaxia Andrómeda donde luce una estrella como nuestro Sol que, también envía luz y calor a sus planetas circundantes, y, por muy lejos que podamos mirar, siempre veremos lo mismo.

Por tanto, en cierto modo, la simetría se vuelve tan importante o más que la propia ley física.

Resultado de imagen de los tatuajes con los que los maoríes neozelandeses se decoran el rostro.

La regularidad de las formas de la Naturaleza se refleja incluso en la cultura humana, que desde siempre intenta inspirarse en el mundo natural para conformar su propio mundo. Existen hélices en las escaleras de palacios, castillos y minaretes y en las decoraciones de esculturas y columnas. Las espirales abundan en los vasos, en los bajorrelieves, en los cuadros,  en las esculturas en los collares egipcios, griegos, celtas, precoolombinos e hindúes e, incluso, en los tatuajes con los que los maoríes neozelandeses se decoran el rostro.

 

La búsqueda de la perfección geométrica y de las propiedades matemáticas pueden ser también una guía importante en el estudio científico del mundo. Paul Dirac, una de los padres de la moderna mecánica cuántica, solía decir que “si una teoría es bella desde el punto de vista matemático, muy probablemente es también verdadera”.

A todo esto, no debemos olvidar que todo, sin excepción, en nuestro Universo, está sometido a la Entropía que nos trae el paso inexorable de eso que llamamos “Tiempo”, y que, convierte perfectas simetrias de joven belleza, en deteriorados objetos o entidades que, nos viene a recordar que nada es perpetuo, que todo pasa y se transforma.

Resultado de imagen de La pareja ideal

                     Dos son uno. Las dos mitades que, al unirse completan el todo del Ser

Un dolor que llevo dentro de mí es el no poder contemplar la verdadera belleza que, estando presente en los seres vivos inteligentes, en la mayoría de los casos, se nos queda oculta a nuestra percepción, toda vez que, esa clase de belleza que no podemos ver pero sí percibir, sólo la podemos captar con el trato y la convivencia y, verdaderamente, tengo que admitir que, algunas bellezas que he tenido la suerte de poder “ver” con los ojos del espíritu, llegan a ser segadoras, deslumbrantes, su explendor es muy superior al de la estrella más brillante del cielo, y,  seguramente (estoy seguro) como a muchos de ustedes les pasa, tengo la suerte de tenerla junto a mí desde hace muchos años. y, si pienso en ello en profundidad y detenimiento, no tengo más tremedio que concluir que es ese brillo y esplendor el que me da la fuerza para seguir cada dia en la dura lucha que nos ha tocado participar.

¡Sí que es importante la Belleza! Dirac tenía toda la razón.

emilio silvera

Hay que recorrer un largo camino para saber

$
0
0

                     Betelgeuse, la estrella supergigante que está en el final de vida

“La masa con la que nace una estrella determina su historia y, sobre todo, la duración de su vida. Llamamos estrellas masivas a todas aquellas estrellas aisladas que explotan como supernovas al final de su existencia debido al colapso gravitatorio. Para que exploten como supernovas deben tener un mínimo de alrededor de ocho masas solares. Estrellas con menos masa pueden explotar, pero no por sí mismas (deben darse otras condiciones). Y hay parámetros secundarios que pueden introducir cambios, pero la masa es determinante.”

“En cuanto al máximo, el límite está en lo que la naturaleza sea capaz de producir. Hasta hace poco se creía que este límite estaba en torno a monstruos de 150 masas solares, aunque recientes trabajos lo elevan hasta 300. No obstante, no es un dato seguro ya que, cuanto más masiva es una estrella, menos vive, con lo cual estrellas más grandes serían difíciles de observar.”

La NASA capta con sus telescopios la explosión estelar, que es la más cercana de este tipo desde hace dos décadas. / Image Credit: NASA/Swift/P. Brown, TAMU

Verdaderamente si pudiéramos contemplar de cerca, el comportamiento de una estrella cuando llega el final de su vida, veríamos como es, especialmente intrigante las transiciones de fase de una estrella en implosión observada desde un sistema de referencia externo estático, es decir, vista por observadores exteriores a la estrella que permanecen siempre en la misma circunferencia fija en lugar de moverse hacia adentro con la materia de la estrella en implosión. La estrella, vista desde un sistema externo estático, empieza su implosión en la forma en que uno esperaría.

Resultado de imagen de La implosión de una estrella masiva

Al igual que una pesada piedra arrojada desde las alturas, la superficie de la estrella cae hacia abajo (se contrae hacia adentro), lentamente al principio y luego cada vez más rápidamente. Si las leyes de gravedad de Newton hubieran sido correctas, esta aceleración de la implosión continuaría inexorablemente hasta que la estrella, libre de cualquier presión interna, fuera aplastada en un punto de alta velocidad. Pero no era así según las fórmulas relativistas que aplicaron Oppenheimer y Snyder. En lugar de ello, a medida que la estrella se acerca a su circunferencia crítica su contracción se frena hasta hacerse a paso lento. Cuanto más pequeña se hace la estrella, más lentamente implosiona, hasta que se congela exactamente en la circunferencia crítica y, dependiendo de su masa, explosiona como supernova para formar una inmensa nebulosa o, se tranforma en nebulosa planetaria, más pequeña.

Eta Carinae's great eruption in the 1840s created the billowing Homunculus Nebula, imaged here by Hubble. Now about a light-year long, the expanding cloud contains enough material to make at least 10 copies of our sun. Astronomers cannot yet explain what caused this eruption.

La gran erupción de Eta Carinae en la década de 1840 creó la nebulosa del Homúnculo, mostrada aquí en una imagen tomada por el Hubble. Con una longitud ahora de un año-luz, la nube en expansión contiene suficiente material para hacer por lo menos 10 copias de nuestro Sol. Los astrónomos aún no pueden explicar qué causó esta explosión. Crédito: NASA, ESA, y el Hubble SM4 ERO Team

Ahí podemos observar a una estrella muy joven, de dos o tres millones de años que, en un futuro lejano será una gran Supernova. Los procesos que podríamos observar al final de la vida de una estrella gigante… ¡Son fascinantes! Ese punto azulado que vemos envuelto en una masa de gas y polvo, no es otra cosa que la estrella Eta Carinae, una variable luminosa azul hipermasiva. Su masa puede osciular entre las 100 y 150 masas solares y, como el límite para la masa de una estrella está estipulado en 120 masas solares, ésta de arriba, para no ser destruída por su propia radiación, eyecta material al espacio interestelar para descongestionarse.

En la escena que antes explicabamos, por mucho tiempo que nos quedemos esperando y comtemplando el suceso, si uno está en reposo fuera de la estrella (es decir, en reposo en el sistema de referencia externo estático), uno nunca podrá ver que la estrella implosiona a través de la circunferencia crítica. Ese fue el mensaje inequívoco que Oppenheimer y Snyder nos enviaron. Para poder ver eso, habría que estar dentro de la estrella, instalado en la materia que está sufriendo la contracción y, no sabemos porque eso es así.

¿Se debe esta congelación de la implosión a alguna fuerza inesperada de la relatividad general en el interior de la estrella? No, en absoluto, advirtieron Oppenheimer y Snyder. Más bien se debe a la dilatación gravitatoria del tiempo (el frenado del flujo del tiempo) cerca de la circunferencia crítica. Tal como lo ven los observadores estáticos, el tiempo en la superficie de la estrella en implosión debe fluir cada vez más lentamente cuando la estrella se aproxima a la circunferencia crítica; y, consiguientemente, cualquier cosa que ocurre sobre o en el interior de la estrella, incluyendo su implosión, debe aparecer como si el movimiento se frenara poco a poco hasta congelarse.

Por extraño que esto pueda parecer, aún había otra predicción más extrañas de las fórmulas de Oppenheimer y Snyder: si bien es cierto que vista por observadores externos estáticos la implosión se congela en la circunferencia crítica, no se congela en absoluto vista por los observadores que se mueven hacia adentro con la superficie de la estrella. Si la estrella tiene una masa de algunas masas solares y empieza con un tamaño aproximado al del Sol, entonces vista desde su propia superficie implosiona hacia la circunferencia crítica en aproximadamente una hora, y luego sigue implosionando más allá de la criticalidad hacia circunferencias más pequeñas.

Allá por el año 1939, cuando Oppenheimer y Snyder descubrieron estas cosas, los físicos ya se habían acostumbrados al hecho de que el tiempo es relativo; el flujo del tiempo es diferente medido en diferentes sistemas de referencia que se mueven de diferentes formas a través del Universo. Claro que, nunca antes había encontrado nadie una diferencia tan extrema entre sistemas de referencia. Que la implosión se congele para siempre medida en el sistema externo estático, pero continúe avanzando rápidamente superando al punto de congelación medida en el sistema desde la superficie de la estrella era extraordinariamente difícil de comprender. Nadie que estudiara las matemáticas de Oppenheimer y Snyder se sentía cómodo con semejante distorsión extrema del tiempo. Pero ahí estaba, en sus fórmulas. Algunos podían agitar sus brazos con explicaciones heurísticas, pero ninguna explicación parecía muy satisfactoria. No sería completamente entendido hasta finales de los cincuenta.

Fue Wheeler el que discrepó del trabajo de Oppenheimer y Snyder, alegando, con toda la razón que, cuando ellos habían realizado su trabajo, habría sido imposible calcular los detalles de la implosión con una presión realista (presión térmica, presión de degeneración y presión producida por la fuerza nuclear), y con reacciones nucleares, ondas de choque, calor, radiación y expulsión de masa. Sin embargo, los trabajos desde las armas nucleares de los veinte años posteriores proporcionaron justamente las herramientas necesarias.

Presión, reacciones nucleares, ondas de choque, calor radiación y expulsión de masa eran todas ellas características fundamentales de una bomba de hidrógeno; sin ellas, una bomba no explosionaría. A finales de los años cincuenta, Stirling Colgate quedó fascinado por el problema de la implosión estelar. Con el apoyo de Edward Teller, y en colaboración con Richard White y posteriormente Michael May, Colgate se propuso simular semejante implosión en un ordenador. Sin embargo, cometieron un error, mantuvieron algunas de las simplificaciones de Oppenheimer al insistir desde el principio en que la estrella fuera esférica y sin rotación, y, aunque tuvieron en cuenta todos los argumentos que preocupaban a Wheeler, aquello no quedó perfeccionado hasta después de varios años de esfuerzo y, a comienzo de los años sesenta ya estaban funcionando correctamente.

Resultado de imagen de Simulación en ordenador de la implosión de una estrella

Un día a principio de los años sesenta, John Wheeler entró corriendo en la clase de relatividad de la Universidad de Princeton. Llegaba un poco tarde, pero sonreía con placer. Acababa de regresar de una visita a Livermore donde había visto los resultados de las simulaciones recientes de Colgate y su equipo. Con excitación en su voz dibujó en la pizarra un diagrama tras otro explicando lo que sus amigos de Livermore habían aprendido.

Cuando la estrella en implosión tenía una masa pequeña, desencadenaba una implosión de supernova y formaba una estrella de neutrones precisamente en la forma que Fritz Wicky había especulado treinta años antes. Sin embargo, si la estrella original era más masiva lo que allí se producía (aparte de la explosión supernova) era un agujero negro notablemente similar al altamente simplificado  modelo que veinticinco años  calcularon Oppenheimer y Snyder. Vista desde fuera, la implosión se frenaba y se quedaba congelada en la circunferencia crítica, pero vista por alguien en la superficie de la estrella, la implosión no se congelaba en absoluto. La superficie de la estrella se contraía a través de la circunferencia crítica y seguía hacia adentro sin vacilación.

Lo cierto fue que allí, por primera vez, se consiguió simular por ordenador la implosión que debía producir agujeros negros. Está claro que la historia de todo esto es mucho más larga y contiene muchos más detalles que me he saltado para no hacer largo el trabajo que, en realidad, sólo persigue explicar a ustedes de la manera más simple posible, el trabajo que cuesta obtener los conocimientos que no llegan (casi nunca) a través de ideas luminosas, sino que, son el resultado del trabajo de muchos.

Hoy, sabemos mucho más de cómo finaliza sus días una estrella y, dependiendo de su masa, podemos decir de manera precisa que clase de Nebulosa formará, que clase de explosión (si la hay) se producirá, y, finalmente, si el resultado de todo ello será una estrella enana blanca que encuentra su estabilidad final por medio del Principio de exclusión de Pauli (en mecánica cuántica)que se aplica a los fermiones pero no a los Bosones (son fermiones los quarkselectronesprotones y neutrones), en virtud del cual dos partículas idénticas en un sistema, como los electrones en un átomo o quarks en un hadrón (protón o neutrón, por ejemplo), no pueden poseer un conjunto idéntico de números cuánticos.

La estrella azul cerca del centro de esta imagen es Zeta Ophiuchi. Cuando se ve en luz visible aparece como una estrella roja relativamente débil rodeada de otras estrellas tenues y sin polvo. Sin embargo, en esta imagen infrarroja tomada con campo amplio por el Explorador Infrared Survey de la NASA, o WISE, un punto de vista completamente diferente emerge. Zeta Ophiuchi es en realidad una muy masiva y caliente estrella azul, brillante que traza su camino a través de una gran nube de polvo y gas interestelar.

Una estrella masiva alejándose de su antiguo compañero se manifiesta haciendo un imponente surco a través de polvo espacial, como si se tratase de la proa de un barco. La estrella, llamada Zeta Ophiuchi, es enorme, con una masa de cerca de 20 veces la de nuestro Sol. En esta imagen, en los que se ha traducido la luz infrarroja a colores visibles que vemos con nuestros ojos, la estrella aparece como el punto azul en el interior del arco de choque. Zeta Ophiuchi orbitó una vez alrededor de una estrella aún más grande. Pero cuando la estrella explotó en una supernova, Zeta Ophiuchi se disparó como una bala. Viaja a la friolera velocidad de 24 kilómetros por segundo arrastrando con ella un conglomerado de polvo que distorsiona la región por la que pasa.

Mientras la estrella se mueve través del espacio, sus poderosos vientos empujan el gas y el polvo a lo largo de su camino en lo que se llama un arco de choque. El material en el arco de choque está tan comprimido que brilla con luz infrarroja que  WISE puede captar. El efecto es similar a lo que ocurre cuando un barco cobra velocidad a través del agua, impulsando una ola delante de él.  Esta onda de choque queda completamente oculta a la luz visible. Las imágenes infrarrojas como esta son importantes para arrojar nueva luz sobre lo que ocurre en situaciones similares.

Pero, siguiendo con el tema de las implosiones de las estrellas, ¿cuál es la razón por la que la materia no se colapsa, totalmente, sobre sí misma? El mismo principio que impide que las estrellas de neutrones y las estrellas enanas blancas implosionen totalmente y que, llegado un momento, en las primeras se degeneran los neutrones y en las segundas los electrones, y, de esa manera, se frena la compresión que producía la gravedad y quedan estabilizadas gracias a un principio natural que hace que la materia normal sea en su mayor parte espacio vacio también permite la existencia de los seres vivos. El nombre técnico es: El Principio de Exclusión de Pauli y dice que dos fermiones (un tipo de partículas fundamentales) idénticos y con la misma orientación no pueden ocupar simultáneamente el mismo lugar en el espacio. Por el contrario, los bosones (otro tipo de partículas, el fotón, por ejemplo) no se comportan así, tal y como se ha demostrado recientemente por medio de la creación en el laboratorio de los condensados de Bose-Einstein.

¿Cuál es la diferencia?

bosonvsf_med.gif

Los bosones son sociables; les gusta estar juntos. Como regla general, cualquier átomo con un número par de electrones+protones+neutrones es un bosón. Así, por ejemplo, los átomos del sodio ordinario son bosones, y pueden unirse para formar condensados Bose-Einstein.

Izquierda: Los bosones son sociables; los fermiones son antisociales.

Resultado de imagen de Los fermiones se repelen


Los fermiones, por otro lado, son antisociales. No pueden juntarse en el mismo estado cuántico (por el “Principio de Exclusión de Pauli” de la mecánica cuántica). Cualquier átomo con un número impar de electrones+protones+neutrones, como el potasio-40, es un fermión.

Pero, estábamos diciendo: “…no pueden poseer un conjunto idéntico de números cuánticos.” A partir de ese principio, sabemos que, cuando una estrella como nuestro Sol deja de fusionar Hidrógeno en Helio que hace que la estrella deje de expandirse y quede a merced de la Gravedad, ésta implosionará bajo el peso de su propia masa, es decir, se contraerá sobre sí misma por la fuerza gravitatoria pero, llegará un momento en el cual, los electrones, debido a ese principio de exclusión de Pauli que les impide estar juntos, se degeneran y se moverán de manera aleatoria con velocidades relativista hasta el punto de ser capaces de frenar la fuerza provocada por la gravedad, y, de esa manera, quedará estabilizada finalmente una estrella enana blanca.

Si hablamos de una estrella supermasiva, su produce la implosión arrojando las capas externas al espacio interestelar mientras que el grueso de la estrella se comprime más y más sin que nada la pueda frenar, aquí no sirve el Principipo de exclusión de Pauli para los fermiones y, es tal la fuerza gravitatoria que se desencadena como consecuencia de que la estrella supergigante no puede seguir fusionando y queda a merce4d de una sola fiuerza: La Gravedad, que ésta, la comprime hasta lo inimaginable para convertir toda aquella ingente masa en una singularidad, es decir, un punto de densidad y energía “infinitas” que ni la luz puede escapar de allí, y, el tiempo se ralentiza y el espacio se curva a su alrededor.

Resultado de imagen de Degeneración de neutrones

Si la estrella original es más masiva, la degeneración de los electrones no será suficiente para frenar la fuerza gravitatoria y, los electrones se fusionaran con los protones para convertirse en neutrones que, bajo el mismo principio de exclusión sufrirán la degeneración que frenará la fuerza de gravedad quedando entonces una estrella de neutrones. Por último, si la estrella es, aún más masiva, ni la degeneración de los neutrones será suficiente para frenar la inmensa fuerza gravitatoria generada por la masa de la estrella que, continuará la implosión contrayéndose cada vez más hasta desaparecer de nuestra vista convertida en un agujero negro.

¿Qué forma adoptará, qué transición de fase se produce en la materia dentro de una Singularidad?

¡Resulta todo tan complejo!

emilio silvera

¿Sin la luz? ¡Sería otro Universo!

$
0
0

Nuestro Universo es de Luz, todo lo que podemos observar es posible gracias a la luz que incide en los objetos y se refleja en nuestras retinas, así podemos contemplar los planetas y las estrellas del cielo y cualquier cosa hecha de materia, es decir, materia radiante, conformada por átomos se deja ver por nosotros. Decía  Leonard Susskind que, para comprender la realidad en sus niveles más elementales, basta con conocer el comportamiento de dos elementos: el electrón y el fotón.

Todo el argumento de la electrodinámica cuántica (QED) gira en torno a un proceso fundamental: la emisión de un único fotón por un único electrón.


Cuando el movimiento de un electrón es alterado súbitamente, puede responder desprendiendo un fotón. La emisión de un fotón es el suceso básico de la mecánica cuántica:

Toda la luz visible que vemos, así como las ondas de radio, la radiación infrarroja y los rayos X, está compuesta de fotones que han sido emitidos por electrones, ya sea en el Sol, el filamento de una bombilla, una antena de radio o un aparato de rayos.

Resultado de imagen de La luz visible hecha de fotones

Resultado de imagen de Los fotones saltarines en el átomo que procuran su estabilidad

Los electrones no son las únicas partículas que pueden emitir fotones. Cualquier partícula eléctricamente cargada puede hacerlo, incluido el protón. Esto significa que los fotones pueden saltar entre dos protones o incluso entre un protón y un electrón. Este hecho es de enorme importancia para toda la ciencia y la vida en general. El intercambio continuo de fotones entre el núcleo y los electrones atómicos proporciona la fuerza que mantiene unido al átomo. Sin estos fotones saltarines, el átomo se desharía y toda la materia dejaría de existir.

Resultado de imagen de Los electrones son fermiones y los fotones bosones

Mientras que un electrón pertenece al grupo de partículas llamadas fermiones, los fotones pertenecen a la familia de los bosones. Intentemos comprender esta película que es la existencia…

…protagonizada por bosones

Los fermiones hacen posible la materia “al estilo tradicional”, mientras que los bosones son elementos muy raros desde la forma de pensar a que estamos acostumbrados el común de los mortales. Para no complicarnos, la tabla periódica de elementos existe porque los fermiones no pueden “ser iguales”: no pueden solaparse uno sobre otro y se repelen si los obligamos. Es lo que damos por hecho cuando hablamos de materia, que cada pedazo de ésta ocupa su lugar y tiene sus propias cualidades.

En cambio, los bosones carecen de este sentido de la individualidad, digamos que poseen “alma grupal” y, en su estado más puro, todos forman una misma “superpartícula”.

Para entenderlo mejor, conviene recordar que las partículas no son bolitas como nos siguen enseñando en la escuela, sino que más allá de esta imagen existen como ondas o, al menos, sus funciones se equiparan al comportamiento de una onda.

Resultado de imagen de El condensado de Bose-Einstein

Resultado de imagen de El condensado de Bose-Einstein

                   El caos cuántico en condensados de Bose-Einstein con acoplamiento espín-órbita

En la década de 1920, Albert Einstein y el hindú Satyendra Nath Bose pronosticaron un quinto estado de la materia: el condensado de Bose-Einstein (BEC), el cual fue conseguido en laboratorio en 1995, algo que le valió el premio Nobel de 2001 a los científicos que lo lograron.

Imagen relacionada

Imagínese una taza de té caliente, las partículas que contiene circulan por toda la taza. Sin embargo cuando se enfría y queda en reposo, las partículas tienden a ir en reposo hacia el fondo. Análogamente, las partículas a temperatura ambiente se encuentran a muchos niveles diferentes de energía. Sin embargo, a muy bajas temperaturas, una gran proporción de éstas alcanza a la vez el nivel más bajo de energía, el estado fundamental. (Fuente: wikipedia)

dibujo20161104-experimental-result-emergence-of-a-turbulent-cascade-in-a-quantum-gas-nature20114-f1
“Observación experimental de la cascada hacia la turbulencia en el BEC y su relajación posterior hacia el estado inicial. En el inciso aparecen los resultados numéricos según la ecuación de Gross–Pitaevskii. Fuente: Nature.”

“A priori, un condensado de Bose–Einstein (BEC) es el fluido cuántico menos turbulento que uno puede imaginar. Sin embargo se puede forzar una cascada de Kolmogorov–Obukhov en un condensado formado por unos cien mil átomos de rubidio en una trampa óptica cilíndrica de unos 30 micrómetros de longitud que están enfriados a unos 50 nanokelvin (milmillonésimas de grado sobre el cero absoluto). El método usa un campo magnético oscilatorio que inyecta energía en los modos de momento más bajo del condensado.”

Resultado de imagen de Bosones enfriados hasta el cero absoluto

Cuando ciertas formas de materia [bosones] se enfrían hasta casi el cero absoluto, sus átomos se ponen en el estado de energía más baja, de modo que todos sus átomos vibran al unísono y se hacen coherentes. Las funciones de onda de todos los átomos se solapan, de manera que, en cierto sentido, un BEC [condensado de Bose-Einstein] es como un “superátomo” gigante en donde todos los átomos individuales vibran al unísono.

Al enfriar los átomos, su velocidad disminuye hasta que las longitudes de onda de cada uno de ellos se vuelven casi planas, superponiéndose unas a otras para formar una única onda que los describe a todos.

Así que un BEC se forma cuando los átomos en un gas sufren la transición de comportarse como “bolas de billar” al estilo de la física clásica, a comportarse como una onda gigante de materia al estilo de mecánica cuántica:

Resultado de imagen de Bosones enfriados hasta el cero absoluto

               Un grupo de físicos experimentales afirman haber creado fluido con “masa negativa”

Resultado de imagen de Gráfico del condensado Bose-Einstein

En el primero (el de la izquierda) se encuentra un sistema con  átomos en diferentes estados vibratorios, es decir, con diferentes energías. Por eso tienen distintas ondas asociadas a diferentes velocidades. La cubeta de abajo representa el sistema, las franjas horizontales representan los diferentes estados energéticos y los puntos son los átomos situados en estos distintos estados.

El segundo sistema (el de la derecha) representa un conjunto de átomos que han sido enfriados hasta llegar a formar un condensado de Bose-Einstein. Todos los átomos tienen la energía más baja del sistema.

Dado que para alcanzar el estado de CBE es necesario enfriar muchísimo los átomos, su velocidad disminuye hasta que su longitud de onda se hace tan larga que su onda es casi plana. En este punto, las ondas de todos los átomos enfriados se superponen, formando una única onda y alcanzando el estado de condensado de Bose-Einstein.

Por eso se dice que los átomos se encuentran en el mismo lugar, porque todos son descritos por una única onda.

Resultado de imagen de Gráfico del condensado Bose-Einstein

Y la siguiente simulación computarizada nos dá una mejor perspectiva sobre la formación de los vórtices en un condensado Bose-Einstein conformado por 200 mil átomos de rubidio contenidos dentro de una trampa magnética

Un BEC es un grupo de unos cuantos millones de átomos que se unen para formar una sola onda de materia de aproximadamente un milímetro de diámetro.  Si creamos dos BECs y los colocamos juntos, no se mezclan como gases ordinarios ni rebotan como lo harían dos sólidos. Donde los dos BECs se superponen, ellos “interfieren” como las ondas: delgadas capas paralelas de materia son separadas por capas delgadas de espacio vacío. El patrón se forma porque las dos ondas se suman donde sus crestas coinciden, y se cancelan donde una cresta se encuentra con un valle — a lo cual llamamos interferencia “constructiva” y “destructiva” respectivamente. El efecto es similar al de dos ondas que se superponen cuando dos piedras son lanzadas a un lago.

(Fuente: ciencia NASA)

…ambientada en: el vacío…

El hecho de que se puedan intercambiar partículas virtuales modifica el vacío alrededor de los átomos, y esto lleva a una fuerza. De las llamadas fluctuaciones de vacío pueden surgir, partículas virtuales y quién sabe que cosas más… Hasta un nuevo Universo.

Y ahora, retrocedamos un poco más en este asunto del misterio que nos ocupa. Gracias a la tecnología láser, la física ha podido comprobar el extremo poder de la luz. Los láseres pueden hacer que las partículas virtuales se vuelvan reales. Pero, primero, aclaremos conceptos…

Imagen relacionada

Las “partículas virtuales” son partículas fundamentales que están constantemente surgiendo aparentemente de la nada y permanecen en el espacio-tiempo la friolera de una milésima de trillonésima de segundo –una cantidad que se forma poniendo una veintena de ceros a la derecha de la coma—. A pesar de denominarse “virtuales”, sus efectos son muy reales: la constante agitación de este burbujeo cuántico de partículas hace que el vacío tenga energía. Y esto es algo que afecta a la realidad, pues en ésta las fuerzas de atracción y repulsión dependen de la masa, y la masa no es sino energía expresada en unidades diferentes: E=mc².

En el uso corriente la palabra vacío significa espacio vacío, espacio del que se ha extraído todo el aire, vapor de agua u otro material. Eso es también lo que significa para un físico experimental que trabaja con tubos de vacío y bombas de vacío. Pero para un físico teórico, el término vacío tiene muchas más connotaciones. Significa una especie de fondo en el que tiene lugar el resto de la física. El vacío representa un potencial para todas las cosas que pueden suceder en ese fondo. Significa una lista de todas las partículas elementales tanto como de las constantes de la Naturaleza que se pondrían de manifiesto mediante experimentos en dicho vacío. En resumen, significa un ambiente en el que las leyes de la física toman una forma particular. […] Un vacío diferente significa leyes de la física diferentes; cada punto en el paisaje representa un conjunto de leyes que son, con toda probabilidad, muy diferentes de las nuestras pero que son, en cualquier caso, posibilidades consistentes. El modelo estándar es meramente un punto en el paisaje de posibilidades.

… la energía del vacío es tomada como la base para la constante cosmológica. A nivel experimental, la energía del punto cero genera el efecto Casimir, … Se dice que:


La energía del vacío es, por tanto, la suma total de las energías de todas las partículas posibles. Es la (hipotética) llamada “energía oscura” que hace que el universo se expanda, haciendo frente a la atracción de la gravedad, y que proporciona alrededor del 80% de la materia-energía al universo –un 26% es “materia oscura”, y sólo un 4% es la materia conocida hasta el momento—.

Pero, ¿cómo una partícula virtual se convierte en real? Es decir, ¿cómo queda “atrapada” en el espacio-tiempo de forma más estable?

La teoría de cuerdas, también llamada de supercuerdas, pues la supersimetría es necesaria para incluir los quarks y otros fermiones, es una teoría …

La teoría de la supersimetría establece que, por cada partícula de materia, nace una gemela de antimateria. La antimateria es igual que la materia, pero con carga opuesta. Por ejemplo, el electrón tiene carga negativa, y su partícula de antimateria, el positrón, positiva. Materia y antimateria se aniquilan mutuamente pero, por algún motivo aún no aclarado, la simetría se rompió en algún momento, surgiendo más materia que antimateria, de ahí que nuestro universo, materia, pueda existir.

Pero hay algo más en todo esto. Y para ello, la luz es la clave.

Si nos movemos en el espectro electromagnético, los fotones con longitud de onda ultravioleta pueden expulsar a los electrones de los átomos. Pero veámos.

…starring “light” as itself…

Ya en los años 30, los físicos predijeron que un campo eléctrico muy fuerte, que no es sino un espacio alterado por la actividad de un montón de fotones coordinados, podría impulsar a las partículas virtuales con carga opuesta en diferentes direcciones, impidiendo que la materia y la antimateria se aniquilen.

PairCreation.svg

Según el efecto de creación de pares, un fotón con energía suficiente, lo que equivale a tener el doble de la energía que posee un electrón en reposo, da lugar a una pareja de electrón y positrón. Aunque esto ya se consiguió en los años 90 a pequeña escala, gracias al desarrollo de la tecnología láser los científicos creen que estarán cerca de conseguir crear materia “en serie” mediante este proceso en unos pocos años. Por otra parte, una vez que existen las partículas, los fotones interactuan sin cesar con ellas, siendo absorbidos y emitidos por las mismas de manera ininterrumpida.Y de ello nace el movimiento gracias al cual todo existe en el espacio-tiempo. Sin movimiento, nuestra realidad desaparecería.

La creación de pares de antipartículas, se hace a partir de un fotón, donde con sólo un fotón, se obtiene un par de antipartículas.
No se diferencia básicamente la obtención de un electrón-positrón, a la obtención de un protón-antiprotón, sino solamente en la energía del fotón, significa que son esencialmente lo mismo.

 Así, si el fotón tiene suficiente energía, el par será electrón-positrón, caso contrario será un par virtual (absorción), si la energía del fotón fuere mayor, la diferencia estará dada por la velocidad opuesta de las antipartículas (masa de las antipartículas), correspondiente a la energía “sobrante” de acuerdo a E=mc2. Si la energía del fotón fuere suficiente, como para llegar al umbral mínimo, se creará un protón-antiprotón, y si fuere mayor, se manifestará en velocidad opuesta (masa de las antipartículas). La energía del fotón (cantidad de movimiento, efecto Compton) será la energía correspondiente al total de las dos antipartículas (masa, E=mc2)

La carencia de masa de un fotón está ligada a su movimiento. Para que un cuerpo alcance la velocidad de la luz, su masa ha de ser cero. Y, como Einstein explicó en su día, la luz se mueve siempre a la velocidad de la luz. Si pretendemos que un fotón se pare, en lugar de ralentizarse observaremos que desaparece. Y, como se ha dicho al principio, si estos “fotones saltarines”  desaparecieran, toda la materia dejaría de existir.

Imagen relacionadaResultado de imagen de Los fotones son la rueda de la existenciaResultado de imagen de Los fotones son la rueda de la existencia

Su esencia es el movimiento y su misión, según parece, hacer girar la rueda de la existencia. Sin la existencia de los fotones estaríamos hablando de otro Universo.

Ello es así debido al impacto de los fotones sobre las partículas elementales. La energía transmitida por un fotón es inversamente proporcional a su longitud de onda. Cuanto menos longitud de onda, más energía. Así, un fotón de luz visible tiene la energía suficiente para hacer reaccionar a un bastón de la retina. Si nos movemos en el espectro electromagnético, los fotones con longitud de onda ultravioleta pueden expulsar a los electrones de los átomos. Más allá, los rayos gamma pueden romper protones y neutrones

Cuando la tensión llega a un punto insostenible la corteza de neutrones revienta en un temblor estelar, dejando escapar rayos gamma y rayos X. En una potencia descomunal capaz de destruir otras particulas cuando interaccionan.

Y ahora, vayamos al meollo de la cuestión e indaguemos en la cita con que se iniciaba este artículo: ¿qué hace que los electrones absorban y emitan fotones? Esto, en otros términos, vendría a ser lo mismo que preguntarnos: ¿por qué existe nuestro Universo?

…con un misterio: el 137…

Resultado de imagen de Richard FEynman

“Por ejemplo, Richard Feynman, uno de los físicos más importantes del siglo 20, escribió lo siguiente sobre el número 137: “Ha sido un misterio desde su descubrimiento hace más de cincuenta años, y todo físico teórico competente coloca este número en su pared y se preocupa por éste.  Es uno de los  malditos misterios más grandes: un número mágico que nos llega sin el entendimiento del hombre.”

Resultado de imagen de Un electrón emite un fotón

¿Qué determina el momento exacto en que un electrón emite un fotón? La física cuántica dice que nada lo hace, pues la Naturaleza es caprichosa en sus niveles más elementales. Aunque no es caótica en extremo, sólo probabilística.

A diferencia de la física newtoniana, la mecánica cuántica nunca predice el futuro en función del pasado. En su lugar, ofrece reglas muy precisas para computar la probabilidad de varios resultados alternativos de un experimento.

La constante de estructura fina fue introducida en la física en 1916 por Arnol Sommerfeld, como una medida relativista de las desviaciones en las lineas espectrales atómicas de las predicciones hechas por el modelo de Bohr.


Históricamente, la primera interpretación física de la constante de estructura fina,  \alpha , fue el cociente de la velocidad del electrón en la primera órbita circular del átomo de Bohr relativista con la velocidad de la luz  en el vacío. De igual forma, era el cociente entre el momento angular mínimo permitido por la relatividad para una órbita cerrada bajo fuerza electromagnética y el momento angular mínimo permitido por la mecánica cuántica. Aparece de forma natural en el análisis de Sommerfeld y determina el tamaño de la separación o  estructura fina de las lineas espectrales del hidrógeno.

Resultado de imagen de La QED predice una relación entre el momento magnético  sin dimensiones del electrón (o el g-factor de Lande, g) y la constante de estructura fina \alpha.

La QED predice una relación entre el momento magnético  sin dimensiones del electrón (o el g-factor de Lande, g) y la constante de estructura fina \alpha. Una nueva medida de g usando un ciclotrón cuántico de un electrón, junto con un cálculo QED que involucra 891diagrama de Feynman, determina el valor actual más preciso de \alpha:

 Resultado de imagen de involucra 891diagrama de Feynman

   \alpha^{-1} =   137.035 999 710 (96)

 

esto es, una medida con una precisión de 0.70 partes por mil millones. Las incertidumbres son 10 veces más pequeñas que aquellas de los métodos rivales más próximos. Las comparaciones de los valores medidos y los calculados de g suponen un test muy fuerte de QED, y ponen un límite para cualquier estructura interna del electrón posible.

En 2010, el científico John Webb publicó un estudio en el que revelaba datos que afirmaban que la constante no era igual en todo el universo y que se observaban cambios graduales en torno a un eje concreto de éste.

Algunos científicos sostienen que las constantes de la naturaleza no sean en realidad constantes, y la constante de estructura fina no escapa a estas afirmaciones.

unsw_white_dwarf

Físicos de la University of New Wales (UNSW) tienen una teoría cuando menos controvertida, y es la de que la constante de estructura fina, α (alpha), en realidad no es constante. Y estudian los alrededores de una enana blanca lejana, con una gravedad más de 30.000 veces mayor que la de la tierra, para comprobar su hipótesis.

Recientemente, la detección de los mapas de enlace-dimensional de la constante de estructura fina

Y la probabilidad de que un electrón emita o absorba un fotón es la constante de estructura fina. El valor de esa constante es 1/137.

En otras palabras, sólo un afortunado electrón de cada 137 emite un fotón. Este es el significado de alfa: es la probabilidad de que un electrón, cuando se mueve a lo largo de su trayectoria, emita caprichosamente un fotón.

El inverso de la constante de estructura fina es 137. Desde su descubrimiento, éste número ha traído de cabeza a los grandes científicos.

LA MAGIA DEL 137

El 137 es el mayor misterio y el número más importante en toda la ciencia. Sin duda.

Resultado de imagen de El misterioso 137 numero sin dimensiones

¿Qué mensaje nos transmite ese número puro y adimensional?

No recuerdo si fue  Richard Feynman o León Lederman, el que  sugirió que todos los físicos pusiesen un cartel en sus despachos o en sus casas que les recordara cuánto es lo que no sabemos. En el cartel no pondría nada más que esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina. Este número guarda relación con la probabilidad de que un electrón emita o absorba un fotón. La constante de estructura fina responde también al nombre de alfa, y sale de dividir el cuadrado de la carga del electrón por el producto de la velocidad de la luz y la constante de Planck. Tanta palabra no significa otra cosa sino que ese solo número, 137, encierra los meollos del electromagnetismo (el electrón), la relatividad (la velocidad de la luz) y la teoría cuántica (la constante de Planck). Menos perturbador sería que la relación entre todos estos importantes conceptos hubiera resultado ser un uno o un tres o quizás un múltiplo de pi. Pero ¿137?

Resultado de imagen de El misterioso 137 numero sin dimensiones

“Lo más notable de este notable número es su adimensionalidad. La velocidad de la luz es de unos 300.000 kilómetros por segundo. Abraham Lincoln medía 1,98 metros. La mayoría de los números vienen con dimensiones. Pero resulta que cuando uno combina las magnitudes que componen alfa, ¡se borran todas las unidades! El 137 está solo: se exhibe desnudo a donde va. Esto quiere decir que a los científicos de Marte, o a los del decimocuarto planeta de la estrella Sirio, aunque usen Dios sabe qué unidades para la carga y la velocidad y qué versión de la constante de Planck, también les saldrá 137. Es un número puro.”

(Leon Ledderman, La partícula divina)

Uno de los padres de la mecánica cuántica, Wolfgang Pauli, se obsesionó tanto con este número que dijo que, de poder hacerle una pregunta a Dios, sería esta: “¿Por qué 137?”

Gracias a su gran amistad con Carl G. Jung, Pauli conoció el mundo “alternativo” de los estudios sobre la psique y accedió a la tradición esotérica que ha acompañado al hombre desde el principio de los tiempos. Es así como supo que 137 se aproxima al valor correspondiente al ángulo áureo. Esto es, la versión circular del número áureo o φ (phi).

En realidad, el ángulo de oro es, más o menos, 137, 5º, y está presente en todo proceso natural donde se dé una combinación de espirales. Así, por ejemplo, las hojas de una planta surgen a lo largo del tallo cada 137,5º, pues así se logra la mayor eficiencia de espacio y de captación de la luz solar, ya que únicamente con éste ángulo es posible evitar que ninguna hoja obstaculice a las demás en la toma de luz sin que existan espacios muertos o vacíos.

Esta semejanza entre los valores de la constante de estructura fina y el ángulo áureo llevó a la doctora Raji Heyrovska a buscar el ángulo áureo en el universo atómico (véase versión en español de su estudio).

Que esto sea así no debería extrañarnos, pues si el número áureo es una constante en toda la Naturaleza, su versión angular es la apropiada para estar presente en el universo cuántico, donde, recordemos, los elementos básicos de la realidad se reducen a funciones de onda.

…y un final místico.

Los fotones no tienen masa ni carga eléctrica. Sin embargo, pueden “extraer” del vacío partículas con masa y carga, tanto negativa como positiva.

Más allá de la matería y la energía, del tiempo y del espacio, el concepto de función de onda nos introduce en una realidad abstracta de donde surge todo. Y si, como hemos dicho, a menor longitud de onda mayor energía, también es posible afirmar que, en eso que David Bohm llamaba “orden implicado”, cuanto menor es la longitud de una onda cuántica, mayor es la presencia de masa en el espacio-tiempo.

Para la física, las matemáticas se han mostrado como la realidad que subyace a la materia. Todo se puede reducir a números, entidades que forman y organizan el espacio-tiempo. En este nivel de realidad, ni la materia ni la energía existen como tales, sino que demuestran ser el resultado de la interacción de entidades abstractas.

Fuentes diversas y algunos pasajes propios

¿La Física? ¡Una maravilla! Nos dice cómo funciona la Naturaleza

$
0
0

Resultado de imagen de En su Libro Partículas, Gerard ´t Hoff

 

En su Libro Partículas, Gerard ´t Hofft, Premio Nobel de Física, nos cuenta:

 

“En el mundo de los seres vivos, la escala o tamaño crea importantes diferencias. En muchos aspectos, la anatomía de un ratón es una copia de la de un elefante, pero mientras que un ratón trepar por una pared prácticamente vertical sin mucha dificultad (y se puede caer desde una altura varias veces mayor que su propio tamaño sin hacerse daño), un elefante no sería capaz de realizar tal hazaña. Con bastante generalidad se puede afirmar que los efectos de la gravedad son menos importantes cuanto menores sean los objetos que consideremos (sean vivos o inanimados).”

 

Cuando llegamos a los seres unicelulares, se ve que ellos no hay distinción entre arriba y abajo. Para ellos, la tensión superficial del agua es mucho más importante que la fuerza de la gravedad a esa escala. Tranquilamente se pueden mover y desplazar por encima de una superficie acuática. Los pluricelulares no pueden hacer tal cosa.

 

Resultado de imagen de La tensión superficial admite que los insectos anden por encima del agua

 

La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos de Van der Waals. fuerza tiene un alcance muy corto; para ser precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente 1/r7. Esto significa que si se reduce la distancia dos átomos a la mitad de la fuerza de Van der Waals con la que se atraen uno a otro se hace 2 × 2 × 2 × 2 × 2 × 2 × 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza. El conocimiento de esta fuerza se debe a Johannes Diderik Van der Waals (1837 – 1923) con su tesis sobre la continuidad del líquido y gaseoso que le haría famoso, ya que en esa época (1873), la existencia de las moléculas y los átomos no estaba completamente aceptado.

La tensión superficial del agua, es el efecto físico (energía de atracción entre las moléculas) que “endurece” la capa superficial del agua en reposo y permite a algunos insectos, como el mosquito y otros desplazarse por la superficie del agua sin hundirse.

 

 

 

El famoso físico inglés James Clerk Maxwell, que formuló la teoría del electromagnetismo de Faraday, quedó muy impresionado por este de Van der Waals.

Los tamaños de los seres uniceculares, animales y vegetales, se miden en micrómetros o “micras”, donde 1 micra es 1/1.000 de milímetro, aproximadamente el tamaño de los detalles más pequeños que se pueden observar con un microscopio ordinario. El mundo de los microbios es fascinante, pero no es el objeto de este trabajo, y continuaremos el viaje emprendido las partículas elementales que forman núcleos, átomos, células y materia, así como las fuerzas que intervienen en las interacciones fundamentales del universo y que afecta a todo lo que existe.

 

 

 

 

Hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo.

Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).

 

 

Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

Radiación de Cuerpo Negro

Un cuerpo negro es un objeto teórico o ideal que absorbe toda la luz y toda la energía radiante que incide sobre él. Nada de la radiación incidente se refleja o pasa a través del cuerpo negro. A pesar de su , el cuerpo negro emite luz y constituye un modelo ideal físico para el estudio de la emisión de radiación electromagnética. El nombre Cuerpo negro fue introducido por Gustav Kirchhoff en 1862.

 

 

 

 

La luz emitida por un cuerpo negro se denomina radiación de cuerpo negro. Todo cuerpo emite energía en de ondas electromagnéticas, siendo esta radiación, que se emite incluso en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de onda superiores a las de la luz visible (es decir, de menor frecuencia). Al elevar la temperatura no sólo aumenta la energía emitida sino que lo hace a longitudes de onda más cortas; a esto se debe el cambio de color de un cuerpo cuando se calienta. Los cuerpos no emiten con igual intensidad a todas las frecuencias o longitudes de onda, sino que siguen la ley de Planck.

 

Resultado de imagen de Los cuantos de pLANCK LA RADIACIÓN EMITIDA EN PAQUETES

La “constante de Planck”, desempeña un papel central en la teoría de la mecánica cuántica y recibe su nombre de su descubridor, Max Planck, uno de los padres de dicha teoría. Expresada como h, es la constante física que frecuentemente se define como el cuanto elemental de acción.

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = h?, donde E es la energía del paquete, ? es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo nueva condición, el resultado coincidió perfectamente con las observaciones.

 

 

 

Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ? de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza, esto lo veremos más adelante.

 

 

Resultado de imagen de Los electrones girando alrededor del núcleo en el Blog de emilio silvera

 

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.

 

 

Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿qué significan realmente estas ecuaciones?, ¿qué es lo que están describiendo? Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.

Pero los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?

Niels Bohr consiguió responder a esta pregunta de tal que con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.

 

 

 

Si la mecánica cuántica tiene cosas extrañas y el espín es una de ellas. Y si uno piensa que la intuición le ayudará a comprender todo esto, pues no lo hará, o es poco probable que lo haga. Las partículas tienen un espín fundamental. Al igual que la carga eléctrica o la masa, el espín ayuda a definir que de partícula es cada una.

 

 

Resultado de imagen de El espín de las partículas

 

Resultado de imagen de El espín de las partículas

 

 

Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.

 

 

 

 

La posición y el momento de una partícula nunca lo podremos saber con precisión ilimitada.

 

No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.

Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”.

 

 

Protón-Estructura de Quarks.png

El protón está conformado por 2 quarks up y 1 quark dowm

Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planckh, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.

 

 

 

 

 

La mecánica cuántica es muy extraña a nuestro “sentido común”, sabemos que se desenvuelve en ese “universo” de lo muy pequeño, alejado de nuestra vida cotidiana en el macrocosmos tetradimensional que, no siempre coincide con lo que, en aquel otro infinitesimal acontece.

Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisemberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.

Es cierto que, existe otro universo dentro de nuestro del que, aún, nos queda mucho por aprender.

 

 

 

La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (?) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un dado.

Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.”

 

 

 

 

 

 

También Gerard ’t Hooft es el autor de lo que han dado en llamar principio holográfico es una conjetura especulativa acerca de las teorías de la Gravedad Cuántica propuesta en 1993 por este autor, y mejorada y promovida por Leonard Susskin en 1995. Postula que toda la información contenida en cierto volumen de un espacio concreto se puede conocer a partir de la información codificable sobre la frontera de dicha región. Una importante consecuencia es que la cantidad máxima de información que puede contener una determinada región de espacio rodeada por una superficie diferenciable está limitada por el área total de dicha superficie.

Por ejemplo, se pueden modelar todos los eventos que ocurran en un cuarto o una habitación creando una teoría en la que sólo tome en cuenta lo que suceda en sus paredes. En el principio holográfico también se afirma que por cada cuatro Unidades de Planck existe al menos un grado de libertad (o una unidad constante de Bolttzmann k de máxima entropía). Esto se conoce como frontera de Bekenstein:

 

 

S\le\frac{A}{4}

 

donde S es la entropía y A es la unidad de mensura considerada. En unidades convencionales la fórmula anterior se escribe:

 

 

S\le \left( \frac{kc^3}{G\hbar} \right) \frac{A}{4} = k \frac{A}{4\ell_P^2}

donde:

 

Claro que esta… ¡Es otra Historia!

emilio silvera

El adimensional 137

$
0
0

Monografias.com > Fisica

Resultado de imagen de El misterioso número adimensional 137

  1. Consideraciones sobre el 137

La red de materia libre ha de ser de estructura cúbica curva, la más simple, es decir un cubo según la superficie esférica. Pero en la superficie esférica los ocho elementos del cubo se distribuyen equidistantes, de tal forma que cada dos quedan comprendidos en una superficie pr² de las 4 que componen la superficie esférica: S = 4pr².

La probabilidad de choque o interacción de esos ocho elementos con los adyacentes en igual configuración de red es de 3, los elementos más probables por encontrarse más cerca y en las tres direcciones de avance.

Los elementos que resultan de las combinaciones, se combinarán a su vez en la misma probabilidad o número, 3.

Monografias.com

 

El número total de elementos recombinados hasta la materia normal para una estructura cúbica de red sería:

8 x3 composiciones de 2 elementos en primera combinación.

(8×3) x2 elem. de la primera combinación, x 3 nuevas combinaciones, x 3 elementos cada una (mayoritarios para combinaciones elementales m. normal):

24 x3³

Pero esto sería si todos los elementos poseyeran la misma probabilidad de combinarse, lo que no es así.

En su movida cada uno de ellos podría ocupar una superficie r², su abanico de avance, lo cual se cumple. Entonces tendríamos:

( 24 x3³) r²

El cuadrado esférico o esfera de red sólo podría avanzar en el sentido de una de sus caras (2 elementos) de las cuatro equivalentes a pr².

El número total de elementos combinados que correspondería a toda la esfera o cuadrado esférico habrá que dividirlo por pr²; y ya que en dicha división  se anula:

24 x3³/p = 137, 5098

Este valor será exacto si se consideran las pequeñas oscilaciones de los elementos que les influyen en su mutua probabilidad de combinación (choque).

De manera más explícita, y considerando la vibración fundamental de los elementos:

Monografias.com

Monografias.com

 

Con la simple visualización del esquema pudiera interpretarse que una partícula da lugar a 137, lo que no es, cada una de ellas dispone en el medio de otras como materia prima para combinarse o recombinarse.

NOTA. Ya se vio en otro de nuestros trabajos cual era el origen de la oscilación intrínseca. Aquella, fundamental, que no depende de la vibración calórica o de la energía sino del giro siempre presente en las partículas y su “descentrado” debido a la inexactitud de los cuantos: su pequeña asimetría. Dicho “estremecimiento” constituye un desahogo o margen propio para cada partícula junto a las otras en las uniones, y puede identificarse con el doble de la tolerancia mínima.

Consideraciones sobre el 137

Sea como sea, este número de elementos correspondería a la totalidad de los primordiales que componen la materia “másica” a partir de una estructura elemental de red.

Aquellos elementos primordiales que no consiguiesen la combinación permanecerán en su estado libre (espuma cuántica) como componentes de la abundante energía oscura.

Pero en la globalidad, en el total de energía oscura, el conjunto de cubos esféricos podrá actuar aleatoriamente por cualquiera de sus cuatro lados. De ello se deduce que la probabilidad de combinación para toda la energía oscura será de ¼, con lo que la primera generación de partículas, la materia oscura propiamente hablando, se generaría según un 25%. La siguiente generación también se generará como un 25% del 25% de esa materia generadora, la materia oscura, con lo que su porcentaje sería del 6% aprox. sin tener en cuenta otras incidencias.

Estos porcentajes teóricos oscilaran según el margen vibratorio, o los desvíos desde la uniformidad para sitios localizados, por lo que los valores no pueden ser exactos. Pero todo ello sería corregible si dichas magnitudes se conocieran.

Por otro lado, si se supiese la diferencia dimensional entre los distintos estamentos se sabría el aumento de volumen o tamaño en la evolución hasta el presente, consiguientemente la variación de volumen y el valor de la expansión, pues, como sabemos, viene generada por la presión oscura.

Claro, que todo lo dicho se ha supuesto para “generaciones en frío”. Pero en la globalidad, seguramente los fenómenos de alta presión y temperatura, no son causa, sino consecuencia de las propias generaciones en frío, que las provoquen por su acción gravitatoria, es decir que en promedio serán las materias oscuras las responsables de la expansión, y más si se considera su dominio porcentual en el Universo.

Se observa que los ordenes de dimensión conocidos comienzan a separarse notoriamente a partir de 10^-17 o 10^-18. Seguramente se pueda decir que los órdenes de dimensión hacia abajo también varíen en forma cuadrática. En este supuesto, no sería difícil calcular el volumen de ahora partiendo de las combinaciones desde la estructura de red cúbica.

Es de suponer que el 137 como número de combinaciones sea constante, y que no sea necesario partir de la energía-materia oscura para que dicho número se cumpla, sino que sea válido allá donde existan los tres saltos combinatorios equivalentes. Igual ha de ocurrir para que el fotón libre se integre al electrón. Por ello, y en principio, suponemos para éste una estructura triple.

De la Teoría de Landau del líquido de Fermi ya puede extraerse la existencia de espinones y holones. Y la existencia de híper partículas ocurre en niveles de temperatura muy bajos según la distribución Bose-Einstein.

La onda partícula electrón:

Imaginamos como más lógica una estructura de tres anillos para el electrón. Primero, porque el movimiento extensivo por causa del espín abarcaría toda la partícula. Segundo, como forma de que, aun siendo una partícula compuesta, posea una resultante de carga negativa.

Según sea la dirección de avance, dos de los anillos se comportarían como ondas ligadas perpendiculares, neutras en conjunto (al estilo del fotón).

El tercer anillo, desapareado, perpendicular a los anteriores, como onda envolvente daría la carga electrónica (siempre que gire en la forma directa; en la retrógrada se trataría de un positrón).

Los dos primeros se constituirían de espinones (no aportan carga, sólo aportan espín, como ocurre al fotón).

El otro se compondría de holones (sólo aportan carga y no espín).

Espinones y holones serían una manera de designar sus funciones, intercambiantes según la dirección de desplazamiento global de la partícula, y de forma continua seguramente.

Podríamos decir que el electrón sea la suma de un súper fotón muy masivo y un anillo halo responsable de su carga.

Monografias.com

Monografias.com

Monografias.com

La constante de estructura fina.

Monografias.com

La absorción de un fotón por parte de un electrón supondrá su combinación interna desde uno a tres elementos. Como se ha visto el número total de componentes habrá de ser 137.

Por el contrario, la emisión de fotones ocurrirá por el fraccionamiento de una subpartícula electrónica que no obstante permanecería reestructurada a falta de un sólo fotón en sus prolíficos anillos de componentes casi libres.

La constante de estructura fina se puede expresar como:

Monografias.com

O lo que es lo mismo, la energía para traer dos electrones hasta una distancia S dividida por la energía de un fotón con longitud de onda igual a 2pS.

Monografias.com

Ello nos indica que la energía electrónica de carga es 137 veces la energía del fotón, o lo que es lo mismo, la masa o número de elementos para la emisión o absorción es de 1 a 137 (equivalencia masa y energía).

Las subpartículas propicias del electrón para emisión o absorción de fotones poseerán una masa equivalente a 137 de la del fotón.

El 137 expresaría por tanto la cuantificación combinatoria en la expansión y el resultado fraccionario en la concentración, si, en según que condiciones externas, ambos procesos son reversibles.

 

 

Autor:

Fandila Soria

Granada, – Julio- 2011

Viewing all 959 articles
Browse latest View live