Quantcast
Channel: Física – Blog de Emilio Silvera V.
Viewing all 959 articles
Browse latest View live

¡La Física! Siempre presente

$
0
0

    Todo comienza siendo una cosa y con el tiempo, se transforma en otra diferente: Evolución por la energía. En el universo en que vivimos, nada desaparece; con el tiempo se cumplen los ciclos de las cosas y se convierten en otra distinta, es un proceso irreversible. Estudiar en profundidad el simple proceso que siguen los Quarks -siempre con los Gluones pegados al culo- para poder formar el núcleo atómico, y, más tarde, que se forme el átomo, es una maravilla de la Naturaleza a la que no damos la importancia que verdaderamente tiene. Sin átomos… ¡No estaríamos! Todo lo que arriba nos muestrasn esas bellas imágenes son átomos que se juntaron para conformarlas.

El gas y el polvo se transforma en una brillante estrella que vive diez mil millones de años y termina en Nebulosa planeta con una enana blanca en el centro. Entonces la estrella que tenía un diámetro de 1.500 km, se reduce hasta unas pocas decenas, 20 0 30 Km y, su densidad, es inmensa, emitiendo radiación ultravioleta durante mucjho tiempo hasta que se enfría y se convierte en un cadáver estelar.

En lo concerniente a cambios y transformaciones, el que más me ha llamado siempre la atención es el de las estrellas que se forman a partir de gas y polvo cósmico. Nubes enormes de gas y polvo se van juntando. Sus moléculas cada vez más apretadas se rozan, se ionizan y se calientan hasta que en el núcleo central de esa bola de gas caliente, la temperatura alcanza millones de grados. La enorme temperatura posible la fusión de los protones y, en ese instante, nace la estrella que brillará miles de millones de años y dará luz y calor. Su ciclo de vida estará supeditado a su masa. Si la estrella es supermasiva, varias masas solares, su vida será más corta, ya que consumirá el combustible nuclear de fusión (hidrógeno, helio, litio, oxígeno, etc) con más voracidad que una estrella mediana como nuestro Sol, de vida más duradera.

Imagen relacionada

Cuando agotan el combustible nuclear de fusión, se convierten en otros objetos diferentes. Mientras tanto, durante miles de años fusionan materiales sencillos en otros más complejos y, alcanzan la estabilidad debido a las dos fuerzas contrapuestas: La Radiación que tiene a expandir la masa estelar, y, la Gravedad que trata de comprimirla.

Una estrella, como todo en el universo, está sostenida por el equilibrio de dos fuerzas contrapuestas; en caso, la fuerza que tiende a expandir la estrella (la energía termonuclear de la fusión) y la fuerza que tiende a contraerla (la fuerza gravitatoria de su propia masa). Cuando finalmente el proceso de fusión se detiene por agotamiento del combustible de fusión, la estrella pierde la fuerza de expansión y queda a merced de la fuerza de gravedad; se hunde bajo el peso de su propia masa, se contrae más y más, y en el caso de estrellas súper masivas, se convierten en una singularidad, una masa que se ha comprimido a tal extremo que acaba poseyendo una fuerza de gravedad de una magnitud difícil de imaginar el común de los mortales.

             La singularidad con su inmensa fuerza gravitatoria atrae a la estrella vecina

La Tierra, un objeto minúsculo en comparación con esos objetos súper masivos estelares, genera una fuerza de gravedad que, para escapar de ella, una nave o cohete espacial tiene que salir disparado la superficie terrestre a una velocidad de 11’18 km/s; el sol exige 617’3 km/s.  Es lo que se conoce como velocidad de escape, que es la velocidad mínima requerida escapar de un campo gravitacional que, lógicamente, aumenta en función de la masa del objeto que la produce. El objeto que escapa puede ser una cosa cualquiera, desde una molécula de gas a una nave espacial. La velocidad de escape de un cuerpo está dada por , donde G es la constante gravitacional, M es la masa del cuerpo y R es la distancia del objeto que escapa del centro del cuerpo. Un objeto que se mueva con una velocidad menor que la de escape entra en una órbita elíptica; si se mueve a una velocidad exactamente igual a la de escape, sigue una órbita , y si el objeto supera la velocidad de escape, se mueve en una trayectoria hiperbólica y rompe la atadura en que la mantenía sujeto al planeta, la estrella o el objeto que emite la fuerza gravitatoria.

La mayor velocidad que es posible alcanzar en nuestro universo es la de la luz, c, velocidad que la luz alcanza en el vacío y que es de 299.793’458 km/s.

Sí, se pudo confirmar que los neutrinos respetan la supremacía del fotón, y la luz, sigue siendo la más rápida del Universo. Y sin embargo, no escapar de la atracción de un A.N. Los neutrinos, según todos los indicios, tiene una ínfima masa que les hace diferentes de los fotones que, en reposo, no tienen masa.

Pues bien, es tal la fuerza de gravedad de un agujero negro que ni la luz puede escapar de allí; la singularidad la absorbe, la luz desaparece en su interior, de ahí su , agujero negro, la estrella supermasiva se contrae, llega a un punto que desaparece de nuestra vista. De acuerdo con la relatividadgeneral, cabe la posibilidad de que una masa se comprima y reduzca sin límites su tamaño y se auto confine en un espacio infinitamente pequeño que encierre una densidad y una energía infinitos. Allí, el espacio y el tiempo dejan de existir.

Las singularidades ocurren en el Big Bang, en los agujeros negros y en el Big Crunch (que se podría considerar una reunión de todos los agujeros negros generados por el paso del tiempo en el universo y que nos llevará a un fin  que será el comienzo).

Las singularidades de los agujeros negros están rodeados por una circunferencia invisible a su alrededor que marca el límite de su influencia. El objeto que traspasa ese límite es atraído, irremisiblemente, la singularidad que lo engulle, sea una estrella, una nube de gas o cualquier otro objeto cósmico que ose traspasar la línea que se conoce como horizonte de sucesos del agujero negro.

La existencia de los agujeros negros fue deducida por Schwarzschild, en el año 1.916, a partir de las ecuaciones de Einstein de la relatividad general. Este astrónomo alemán predijo su existencia, pero el de agujero negro se debe a Wehleer.

                     Señalamos la singularidad del Big Bang pero… ¿fue así?

Así, el conocimiento de la singularidad está dado por las matemáticas de Einstein y más tarde por la observación de las señales que la presencia del agujero generan. Es una fuente emisora de rayos X que se producen al engullir materia que traspasa el horizonte de sucesos y es atrapada la singularidad, donde desaparece siempre sumándose a la masa del agujero cada vez mayor.

En el centro de nuestra galaxia, la Vía Láctea, ha sido detectado un enorme agujero negro, ya muy famoso, llamado Cygnus X-1. Después de todo, la velocidad de la luz, la máxima del universo, no vencer la fuerza de gravedad del agujero negro que la tiene confinada para siempre. En nuestra galaxia, con cien mil años luz de diámetro y unos doscientos mil millones de estrellas, ¿cuántos agujeros negros habrá?

Para mí, la cosa está clara: el tiempo es imparable, el reloj cósmico sigue y sigue andando sin que nada lo pare, miles o cientos de miles, millones y millones de estrellas súper masivas explotarán en brillantes supernovas para convertirse en temibles agujeros negros. Llegará un momento que el de agujeros negrosen las galaxias será de tal magnitud que comenzarán a fusionarse unos con otros que todo el universo se convierta en un inmenso agujero negro, una enorme singularidad, lo único que allí estará presente: la gravedad.

Esa fuerza de la naturaleza que está sola, no se puede juntar con las otras fuerzas que, como se ha dicho, tienen sus dominios en la mecánica cuántica, mientras que la gravitación residen en la inmensidad del cosmos; las unas ejercen su dominio en los confines microscópicos del átomo, mientras que la otra sólo aparece de manera significativa en presencia de grandes masas estelares. Allí, a su alrededor, se aposenta curvando el espacio y distorsionando el tiempo.

Esa reunión final de agujeros negros será la causa de que la Densidad Crítica sea superior a la ideal. La gravedad generada por el inmenso agujero negro que se irá formando en cada galaxia tendrá la consecuencia de parar la expansión actual del universo. Todas las galaxias que ahora están separándose las unas de las otras se irán frenando parar y, despacio al principio pero más rápido después, comenzarán a recorrer el camino hacia atrás.  Finalmente, toda la materia será encontrada en un punto común donde chocará violentamente formando una enorme bola de fuego, el Big Crunch.

de que eso llegue, tendremos que resolver el primer problema: la muerte del Sol.

Imagen relacionada

                      Aquí se refleja el ciclo que seguirá el Sol hasta convertirse en enana blanca

Los científicos se han preguntado a veces qué sucederá eventualmente a los átomos de nuestros cuerpos mucho tiempo después de que hayamos muerto. La posibilidad más probable es que nuestras moléculas vuelvan al Sol. En páginas anteriores he explicado el destino del Sol: se agotará su combustible de hidrógeno y fusionará helio; se hinchará en gigante roja y su órbita es probable que sobrepase la Tierra y la calcine; las moléculas que hoy constituyen nuestros cuerpos serán consumidas por la atmósfera solar.

Carl Sagan pinta el cuadro siguiente:

 

 

“Dentro de miles de millones de años a partir de , habrá un último día perfecto en la Tierra… Las capas de hielo Ártica y Antártica se fundirán, inundando las costas del mundo. Las altas temperaturas oceánicas liberarán más vapor de agua al aire, incrementando la nubosidad y escondiendo a la Tierra de la luz solar retrasando el final. Pero la evolución solar es inexorable.  Finalmente los océanos hervirán, la atmósfera se evaporará en el espacio y nuestro planeta será destruido por una catástrofe de proporciones que ni podemos imaginar.”

 

En una escala de tiempo de varios miles de millones de años, debemos enfrentarnos al hecho de que la Vía Láctea, en la que vivimos, morirá. Más exactamente, vivimos en el brazo espiral Orión de la Vía Láctea. miramos al cielo nocturno y nos sentimos reducidos, empequeñecidos por la inmensidad de las luces celestes que puntúan en el cielo, estamos mirando realmente una minúscula porción de las estrellas localizadas en el brazo de Orión. El resto de los 200 mil millones de estrellas de la Vía Láctea están tan lejanas que apenas pueden ser vistas como una cinta lechosa que cruza el cielo nocturno.

File:Andromeda Galaxy (with h-alpha).jpg
                                                                           La Galaxia Andrómeda

Aproximadamente a dos millones de años luz de la Vía Láctea está nuestra galaxia vecina más cercana, la gran galaxia Andrómeda, dos o tres veces mayor que nuestra galaxia. Las dos galaxias se están aproximando a unos 500  km/s, y chocarán en un periodo de entre 3 y 4 mil  millones de años. Como ha dicho el astrónomo Lars Hernquist de la California en Santa Cruz, esta colisión será “parecida a un asalto. Nuestra galaxia será literalmente consumida y destruida“. Aunque, lo cierto es que aunque en el choque algo se detruya, lo cierto es que todo quedará en forma de una galaxia mucho mayor.

Así las cosas, no parece que la Humanidad del futuro lo tenga nada fácil.  Primero tendrá que escapar, dentro de unos 4.000 millones de años del gigante rojo en que se convertirá el Sol que calcinará al planeta Tierra. Segundo, en unos 10.000 millones de años, la escapada tendrá que ser aún más lejana; la destrucción será de la propia galaxia que se fusionará con otra mayor sembrando el caos cósmico del que difícilmente se podría escapar quedándonos aquí. Por último, el final anunciado, aunque más largo tiempo, es el del propio universo que, por congelación o fuego, tiene los eones contados.

Por todas estas catástrofes anunciadas por la ciencia, científicos como Kip S. Thorne y Stephen Hawking sugieren a otros universos paralelos a través de agujeros de gusano en el hiperespacio. Sería la única puerta de salida para que la Humanidad no se destruyera.

Si lo alcanzaremos o no, es imposible de contestar, no tenemos los necesarios para ello. Incluso se podría decir que aparte de estas catástrofes futuras que sabemos a ciencia cierta que ocurrirán, seguramente existan otras que están ahí latentes en la incertidumbre de si finalmente ocurren o no, sólo pendiente de decidir lo uno o lo otro por parámetros ocultos que no sabemos ni que puedan existir.

En esta situación de impotencia, de incapacidad física e intelectual, nos tenemos que dar y admitir que, verdaderamente, comparados con el universo y las fuerzas que lo rigen, somos insignificantes, menos que una mota de polvo flotando en el haz de luz que entra, imparable, por la ventana entre-abierta de la habitación.

Sin embargo, tampoco es así. Que se sepa, no existe ningún otro grupo inteligente que esté capacitado tratar de todas estas cuestiones. Que la especie humana sea consciente de dónde vino y hacia dónde va, en verdad tiene bastante mérito, y más, si consideramos que nuestro origen está a partir de materia inerte evolucionada y compleja que, un día, hace probablemente miles de millones de años, se fraguó en estrellas muy lejanas.

A finales de los 60, un joven físico italiano, Gabriele Veneziano, buscaba un grupo de ecuaciones que explicara la fuerza nuclear fuerte. Este pegamento tan fuerte que mantenía unidos los protones y neutrones del núcleo de cada átomo. Parece ser que por casualidad se encontró con un libro antiguo de matemáticas y en su interior encontró una ecuación de más de 200 años de antigüedad creada por un matemático suizo llamado Leonhard Euler. Veneziano descubrió con asombro que las ecuaciones de Euler, consideradas desde siempre una simple curiosidad matemática, parecían describir la fuerza nuclear fuerte. Después de un año de , se podría decir, que elaboraron la Teoría de Cuerdas de manera fortuita. Tras circular entre compañeros, la ecuación de Euler acabó escrita frente a Leonard Susskind, quien se retiro a su ático para investigar. Creía que aquella antigua fórmula describía matemáticamente la fuerza nuclear fuerte, pero descubrió algo nuevo. Lo primero que descubrió fue que describía una especie de partícula con una estructura interna que vibraba y que mostraba un comportamiento que no se limitaba al de una partícula puntual. Dedujo que se trataba de una cuerda, un hilo elástico, como una goma cortada por la mitad. Esta cuerda se estiraba y contraía además de ondear y coincidía exactamente con la fórmula. Susskind redactó un artículo donde explicaba el descubrimiento de las cuerdas, pero nunca llegó a publicarse.

Muchos buscaron la 5ª dimensión… ¡sin fortuna! Aquí sólo hay tres y el espacio.

Claro que, ya he comentado otras veces que la teoría de cuerdas tiene un origen real en las ecuaciones de Einstein en las que se inspiro Kaluza para añadir la quinta dimensión y perfeccionó Klein (teoría Kaluza-Klein). La teoría de cuerdas surgió a partir de su descubrimiento accidental por Veneziano y , y a partir de ahí, la versión de más éxito es la creada por los físicos de Princeton David Gross, Emil Martinec, Jeffrey Harvey y Ryan Rohm; ellos son conocidos en ese mundillo de la física teórica como “el cuarteto de cuerdas”.  Ellos han propuesto la cuerda heterótica (híbrida) y están seguros de que la teoría de cuerdas resuelve el problema de “construir la propia materia a partir de la pura geometría: eso es lo que en cierto sentido hace la teoría de cuerdas, especialmente en su versión de cuerda heterótica, que es inherentemente una teoría de la gravedad en la que las partículas de materia, tanto las otras fuerzas de la naturaleza, emergen del mismo modo que la gravedad emerge de la geometría“.

La Gravedad cuántica está en algunas mentes , ¿Estará en la Naturaleza?

La característica más notable de la teoría de cuerdas ( ya he señalado), es que la teoría de la gravedad de Einstein está contenida automáticamente en ella. De hecho, el gravitón (el cuanto de gravedad) emerge como la vibración más pequeña de la cuerda cerrada, es más, si simplemente abandonamos la teoría de la gravedad de Einstein como una vibración de la cuerda, entonces la teoría se vuelve inconsistente e inútil. , de hecho, es la razón por la que Witten se sintió inicialmente atraído hacia la teoría de cuerdas.

Witten está plenamente convencido de que “todas las ideas realmente grandes en la física, están incluidas en la teoría de cuerdas“.

No entro aquí a describir el modelo de la teoría de cuerdas que está referido a la “cuerda heterótica”, ya que su complejidad y profundidad de detalles podría confundir al lector no iniciado. Sin embargo, parece justo que deje constancia de que consiste en una cuerda cerrada que tiene dos tipos de vibraciones, en el sentido de las agujas del reloj y en el sentido contrario, que son tratadas de diferente.

Las vibraciones en el sentido de las agujas de reloj viven en un espacio de diez dimensiones. Las vibraciones de sentido contrario viven en un espacio de veintiséis dimensiones, de las que dieciséis han sido compactificadas (recordemos que en la teoría pentadimensional Kaluza-Klein, la quinta dimensión se compactificaba curvándose en un circulo). La cuerda heterótica debe su al hecho de que las vibraciones en el sentido de las agujas de reloj y en el sentido contrario viven en dos dimensiones diferentes pero se combinan para producir una sola teoría de supercuerdas. Esta es la razón de que se denomine según la palabra griega heterosis, que significa “vigor híbrido”.

En conclusión, las simetrías que vemos a nuestro alrededor, el arcoíris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría deca-dimensional original.  Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia.

La teoría de cuerdas, a partir del descubrimiento Veneziano-Suzuki, estaba evolucionando atrás buscando las huellas de Faraday, Riemann, Maxwell y Einstein poder construir una teoría de campos de cuerdas.  De hecho, toda la física de partículas estaba basada en teoría de campos. La única teoría no basada en teoría de campos era la teoría de cuerdas.

De la teoría de cuerdas combinada con la supersimetría dio lugar a la teoría de supercuerdas. La cuerda es un objeto unidimensional que en nueva teoría se utiliza remplazando la idea de la partícula puntual de la teoría cuántica de campos. La cuerda se utiliza en la teoría de partículas elementales y en cosmología y se representa por una línea o lazo (una cuerda cerrada). Los estados de una partícula pueden ser producidos por ondas estacionarias a lo largo de esta cuerda.

En teoría se trata de unificar a todas las fuerzas fundamentales incorporando simetría y en la que los objetos básicos son objetos unidimensionales que tienen una escala de 10-35 metros y, como distancias muy cortas están asociadas a energías muy altas, este caso la escala de energía requerida es del orden de 1019 GeV, que está muy por encima de la que hoy en día pueda alcanzar cualquier acelerador de partículas.

Antes expliqué, las cuerdas asociadas con los bosones sólo son consistentes como teorías cuánticas en un espacio-tiempo de 26 dimensiones; aquella asociadas con los fermiones sólo lo son en un espacio tiempo de 10 dimensiones. Ya se ha explicado que las dimensiones extras, además de las normales que podemos constatar, tres de espacio y una de tiempo, como la teoría de Kaluza-Klein, están enrolladas en una distancia de Planck. De , inalcanzables.

Una de las características más atractivas de la teoría de supercuerdas es que dan lugar a partículas de espín 2, que son identificadas con los gravitones (las partículas que transportan la gravedad y que aún no se han podido localizar). Por tanto, una teoría de supercuerdas automáticamente contiene una teoría cuántica de la interacción gravitacional. Se piensa que las supercuerdas, al contrario que ocurre con otras teorías ( ellas el Modelo Estándar), están libres de infinitos que no pueden ser eliminados por renormalización, que plagan todos los intentos de construir una teoría cuántica de campos que incorpore la gravedad. Hay algunas evidencias de que la teoría de supercuerdas está libre de infinitos, pero se está a la búsqueda de la prueba definitiva.

Aunque no hay evidencia directa de las supercuerdas, algunas características de las supercuerdas son compatibles con los hechos experimentales observados en las partículas elementales, como la posibilidad de que las partículas no respeten paridad,  lo que en efecto ocurre en las interacciones débiles.

Extrañas configuraciones a las que, algunos físicos le quieren sacar lo que seguramente no se encuentra en ellas

Estoy convencido de que la teoría de supercuerdas será finalmente corroborada por los hechos y, ello, se necesitará algún tiempo; no se puede aún comprobar ciertos parámetros teóricos que esas complejas matemáticas a las que llaman topología nos dicen que son así.

Habrá que tener siempre a mano las ecuaciones de Einstein, las funciones modulares de Ramanujan y el Supertensor métrico de ese genio matemático que, al igual que Ramanujan, fue un visionario llamado Riemann.

Las historias de estos dos personajes, en cierto modo, son muy parecidas.  Tanto Riemann como Ramanujan murieron antes de cumplir los 40 años y, también en ambos casos, en difíciles. Estos personajes desarrollaron una actividad matemática sólo comparable al trabajo de toda la vida de muchos buenos matemáticos.

¿Cómo es posible que, para proteger la simetría conforme original por su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto número de identidades matemáticas, que precisamente son las identidades de la función modular de Ramanujan?

En este trabajo he expresado que las leyes de la naturaleza se simplifican cuando se expresan en dimensiones más altas. Sin embargo, a la luz de la teoría cuántica, debo corregir algo esta afirmación, y para decirlo correctamente debería decir: las leyes de la naturaleza se simplifican cuando se expresan coherentemente en dimensiones más altas. Al añadir la palabra coherentemente hemos señalado un punto crucial, la ligadura nos obliga a utilizar las funciones modulares de Ramanujan, que fijan en diez de dimensiones del espacio-tiempo. Esto a su vez, puede facilitarnos la clave decisiva para explicar el origen del universo.

emilio silvera


¿Cómo se desarrolló la Teoría de la Relatividad?

$
0
0

A ella se pudo llegar gracias al desarrollo de una serie de pensamientos que comienza por Faraday y Maxwell y asentados en el principio de que todo suceso físico debe atribuirse a acciones cercanas, o, dicho en términos más matemáticos, en ecuaciones a derivadas parciales. Maxwell consiguió expresarlo así para el caso de los fenómenos electromagnéticos en cuerpos inmóviles, desarrollando la idea del efecto magnético de la corriente de desplazamiento en el vacío y proponiendo la identidad entre los campos “electromotores” producidos por inducción y los campos electrostáticos.

Con esta reconocida imagen nos podemos hacer una idea del campo magnético

La ampliación de la electrodinámica al caso de los cuerpos en movimiento fue una tarea que quedó para los sucesores de Maxwell. H. Hertz intentó resolver el problema asignado al espacio vacío (éter) unas propiedades físicas totalmente similares a las de la materia ponderable; en particular, el éter, al igual que la materia debería poseer determinada velocidad en cada punto. La inducción electromagnética o magneto-eléctrica debía estar determinada por la velocidad de variación del flujo eléctrico, o magnético, como en los cuerpos en reposo, siempre que estas variaciones de velocidad se produjeran con respecto a elementos de la superficie que se movieran con el cuerpo. Sin embargo, la teoría de Hertz contradecía el experimento fundamental de Fizeau sobre la propagación de la luz a través de fluidos en movimiento. La ampliación más inmediata de la teoría de Maxwell a los cuerpos en movimiento era incompatible con el experimento.

Resultado de imagen de la mat3eria moviendose por el éter

                La física oculta del éter

En ese punto la salvación llegó de la mano de H. A. Lorentz. Siendo partidario incondicional de la teoría atomista de la materia, Lorentz no podía concebir esta última como un emplazamiento de campos electromagnéticos continuos. En consecuencia, concibió estos campos como condiciones o estados del éter, que se consideraba continuo. Lorentz se imaginaba el éter como algo que en esencia era independiente de la materia, tanto mecánica como físicamente. El éter no debía participar del movimiento de la materia y sólo debía mantener una interacción con ella en tanto que la materia se concebía como conductora de cargas eléctricas ligadas a ella.

Núcleo Atómico

Bien sabido es de todos que el átomo es un conglomerado de cargas eléctricas que, siendo positivas (protones) y negativas (electrones), al ser equivalentes se anulan las unas a las otras y se logra la armonía y estabilidad requerida para que, el universo pueda formar las moléculas y, éstas, se agrupan para conformar la materia.

Resultado de imagen de átomos, moléculas y materia

El gran avance metodológico de la teoría de Lorentz residía en el hecho de que, gracias a ella, toda la electrodinámica de los cuerpos en reposo y en movimiento se podía reducir a las ecuaciones del espacio vacío de Maxwell. Esta teoría no sólo era superior a la de Hertz desde un punto de vista metodológico, sino que, además, gracias a ella, H. A. Lorentz consiguió dar una explicación asombrosamente acertada de los hechos experimentales.

Sólo hay un punto de importancia fundamental en el que la teoría no resulta satisfactoria. Parece ser que daba preferencia a un sistema de coordenadas que se encontrara en un determinado estado de movimiento (un sistema de coordenadas que estaba en reposo con respecto al éter luminífero) frente a todos los demás sistemas de coordenadas que se encontraran en movimiento con relación a éste. En este punto parecía que la teoría estaba en contradicción frontal con la mecánica clásica, en la cual todos los sistemas inerciales (que tienen un movimiento uniforme unos con respecto a otros) son equivalentes como sistemas de coordenadas (principio especial de la relatividad). En este sentido, todos los experimentos realizados en el ámbito de la electrodinámica (en particular el experimento de Michelson) ponía de manifiesto la equivalencia de todos los sistemas inerciales, es decir, apoyaban el principio especial de la relatividad.

Resultado de imagen de El experimento de MIchelson-Morley

Experimento Michelson-Morley Reposo con el éter luminífero Interferómetro de Michelson y Morley en reposo respecto al éter luminífero

El movimiento del éter siempre fue un misterio que muchos quisieron resolver y, para ello, se hicieron experimentos de todo tipo. El de Michelson-Morley vino a dejar claro el tema y sirvió a Einstein para descartar el éter de su teoría. Sin embargo, pasado el tiempo, ahora mismo, se está hablando de nuevo de la existencia de una especie de “éter” que impregna todo el espacio.

Así las cosas, la teoría especial de la relatividad surgió precisamente gracias a esta dificultad inicial, que en sí misma resultaba insoportable. La teoría nació como respuesta a la pregunta: ¿Realmente existe una contradicción entre el principio especial de la relatividad y las ecuaciones de campo de Maxwell para el espacio vacío? Aparentemente la respuesta tenía que ser afirmativa. Las mencionadas ecuaciones son va´lidas para un sistema de coordenadas K y se introduce un nuevo sistema de coordenadas K1 mediante las ecuaciones de transformación, aparentemente fáciles de justificar (aquí las obviaré) y que nos llevan a la transformación de Galileo y, entonces, las ecuaciones de campo de Maxwell ya no se cumplen para esas nuevas coordenadas.

 

Las coordenadas han sido muy útiles y de fructífero rendimiento

Pero siguiendo con en tema tenemos que decir que, muchas veces, las apariencias engañan. Mediante un análisis más profundo del significado físico del espacio y del tiempo se puede ver que la transformación de Galileo se basa en suposiciones arbitrarias, especialmente en la hipótesis de que la afirmación de la simultaneidad tiene un sentido independiente del estado de movimiento que tenga el sistema de coordenadas utilizado. Queda claro que las ecuaciones de campo en el vacío satisfacían el principio especial de la relatividad cuando se utilizaban las ecuaciones de la Transformación de Lorentz.

Es estas ecuaciones, x, y, z son las coordenadas medidas con una vara de medir que se encuentra en reposo con respecto al sistema de coordenadas (y aunque no las he querido reflejar aquí para no enredar), y en ellas, t representa el tiempo medido con un reloj que se encuentra en reposo y está debidamente ajustado.

 

Lo grande y lo pequeño: Eso es la Teoría

Ahora bien, para que pueda cumplirse el principio especial de la relatividad, es necesario que todas las ecuaciones de la física conserven invariable su forma al pasar de un sistema inercial a otro, cuando utilizamos para este cambio la Transformación de Lorentz. En lenguaje matemático, diremos que todos los sistemas de ecuaciones que expresan leyes físicas deben ser covariantes con respecto a la Transformación de Lorentz. Por consiguiente, bajo un punto de vista metodológico, el principio especial de la relatividad es comparable al principio de Carnot, que afirma la imposibilidad del perpetuum mobile (movimiento perpetuo o continuo) de segunda especie, ya que, al igual que este último, establece una condición general que deben cumplir todas las leyes naturales.

Resultado de imagen de La transformación de Lorentz

De manera que la transformación de Einstein, que es la transformación de Lorentz queda como

Podría dejarlo aquí, pero vamos a complicarlo un poco. Introducimos una nueva coordenada espacial a partir de ct, el producto de una velocidad por el tiempo es el espacio y utilizamos la siguiente notación:

Con lo que la transformación de Lorentz queda de la forma más simétrica.

Resultado de imagen de La condición de covariancia de Lorentz vista por MInkouski

“El origen en el diagrama espacio-tiempo (ct, r) = (0, 0) representa el “ahora”. En la región de color amarillo que representa el “futuro” que le espera al observador predomina el componente temporal sobre el componente espacial, con lo cual s² siempre es mayor que cero (positivo) y por lo tanto es una región de intervalos tipo temporal. En la región de color ciano que representa el “pasado” que recorrió el observador también predomina el componente temporal sobre el componente espacial, con lo cual s² siempre es mayor que cero (positivo) y por lo tanto también es una región de intervalos tipo temporal (timelike). En las líneas que delimitan al cono de luz la componente temporal es igual a la componente espacial con lo cual s² = 0, y es aquí en donde tenemos a los intervalos tipo luminoso que involucran rayos de luz. Y fuera de todo esto tenemos a los intervalos en donde el componente espacial es mayor que el componente temporal con lo cual s² es menor que cero (negativo) siendo por lo tanto la región de intervalos tipo espacial.”

Para esta condición de covariancia encontró H. Minkowski una espresión especialmente bella y sugerente que revela un parentesco formal entre la geometría euclidea tridimensional y el continuo espacio-tiempo de la física.

Seguidamente tendría que exponer aquí un esquema con ecuaciones de la geometría euclidea tridimensional y otro (para comparar) de la teoría especial de la relatividad. Sin embargo, no queriendo complejidades que desvíen al lector de la historia esencial, diré que de ellas se deduce que el tiempo es equivalente a las coordenadas espaciales (dejando a un lado sus relaciones con la realidad), no por lo que respecta a su significado físico, sino por el papel que desempeña en las ecuaciones de la física. desde este punto de vista, la física es en cierto modo una geometría euclidea de cuatro dimensiones o, mejor dicho, un determinado tipo de estática en un continuo euclideo cuatridimensional.

http://smolinacalvo.files.wordpress.com/2011/04/250px-world_line-es-svg1.png

Cono de luz en un espacio-tiempo de Minkowski

El desarrollo de la teoría especial de la relatividad se desarrolló en dos pasos principales: la adaptación de la métrica espacio-temporal a la electrodinámica de Maxwell y una adaptación del resto de la físca a esa métrica espacio-temporal modificada. El primero de estos procesos de adaptación profujo la relativización de la simultaneidad, la influencia del mocimiento en varas de medir y relojes, una modificación de la cinemática y, en particular, un nuevo teorema de adiciín de las velocidades.

El segundo proceso de adaptación dio lugar a una modificación de las leyes newtonianas del movimiento para grandes velocidades, así como una aclaración sobre la naturaleza de la masa inercial cuya importancia es fundamental. Se descubrió que la inercia no es una propiedad fundamental de la materia, ni una magnitud irreducible, sino una propiedad de la energía. Si a un cuerpo se le suministra una energía E, su masa inercial aumenta en una cantidad E/c2, donde c es la velocidad de la luz en el vacío; a la inversa, un cuerpo de masa m debe ser considerado como una reserva de energía de magnitud mc2.

Resultado de imagen de La Gravedad de Einstein en el Espacio

Cuando se intentó establecer el vínculo entre las teorías de la gravitación y la teoría especial de la relatividad, no tardó en verse que esto no era posible de una manera natural. A propósito de ello a Einstein de le ocurrió que la fuerza de la gravedad posee una propiedad fundamental que la distingue de la fuerza electromagnética: todos los cuerpos caen en un campo gravitatorio con la misma aceleración, o -formulando lo mismo de otra manera- la masa inercial y gravitatoria de un cuerpo son numéricamente iguales.

 

                                  La vinculación gravitatoria de los cuerpos es bien patente y, en la Tierra y la Luna, tenemos la mejor prueba de ello.

Esta igualdad numérica de la masa inercial y gravitatoria nos hace sospechar que ambas sean esencialmente idénticas; pero ¿pueden las masas inerciales y gravitatorias ser realmente iguales? Esta pregunta nos lleva directamente a la teoría general de la relatividad. ¿No sería posible considerar que la Tierra no realiza un movimiento de rotación, si concibo la fuerza centrífuga, que actúa sobre los cuerpos que están en reposo con respecto a la Tierra, como un campo gravitatorio “real” (o como una parte del campo gravitatorio)? Si esta idea es viable, entonces está realmente demostrado que las masas inercial y gravitatoria son idénticas, ya que el mismo efecto que se considera como inercia desde el punto de vista de un sistema que “no toma parte en la rotación”, puede interpretarse como gravedad si se observa desde un sistema que comparte la rotación. Según Newton, esta interpretación es imposible, porque no se puede considerar según la ley de Newton que el campo centrífugo esté generado por masas, y porque un campo “real” del tipo de “campo de Coriolis” no está contemplado en la teoría newtoniana.

Pero, ¿sería posible sustituir la ley de campos de Newton por alguna otra compatible con el campo que puede existir con respecto a un sistema de coordenadas “en rotación”? El convencimiento de que las masas inercial y gravitatoria son idénticas inspiró a Einstein una confianza incondicional en la validez de esta interpretación y, una idea le llenó de esperanza: conocemos los campos “aparentes” que son válidos con respecto a cualquier sistema de coordenadas que se mueve arbitrariamente con relación a un sistema inercial; utilizando los campos (especiales) se podrá estudiar la ley que cunplen en general los campos gravitatorios. para ello habrá que tener en cuanta que, como generadoras de estos campos, serán determinantes las masas ponderables, o bien lo será la densidad de energía (una magnitud que posee el carácter transformador de un tensor), según el resultado fundamental de la teoría especial de la relatividad.

Resultado de imagen de Tensor métrico de Riemann

Tensor métrico de Riemann

A partir de aquí, tendríamos que entrar en el Tensor métrico de Riemann pero, ¡el tiempo! como pasa siempre, me lo impide así que, dejaremos para mejor ocasión el continuar con el tema que, como todo lo que concierne a Einstein, termina siendo fascinante porque, dentro de su complejidad, subyace una sencillez de ideas que, finalmente, terminan por conquistarnos.

emilio silvera

Einstein le llamó fotón: ¡El cuanto de Luz!

$
0
0
                       ¡Esas partículas! Algunas son más elementales que otras

Quarksfotónneutrinoelectrónprotónneutrónmuóntaukaónsigmaomega, W y Z, gluónfotóngravitón…, son muchas más pero estas se consideran las más importantes al formar la materia e intermediar en las interacciones con las cuatro fuerzas fundamentales del universo. Sus  nombres son muy familiares y, cada una de ellas nos trae una imagen que está asociada a aquello de lo que creemos que forma parte.

El fotón es el cuanto de luz, radiación electromagnética de una longitud de onda comprendida entre 380 y 780 mm, que produce percepción visual. Se define como el producto de visibilidad por el poder radiante, siendo éste último la intensidad de propagación de la energía luminosa.

Un fotón gamma de más alta energía tendría una velocidad menor que otro de baja energía según algunas ideas. Foto: NASA. Según los datos de Fermi, los fotones gamma de alta energía tienen la misma velocidad aunque sus energías sean diferentes. Esto apoya obviamente la Relatividad Especial y contradice algunos resultados teóricos relacionados con teorías cuánticas de gravedad que predecían lo contrario.

El fotón, como partícula, con masa nula en reposo que recorre el espacio vacío a 299.792.458 metros por segundo, puede ser considerado como una unidad de energía igual a hf, donde h es la constante de Plancky f es la frecuencia de la radiación en hertzios. Son necesarios para explicar el fenómeno fotoeléctrico y otros fenómenos que requieren que la luz tenga carácter de partícula.

De la luz, nos podríamos estar hablando horas y horas, de sus propiedades en fotónica, fotoquímica, fotosfera y otros muchos ámbitos del saber humano con la luz relacionados, como por ejemplo, la claridad luminosa que irradian los cuerpos en combustión, ignición o incandescencia.

En estos tiempos se ha logrado el teletransporte de un haz de fotones a larga distancia que, entre otras cosas, facilitará tanto transmitir información como protegerla de un eventual robo de datos. Un grupo de físicos chinos hizo realidad la teletransportación cuántica de fotones a una distancia de 97 kilómetros. Su haz recreado conservaba la capacidad de llevar información. Lejos queda ya aquel tiempo en el que, aquel genio…,  llamado

 

Newton nos descubrió que la luz del Sol o luz blanca, era el producto de la mezcla de todos los componentes coloreados, hizo pasar un rayo de luz por un prisma y, la habitación donde hacía el experimento, sus paredes, se llenaron de luciérnagas luminosas de muchos colores, el arco iris estaba allí, del rojo al violeta, descompuestos en mariposas luminosas.

Aunque el tema de la luz me fascina, no quiero repetirme, y,  en uno de mis últimos trabajos, traté ampliamente el tema. El estado natural (último) de la materia, no será sólido, líquido, gaseoso, plasma o materia oscura, el estado final de la materia, cuando pase por todas las fases y trascienda a un estado superior de conexión total con el Universo, será la LUZ. Ahí, dentro de los rayos luminosos, estarán gravados todos los recuerdos, toda la conciencia de la Humanidad que, para entonces, será otra cosa y, sonreirá al ver que un día muy lejano, discutían de Tiempo, de Materia, de… Energías… Cuando no sabían que todo, es la misma cosa en diferentes estadios de su trayectoria universal.

Un equipo internacional de científicos del experimento MINOS en el laboratorio del Acelerador Nacional Fermi (Fermilab) ha anunciado la medición más precisa del mundo hasta la fecha de los parámetros que rigen las oscilaciones antineutrino (de atrás y hacia adelante), es decir las transformaciones de antineutrinos de un tipo a otro. Este resultado proporciona información crucial sobre la diferencia de masa entre diferentes tipos de antineutrinos. La medición mostró una diferencia inesperada en los valores para neutrinos y antineutrinos. En este parámetro de diferencia de masa, el valor de los neutrinos es aproximadamente un 40 por ciento menor que el de los antineutrinos.

Si hablamos de neutrinos, estamos hablando de Leptones y, a pesar de lo que digan esas mediciones… el neutrino y su oponente antineutrino, deben tener exactamente la misma masa. De no ser así, se rompería el equilibrio que debe existir y, de hecho existe.

Después de tres meses de experimentos en un laboratorio de el Imperial College de Londres, los científicos pueden confirmar –con más confianza que nunca– que el electrón es muy, muy redondo.En las mediciones más exquisitas hasta la fecha, los investigadores declararon que la partícula es una esfera perfecta dentro de una mil millonésima de una mil millonésima de una mil millonésima de centímetro. Si los electrones se aumentaran a escala hasta tener el tamaño del sistema solar, cualquier desviación de su redondez sería menor que el ancho de un cabello humano, señaló el equipo.

El electrón es la partícula principal de la familia leptónica y está presente en todos los átomos en agrupamientos llamados capas electrónicas alrededor del núcleo. Tiene una masa en reposo (me) de numeración 9,1093897(54) × 10-31 Kg y una carga negativa de 1,602 17733(49) × 10-19 culombios. La antipartícula es el positrón que, en realidad, es copia exacta de todos sus parámetros, a excepción de la carga que es positiva.

File:Generaciones delamateria.png

Las dos familias: Quarks y Leptones, conforman la materia y, la familia de Bosones intermedian en las cuatro fuerzas fundamentales.

Si el electrón se considerara como una carga puntual, su autoenergía es infinita y surgen dificultades de la ecuación de Lorentz-Dirac. Es posible dar al electrón un tamaño no nulo con un radio r0 llamado el radio clásico del electrón, dado por r0 = e2/(mc2) = 2’82×10-13 cm, en donde e y m son la carga y la masa del electrón y c la velocidad de la luz.

El electrón es muy importante en nuestras vidas, es un componente insustituible de la materia y los átomos que son posibles gracias a sus capas electrónicas alrededor de los núcleos positivos que se ven, de esta forma equilibrados por la energía igual, negativa, de los electrones.

Resultado de imagen de Utilizando grandes aceleradores de partículas hemos conseguido conocer la materia

“Un nuevo reto estaba sobre la mesa. ¿Cuándo dejan de danzar los quarks dentro de los bariones? Esto es lo que trataron de explicar durante el verano de 2017 en el supercolisionador. Una investigación que aún está llevándose a cabo describe el comportamiento de los quarks pesados de un barión como planetas orbitando alrededor de una gran estrella.”

                  Utilizando grandes aceleradores de partículas hemos conseguido conocer la materia

Resultado de imagen de La familia de los hadrones

Resultado de imagen de La familia de los hadrones

Los Quarks confinados dentro de los hadrones (nucleones) en el núcleo del átomo y sujetados por los Gluones que no los dejan separarse mediante la fuerza nuclear fuerte.

Los protones, como los neutrones, son de la familia de los Hadrones. El protón es una partícula (no elemental) que tiene carga positiva igual en magnitud a la del electrón y posee una masa de 1,672614 x 10-27 kg, que es 1836,12 veces la del electrón. El protón aparece en los núcleos atómicos, por eso, junto al neutrón, también son conocidos como nucleones.

La familia de los Hadrones es la clase de partícula subatómica que interaccionan fuertemente, e incluye protonesneutrones y piones. Los hadrones son o bien bariones, que se desintegran en protones y que se cree están formados por tres quarks, o mesones, que se desintegran en leptones o fotones o en pares de protones y que se cree que están formado por un quark y un antiquark.

La materia bariónica, es la que forman planetas, estrellas y Galaxias, y la podemos ver por todas partes. Nosotros mismos estamos hechos de Bariones. La otra materia, esa que no podemos ver y que, nuestra ignorancia nos ha llevado a llamar oscura, esa, de momento no sabemos ni lo que es, o, si realmente existe y, los fenómenos observados que ella se adjudican, tienen su fuente en otra parte.

Resultado de imagen de La familia de los hadronesResultado de imagen de La familia de los Quarks

        Todo lo que vemos en el universo está hecho de materia bariónica, es decir: Quarks y Leptones

Resultado de imagen de La familia de los Bosones

En el Modelo Estándar de la física de partículas, los Bosones aparecen en la última fila vertical, y, representan los mensajeros de las cuatro fuerzas fundamentales. El gravitón sigue sin dejarse “ver”.

Las partículas conocidas como bosonesfotóngluóngravitón, partícula W+ Wy Zº son las que median en el transporte de las fuerzas fundamentales de la naturaleza. Electromagnetismo, fuerza fuerte, la Gravedad, y la fuerza débil. El Fotón transporta el electromagnetismo, la luz y todas las formas de radiación electromagnéticas. El Gluón (el de la libertad asintótica de David Politzer, Frank Wilczek y David Gross), transporta la fuerza nuclear fuerte que se desarrolla en el núcleo del átomo. El Gravitón (ese que aún no hemos localizado), es el mensajero de la Gravitación Universal, haciendo posible que nuestros pies estén bien asentados sobre la superficie del planeta y que el Sistema solar sea estable. Y, por último, las partículas W y Z, responsables de la radiación natural y espontánea de algunos elementos como el Uranio.

Este pequeño repaso a modo de recordatorio, es algo inevitable, si hablamos de materia, las partículas se nos cuelan y, como si tuvieran vida propia (que la tienen), nos obliga a hablar de ellas, lo que, por otra parte no esta mal.

File:Combustion methane.es.png

Cuando se enunció la ley de la conservación de la materia no se conocía el átomo, pero con los conocimientos actuales es obvio: puesto que en la reacción química no aparecen ni destruyen átomos, sino que sólo se forman o rompen enlaces (hay un reordenamiento de átomos), la masa no puede variar.

Como la única verdad del Universo es que todo es lo mismo, la materia ni se fabrica ni se destruye, sino que, en cada momento, cada cosa ocupa su lugar exacto por la evolución, la entropía y el paso del tiempo, resulta que, al final, se hable de lo que se hable, aunque sea de la conciencia y del ser, venimos a parar al mismo sitio: El Universo, la materia, la luz, el tiempo… ¡Y nuestras mentes que son el producto de más alto nivel en la evolución de la materia!

Parece mentira como a veces, cuando estoy inmerso en mis más profundos pensamientos, y creo tener una conexión directa con algo que, estando dentro de mí,  intuyo superior, lo veo todo más claro y, en ese momento especial,  todo es más fácil.El Universo está ante mí como un todo de diáfana claridad. Sin embargo, son efímeros momentos que se esfuman y me traen a la realidad de esa complejidad insondable que nos hace comprender, cuan ignorantes somos.

Claro que, si seguimos evolucionando y la Naturaleza nos respeta… ¡Hasta donde podremos llegar! Muchas veces hemos dicho aquí que somos conscientes y aplicamos nuestra razón natural para clasificar los conocimientos adquiridos mediante la experiencia y el estudio para aplicarlos a la realidad del mundo que nos rodea.

También hemos dicho que el mundo que nos rodea es el que nos facilita nuestra parte sensorial, la mente, y que este mundo, siendo el mismo, puede ser muy diferente para otros seres, cuya conformación sensorial sea diferente a la nuestra. Parece que, realmente es así, lo que es para nosotros, para otros no lo será y, tenemos que tener en cuenta esta importante variable a la hora de plantearnos ciertos problemas que, de seguro, tendremos que afrontar en el futuro. Hay diferentes maneras de resolver el mismo problema, solo tenemos que tratar de entenderlos.

                               No todos ven “el mundo” de la misma manera

La Naturaleza de la mente es el misterio más profundo de la humanidad., se trata, además de un enigma de proporciones gigantescas, que se remonta a milenios atrás, y que se extiende desde el centro del cerebro hasta los confines del Universo. Es un secreto que provocó vértigo y depresión en alguna de las mentes más preclaras de algunos de los filósofos y pensadores más grandes que en el mundo han sido. Sin embargo, este amplio vacío de ignorancia está, ahora, atravesado, por varios rayos de conocimiento que nos ayudará a comprender cómo hemos podido llegar hasta aquí y qué conexión existe realmente entre nuestras mentes y el universo inmenso.

Haga clic para mostrar el resultado de "Cerebro" número 3Resultado de imagen de El cerebro humano... ¡Esa maravilla!

Hablar de la “Mente” y del “Cerebro” es querer ir mucho más allá de nuestros conocimientos. Una Galaxia como la Vía Láctea tiene más de 100 000 millones de estrellas, y, un cerebro humano, tiene casi las mismas neuronas y, además, conexiones sin fin que generan ideas y pensamientos, algo que la galaxia no puede hacer. Así que, nos encontramos ante un complejo dilema: La verdad no puede ser experimentada de la misma forma que podemos experimentar con los objetos que están fuera, separados de nosotros y que podemos ver y observar, estudiar sus mecanismos y funciones pero, eso que llamamos “La Mente” es algo más, mucho más que una simple galaxia que “sólo” tiene Estrellas, Nebulosas y Mundos, una Mente, amigos míos, tiene dentro mucho más. Tanto es lo que tiene que no hemos podido llegar a comprender, siendo algo tan cercano a nosotros y que -creemos- está dentro de nosotros mismos, y, sin embargo, no sabemos lo que es, como funciona, y, hasta dónde puede llegar.

Imagen relacionadaImagen relacionadaImagen relacionada

          Sí, nuestro cerebro, y nosotros mismos, podemos ser la obra más compleja del Universo

Es curioso constatar como el enorme flujo de información que llega a mi mente a velocidad de vértigo, a veces (como ahora me ha pasado), estoy hablando de una cosa y me transporto  a otra distinta, sin querer, sin que me de cuenta al principio elijo caminos diferentes a los que debía llevar para hacer coherente la conversación iniciada en un campo de objetos materiales. Estaba comentando sobre el cometido de las partículas.

Crookes tube-in use-lateral view-standing cross prPNr°11.jpg

La naturaleza de partícula del electrón se demostró por primera vez con un tubo de Crookes. En esta ilustración, un haz de electrones proyecta el perfil en forma de cruz del objetivo contra la cara del tubo.

  • En 1.897, J.Thomson, descubrió el electrón
  • En 1.911, Rutherford, descubrió el núcleo atómico y el protón
  • En 1.932, Chadwick, descubrió el neutrón.

Así quedó sentado que, el modelo atómico estaba completo basado en un núcleo consistente en protonesneutrones rodeados en su órbita, de un número suficiente de electrones que equilibraba la carga nuclear y lo hacía estable. Pero este modelo no era suficiente para explicar la gran estabilidad del núcleo, que claramente no podía mantenerse unido por una interacción electromagnética, pues el neutrón no tiene carga eléctrica.

Resultado de imagen de En 1.935, Yukawa sugirió que la fuerza de intercambio que lo mantenía junto estaba mediada por partículas de vida corta, llamadas mesones, que saltaban de un protón a un neutrón y hacía atrás de nuevo

Para los no vrsados en “el mundo” de las partículas, no resulta fácil entender las diferentes familias que las forman y el cometido que cada una de ellas …

En 1.935, Yukawa sugirió que la fuerza de intercambio que lo mantenía junto estaba mediada por partículas de vida corta, llamadas mesones, que saltaban de un protón a un neutrón y hacía atrás de nuevo. Este concepto dio lugar al descubrimiento de las interacciones fuertes y de las interacciones débiles, dando un total de cuatro interacciones fundamentales.

También dio lugar al descubrimiento de unas 200 partículas fundamentales de vida corta. Como antes comentaba, en la clasificación actual existen dos clases principales de partículas: Leptones, que interaccionan con el electromagnetismo y con la fuerza nuclear débil y que no tienen estructura interna aparente, y los Hadrones (nucleonespiones, etc.), que interaccionan con la fuerza nuclear fuerte y tienen estructura interna.

Resultado de imagen de Gell-mann y los Quarks

                   Murray Gell-Mann

Fue el modelo de Murray Gell-Mann, introducido en1.964, el que fijó la estructura interna de los hadrones que, estarían formado por minúsculas partículas elementales a las que llamó quarks. Este modelo, divide a los hadrones en bariones (que se desintegran en protones) y mesones (que se desintegran en leptones y fotones). lLos bariones están formados por tres quarks y los mesones por dos quarks (quark y antiquark) En la teoría quark, por tanto, las únicas partículas realmente elementales son los leptones y los quarks.

La familia quarks esta compuesta por seis miembros que se denominan up (u), down (d), charmed (c), strange (s), top (t) y, bottom (b). El protón siendo un barión está constituido por tres quarks, uud (dos quarks up y un quark dowm), y, el neutrón por udd (un quark up y dos dowm).

Fuerza fuerte

Fuerza nuclear fuerte

En un nuevo trabajo, los físicos de altas energía han observado dos estados cuánticos muy buscados en una familia de partículas subatómicas: los bottomonium. El resultado ayudará a los investigadores a comprender mejor una de las cuatro fuerzas fundamentales del universo, la fuerza nuclear fuerte, que ayuda a gobernar lasinteracciones de la

materia

Resultado de imagen de los Quarks confinados en el núcleo atómicoResultado de imagen de los Quarks confinados en el núcleo atómico

“La historia de los quarks nos muestra cómo, a veces, una interpretación más coherente de los datos empíricos obtenidos precisa de hipótesis que se podrían considerar osadas y que, por lo general, son inicialmente ignoradas por la comunidad científica para luego terminar siendo mayoritariamente aceptadas.”

Para que los quarks estén confinados en el núcleo dentro de los nucleones, es necesario que actúe una fuerza, la nuclear fuerte que, entre los quarks se puede entender por el intercambio de ocho partículas sin carga y sin masa en reposo, llamadas Gluones (porque mantienen como pegados a los quarks juntos). Aunque los Gluones, como los fotones que realizan una función similar entre los leptones, no tienen carga eléctrica, si tienen una carga de color. Cada Gluón transporta un color y un anticolor. En una interacción un quark puede cambiar su color, pero todos los cambios de color deben estar acompañados por la emisión de un Gluón que, de inmediato, es absorbido por otro quark que automáticamente cambia de color para compensar el cambio original.

El universo de los quarks puede resultar muy complejo para los no especialistas y como no quiero resultar pesado, lo dejaré aquí y paso de explicar el mecanismo y el significado de los sabores y colores de los quarks que, por otra parte, es tema para los expertos.

                       Dentro del núcleo las fuerzas son… inauditas

Esta teoría de los quarks completamente elaborada está ahora bien establecida por evidencias experimentales, pero como ni los quarks ni los Gluones han sido identificados nunca en experimentos, la teoría no se puede decir que haya sido directamente verificada. Los quarks individuales pueden tener la curiosa propiedad de ser mucho más masivos que los Hadrones que usualmente forman (debido a la enorme energía potencial que tendrían cuando se separan), y algunos teóricos creen que es, en consecuencia, imposible desde un punto de vista fundamental que existan aislados. Sin embargo, algunos experimentales han anunciado resultados consistentes con la presencia de cargas fraccionarias, que tendrían los quarks no ligados y en estado libre.

Resultado de imagen de LHC

En ocasiones anteriores, ya hablamos del LHC, ese acelerador de partículas que tantas esperanzas ha suscitado. Puede que él tenga la respuesta sobre los Gluones y los quarks, además de otras muchas como la partícula de Higgs que llegó a encontrar después de muchos episodios fallidos.

Mirad como es nuestra naturaleza. Resulta que aún no hemos podido identificar a los quarks, y, sin embargo, hemos continuado el camino con teorías más avanzadas que van mucho más allá de los quarks, ahora hemos puesto los ojos y la mente, sobre diminutas cuerdas vibrantes, filamentos cien mil veces más pequeños que los quarks y que serían los componentes más elementales de la materia.

Resultado de imagen de La materia que va creando espacios al expandirseResultado de imagen de La materia que va creando espacios al expandirse

                           La materia que va creando espacios al expandirse

Y, a todo esto, ¿qué será de la teoría final, esa que llaman del Todo y que se conoce como teoría de cuerdas? Si finalmente resulta que dichos diminutos objetos están ahí, podría resultar que tampoco sean los componentes finales de la materia, pero el avance será muy significativo. La teoría de supercuerdas, ahora refundida por E. Witten, en la teoría M, si realmente se verifica, nos dará muchas respuestas.

emilio silvera

La perfección imperfecta

$
0
0

Me refiero al Modelo estándar y, algunos han llegado a creer que sólo faltan algunos detalles técnicos y, con ellos, la física teórica está acabada. Tenemos un modelo que engloba todo lo que deseamos saber acerca de nuestro mundo físico. ¿Qué más podemos desear?

Resultado de imagen de El MOdelo Estándar de la física de partículas

Bueno, lo que hasta el momento hemos logrado no está mal del todo pero, no llega, ni con mucho, a la perfección que la Naturaleza refleja y que, nosotros perseguimos sin llegar a poder agarrar sus múltiples entrecijos y parámetros que conforman ese todo en el que, sin ninguna clase de excusas, todo debe encajar y, de momento, no es así.

Es cierto que, el Modelo estándar es casi (en algunos momentos), pero no permanentemente, perfecto. En primer lugar, podríamos empezar a quejarnos de las casi veinte constantes que no se pueden calcular. Pero si esta fuese la única queja, habría poco que hacer. Desde luego, se han sugerido numerosas ideas para explicar el origen de estos números y se han propuesto varias teorías para “predecir” sus valores. El problema con todas estas teorías es que los argumentos que dan nunca llegan a ser convincentes.

¿Por qué se iba a preocupar la Naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el proncipio de la relatividad, pero nos resistimos a abandonar todos los demás principios que ya conocemos; ¡esos, después de todo, han sido enormemente útiles en el descubrimiento del Modelo estándar! una herramienta que posibilitado a todos los físicos del mundo, construir sus trabajos en ese fascinante mundo de la mecánica cuántica, donde partículas infinitesimales interactúan con las fuerzas y podemos ver, como se comporta la materia en determinadas circunstancias. El mejor lugar para buscar nuevos principios es precisamente donde se encuentran los puntos débiles de la presente teoría.

La regla universal en la física de partículas es que cuando las partículas chocan con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez menores, más pequeñas en el espacio y en el tiempo. Supongamos por un momento que tenemos a nuestra disposición un Acelerador de Partículas 10.000 veces más potente que el LHC, donde las partículas pueden adquirir esas tantas veces más energías de las alcanzadas actualmente. Las colisiones que tendrían lugar nos dirían algo acerca de los detalles estructurales de esas partículas que ahora no conocemos, que serían mucho más pequeños que los que ahora podemos contemplar. En este punto se me ocurre la pregunta: ¿Seguiría siendo correcto el Modelo estándar? 0, por el contrario, a medida que nos alejemos en las profundidades de lo muy pequeño, también sus normas podrían variar al mismo tiempo que varían las dimensiones de los productos hallados. Recordad que, el mundo no funciona de la misma manera ante lo grande que ante lo infinitesimal.

lhc

 El LHC cuando se puso en marcha, tardó menos de un mes en localizar el ‘bosón W’, que durante mucho tiempo estaba siendo perseguido por todos los físicos del mundo. Hacía falta un inmenso conglomerado de energía para llegar hasta él.

l Gran Colisionador de Hadrones (LHC, por sus siglas en inglés), de la Organización Europea de Física Nuclear (CERN, por sus siglas en inglés), ha obtenido en apenas un mes de funcionamiento los primeros resultados “espectaculares” en su investigación, el ‘bosón W’, que hasta ahora los científicos tardaban meses en conseguir.

Resultado de imagen de Colisiones a 70.000 TeV que abren agujeros de gusano

     De momento sólo se han utilizado 14 TeV y proximamente se llegará a los 100

¿Podéis imaginar conseguir colisiones a 70.000 TeV? ¿Que podrías ver? Y, entonces, seguramente, las protestas de algunas de que “ese monstruo” podría abrir un agujero de gunsano en el esapcio tiempo…¡tendría algún fundamento! No sabemos lo que puede pasar si andamos con fuerzas que no podemos dominar.

Hoy, el Modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aín más pequeñas. Pero tenemos algunas razones para sospechar que tales predicciones resultan estar muy alejadas de la realidad, o, incluso, ser completamente falsas.

Encendamos nuestro supermicroscopio imaginario y enfoquemosló directamente en el centro de un protón o de cualquier otra partícula. Veremos hordas de partículas fundamentales desnudas pululando. Vistas a través del supermicroscopio, el modelo estándar que contiene veinte constantes naturales, describen las fuerzas que rigen la forma en que se mueven. Sin embargo, ahora esas fuerzas no sólo son bastante fuertes sino que también se cancelan entre ellas de una forma muy especial; están ajustadaspara conspirar de tal manera que las partículas se comportan como partículas ordinarias cuando se vuelven a colocar el microscopio en la escala de ampliación ordinaria. Si en nuestras ecuaciones matemáticas cualquiera de estas constantes fueran reemplazadas por un número ligeramente diferente, la mayoría de las partículas obtendrían inmediatamente masas comparables a las gigantescas energías que son relevantes en el dominio de las muy altas energías. El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural.

¿Implica el ajuste fino un diseño con propósito? Hay tantos parámetros que deben tener un ajuste fino y el grado de ajuste fino es tan alto, que no parece posible ninguna otra conclusión.

Bueno, quizá en la imagen y el comentario que lleva abajo, me he podido pasar un poco. Lo que antes decía: “El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural”, es lo que se llama el “problema del ajuste fino”. Vistas a través del microscopio, las constantes de la Naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático, no hay nada que objetar, pero la credibilidad del Modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas o, lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas.

Resultado de imagen de el ajuste fino del universo

¿Y por qué debería ser el modelo válido hasta ahí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables, e ellas podrían modificar completamente el mundo que Gulliver planeaba visitar. Si deseamos evitar la necesidad de un delicado ajuste fino de las constantes de la Naturaleza, creamos un nuevo problema:

Resultado de imagen de ¿Cómo podemos modificar el modelo estándar de tal manera que el ajuste-fino no sea necesario?

… fuerzas y podemos ver, como se comporta la materia en determinadas circunstancias. El mejor lugar para buscar nuevos principios es precisamente donde se …

¿Cómo podemos modificar el modelo estándar de tal manera que el ajuste-fino no sea necesario? Está claro que las moficiaciones son necesarias , lo que implica que muy probablemente hay un límite más allá del cual ewl modelo deja de ser válido. El Modelo estándar no será más que una aproximación matemática que hemos sido capaces de crear, tal que todos los fenómenos observados hasta el presente están de acuerdo con él, pero cada vez que ponemos en marcha un aparato más poderoso, debemos esperar que sean necesarias nuevas modificaciones para ir ajustando el modelo, a la realidad que descubrimos.

Resultado de imagen de http://www.zonaoposiciones.com/pensador.gifResultado de imagen de http://www.zonaoposiciones.com/pensador.gif

¿Cómo hemos podido pensar de otra manera? ¿Cómo hemos tenido la “arrogancia” de pensar que podemos tener la teoría “definitiva”? Mirando las cosas de esta manera, nuestro problema ahora puede muy bien ser el opuesto al que plantea la pregunta de dónde acaba el modelo estándar: ¿cómo puede ser que el modelo estándar funcione tan extraordinariamente bien? y ¿por qué aún no hemos sido capaces de percibir nada parecido a otra generación de partículas y fuerzas que no encajen en el modelo estándar?

Resultado de imagen de Foto de El hallazgo de una nueva partícula abre un nueva era para la física

                                                         Nos quedan muchas cosas por descubrir

Asistentes escuchan la presentación de los resultados del experimento ATLAS, durante el seminario del Centro Europeo de Física de Partículas (CERN) para presentar los resultados de los dos experimentos paralelos que buscan la prueba de la existencia de la “partícula de Higgs”, uno de los 20 parámetros (metidos con calzador en el Modelo) que faltan por hallar para completarlo.

Resultado de imagen de Foto de El hallazgo de una nueva partícula abre un nueva era para la física

La pregunta “¿Qué hay más allá del Modelo estándar”? ha estado fascinando a los físicos durante años. Y, desde luego, todos sueñan con llegar a saber, qué es lo que realmente es lo que conforma el “mundo” de la materia, qué partículas, cuerdas o briznas vibrantes. En realidad, lo cierto es que, la Física que conocemos no tiene que ser, necesariamente, la verdadera física que conforma el mundo y, sí, la física que conforma “nuestro mundo”, es decir, el mundo al que hemos podido tener acceso hasta el momento y que, no necesariamente tiene que tratarse del mundo real.

O, como decía aquél: ¡Que mundo más hermoso, parece de verdad!

http://4.bp.blogspot.com/-t7BYp5UcTgk/Tu-34NeqgRI/AAAAAAAAAEY/2xERJsqryoE/s1600/quarks.jpg

No todo lo que vemos es, necesariamente, un reflejo de la realidad de la Naturaleza que, puede tener escondidos más allá de nuestras percepciones, otros escenarios y otros objetos, a los que, por ahora, no hemos podido acceder, toda vez que, físicamente tenemos carencias, intelectualmente también, y, nuestros conocimientos avanzar despacio para conseguir, nuevas máquinas y tecnologías nuevas que nos posibiliten “ver” lo que ahora nos está “prohibido” y, para ello, como ocurre siempre, necesitamos energías de las que no disponemos.

http://1.bp.blogspot.com/-BfG-17MUa2w/TviUd6jfxII/AAAAAAAACIE/E6Wot1PbMOY/s1600/vacuum1.jpg

Hay dos direcciones a lo largo de las cuales se podría extender el Modelo estándar, tal como lo conocemos actualmente, que básicamente se caraterizan así:

- Nuevas partículas raras y nuevas fuerzas extremadamente débiles, y

- nuevas partículas pesadas y nuevas estructuras a muy altas energías.

Resultado de imagen de Existen partículas difíciles de producir y detectar

Esquema simplificado que ilustra la colisión entre dos protones de alta energía y la aparición de partículas de mayor masa que estos tras la colisión.

Podrían existir partículas muy difíciles de producir y de detectar y que, por esa razón, hayan pasado desapaercibidas hasta ahora.  La primera partícula adicional en la que podríamos  pensares un neutrino rotando a derecha. Recordaremos que si se toma el eje de rotación paralelo a la dirección del movimiento los neutrinos sólo rotan a izquierdas pero, esa sería otra historia.

Resultado de imagen de "Los interferómetros atómicos tienen ahora la sensibilidad para observar nuevas fuerzas más allá del modelo estándar de la física de partículas.

En un artículo que no recuerdo donde fue publicado, pude leer:

“Los interferómetros atómicos tienen ahora la sensibilidad para observar nuevas fuerzas más allá del modelo estándar de la física de partículas. Las nuevas fuerzas a corta distancia son una predicción frecuente de las teorías más allá del Modelo Estándar y la búsqueda de estas nuevas fuerzas es un canal prometedor para descubrir una nueva física”, dice Jay Wackerdel Laboratorio del Acelerador Nacional SLAC en California. La pregunta es cómo encontrarlas”

http://4.bp.blogspot.com/-HfR7qGN039Q/T5w_3J0KeKI/AAAAAAAABcY/fcJMR0S7tIw/s1600/Experimento-con-neutrinos.jpg

Los neutrinos siempre me han fascinado. Siempre se han manifestado como si tuvieran masa estrictamente nula. Parece como si se movieran exactamente con la velocidad de la luz. Pero hay un límite para la precisión de nuestras medidas. Si los neutrinos fueran muy ligeros, por ejemplo, una cienmillonésima parte de la masa del electrón, seríamos incapaces de detectar en el laboratorio la diferencia entre éstos y los neutrinos de masa estrictamente nula. Pero, para ello, el neutrino tendría que tener una componente de derechas.

En este punto, los astrónomos se unen a la discusión. No es la primera vez, ni será la última, que la astronomía nos proporciona información esencial en relación a las partículas elementales. Por ejemplo, debido a las interacciones de corriente neutra (las interacciones débiles originadas por un intercambio Zº), los neutrinos son un facto crucial en la explosión  supernova de una estrella. Ahora sabemos que debido a las interacciones por corriente neutra, pueden colisionar con las capas exteriores de la estrella y volarlas con una fuerza tremenda.

http://latabernaglobal.com/wp-content/uploads/2012/02/NEUTRIN1.jpg

En realidad, los neutrinos nos tienen mucho que decir, todavía y, no lo sabemos todo acerca de ellos, sino que, al contrario, son muchos los datos y fenómenos que están y subyacen en ellos de los que no tenemos ni la menor idea que existan o se puedan producir. Nuestra ignorancia es grande, y, sin embargo, no nos arredra hablar y hablar de cuestiones que, la mayoría de las veces…ni comprendemos.

Aquí lo dejar´ñe por hoy, el tema es largo y de una fascinación que te puede llevar a lugares en los que no habías pensado al comenzar a escribir, lugares maravillosos donde reinan objetos exóticos y de fascinante porte que, por su pequeñez, pueden vivir en “mundos” muy diferentes al nuestro en los que, ocurren cosas que, nos llevan hacia el asombro y también, a ese mundo mágico de lo fascinante y maravilloso.

emilio silvera

¿El núcleo del átomo? ¡Una maravilla de la Naturaleza!

$
0
0

                   Las partículas del núcleo atómico. Protón y neutrón.

En 1920 (Rutherford) descdubrió las partículas positivas que forman los átomos, los protones.

Rutherford descubrió que bombardear átomos de nitrógeno con partículas alfa ( y esto es bien sencillo ya que basta con poner la sustancia radiactiva en el aire cuyo 75 % es nitrógeno) se producían una nuevas partículas con estas características:
Su carga eléctrica es la misma que la de los electrones, pero positiva, y su masa es semejante a la del átomo de hidrógeno (recuerda que la masa de los electrones es 1836 menor que la del átomo de hidrógeno. LLamó a estas partículas positivas protones.

Por lo tanto en los núcleos de los átomos hay unas partículas positivas que se llaman protones. En el hidrógeno solo hay una partícula ya que recordemos su masa era casi la misma.

Se comprobó que el número de protones es una característica especial de cada elemento quí­mico, ya que todos los átomos del mismo elemento tienen el mismo número de protones. Se llama nú­mero atómico (Z) al número de protones que tienen los átomos de un elemento químico. A cada elemento químico le corresponde un número atómico desde 1 hasta el 92 de la Tabla Periódica. Otros que son artificiales (transuránicos) son más complejos y radiactivos.

Todavía tenemos que buscar otras partículas en el núcleo atómico. La masa de los protones de un núcleo es mucho menor que la masa del núcleo.

ISÓTOPOS

 

Cada elemento químico se caracteriza por el número de protones de su núcleo, que se denomina número atómico (Z). Así, el hidrógeno ( 1H) tiene un protón, el carbono ( 6C) tiene 6 protones y el oxígeno ( 8O) tiene 8 protones en el núcleo.

El número de neutrones del núcleo puede variar. Casi siempre hay tantos o más neutrones que protones. La masa atómica (A) se obtiene sumando el número de protones y de neutrones de un núcleo determinado.

Un mismo elemento químico puede estar constituído por átomos diferentes, es decir, sus números atómicos son iguales, pero el número de neutrones es distinto. Estos átomos se denominan isótopos del elemento en cuestión. Isótopos significa “mismo lugar“, es decir que como todos los isótopos de un elemento tienen el mismo número atómico, ocupan el mismo lugar en la Tabla Periódica.

Resultado de imagen de La masa del protón, del neutrón y del electrón

En general, los átomos de los elementos se representan con dos índices que preceden al símbolo específico: AZX, donde:

  • X es el símbolo del elemento químico
  • Z es el número de protonesnúmero atómico
  • A es la masa atómica

El número de neutrones será la diferencia (A-Z).

isótopos del Hidrógeno

isótopos del Carbono

Desde 1918 estaba probado que existían los isótopos. Estos, eran átomos que tenían propiedades químicas iguales (parecían elementos iguales, por tanto), tenían el mismo número atómico, pero sus masas atómicas eran di­ferentes. En el núcleo debían existir partículas neutras que contribuyeran a la masa pero no tuvieran carga eléctrica.

Estas partículas neutras del núcleo se descubrieron en 1932 y se llamaron neutrones. Chadwick consiguió detectarlas y medir su masa. Un neutrón  tiene una masa ligeramente mayor que la del protón (exactamente 1,00014 veces). Los neutrones proporcionan las fuerzas de unión que estabilizan el núcleo atómico.
Resultado de imagen de Representación del átomo de helio
Representación aproximada del átomo de Helio,  en el núcleo los protones están representados en rojo y los neutrones en azul. En la realidad el núcleo también es simétricamente esférico.
Hasta aquí tenemos una idea de las partículas que forman el núcleo atómico y de otras propiedades que en él pueden estar presentes. Sin embargo, el núcleo atómico tiene que ser visto como el corazón central del átomo que contiene la mayor parte de su masa, exactamente, el 99,9%. Digamos que el núcleo más masivo que se encuentra en la Naturaleza es el del Uranio-238 que contiene 92 protones y  146 neutrones. El núcleo más simple es el del Hidrógeno que consiste en un único protón.
Resultado de imagen de proton neutron y electron
Hasta aquí hemos dado un repaso sobre los componentes de los núcleos atómicos y algunas de sus particularidades para saber, sobre ellos y tener una idea más exacta de cómo fueron descubiertos y que son en realidad con sus cargas y sus masas. Sin embargo, podemos seguir explicandolo de manera sencilla pero con algo más de detalles.
El tamaño de un átomo

La curiosidad acerca del tamaño y masa del átomo atrajo a cientos de científicos durante un largo período en el que la falta de instrumentos y técnicas apropiadas impidió lograr respuestas satisfactorias. Con posterioridad se diseñaron numerosos experimentos ingeniosos para determinar el tamaño y peso de los diferentes átomos.

El átomo más ligero, el de hidrógeno, tiene un diámetro de aproximadamente 10-10 m (0,0000000001 m) y una masa alrededor de 1,7 x 10-27 kg (la fracción de un kilogramo representada por 17 precedido de 26 ceros y una coma decimal).

 

 

Empecemos por decir que los átomos son muy pequeños, tan pequeños que necesitaríamos una fila de unos diez millones para poder rellenar el espacio que ocupa un milímetro, es decir, los átomos son tan pequeños que los tamaños típicos son alrededor de 100 pm (diez mil millonésima parte de un metro). Una peculiaridad del átomo es que está casi vacío, su estructura conformada por el núcleo rodeado de electrones que orbitan a su alrededor lo hace un objeto singular.
Resultado de imagen de Demócrito y el átomo
Si el átomo tuviera 10 metros de diámetro el núcleo sería un puntito diminuto central de apenas un milímetro, y, sin embargo… ¡Cuanta complejidad contiene dentro tan minúsculo objeto! Tenemos que señalar que algunos núcleos pueden ser inestable y se desintegran emitiendo partículas Alfa, con carga positiva, mientras que otros emiten partículas Beta, con carga negativa. También pueden emitir radiación Gamma.
Pero dejémos tranquilas a las partículas Alfa y Beta de las que nos ocuparemos en otra oportunidad. El tema de este pequeño trabajo es el núcleo atómico y, a él, nos dedicaremos. Nunca podré dejar de asombrarme ante los hechos mágicos que la Naturaleza es capaz de realizar. En realidad, la Naturaleza se vale de estos pequeños objetos llamados átomos para que unidos sean los responsables de conformar toda la materia que existe (al menos la conocida) estén formando cualquier objeto, grande o pequeño que podamos ver en el Universo. Desde las estrellas y los mundos hasta las inmensas galaxias, todo está conformado por átomos.
Cuando hablamos del núcleo atómico, por lo general, nos referimos a que está hecho de protones y neutrones, dos partículas que pertenecen a la familia de los Hadrones en la rama de los Bariones donde están las partículas de materia. Cuando nos referimos a ellas situadas en el núcleo atómico, las solemos llamar nucleaones.
Pero veámos que hay ahí, dentro de los nucleones (protones y neutrones).
Monografias.com
Los hadrones (protones y neutrones), a su vez, están hechos por otras partículas más pequeñas que pertenecen a la familia de los Quarks. Tanto el protón como el Neutrón están conformados por tripletes de Quarks. El protón de 2 quarks up y un quark down, mientras que el nutrón está hecho por 2 quarks down y 1 quark up.
La familia Quark
Resultado de imagen de familia de quarks

Como no es el objeto del trabao, no hablaremos hoy de los Quarks, y, simplemente diremos que en la naturaleza no se encuentran quarks aislados. Estos siempre se encuentran en grupos, llamados Hadrones. de dos o tres quarks, conocidos como mesones y bariones respectivamente. Esto es una consecuencia directa del confinamiento de color.  En el año 2003 se encontró evidencia experimental de una nueva asociación de cinco quarks, los Pentaquarks, cuya evidencia, en principio controvertida , fue demostrada gracias al Colisionador de Partículas LHC en el pasado Julio de 2.015.

Imagen relacionadaResultado de imagen de Partículas elementales campos

Imagen relacionada

Pero sigamos con lo que nos ocupa y veámos que los Quarks están confinados dentro de los nucleones (protones y neutrones) donde la fuerza fuerte les retiene y nos los deja que se vayan alejando más de lo debido como se explica en el cuadro de arriba.

Dentro del nucleo se desatan las fuerzas de la Naturaleza, la que conocemos como fuerza nuclear fuerte, la más potente de las cuatro fuerzas fundamentales que, intermediada por otras partículas de la familia de los Bosones, los Gluones, no dejan que los Quarks se alejen y son retenidos allí, dentro de los nucleones donde tienen su función de conformar los hadrones másicos del núcleo que le aporta la materia al átomo.

Los Gluones, son las partículas intermediarias de la fuerza fuerte, y, de la misma manera, existen otros Bosones encargados de mediar en las otras fuerzas conocidas de la Naturaleza: El Fotón para los fenómenos electromagnéticos, el Gravitón (no encontrado aún) para la fuerza de Gravedad, y, los W+,  W-y Zº para la fuerza nuclear débil.

Resultado de imagen de Gifs de como se mueven los electrones alrededor del núcleo atómico

Lo cierto es que, el núcleo atómico está cargado positivamente y, tal carga, hace la llamada para que, un enjambre de electrones, con cargas negativas, vengan a rodear el núcleo atómico y, de esa manera, queda estabilidado el átomo, ese pequeño objeto que conforma todas las cosas hechas de materia.

Así, los electrones que rodea el núcleo, con su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). Y, sin embargo, la importancia del electrón es vital en el universo.

Repasando todo esto, no puedo dejar de recordar aquellas palabras que el físico Freeman Dyson escribió:

 

 

 

https://signosconciencia.files.wordpress.com/2013/08/perseids.jpg

 

Cuando miramos en el universo e identificamos los muchos accidentes de la física y la astronomía que han colaborado en nuestro beneficio, casi parece que el universo debe haber sabido, en cierto sentido, que nosotros íbamos a venir“.

 

Fijaros en el hecho cierto de que, si la carga del electrón, o, la masa del protón, variaran aunque sólo fuese una diezmillonésima parte… ¡La vida no podría existir en el Universo! Estamos hechos de átomos y, con tal cambio, éstos nunca se habrían podido constituir.

emilio silvera.

La Mecánica Cuántica es endiabladamente compleja

$
0
0

Resultado de imagen de Mecánica cuántica

La Mecánica Cuántica ha alcanzado unas cotas increíbles de consistencia y experimentalmente, es una de las teorías más acreditadas. Sin embargo, mi parecer es que siendo una herramienta muy útil para los Físicos, no es la definitiva, en un futuro próximo tendremos muchas sorpresas de la mano del LHC que en este mismo año nos dará alguna alegría importante para el mundo de la Física.

Resultado de imagen de Relatividad Especial, un pilar de la física

El otro gran pilar en el que se apoya la Física, se llama Relatividad Especial. Todos sabéis lo que fue para la Física el año 1.905. Esa primera parte de la teoría relativista de Einstein, nos legó conocimientos muy importantes, tales como que un objeto viajando a velocidades cercanas a la de la luz aumenta su masa o que el hipotético viajero de una nave espacial que viaje a ésas velocidades relativistas, habrá conseguido ralentizar su tiempo. El tiempo pasa más lento cuando la velocidad es grande. Y, el otro logro importante que fue resumido en la ecuación más famosa de la historia de la Física, fue el hecho de descubrir que la masa y la energía son dos aspectos de la misma cosa. E=mc2 ¡cuánta belleza y profundidad expresado en tan poco espacio!

Resultado de imagen de Función de onda del Universo

Edwin Schrödinger, autor de la ecuación con su función de onda, se disgustó con algunas de las interpretaciones de su ecuación. Para demostrar lo absurdo de la situación creada, Schrödinger colocó un gato imaginario en una caja cerrada. El gato estaba frente a una pistola, que está conectada a un contador Geiger, que a su vez está conectado a un fragmento de uranio. El átomo de uranio es inestable y sufrirá una desintegración radiactiva. Si se desintegra un núcleo de uranio, será detectado por el contador Geiger que entonces disparará la pistola, cuya bala matará al gato.

Resultado de imagen de El gato de Schrödinger

Para decidir si el gato está vivo o muerto, debemos abrir la caja y observar al gato. Sin embargo, ¿cuál es el estado del gato antes de que abramos la caja? Según la teoría cuántica, sólo podemos afirmar que el gato esta descrito por una función de onda que describe la suma de un gato muerto y un gato vivo.

Para Schrödinger, la idea de pensar en gatos que no están ni muertos ni vivos era el colmo del absurdo, pero la confirmación experimental de la mecánica cuántica nos lleva inevitablemente a esta conclusión. Hasta el momento, todos los experimentos han verificado, favorablemente, la teoría cuántica.

La paradoja del gato de Schrödinger es tan extraña que uno recuerda a menudo la reacción de Alicia al ver desaparecer el gato de Cheshire en el centro del cuento de Lewis Carroll: “Allí me verás”, dijo el Gato, y desapareció, lo que no sorprendió a Alicia que ya estaba acostumbrada a observar cosas extrañas en aquel lugar fantástico. Igualmente, los físicos durante años se han acostumbrados a ver cosas “extrañas” en la mecánica cuántica.

Resultado de imagen de el gato de alicia

                                             El gato Cheshire

Existen varias maneras de abordar esta dificultad de lo incomprensible en mecánica cuántica. En primer lugar, podemos suponer que cualquier situación que podamos pensar existe, incluso una consciencia universal.   Puesto que todas las “observaciones” implican un observador, entonces debe haber alguna “conciencia” en el universo. Algunos físicos como el premio Nobel Eugene Wigner, han insistido en que la teoría cuántica prueba la existencia de algún tipo de conciencia cósmica universal.

La segunda forma de tratar la paradoja es la preferida por la gran mayoría de los físicos en activo: ignorar el problema.

Resultado de imagen de Richard Feynman

El físico Richard Feynman dijo en cierta ocasión: “Creo que es justo decir que nadie comprende la mecánica cuántica. No siga diciéndose a sí mismo, si puede evitarlo, “¿pero cómo puede ser así?” porque usted se meterá “hasta el fondo” en un callejón sin salida del que nadie ha escapado.  Nadie sabe como puede ser eso”. De hecho, a menudo se ha dicho que de todas las teorías propuestas en el siglo XX, la más absurda es la teoría cuántica. Algunos dicen que la única cosa que la teoría tiene a su favor es que “es indudablemente correcta”.

Sin embargo, existe una tercera forma de tratar esta paradoja, denominada teoría de los muchos universos. Esta teoría (como el principio antrópico) no gozó de mucho favor en la última década, pero está siendo revitalizada por la función de onda del universo de Stephen Hawking.

Mientras que muchos físicos han interpretado generalmente la función de onda como una herramienta estadística que refleja nuestra ignorancia sobre las partículas que medimos, los autores del último artículo defienden que, en lugar de esto, es físicamente real.

Función de onda para una partícula bidimensional encerrada en una caja. Las líneas de nivel sobre el plano inferior están relacionadas con la probabilidad de presencia. La fórmula de De Broglie encontró confirmación experimental en 1927 en un experimento que probó que la ley de Bragg, la inicialmente formulada para rayos X y radiación de alta frecuencia, era también válida para electrones lentos si se usaba como longitud de onda la longitud postulada por De Broglie. Esos hechos llevaron a los físicos a tratar de formular una ecuación de ondas cuántica que en el límite clásico macroscópico se redujera a las ecuaciones de movimiento clásicas o leves de Newton. Dicha ecuación ondulatoria había sido formulada por Erwin Schödinger en 1925 y es la celebrada y famosa Ecuación de Schrödinger que se denota:

Resultado de imagen de La ecuación de función de onda de Schrödinger
Schrödinger, con su función de onda, nos dio una buena herramienta para buscar la partícula mediante un sistema de alta probabilidad de su situación.

Existe un principio de la física denominado Navaja de Ockham, que afirma que siempre deberíamos tomar el camino más sencillo posible e ignorar las alternativas más complicadas, especialmente si las alternativas no pueden medirse nunca.

Para seguir fielmente el consejo contenido en la navaja de Ockham, primero hay que tener el conocimiento necesario para poder saber elegir el camino más sencillo, lo que en la realidad, no ocurre. Nos faltan los conocimientos precisos para hacer las preguntas adecuadas.

Imagen relacionada

Hugo Everett, Bryce DeWitt y ahora Hawking (también otros), han propuesto la teoría de los universos múltiples. En unos universos los protones se desintegran antes haciendo inestable la materia, en otros, el átomo de uranio se desintegra mediante un proceso sin radiaciones, y en otros universos las constantes universales que existen en el nuestro, son totalmente diferentes y no dan posibilidad alguna para la existencia de seres vivos. Está claro que cualquier variación que en principio pudiera parecer sin importancia, como por ejemplo, la carga del electrón, la potencia de la fuerza de Gravedad, la velocidad de la luz…, podría transformar radicalmente nuestro universo.

Todo lo que ocurre tiene su origen en el pasado, es decir, dependiendo del inicio, de las condiciones presentes en aquel momento, así será el futuro. Cualquier cosa, hasta la más insignificante, puede tener una importancia vital. Como apuntó el físico Frank Wilczek:

Resultado de imagen de Helena de Troya

 

 

“Se dice que la historia del mundo sería totalmente distinta si Helena de Troya hubiera tenido una verruga en la punta de su nariz.”

 

 

Resultado de imagen de El secreto más profundo está en nosotros

 

El misterio más profundo…Está en nosotros

 

Y, a todo esto, no olvidemos una de las cosas más importantes: Nuestras imaginación es casi tan grande como el Universo mismo, y, si pensamos algo… lo podríamos hacer realidad.

 

¿No es eso tan extraño a más que la mecánica cuántica misma? Claro que, seguramente no hemos caído en la cuenta de que, nuestro cerebro, también está cuantizado, es parte del problema que estamos tratando.

¡Es todo tan complejo!

emilio silvera

¡La Física! Los Caminos de la Naturaleza

$
0
0

Resultado de imagen de Cien mil millones de neuronas y conexiones sin fin

“Esta claro que la mayoría de lo que entendemos como nuestra vida mental implica la actividad del sistema nervioso, especialmente el cerebro. Este sistema nervioso está compuesto por miles de millones de células, las más simple de las cuales son las células nerviosas o neuronas. ¡Se estima que debe haber cien mil millones de neuronas en nuestro sistema nervioso! Hay tanto por descubrir.”

Resultado de imagen de Las aguas claras y cantarinas del río y las piedras pulidas de su lecho
                                                              ¡Todas las cosas son!
El Tiempo, aunque a ciencia cierta no sabemos lo que es, sí sabemos que nos permite contar historias de hechos pasados, buscar las huellas que dejaron en nuestro mundo los pobladores de otras civilizaciones, los cambios habidos en la Naturaleza, y, durante su inexorable transcurrir, van pasando cosas, se están produciendo cambios, y, la Entropía convierte lo nuevo en viejo, mientras que, esa otra clase de Entropía negativa, crea nuevas estrellas, nuevos mundos y nuevas criaturas.
Pero esas son otras historias y, el día de hoy hablaremos del…

¡Preludio a la relatividad! -Las ecuaciones de Lorentz-Fitzgerald- Éste último pensaba y decía cosas comos estas:

 

 

              George FitzGerald

 

“… la telegrafía debe mucho a Euclides y otros geómetras puros, al griego y al árabe que fueron matemáticos magistrales que inventaron nuestra escala de numeración y el álgebra, de Galileo Newton, que fundaron la dinámica, para que Newton y Leibniz inventaran el cálculo, para que Volta descubriera la galvánica bobina, a Oersted quien descubrió la acción magnética de las corrientes, que a Ampère descubriera las leyes de su acción, a Ohm que descubrió la ley de la resistencia de los cables, a Wheatstone, de Faraday, a Lord Kelvin, a Clerk Maxwell, Hertz a… Sin los descubrimientos, invenciones, y las teorías científicas resumen de estos hombres la telegrafía y otras maravillas y conocimientos…  ¡serían imposibles ahora!”

Hendrik Antoon Lorentz.jpg

    Hendrik Antoon Lorentz

 

Se le deben importantes aportaciones en los campos de la termodinámica, la radiación, el magnetismo, la electricidad y la refracción de la luz.  Formuló conjuntamente con George Francis FitzGerald una teoría sobre el cambio de forma de un cuerpo como resultado de su movimiento; este efecto, conocido como “contracción de Lorentz-FitzGerald”, cuya representación matemática de ella es conocida con el de transformación de Lorentz,  fue una más de las numerosas contribuciones realizadas por Lorentz al desarrollo de la teoría de la relatividad.

Fue, al igual que Henri Poincaré,  uno de los primeros en formular las bases de la teoría de la relatividad(frecuentemente atribuida primaria o solamente a Albert Einstein).  Fue ganador del Premio Nobel de Física en 1902, junto con su pupilo Pieter Zeeman,  por su investigación conjunta sobre la influencia del magnetismo en la radiación, originando la radiación electromagnética.  fue premiado con la Medalla Rumford en 1908 y la Medalla Coplay en 1918. Lorentz era hombre humilde y sencillo y le gustaba resaltar los logros de los demás:

 

 

 

Michael Faraday

 

“Como es probable que sepas, gran parte de nuestro conocimiento sobre la electricidad y el magnetismo se basa en los experimentos ingeniosísimos realizados por Michael Faraday en la primera parte del siglo XIX. Faraday era un experimentador genial, y descubrió numerosos fenómenos desconocidos hasta entonces, como la mutua. Estableció diversas leyes, pero no pudo elaborar una teoría global acerca del electromagnetismo porque sus conocimientos matemáticos no iban más allá de la trigonometría: hacía falta un teórico capaz de amalgamar el conocimiento adquirido por Faraday y otros experimentadores, como Hans Christian Ørsted, en una teoría general”.

Ese teórico era otro genio, James Clerk Maxwell, que estableció un conjunto de cuatro ecuaciones diferenciales bellísimas que describían de una manera extraordinariamente precisa los resultados de casi todos los experimentos de Faraday, Ørsted y compañía. Lo más sorprendente, el propio Maxwell y sus contemporáneos, fue una de las consecuencias inevitables de sus ecuaciones: la existencia de perturbaciones del campo eléctrico y el magnético que se propagaban por el espacio.”

 

 

A la contracción, Einstein le dio un marco teórico en la teoría especial de la relatividad. En teoría, un objeto de longitud l0 en reposo en un sistema de referencia parecerá, un observador en otro sistema de referencia que se mueve con velocidad relativa v con respecto al primero, tener longitud contraccion_l-f, donde c es la velocidad de la luz. La hipótesis original atribuía contracción a una contracción real que acompaña al movimiento absoluto del cuerpo. La contracción es en cualquier caso despreciable a no ser que v sea del mismo orden o cercana a c.

 

 

Un objeto que se moviera a 11,2 Km/s (la velocidad de escape de nuestro planeta) experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería sustancial. A unos 150.000 Km/s (la mitad de la velocidad de la luz) sería del 15%; a 262.000 Km/s (7/8 de la velocidad de la luz), del 50%. Es decir, que una regla de 30 cm que pasara ante nuestra vista a 262.000 Km/s nos parecería que mide sólo 15’24 cm, siempre y cuando conociéramos alguna manera para medir su longitud en pleno vuelo. Y a la velocidad de la luz, es decir, 300.000 Km/s en números redondos, su longitud en la dirección del movimiento sería cero. Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse el universo.

 

 

 

AetherWind.svg

                                                                                 experimento conocido de Michelson-Morley

Todo aquello fue posible gracia a que en 1893, el físico irlandés George Francis FitzGerald emitió una hipótesis explicar los resultados negativos del experimento conocido de Michelson-Morley.  Adujo que toda materia se contrae en la dirección del movimiento, y que esa contracción es directamente proporcional al ritmo (velocidad) del movimiento.

Según tal interpretación, el interferómetro se quedaba corto en la dirección del “verdadero” movimiento terrestre, y lo hacía precisamente en una cantidad que compensaba con toda exactitud la diferencia de distancias que debería recorrer el rayo luminoso.  Por añadidura, todos los aparatos medidores imaginables, incluyendo los órganos sensoriales humanos, experimentarían ese mismo fenómeno.

Parecía como si la explicación de FitzGerald insinuara que la Naturaleza conspiraba con objeto de impedir que el hombre midiera el movimiento absoluto, lo cual introducía un efecto que anulaba cualquier diferencia aprovechable para detectar dicho movimiento.

Este asombroso fenómeno recibió el de “contracción de FitzGerald”, y su autor formuló una ecuación para el mismo que, referido a la contracción de un cuerpo móvil, fue predicha igualmente, y de manera independiente, por H.A.Lorentz (1853-1928) de manera que, finalmente, se quedaron unidas como “Contracción de Lorentz-Fitz Gerald”.

 

 

 

 

El efecto Fitzgerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una conexión tan estrecha que aparecieron a menudo agrupadas como las ecuaciones Lorentz-Fitzgerald.

 

 

 

 

 

 

La dilatación del tiempo es el fenómeno predicho por la teorçia de la relatividad,  por el cual un observador observa que el reloj de otro (un reloj físicamente idéntico al suyo) está marcando el tiempo a un ritmo menor que el que mide su reloj. Esto se suele interpretar normalmente como que el tiempo se ha ralentizado para el otro reloj, pero eso es cierto solamente en el contexto del sistema de referencia del observador. Localmente, el tiempo siempre está pasando al mismo ritmo. El fenómeno de la dilatación del tiempo se aplica a cualquier proceso que manifieste cambios a través del tiempo.

fórmula para determinar la dilatación del tiempo en la relatividad especial es:

 \Delta t = \gamma \ \Delta t_0 = \frac{\Delta t_0}{ \sqrt{1-\frac{v^2}{c^2}}} \,

 

Donde:

 

 \Delta t_0 \, es el intervalo temporal entre dos eventos co-locales para un observador en algún sistema de referencia inercial. (por ejemplo el número de tic tacs que ha hecho su reloj)
 \Delta t \, es el intervalo temporal entre los dos mismos eventos, tal y como lo mediría otro observador moviéndose inercialmente con velocidad v, respecto al primer observador
 v \, es la velocidad relativa entre los dos observadores
 c \, la velocidad de la luz y
 \gamma = \frac{1}{\sqrt{1-v^2/c^2}} \, es el también conocido como factor de Lorentz

De esta manera la duración del un ciclo de reloj del reloj que se mueve se ha incrementado: esta “funcionando más despacio”. Según lo indicado las transformaciones de Lorentz  pueden ser utilizadas para casos más generales.

Postulados de la Relatividad Especial

 

  • Primer postulado:  Principio especial de relatividad: Las leyes de la física son las mismas en todos los sistemas de referencia inerciales. En otras palabras, no existe un sistema inercial de referencia privilegiado, que se pueda considerar como absoluto.
  • Segundo postulado: Invariancia de c: La velocidad de la luz en el vacío es una constante universal, c, que es independiente del movimiento de la fuente de luz.

 

 

Aquí podemos ver el tiempo que tarda la luz en llegar desde la Tierra a la Luna situada a más de 380.000 Km

 Einstein que se apropió de aquella idea (de Lorentz) y, además, la amplió al contraer también el Tiempo. La contracción de la longitud ha sido verificada en el diseño, por ejemplo, del acelerador lineal de la Universidad de Stanford. Las partículas salen con una velocidad v = 0,999975c, por tanto, metro de tubo acelerador es “visto” por los electrones como 144 metros. Si, según la expresión anterior, un cuerpo con masa se moviera a la velocidad c desaparecería por contracción de su longitud para un observador en reposo, lo cual refuerza el carácter inalcanzable de velocidad. Si los objetos con masa alcanzan este límite de velocidad la estructura básica de la realidad se desvanece. Por otra parte, vemos que cualquier influencia que afecte al tiempo también lo hará con el espacio. Esto no nos debe de extrañar, ya que ambas magnitudes se encuentran íntimamente relacionadas por lo único que se nos mantiene invariable: la velocidad de la luz. En relatividad hablamos de espacio-tiempo ya que son inseparables.

A la contracción, Einstein, le dio un marco teórico en la teoría especial de la relatividad. En teoría, un objeto de longitud /0 en reposo en un sistema de referencia parecerá, para un observador en otro sistema de referencia que se mueve con velocidad relativa v con respecto al primero, tener longitud /0 , donde c es la velocidad de la luz. La hipótesis original atribuía esta contracción a una contracción real que acompaña al movimiento absoluto del cuerpo. La contracción es en cualquier caso despreciable a no ser que v sea del mismo orden o cercana a c.

Un objeto que se moviera a 11 km/s (la velocidad de escape de nuestro planeta) experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería sustancial. A unos 150.000 km/seg. (la mitad de la velocidad de la luz, c), sería del 15%; a 262.000 km/seg. (7/8 de la velocidad de la luz), del 50% Es decir, que una regla de 30 cm. que pasara ante nuestra vista a 262.000 km (seg., nos parecería que mide sólo 15’54 cm…, siempre y cuando conociéramos alguna manera medir su longitud en pleno vuelo. Y a la velocidad de la luz, es decir, 300.000 km/seg., en números redondos, su longitud, en la dirección del movimiento, sería cero.  Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse en el Universo. (Pero ¿existir también?).

El físico holandés Hendrik Antón Lorentz, como hemos dicho, promovió ésta idea pensando en los rayos catódicos (que ocupaban su actividad por aquellas fechas), se hizo el siguiente razonamiento: si se comprimiera la carga de una partícula reducir su volumen, aumentaría su masa.  Por consiguiente, una partícula voladora, escorzada en la dirección de su desplazamiento por la contracción de Fitz Gerald, debería crecer en términos de masa.

Resultado de imagen de Una partícula aumenta su masa si viaja a la velocidad de la luz

        Un objeto que corra a velocidades cercanas a la de la luz, verá incrementada su masa

Lorentz presentó una ecuación sobre el acrecentamiento de la masa, que resultó muy similar a la ecuación FitzGerald sobre el acortamiento. A 149.637 kilómetros por segundo, la masa de un electrónaumentaría en un 15%; a 262.000 km/seg., en un 100% (es decir, la masa se duplicaría); y a la velocidad de la luz, su masa sería infinita.  Una vez más pareció que no podría haber ninguna velocidad superior a la de la luz, pues, ¿cómo podría ser una masa mayor que infinita? El efecto FitzGerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una conexión tan estrecha que aparecieron a menudo agrupadas las “ecuaciones Lorentz-FitzGerald.”

Mientras que la contracción FitzGerald no podía ser objeto de mediciones, el efecto Lorentz sobre masas si podía serlo…, aunque indirectamente. De hecho, el muón, tomó 10 veces su masa original fue lanzado, a velocidades relativistas, en el acelerador de partículas, lo que confirmó la ecuación de Lorentz. Los experimentos posteriores, han confirmado las ecuaciones de ambos: a velocidades relativistas, las longitudes se contraen y las masas se incrementan.

                                                                  Nada puede viajar a la velocidad de la luz

Como es conocido por todos, Einstein adoptó estos descubrimientos y los incorporó a su teoría de la relatividad especial que, aunque mucho más amplia, recoge la contracción de FitzGerald y el aumento de la masa de Lorentz cuando se alcanzan grandes velocidades.

¡Qué cosas!

Resultado de imagen de La persistencia de la memoria

                                    El Tiempo pasa inexorable pero… ¡La memoria queda!

Algunas veces pienso que, los artistas en general, y los poetas en particular, tendrían que adaptar e incluir a sus esquemas artísticos y poéticos, los adelantos científicos, para asimilarlos en las diversas expresiones y sentimientos que serán después puestos al servicio del consumo humano.

Estos adelantos científicos serían así coloreados con las pasiones humanas y transformadas, de alguna manera, en la sangre, y por qué no, los sentimientos de la naturaleza humana.

Posiblemente, de haberlo hecho así, el grado general de conocimiento sería mayor.

emilio silvera

El Micro Mundo de los Átomos

$
0
0
 Resultado de imagen de El misterioso mundo cuántico

Cuando por primera vez se puso este trabajo, dio lugar a comentarios que nos llevan hasta la realidad de hasta donde, resulta para nosotros incomprensible ese micro mundo de la cuántica, ese “universo” infinitesimal donde ocurren cosas que, no llegamos a comprender.

Sí, existe otro mundo que no vemos pero…, ¡está en éste!

La mecánica cuántica domina en el micromundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua.  Es una onda de información. Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.

 

Por el contrario, la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la formación de agujeros negros. Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el espacio y distorsiona el tiempo.

http://elojocondientes.files.wordpress.com/2011/03/la-tierra-no-es-redonda.png

La Gravedad hace que la Tierra se vea como un mapa. Es una vista altamente exagerada, pero ilustra a las claras cómo la atracción gravitatoria que se manifiesta desde la masa de roca bajo nuestros pies no es la misma en todo lugar. La gravedad es más fuerte en áreas amarillas y más débil en las azules. (Imagen tomada por el satélite Goce)

Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.

¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son.

File:Observable universe logarithmic illustration.png

Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño.  La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33  centímetros, más joven que el Tiempo de Planck, 10-43 segundos y supere la temperatura de Planck de 1032 grados.  Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.

Resultado de imagen de La naturaleza cuántica de la gravedad

En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”.  La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes.

Los tiempos cambian y la manera de informar también, lejos nos queda ya aquellos toscos aparatos impresores del pasado, ahora, en espacios muy reducidos, tenemos guardada más información que antes había en una colección de libros.

Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1.975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuiteria de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.

grid computing

Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1.981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros.  Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos. Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2.  Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.

 

La información llega a todos los rincones del Mundo

No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas.  Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias.

Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón.

α = 2πehc ≈ 1/137

αG = (Gmp2)/ hc ≈ 10-38

La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro.

Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala.  La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

Resultado de imagen de Números puros adimensionalesResultado de imagen de Números puros adimensionales

Cuando surgen comentarios de números puros y adimensionales, de manera automática aparece en mi mente el número 137. Ese número encierra más de lo que estamos preparados para comprender; me hace pensar y mi imaginación se desboca en múltiples ideas y teorías. Einstein era un campeón en esta clase de ejercicios mentales que él llamaba “libre invención de la mente”. El gran físico creía que no podríamos llegar a las verdades de la naturaleza sólo por la observación y la experimentación. Necesitamos crear conceptos, teorías y postulados de nuestra propia imaginación que posteriormente deben ser explorados para averiguar si existe algo de verdad en ellos. Con los adelantos actuales, estudiando la luz lejana de cuásares muy antiguos, se estudia si la constante de estructura fina (α) ha variado con el paso del tiempo.

Resultado de imagen de Cuásares captados por el Hubble

“Detalles del cuásar 3C 273 observado con el Telescopio Espacial Hubble. La imagen de la izquierda muestra claramente lo brillante y compacto que es el objeto, lo que hizo que pareciese una estrella. Para conseguir la imagen de la izquierda se utilizó un instrumento (un coronógrafo) que bloqueaba la luz del cuásar, dejando ver su galaxia anfitriona. En ambas tomas se aprecia el chorro de gas a alta velocidad proveniente del agujero negro súper-masivo central. Una de las componentes de la emisión en radio de 3C 273 coincide perfectamente con este chorro de gas. | Crédito de la imagen: HST / NASA / ESA / STScI.”

El Universo es muy grande, inmensamente grande y, probablemente, todo lo que nuestras mentes puedan imaginar podrá exisitir en alguna parte de esas regiones perdidas en las profundidades cósmicas, en los confines del Espacio-Tiempo, en lugares ignotos de extraña belleza en los que otros mundos y otras criaturas tendrán, sus propios habitats que, siendo diferente al nuestro, también, sus criaturas, estarán buscando el significado de las leyes del Universo.

emilio silvera


Anti-partículas, fuerzas…

$
0
0
Imagen relacionada

Bajo la “definición basada en quarks y leptones”, las partículas elementales y compuestas formados de quarks (en púrpura) y leptones (en verde) serían la “materia”; mientras los bosones “izquierda” (en rojo) no serían materia. Sin embargo, la energía de interacción inherente a partículas compuestas (por ejemplo, gluones, que implica a los neutrones y los protones) contribuye a la masa de la materia ordinaria.

Ya hemos descrito en trabajos anteriores las dos familias de partículas elementales: Quarks y Leptones. Pero hasta ahí, no se limita la sociedad del universo infinitesimal. Existen además las anti-familias. A quarks y electrones se asocian, por ejemplo, anti-quarks y anti-electrones. A cada partícula, una anti-partícula.

Uno de los primeros éxitos de la teoría relativista del campo cuántico fue la predicción de las antipartículas: nuevos cuantos que eran la imagen especular de las partículas ordinarias. Las antipartículas tienen la misma masa y el mismo spin que sus compañeras las partículas ordinarias, pero cargas inversas. La antipartícula del electrón es el positrón, y tiene, por tanto, carga eléctrica opuesta a la del electrón. Si electrones y positrones se colocan juntos, se aniquilan, liberando la energía inmensa de su masa según la equivalencia masa-energía einstiana.

Imagen relacionada

      Una partícula y su anti-partícula no pueden coexistir: hay aniquilación de ambas.

¿Cómo predijeron los físicos la existencia de anti-partículas? Bueno, por la «interpretación estadística» implicaba que la intensidad de un campo determinaba la probabilidad de hallar sus partículas correspondientes. Así pues, podemos imaginar un campo en un punto del espacio describiendo la creación o aniquilación de sus partículas cuánticas con una probabilidad concreta.

Resultado de imagen de Una partícula y su anti-partícula no pueden coexistir: hay aniquilación de ambas.

Si esta descripción matemática de la creación y aniquilación de partículas cuánticas se inserta en el marco de la teoría relativista del campo cuántico, no podemos contar con la posibilidad de crear una partícula cuántica sin tener también la de crear un nuevo género de partícula: su antipartícula. La existencia de antimateria es imprescindible para una descripción matemáticamente coherente del proceso de creación y aniquilación según la teoría de la relatividad y la teoría cuántica.

Resultado de imagen de Las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la materia oscura.

Las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la materia oscura. La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto. Como consecuencia, los pares de partícula-antipartícula virtuales en el vacío cuántico y sus dipolos de forma gravitacional (una carga gravitacional positivos y negativos) pueden interactuar con la materia bariónica para producir fenómenos que se suele atribuir a la materia oscura.

Resultado de imagen de Dipolos gravitacionales

                      Las ondas gravitacionales han sido detectadas pero… ¡Los dipolos gravitacionales!

Aunque el  físico del CERN, Dragan Slavkov Hajdukovic, quien propuso la idea, demostró matemáticamente que estos dipolos gravitacionales podrían explicar las curvas de rotación de las galaxias observadas sin la materia oscura en su estudio inicial, señaló que quedaba mucho por hacer.

Pero sigamos con la cuántica…

Resultado de imagen de Paul Dirac

El pionero en comprender que era necesario que existiesen anti-partículas fue el físico teórico Paul Dirac, que hizo varías aportaciones importantes a la nueva teoría cuántica. Fue él quien formuló la ecuación relativista que lleva hoy su nombre, y a la que obedece el campo electrónico; constituye un descubrimiento comparable al de las ecuaciones del campo electromagnético de Maxwell. Cuando resolvió su ecuación, Dirac se encontró con que además de describir el electrón tenía soluciones adicionales que describían otra partícula con una carga eléctrica opuesta a la del electrón. ¿Qué significaría aquello? En la época en que Dirac hizo esta observación, no se conocían más partículas con esta propiedad que el protón. Dirac, que no deseaba que las partículas conocidas proliferasen, decidió que las soluciones adicionales de su ecuación describían el protón. Pero, tras un análisis más meticuloso, se hizo evidente que las partículas que describían las soluciones adicionales tenían que tener exactamente la misma masa que el electrón. Quedaba así descartado el protón, cuya masa es por lo menos, 1.800 veces mayor que la del electrón. Por tanto, las soluciones adicionales tenían que corresponder a una partícula completamente nueva de la misma masa que el electrón, pero de carga opuesta: ¡El antielectrón! Esto quedó confirmado a nivel experimental en 1932 cuando Carl Anderson, físico del Instituto de Tecnología de Calífornia, detectó realmente el antielectrón, que hoy se llama positrón.

Resultado de imagen de Paul Dirac y la anti particula

   El trabajo de Dirac sobre el electrón nada tiene que envidiarle al de Einstein de la Relatividads

La aparición de las anti-partículas cambió definitivamente el modo de pensar de los físicos respecto a la materia. Hasta entonces, se consideraba la materia permanente e inmutable. Podían alterarse las moléculas, podían desintegrarse los átomos en procesos radiactivos, pero los cuántos fundamentales se consideraban invariables. Sin embargo, tras el descubrimiento de la anti-materia realizado por Paul Dirac hubo que abandonar tal criterio. Heisenberg lo expresaba así:

“Creo que el hecho de que Dirac haya descubierto partículas y anti-partículas, ha cambiado toda nuestra visión de la física atómica… creo que, hasta entonces, todos los físicos habían concebido las partículas elementales siguiendo los criterios de la filosofía de Demócrito, es decir, considerando esas partículas elementales como unidades inalterables que se hallan en la naturaleza como algo dado y son siempre lo mismo, jamás cambian, jamás pueden transmutarse en otra cosa. No son sistemas dinámicos, simplemente existen en sí mismas. Tras el descubrimiento de Dirac, todo parecía distinto, porque uno podía preguntar: ¿por qué un protón no podría ser a veces un protón más un par electrón-positrón, etc.?… En consecuencia, el problema de la división de la materia había adquirido una dimensión distinta.”

Dado que la antimateria tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la antimateria no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de antipartícula viajando al futuro = partícula viajando al pasado?

 

 

 

 

La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y anti-partículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al reves) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad.

El carácter mutable de la materia se convirtió en piedra angular de la nueva física de partículas. El hecho de que partículas y anti-partículas puedan crearse juntas a partir del vacío si se aporta energía suficiente, no sólo es importante para entender cómo se crean las partículas en aceleradores de alta energía, sino también para entender los procesos cuánticos que se produjeron en el Big Bang.

Como ya lo hemos expresado, el conocimiento que se obtuvo sobre la existencia de anti-familias de partículas o familias de anti-partículas es una consecuencia de la aplicación de la teoría relativista del campo cuántico, para cada partícula existe una partícula que tiene la misma masa pero cuya carga eléctrica (y otras llamadas cargas internas) son de signo opuesto. Estas son las anti-partículas. Así, al conocido electrón, con carga negativa, le corresponde un «electrón positivo» como anti-partícula, llamado positrón, descubierto en 1932. El an-tiprotón, descubierto en 1956, tiene la misma masa que el protón, pero carga eléctrica negativa de igual valor. El fotón, que no tiene masa ni carga eléctrica, puede ser considerada su propia anti-partícula.

Un agujero negro es un objeto que tiene tres propiedades: masa, espin y carga eléctrica. La forma del material en un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como Singularidad, de densidad infinita.

Un agujero negro tiene tres propiedades: masa, espín y carga eléctrica. La forma del material de un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como singularidad, de densidad infinita.

Cada partícula está caracterizada por un cierto número de parámetros que tienen valores bien definidos: su masa, carga eléctrica, spin o rotación interna y otros números, conocidos como cuánticos. Estos parámetros son tales que, en una reacción, su suma se mantiene y sirve para predecir el resultado. Se dice que hay conservación de los números cuánticos de las partículas. Así, son importantes el número bariónico, los diversos números leptónicos y ciertos números definidos para los quarks, como la extrañeza, color, etc. Estos últimos y sus antipartículas tienen cargas eléctricas (± 1/3 o ± 2/3) y números bariónicos (±1/3) fraccionarios. No todos los números asociados a cada partícula han sido medidos con suficiente precisión y no todas las partículas han sido detectadas en forma aislada, por lo menos de su ligamento, como el caso de los quarks y de los gluones.

Los gluones son una especie de «partículas mensajeras» que mantienen unidos a los quarks. Su nombre proviene del término inglés “glue”, que significa pegamento, en español quizás podría ser gomón. Ahora, en cuanto a los quarks, ya hicimos referencia de ellos anteriormente. Pero recordemos aquí, que fueron descubiertos en 1964 por Murray Gell-Mann, como los componentes más reducidos de la materia. Hasta entonces se pensaba que los átomos consistían simplemente en electrones rodeando un núcleo formado por protones y electrones.

En estado natural, quarks y gluones no tienen libertad. Pero si se eleva la temperatura a niveles 100.000 veces superiores, como se ha hecho en aceleradores de partículas, a la del centro del Sol, se produce el fenómeno del desconfinamiento y por un brevísimo tiempo quedan libres. En ese preciso momento aparece lo que se suele llamar plasma, «una sopa de quarks y gluones» que equivale al estado en que se podría haber encontrado la naturaleza apenas una milésima de segundo luego del Big Bang.

11-three_quarks 11-heart2quarks_small

Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos. Los protones y neutrones están formados, cada uno, por 3 quarks que se mantienen unidos gracias a los gluones (El gluón es la partícula portadora de interacción nuclear fuerte, fuerza que mantiene unida los núcleos atómicos). A temperaturas superiores se vence la fuerza nuclear fuerte y los protones y neutrones se dividen, formando esta sopa denominada plasma Gluón-Quark.

Pero por ahora aquí, nos vamos a quedar con los quarks al natural. Normalmente, los quarks no se encuentra en un estado separados, sino que en grupos de dos o tres. Asimismo, la duración de las vidas medias de las partículas, antes de decaer en otras, es muy variable (ver tablas).

Por otra parte, las partículas presentan una o más de las siguientes interacciones o fuerzas fundamentales entre ellas. Por un lado se tiene la gravitación y el electromagnetismo, conocidas de la vida cotidiana. Hay otras dos fuerzas, menos familiares, que son de tipo nuclear y se conocen como interacciones fuertes y débiles.

La gravitación afecta a todas las partículas, es una interacción universal. Todo cuerpo que tiene masa o energía está sometido a esta fuerza. Aunque es la más débil de las interacciones, como las masas son siempre positivas y su alcance es infinito, su efecto es acumulativo. Por ello, la gravitación es la fuerza más importante en cosmología.

Archivo:Ferrofluid poles.jpg

                                              Fluido ferroso que se agrupa cerca de los polos de un imán

La fuerza electromagnética se manifiesta entre partículas con cargas eléctricas. A diferencia de las demás, puede ser de atracción (entre cargas de signos opuestos) o de repulsión (cargas iguales). Esta fuerza es responsable de la cohesión del átomo y las moléculas. Mantiene los objetos cotidianos como entidades con forma propia. Un vaso, una piedra, un auto, el cuerpo humano. Es mucho más fuerte que la gravitación y aunque es de alcance infinito, las cargas de distinto signo se compensan y sus efectos no operan a grandes distancias. Dependiendo de las circunstancias en que actúen, estas interacciones pueden manifestarse como fuerzas eléctricas o magnéticas solamente, o como una mezcla de ambos tipos.

La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.

La interacción nuclear débil es causa de la radioactividad natural y la desintegración del neutrón. Tiene un rol capital en las reacciones de fusión del hidrógeno y otros elementos en el centro de las estrellas y del Sol. La intensidad es débil comparada con las fuerzas eléctricas y las interacciones fuertes. Su alcance es muy pequeño, sólo del orden de 10-15 cm.

Archivo:CNO Cycle.svg

La interacción fuerte es responsable de la cohesión de los núcleos atómicos. Tiene la intensidad más elevada de todas ellas, pero es también de corto alcance: del orden de 10-13 cm.

Es posible caracterizar las intensidades de las interacciones por un número de acoplamiento a, sin dimensión, lo que permite compararlas directamente:

Fuerte as = 15

Electromagnéticas a = 7,3 x 10-3

Débil aw 3,1 x 10-12

Gravitacional aG = 5,9 x 10-39

Por otro lado, la mecánica cuántica considera que la interacción de dos partículas se realiza por el intercambio de otras llamadas «virtuales». Tienen ese nombre porque no son observables: existen por un tiempo brevísimo, tanto más corto cuanto mayor sea su masa, siempre que no se viole el principio de incertidumbre de Heisenberg de la teoría cuántica (que en este contexto dice que el producto de la incertidumbre de la energía por el tiempo de vida debe ser igual o mayor que una constante muy pequeña). Desaparecen antes de que haya tiempo para que su interacción con otras partículas delate su existencia.

Monografias.com

El fotón  virtual común se desplaza hacia la partícula menos energética.

Dos partículas interactúan al emitir una de ellas una partícula virtual que es absorbida por la otra. Su emisión y absorción cambia el estado de movimiento de las originales: están en interacción. Mientras menos masa tiene la partícula virtual, más lejos llega, mayor es el rango de la interacción. El alcance de la interacción es inversamente proporcional a la masa de la partícula portadora o intermedia. Por ejemplo, la partícula portadora de la fuerza electromagnética es el fotón, de masa nula y, por lo tanto, alcance infinito. La interacción gravitacional también tiene alcance infinito y debe corresponder a una partícula de masa nula: se le denomina gravitón. Naturalmente tiene que ser neutro. (Aún no ha sido vistos ni en pelea de perros).

Como ya hicimos mención de ello, a las fuerzas nucleares se les asocian también partículas portadoras. Para la interacción débil estas partículas se llaman bosones intermedios, expresados como W+, W- y Z0 (neutro). El W- es antipartícula del W+. Los W tienen masas elevadas comparadas con las otras partículas elementales. Lo de bosones les viene porque tienen spin entero, como el fotón y el gravitón, que también los son, pero que tienen masas nulas. Las fuerzas fuertes son mediadas por unas partículas conocidas como gluones, de los cuales habría ocho. Sin embargo, ellos no tienen masa, pero tienen algunas de las propiedades de los quarks, que les permiten interactuar entre ellos mismos. Hasta ahora no se han observado gluones propiamente tal, ya que lo que mencionamos en párrafos anteriores corresponde a un estado de la materia a la que llamamos plasma. Claro está, que es posible que un tiempo más se puedan detectar gluones libres cuando se logre aumentar, aún más, la temperatura, como está previsto hacerlo en el acelerador bautizado como “Relativistic Heavy Ion Collider”, empotrado en Estados Unidos de Norteamérica.

TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES

Resultado de imagen de TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES

tabla3

Una partícula y su anti-partícula no pueden coexistir si están suficientemente cerca como para interactuar. Si ello ocurre, ellas se destruyen mutuamente: hay aniquilación de las partículas. El resultado es radiación electromagnética de alta energía, formada por fotones gama. Así, si un electrón está cercano a un positrón se aniquilan en rayos gama. Igual con un par protón-antiprotón muy próximos.

La reacción inversa también se presenta. Se llama «materialización o creación de partículas» de un par partícula-antipartícula a partir de fotones, pero se requieren condiciones físicas rigurosas. Es necesario que se creen pares partícula-anti-partícula y que los fotones tengan una energía mayor que las masas en reposo de la partículas creadas. Por esta razón, se requieren fotones de muy alta energía, de acuerdo a la relación de Einstein E=mc2 . Para dar nacimiento a electrones/positrones es necesario un campo de radiación de temperaturas mayores a 7×109 °K. Para hacer lo mismo con pares protón/antiprotón es necesario que ellas sean superiores a 2×1012 °K. Temperaturas de este tipo se producen en los primeros instantes del universo.

Resultado de imagen de Paul Dirac y la anti particula

No debemos asombrarnos de nada a estas alturas después de todo lo que hemos podido ver.

Un equipo de científicos ha podido determinar que realmente existe una partícula que es su propia antipartícula. Se trata del fermión predicho en 1937 por el físico Ettore Majorana, que ha sido observado por primera vez en un material creado en laboratorio. Si los neutrones son partículas de Majorana, el universo está lleno de ellas, suponen los investigadores. El descubrimiento impulsará la construcción de ordenadores cuánticos.

emilio silvera

La gran aventura de estar aquí para poder “ver” tantas maracvillas

$
0
0

Lo cierto es que, sin excepción, todo es una gran aventura que comienza cuando nacemos. Sin embargo, no sabemos como puede terminar pero, eso sí, todas ellas son emocionantes y conllevan los misterios de fascinantes incertidumbres, nunca sabremos lo que pasará “mañana” toda vez que no hemos llegado a comprender, en toda su plenitud, a ninguna de estas historias e incluso, de algunas, desconocemos hasta su comienzo y, por ello, nos vemos en la necesidad de inventarlo. Claro que, lo que sucede primero no es necesariamente el principio.

Imagen relacionada

    Con ésta atmósfera ígnea, la Tierra todavía se estaba enfriando, ya existían las primeras bacterias

Esta es la Imagen de la Tierra, nuestro planeta que desde hace cuatro mil millones de años da cobijo a la Vida. Su clima y su topografía varían continuamente, como las especies que viven en él. Y lo que es más espectacular,  hemos descubierto que todo el universo de estrellas y galaxias está en un estado de cambio dinámico, en el que grandes cúmulos de galaxias se alejan de otros hacia un futuro que será muy diferente del presente. Ahora sabemos que, vivimos en un tiempo prestado.

Pero, a pesar del cambio incesante y la dinámica del universo visible, existen aspectos de la fábrica del Universo misteriosos en su inquebrantable constancia. Son esas misteriosas cosas invariables las que hace de nuestro Universo el que es y lo distinguen de otros mundos que pudiéramos imaginar. Cuando se conocen estas misteriosas constantes, podemos percibir que es como si hubiera un hilo dorado que teje una continuidad a través del espacio-tiempo que, inexorable, transcurre en la Naturaleza. Y, tales constancias, nos llevan a pensar que todas las cosas son iguales a lo largo del vasto Universo. Que fueron y serán las mismas en otros tiempos además de hoy.

La velocidad de la luz en el vacío, c, es una de esas misteriosas constancias que perduran a través del tiempo y del espacio, nunca varía. De hecho, quizá sin un substrato semejante de realidades  invariables no podrían existir corrientes superficiales de cambio ni ninguna complejidad de mente y materia. La velocidad de la luz, c, es una constante universal que marca el límite de velocidad del universo en el que nada, ninguna información, puede transmitirse más rápida que la velocidad de la luz. Einstein nos demostró que la velocidad de la luz en el vacío debería actuar como ese límite último de velocidad.

Resultado de imagen de La velocidad de la luz en el vacío

Con razón nos decía Planck:

La ciencia no puede resolver el misterio final de la Naturaleza. Y esto se debe a que, en el último análisis, nosotros mismos somos parte del misterio que estamos tratando de resolver.” 

 

Y, quizás por eso precisamente, será necesario que contactemos con otros seres inteligentes, con otras Civilizaciones de fuera de la Tierra para que, nos podamos conocer mejor, ya que, al compararnos con otras especies del Universo, podremos ver con diáfana claridad, quiénes somos que, precisamente, tiene mucho que ver con las constantes del universo, ya que, de ser distintas, no estaríamos aquí.

El mundo que nos rodea es así porque está conformado por esas constantes de la Naturaleza que hacen que las cosas sean como las podemos observar. Le dan al universo su carácter distintivo y lo hace singular, distinto a otros que podría nuestra imaginación inventar. Estos números misteriosos, a la vez que dejan al descubierto nuestros conocimientos, también dejan al desnudo nuestra enorme ignorancia sobre el universo que nos acoge. Las medimos con una precisión cada vez mayor y modelamos nuestros patrones fundamentales de masa y tiempo alrededor de su invarianza; no podemos explicar sus valores.

Nunca nadie ha explicado el valor numérico de ninguna de las constantes de la naturaleza. ¿Recordáis el 137? Ese número puro, adimensional, que guarda los secretos del electrón (e), de la luz (c) y del cuanto de acción (h). Hemos descubierto otros nuevos, hemos relacionado los viejos y hemos entendido su papel crucial para hacer que las cosas sean como son, pero la razón de sus valores sigue siendo un secreto profundamente escondido.

¡Nos queda mucho por descubrir! Pero, es cierto, que algo hemos avanzado y sabemos algunas cosas como, por ejemplo que…

Los campos magnéticos están presentes por todo el Universo. Hasta un diminuto (no por ello menos importante) electróncrea, con su oscilación, su propio campo magnético, y,  aunque pequeño,  se le supone un tamaño no nulo con un radio ro,llamado el radio clásico del electrón, dado por r= e2/(mc2) = 2,82 x 10-13 cm, donde e y m son la carga y la masa, respectivamente del electrón y c es la velocidad de la luz.

Imagen relacionada

“La creciente distancia entre la imaginación del mundo físico y el mundo de los sentidos no significa otra cosa que una aproximación progresiva al mundo real.” 

El mundo que nosotros percibimos es “nuestro mundo”, el verdadero es diferente y como nos dice Planck en la oración entrecomillada, cada vez estamos más cerca de la realidad, a la que, aunque no nos pueden llevar nuestros sentidos, si no llevarán la intuición, la imaginación y el intelecto.

Está claro que la existencia de unas constantes de la Naturaleza nos dice que sí, que existe una realidad física completamente diferente a las realidades que la Mente humana pueda imaginar. La existencia de esas constantes inmutables dejan en mal lugar a los filósofos positivistas que nos presentan la ciencia como una construcción enteramente humana: puntos precisos organizados de una forma conveniente por una teoría que con el tiempo será reemplazada por otra mejor, más precisa. Claro que, tales pensamientosm quedan fuera de lugar cuando sabemos por haberlo descubierto que, las constantes de la naturaleza han surgido sin que nosotros las hallamos invitado y, ellas se muestran como entidades naturales que no han sido escogidas por conveniencia humana.

 Las distintas constantes del Universo han sido puestas a prueba para comprobar si han cambiado a lo largo del tiempo.

Los cuásares están entre los objetos más distantes en el universo. La palabra cuásar o “quasar” es una contracción de las palabras “quasi” y “stellar”, por ello son llamados así por su apariencia estelar. El cuásar más lejano hasta ahora es SDSS 1030 +0524 y se halla a unos 13000 millones de años-luz de distancia apenas unos 700 millones después de nacer el universo. La medición de la distancia de estos objetos se toma de la velocidad de alejamiento que presentan, dato que nos lo da el desplazamiento al rojo (z). Se cree que un cuásar nace cuando se fusionan dos galaxias y sus agujeros negros centrales quedan convertidos en este potente y energético objeto.

Resultado de imagen de El cuásar 3C191 fue localizado

El cuásar 3C191 fue localizado con un desplazamiento al rojo de 1,95 y por eso su luz salió cuando el universo tenía sólo una quinta parte de su edad actual, hace casi once mil millones de años, llevando información codificada sobre el valor de la constante de estructura fina en ese momento. Con la precisdión de las medidas alcanzables entonces, se encontró que la constante de estructura fina era la misma entonces que ahora dentro de un margen muy pequeño que se puede deber a la imprecisión de la medida:

α (z = 1,95/α(z = 0) = 0,97 ± 0,05

La Constante de la Estructura Fina - www.pedroamoros.com

       La Constante de la Estructura Fina

Poco después , en 1967, Bahcall y Schmidt observaron un par de líneas de emisión de oxígeno que aparecen en el espectro de cinco galaxias que emiten radioondas, localizadas con un desplazamiento hacia el rojo promedio de 0,2 (emitiendo así su luz hace unos dos mil millones de años: Aproximadamente la época en que el reactor de Oklo estaba activo en la Tierra y obtuvieron un resultado consistente con ausencia de cambio en la constante de estructura fina que era aún diez veces más fuerte:

α (z = 0,2)/α(z = 0) = 1,001 ± 0,002

Estas observaciones excluían rápidamente la propuesto por Gamow de que la constante de estructura fina estaba aumentando linealmente con la edad del universo. Si hubiese sido así, la razón α(z = 0,2)/α(z = 0) debería haberse encontrado con un valor próximo a 0,8.

[nebulosa20111%255B3%255D.jpg]

Una de las cuestiones más controvertidas en la cosmología es porque las constantes fundamentales de la naturaleza parecen finamente ajustadas para la vida. Una de estas constantes fundamentales es la constante de estructura fina o alfa, que es la constante de acoplamiento de la fuerza electromagnética (usualmente denotada g, es un número que determina la fuerza de una interacción) y equivale a 1/137,03599911.

La ilustración muestra cómo los rayos X de un cuasar distante, son filtrados al pasar por una nube de gas intergaláctico. Midiendo la cantidad de la disminución de la luz debido al oxígeno y otros elementos presentes en la nube los astrónomos pudieron estimar la temperatura, densidad y la masa de la nube de gas  (el cuasar PKS 2155-304).

Actualmente, el más potente método utilizado en estos experimentos dirige todo su potencial en la búsqueda de pequeños cambios  en la absorción por los átomos de luz procedentes de cuásares lejanos.  En lugar de considerar pares de lineas espectrales  en dobletes del mismo elemento, como el silicio,  considera la separación entre líneas causada por la absorción de la luz del cuásar por diferentes elementos químicos en nubes de gas situadas entre el cuásar y nosotros. Y, a todo esto, las cuatro fuerzas fundamentales siguen estando presentes.

No debemos descartar la posibilidad de que, seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el Universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas.  Este fenómeno se puede representar en un gráfico que se cree la escala logarítmica de tamaño desde el átomo a las galaxias.  Todas las estructuras del Universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras, la  atracción (Expansión) y la repulsión (contracción).  Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla, así, el resultado es la estabilidad de la estrella.  En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos.  Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, ћ, c, G y mprotón.

α = 2πeћc ≈ 1/137
αG = (Gmp2)ћc ≈ 10-38

La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro.  Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el Universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales.  Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios.  Los átomos pueden tener propiedades diferentes.  La gravedad puede tener un papel en el mundo a pequeña escala.  La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la Naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas, no se puede llegar a saber porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

Es un gran mérito por nuestra parte que, nuestras mentes, puedan haber accedido a ese mundo mágico de la Naturaleza para saber ver primero y desentrañar después, esos números puros y adimensionales que nos hablan de las constantes fundamentales que hacen que nuestro Universo sea como lo podemos observar.

Cuando surgen comentarios de números puros y adimensionales, de manera automática aparece en mi mente el número 137.  Ese número encierra más de lo que estamos preparados para comprender, me hace pensar y mi imaginación se desboca en múltiples ideas y teorías.  Einstein era un campeón en esta clase de ejercicios mentales que él llamaba “libre invención de la mente”.  El gran físico creía que no podríamos llegar a las verdades de la naturaleza solo por la observación y la experimentación.  Necesitamos crear conceptos, teorías y postulados de nuestra propia imaginación que posteriormente deben ser explorados para averiguar si existe algo de verdad en ellos.

“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben.  En el cartel solo pondría esto: 137.  Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”.

Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba.  La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón,  por el producto de la velocidad de la luz y la constante de Planck.

Lo más notable de éste número es su adimensionalidad.  La velocidad de la luz, c, es bien conocida y su valor es de 299.792.458 m/segundo, la constante de Planck racionalizada, ћ, es ћ/2 = 1,054589 ×10 julios/segundo, la altura de mi hijo Emilio, el peso de mi amigo Kike (hay que cuidarse), etc., todo viene con sus dimensiones.  Pero resulta que cuando uno combina las magnitudes que componen alfa ¡se borran todas las unidades! El 137 está sólo: se exhibe desnudo a donde va.  Esto quiere decir que los científicos del undécimo planeta de una estrella lejana situada en un sistema solar de la Galaxia Andrómeda, aunque utilicen quién sabe qué unidades para la carga del electrón y la velocidad de la luz y que versión utilicen para la constante de Plancl,  también les saldrá el 137.  Es un número puro.  No lo inventaron los hombres.  Está en la naturaleza, es una de sus constantes naturales, sin dimensiones.

La física se ha devanado los sesos con el 137 durante décadas.  Werner Heisember (el que nos regaló el Principio de Incertidumbre en la Mecánica Cuántica), proclamó una vez que, todas las fuentes de perplejidad que existen en la mecánica cuántica se secarían si alguien explicara de una vez el 137.

¿Por qué alfa es igual a 1 partido por 137? El 137 es un número primo. Su inversa, 1/137, es un valor muy cercano al de la constante alfa, que (según la electrodinámica cuántica) caracteriza la interacción entre fotones y electrones. El nombre técnico de alfa es “constante de estructura fina“, y es una de las constantes físicas cuya predicción teórica mejor coincide con los datos experimentales.

Los físicos han demostrado que el valor de alfa es el que tiene que ser para que exista un Universo como el nuestro. De hecho, si alfa variara apenas un poco (menos del 5%), el carbono no se produciría en los hornos estelares y, la vida, tal como la concemos, estaría ausente.

Nosotros, los humanos del planeta Tierra, sabemos de todas esas cuestiones y la última lección que aprendemos de la manera en que números puros como α definen el mundo es el verdadero significado de que los mundos sean diferentes. El número puro que llamamos constante de estructura fina, e identificamos con α, es una combinación de la carga del electrón, e, la velocidad de la luz, c, y la constante de Planck, h. Inicialmente podríamos estar tentados a pensar que un mundo en el que la velocidad de la luz fuera más lenta sería un mundo diferente. Pero sería un error. Si c, h y c cambian de modo que sus valores que tienen unidades métricas (o cualesquiera otras) fueran diferentes cuando las buscamos en nuestras tablas de constantes físicas pero el valor de alfa (α) permaneciera igual, este nuevo mundo sería observacionalmente indistinguible de nuestro mundo. Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la Naturaleza. Si se duplica el valor de todas las masas, no se puede llegar a saber porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

¡Qué cosas! Tiene la Naturaleza que todo lo hace de manera que nosotros estemos aquí. Bueno, al menos así lo parece.

emilio silvera

El Universo complejo y… ¿nosotros?

$
0
0

En la imagen se indican las regiones donde tuvieron lugar sucesos de gran importancia y que fueron capturadas en el ultravioleta extremo. Las lineas blancas trazan el campo magnético solar (Crédito: K. Schrijver & A. Title). Ni los 150 millones de kilómetros que nos separan de la estrella más importante para nosotros, nos impiden urgar y desvelar sus secretos, y, desde luego, hacemos muy bien, es mucho lo que nos va en ello. Saber y conocer lo que allí ocurra es, nuestra garantía de vida. Bueno, si no tanto como eso sí al menos tener la posibilidad de información por si, llegado el caso, podemos prevenir algún desastre.

File:Gravity Probe B.jpg

Satélite Gravity Probe B. Dedicado a medir la curvatura del campo gravitatorio terrestre debido a la teoría de la relatividad de Einstein. La gravedad ha sido medida y comprobada de muchas maneras pero… ¡Gravedad cuántica! ¿qué es eso? La imaginación anda más rápida que los conocimientos. Sin embargo, así hemos ido avanzando en el transcurrir del Tiempo. Ahora andamos a vueltas con la “materia oscura” que nadie sabe (a ciencia ciewrta) lo que es, yo la llamo materia cósmica y me parece más apropiado.

                          ¿Os acordáis? ¿Cuántos niños no habrán soñado con escenas como estas?

Cuando hablo de lo muy pequeño, puedo llegar a entender muy bien lo que es, lo que son, “licencias literarias” el papel de nada se queja y el lápiz puede escribir lo que quiera y piense el que lo sostiene, según le dicte su imaginación. Claro que, cuando comparamos ese mundo de ilusiones e imaginación con el mundo real, todo el edificio se viene abajo. ¡Lástima!

Todos los niños pequeños juegan con pequeños muñecos que son soldados, guerreros o seres de otras galaxias con poderes mágicos y, ellos, en su inocente mundo sin maldad, los dirigen con sus manitas gordezuelas al desarrollo de luchas y aventuras sin fin. Jonathan Swift, nos deleitó con aquellas aventuras de Gulliver, un aventurero que llegó a las tierras de Lilliput: Allí, todo era muy pequeño, la naturaleza, las plantas, los habitantes del lugar y sus casas y palacios, embarcaciones y todos los animales.

Gulliver era allí un gigante de proporciones inmensas: Incluso llegó a extinguir un fuego con una simple chorrada (es decir, hizo pipí) y acabó de inmediato con el (para ellos) enorme fuego.

Resultado de imagen de Minotaurus, Druidas, Dragones y Nibelungos

Historias y Leyendas ligadas a la Mitología. Minotaurus, Druidas, Dragones y Nibelungos que buscan anillos y tesoros…

Hemos demostrado tener mucha imaginación y las historias y leyendas que nos llegan desde el pasado está mezclada con la Mitología de los pueblos que, en todos los rincones del mundo crearon sus propios mitos que nos dibujan escenarios que hablan de la inmensa diversidad. Siempre hemos buscado algo pero nunca logramos encontrarlo todo. ¡La búsqueda continúa!

Al menos de momento, tenemos que admitir que es así. No creo que nunca podamos adquirir un conocimiento pleno de todas las cosas. Siempre nos quedarán secretos que desvelar y misterios por descubrir, y, la inmensa variedad y la vastedad compleja de la Naturaleza, tendrá siempre para nosotros, algunos rincones oscuros en los que moran respuestas que deseamos , y que sin embargo, es posible, que nunca las podamos atisbar.

¿Oiremos alguna vez que han encontrado los restos de la Atlántida?

“De todos los misterios que andan por el mundo, ninguno puede competir con las historias de tierras pérdidas y civilizaciones que ya no existen, y entre todas ellas, destaca sobremanera una: la desaparición de la Atlántida, un continente entero, que existió más allá de las Columnas de Hércules (Gibraltar) o quién sabe dónde. A la Atlántida, se la tragó la tierra, en día y una noche, sin dejar rastro ni de ella ni de la floreciente civilización que poseía. “… ¡Según nos cuentan!

     Lo cierto es que cuando miramos hacia atrás en el tiempo, sí que tenemos motivos para el asombro

Los orígenes del conocimiento quedan lejos y se pierde en la noche de los tiempos: Sumeria, Babilonia, Egipto, China, La India, Persia y más tarde Grecia y el Islam, Toda América y sus Civilizaciones y Europa. Nos tenemos que guiar por los vestigios dejados por aquellos pueblos que, desgraciadamente, el tiempo se ha encargado de borrar en la mayor parte de los casos y sólo hemos podido recuperar pequeñas obras y destruidas construcciones. De las más importantes en volumen, se ha conservado una gran colección por todo el mundo que nos habla de lo que fueron aquellos pueblos.

Resultado de imagen de El cúmulo Copo de Nieve y la Nebulosa del Cono

Con bastante amplitud hemos hablado aquí del Universo, de su “nacimiento” y de su posible “muerte”. De manera individual hemos hablado de los objetos que lo pueblan y de las fuerzan que lo rigen. Por ejemplo, el Cúmulo Copo de Nieve en la Nebulosa del Cono, es como tántas otras Nebulosas, el resultado de la explosión de una estrella al final de sus días. Las estrellas nunca quieren morir del todo y, cuando lo hacen al finalizar sus ciclos de fusión, se convierten en otros objetos distintos y, sus materiales sobrantes son dejados esparcidos por grandes regiones del espacio interestelar, en forma de bellas nebulosas de las que surgen nuevas estrellas, nuevos mundos y… -seguramente- nuevas formas de vida.

Resultado de imagen de Abell 2744: Cúmulo de Galaxias de Pandora

                                                             Es el Cúmulo de Galaxias llamado Pandora

Ahora sabemos que el Universo está constituito de innumerables galaxias que forman cúmulos que, a su vez, se juntan en supercúmulos. Estas galaxias están abarrotadas de estrellas y las estrellas, no pocas veces, están acompañadas de planetas que forman sistemas planetarios. Nosotros, los humanos, hemos realizado profundas observaciones que, con nuestros modernos ingenios, nos han podido llevar hasta el espacio profundo, allí donde habitan galaxias que nacieron hace ahora doce mil millones de años.

Los vientos estelares emitidos por las estrellas jóvenes, distorsionan el material presente en las Nebulosas, y, de la maisma manera, en presencia de masa … ¡se crean nuevas estrellas y nuevos mundos en los que, si el Azar los sitúa en el lugar adecuado, la Zona Habitable, podrían surgir formas de vida como ocurrió aquí en la Tierra.

                             Hemos estado divagando sobre lo que nos espera en el futuro.

Podemos imaginar muchas cosas y dibujar en nuestras mentes miles de escenarios diferentes de lo que será el futuro de la Humanidad: Alcanzaremos los conocimientos para poder vivir 200 años, la tecnología robotica avanzará tanto que, nuestra especie terminará fundiéndose con ella, de tal manera que podremos llegar a ser auténticos cyborgs, medio humanos y medio robots. También es posible que podamos conseguir durar algunos millones de años más y, de esa manera, tendremos tiempo para dominar las energías que se producen en las estrellas y en los agujeros negros. Tendremos tiempo para salir de nuestro confinamiento terrestre y crear bellas ciudades en mundos lejanos, la Humanidad se esparcirá por toda la Galaxia. También es posible que, dentro de unos días, unos meses o unos años, llegue ese meteorito inesperado y acabe con todos nuestros sueños. Otra posiblidad, es la de que podamos ser invadidos por seres de otros mundos que, con mentalidades muy diferentes, no traigan buenas intenciones. También entra dentro de lo posible que…

Resultado de imagen de La paradoja de Teseo

Teseo se preguntaba si cuando, en su paradoja de reemplazo, cuando a un objeto se le cambian todas las piezas, seguía siendo el mismo objeto. De la misma manera, nosotros, a medida que vamos evolucionando a lo largo de nuestras vidas, nos vamos transformando en otro muy diferente, toda vez que, las experiencias vivídas, nos cambian y nuestra mente de hoy, no es la mente de ayer. Ya lo decía Heráclito, el gran filósofo griego:

“Ningún hombre puede cruzar el mismo río dos veces, porque ni el hombre ni el agua serán los mismos.”

¿La metafísica? Una escalera que no hemos podido subir y una puerta, que tampoco hemos sabido cruzar. Es lo que está más allá de lo material, incluso sobrepasa el mundo filosófico de los pensamientos que se pueden constatar para adentrarse en ese otro “mundo” en el que la mente divaga y quiere llegar mucho más lejos  de lo que le está permitido.

Como nunca nadie pudo estar en otro Universo, tenemos que imaginarlos y basados en la realidad del nuestro, realizamos conjeturas y comparaciones con otros … ¡Que podrían ser! En nuestro Universo existen cientos de miles de estrellas y mundos, más de cien mil millones de galaxias y, todo objeto se repite una y otra vez, y, siendo así (que lo es) ¿por qué no habrían de existir otros universos?

Hablar de una Naturaleza simétrica sería condenar a nuestro Universo a la monotonía de la igualdad, y, todos sabemos que en él se encuentra todo lo que existe, la Materia, el Tiempo y el Espacio, todo ello acompañado por fuerzas que hacen de nuestro universo el que conocemos y, dentro de toda esa inmensidad, también se encuentran la simetría y la asimetría, en nuestro mundo el día y la noche. La riqueza de la diversidad que conforma ese todo que el Universo es.

Resultado de imagen de Simetría y asimetría

La exploración de la simetría y la asimetría en la Naturaleza comenzaba con el mayor de los objetos naturales: ¡El propio Universo! Y, hemos ido reduciendo gradualmente la escala de tamaños con estructuras cada vez más pequeñas. En otras ocasiones hemos tenido aquí mismo la oportunidad de hablar de la simetría que encontramos en la Naturaleza de las plantas y de los animales. , desviamos nuestra atención hacia estructuras todavía menores, las diversas sub-unidades que constituyen todas las sustancias materiales, vivas o inertes.

de continuar y para aquellos que lo puedan desconocer, será conveniente que tengan una conciencia clara de qué son exactamente estas unidades inferiores. Comenzando con las más pequeñas y yendo después en sentido ascendente, la escala sería:

Las partículas elementales que están descritas en el Modelo estándar actual de la física de partículas que conforman la materia y las fuerzas con las que interaccionan y que, donde hemos podido saber, están divididas en familias:

Leptones: partículas puntuales con una dimensión espacial inapreciable. Los seis leptonesconocidos  son el electrón, el muón y el tauón, y el neutrino asociado a uno de ellos, el neutrino electrónico, muónico y tauónico.

Resultado de imagen de Leptones

Hadrones: Son aquellas partículas que se cree que están compuestas de pequeñas partículas puntuales llamadas quarks. Se han identificado cientos de hadrones, de los cuales los más importantes son el protón y el neutrón, ya que junto con el electrón forman la materia ordinaria.

Resultado de imagen de BarionesResultado de imagen de de la familia de los hadrones: mesones


Bosones: Partículas de “cambio”, partículas “soporte”, partículas “mensajeras” o partículas “indicadoras”. Contienen o son intermediarias de las cuatro fuerzas: electromagnetismo (conducido por el fotón), la fuerza débil (conducida por los vectores bosones intermedios), la gran fuerza nuclear (por los gluones) y la gravedad (por el gravitón aún no detectado). A finales de lños años setenta, las fuerzas elecdtromagnética y débil se unificaron en lo que llamamos la fuerza electrodébil. La teoría electrodébil predice un bosón masivo denominado partícula de Higgs que,según los del CERN, se cazó en el año 2.012. Sin embargo, faltan muchas explicaciones sobre dicho hallazgo.


                     Representación de los tres bosones intermediarios en la fuerza electrodébil

Una vez descritas, muy someramente, las partículas de la materia y las fuerzas que rigen el universo conocido, tendríamos que pasar, de inmediato, al paso próximo que estaría representado por el átomo que, hasta donde conocemos, es la menor unidad estructural en la que dividirse la materia sin que pierda sus propiedades. En el centro de todo átomo está el núcleo, que debe contener al menos un protón, pero habitualmente está formado por una mezcla de protones y neutrones. Alrededor del núcleo, agrupados en “capas”, están los electrones. El átomo más sencillo, el de Hidrógeno, un núcleo con un protón, alrededor del cual se mueve un único electrón. El átomo más complejo que se ha encontrado en la Naturaleza es el del Uranio, con 92 electrones. En el laboratorio se han encontrado algunos  elementos más complejos a los que se llaman transuránicos, es decir, que van más allá del uranio y que no se encuentran en la Naturaleza, son artificiales.

A merced del Universo, sobre el frágil puente de nuestra ignorancia y ante la luz cegadora de nuestras propias mentes que no nos deja “ver” el infinito mundo del conocimiento de las cosas, de la Naturaleza y de nosotros mismos. presentó “El Origen de las Especies”, allá por el año 1887, Thomas Henry Huxley dijo:

“Lo conocido es finito, lo desconocido infinito; intelectualmente nos hallamos en un islote en medio del océano ilimitado de lo inexplicable. La tarea de generación es reclamar un poco más de terreno, añadir algo de extensión y solidez de nuestras posesiones”

 

Como es algo que me despierta la curiosidad, con bastante asiduidad, hemos hablado aquí del Tiempo, y nos hemos preguntado qué puede ser. He dicho que pasado, presente y Futuro es sólo una Ilusión que llamamos Tiempo. Sin embargo, nosotros, los humanos, estamos condenados a vivir en un perpetuo presente, nunca podremos conocer eso que llamamos futuro y que será el Tiempo de los que vendrán detrás de nosotros y, la paradoja es, que para ellos, también será un Tiempo presente. Nadie nunca podrá conocer el futuro. Bueno… ¡Imaginarlo Sí!

http://4.bp.blogspot.com/-DJo1wxvXAC0/TaYnYaVjmCI/AAAAAAAAAWQ/VGLS3Gro0rU/s1600/palms-clock.jpg

Esta misma entrada ha sido vista aquí en varias ocasiones pero, lo que representa, tiene el derecho a que sea divulgada una y otra vez. Se trata de la historia de intrépidos viajeros-aventureros que con su valor, hicieron posible el conocimiento de nuevas tierras y nuevas gentes. Algunos tenían en la mente la existencia de lugares maravillosos y no se paraban a pensar en los peligros que tratar de descubrirlos conlleva. Otros, buscaban tesoros y no pocos salían en busca de las aventuras que esperaban vivir en asombrosas situaciones, lugares y gente que ni podían imaginar.

Parecida era la concepción de la tierra representada en el primer mapamundi griego del que se tienen referencias. Hablan de él y lo describen Heródoto y Estrabón. Lo dibujó Anaximandro (ca. 611-545 a.C.) y sabemos que el mapa abarcaba todo el ámbito de la tierra habitable con todos los mares y ríos conocidos. La tierra, según la representó Anaximandro, era un cilindro oblongo, dos veces más ancho (de Este a Oeste) que alto (de norte a sur). Se distribuía alrededor del mar Mediterráneo y estaba a su vez rodeada por un río-océano. Esta tierra cilíndrica y oblonga estaba habitada únicamente en su disco superior -al que los griegos llamaban ecúmenos, diferenciando la tierra habitada y habitable de la tierra-planeta-, y permanecía libremente suspendida en el centro de una esfera completa que era el cielo. No se caía, porque al ser equidistante de todo, no podía caer hacia ningún lado.

Imagen relacionada

        La concepción del mundo ha sido siempre muy variada para los distintos pueblos

Pasamos a comentar hechos y sobre personajes que, en distintas épocas y partes del mundo, hicieron posible el avance de nuestros conocimientos, todos y todo contribuyó a ello, cada cosa y cada personaje en su medida, y, unificados lo hicieron posible.  Hoy nosotros,  podemos aprender de todo aquello, y podemos saber como llegaron a conseguir los conocimientos que tenemos en muchos aspectos de nuestras experiencias transmitidas por estudiosos de hace muchos siglos.

Imagen relacionada

Pitágoras fundo su escuela después de viajar a Egipto para aprender matemáticas

Aquellos hombres arriesgaban sus vidas por saber, fueron muchos de los clásicos griegos los pertenecientes a este grupo viajero, y, a pesar del riesgo que ello conllevaba, viajaban a lugares lejanos buscando saber de matemáticas o de astronomía.

Todos hemos oído hablar, con más o menos frecuencia, de “Sistemas Complejos”, aquí mismo en estas páginas, la palabra sale a relucir con cierta frecuencia y, no me extraña que “la palabreja” cree una barrera, dado que, para muchas personas, “complejo” significa “complicado” y suponen automáticamente que, si un sistema es complicado, será difícil de comprender. La naturaleza posee una fuerte tendencia a estructurarse en forma de entes discretos excitables que interactúan y que se organizan en niveles jerárquicos de creciente complejidad, por ello, los sistemas complejos no son de ninguna manera casos raros ni curiosidades sino que dominan la estructura y función del universo.

Claro que, no siempre ese temor a lo difícil y complicado, está justificado y, tal suposición no es, necesariamente correcta. En realidad, un sistema complejo es tan solo un sistema que está formado por varios componentes más sencillos que ejercen entre sí una interacción mutua que, naturalmente, tiene sus consecuencias. Si miramos la imagen de arriba, vemos una inmensa y hermosa Nebulosa que está formada por una serie de “cosas” sencillas como lo son el gas hidrógeno y el polvo interestelar entre otros y, en presencia de energías, la gravedad y otros parámetros, ahí ocurren cosas tales como, el nacimiento de estrellas y la aparición de mundos…entre otras.

Los grandes triunfos de la Ciencia se han logrado, en gran medida, descomponiendo los sistemas complejos en sus componentes simples, es decir, estudiar por partes lo que allí está presente (en caso necesario, como primera aproximación, dando el paso suplementario de pretender que todos los componentes son más sencillos de lo que son en realidad) para llegar a comprender el todo.

              No siempre vemos lo que es

Nuestra realidad es que uno de nosotros percibimos, entendemos y actuamos de manera diferente en la vida. Cada uno poseemos nuestra propia realidad del mundo y de nosotros mismos. Estamos construidos a base de creencias, y esas creencias son las que influyen de manera decisiva en nuestra realidad y en nuestra conducta, por lo tanto, son las culpables de que consigamos o no nuestros objetivos. Básicamente nuestra realidad está formada por nuestras creencias.

Ninguna idea nos ha llegado de manera instantánea y depurada en todos sus conceptos, sino que, han sido ideas que han tenido que ir siendo depuradas más y más a conseguir esa realidad que buscábamos haciendo que, el esquema encontrado, se parezca lo más posible al mundo que nos rodea y que podemos observar. Esa es, en pocas palabras la historia de la Relatividad de Einstein que ajunto muchas ideas  y conceptos conseguir sus teorías que están muy cercas de lo que el mundo es.

Resultado de imagen de el valle marineris de marte

El Valle Marineris es, de hecho, el más complejo entramado de cañones fluviales de todo el Sistema Solar con una longitud de 4 100 kilómetros, una anchura próxima a los 500 y zonas en las que la profundidad alcanza algo más de los cuatro kilómetros. Aunque la primera impresión pueda ser la de que la conformación se debe a movimientos de la corteza marciana, lo cierto es que, después de muchos estudios se puede dar por hecho que fue el agua el verdadero agente que modeló lo que podríamos considerar como uno de los más bellos y extensos “Parques Nacionales” de todo el Sistema Solar.

Vía Láctea (como otras galaxias espirales) es una zona de reducción de entropía…, así se deduce de varios estudios realizados y se puede argumentar que, … Efectivamente, existe un parámetro oculto universal que crea la Entropía negativa que, como por ejemplo hacemos nosotros al reproducirnos, estamos luchando contra la Entropía destructura y creamos nuevas vidas.

 

 

“Una inteligencia que conociese, en un momento determinado, todas las fuerzas que operan en la Naturaleza, así como las posiciones momentáneas de todas las cosas que constituyen el universo, sería capaz de condensar en una sola fórmula los movimientos de los cuerpos más grandes del mundo y los de los átomos más ligeros, siempre que su intelecto sea bastante  poderoso para someter a análisis todos los datos; para él nada sería incierto, el pasado y el futuro estarían presentes ante sus ojos.”

 

 

Inmensas galaxias cuajadas de estrellas, nebulosas y mundos. Espacios interestelares en los que se producen transmutaciones de materia que realizan el asombroso “milagro” de convertir unas cosas en otras distintas. Un Caos que lleva hacia la normalidad. Estrellas que explosionan y riegan el espacio de gas y polvo constituyentes de materiales en el que se forjarán nuevas estrellas, nuevos mundos y nuevas formas de vida. Así es como ocurren las cosas en este universo nuestro que no hemos llegado a conocer. De hecho, ni sabemos a ciencia cierta si su “nacimiento” fue debido, realmente, al Big Bang.

Me gustaría continuar con el resumen de lo que hemos tratado durante todo el año pero… ¡Es dificil! “El Tiempo” me lo impide y, ya seguiremos hablando de todos estos temas interesantes en el año venidero que, nos dará muchas sorpresas con nuevos descubrimientos e inventos  que nos llevan a ese futuro que nunca podremos conocer.

emilio silvera

¡La Entropía! con el paso del tiempo, todo lo destruye

$
0
0

 

Muchas veces he dejado aquí una reseña de lo que se entiende por entropía y así sabemos que la energía sólo puede ser convertida en  cuando    dentro del sistema concreto que se esté utilizando, la concentración de energía no es uniforme. La energía tiende entonces a fluir desde el punto de mayor concentración al de menor concentración, hasta establecer la uniformadad. La obtención de trabajo a partir de energía consiste precisamente en aprovechar este flujo.

 

 

 

 

En reralidad, la Entropía, no nos debe resultar tan extraña como esa imagen de arriba. Es algo que está presente en toda nuestra vida cotidiana. Sus efectos los podemos ver en todo lo que nos rodea y sentir en nosotros mismos. Nada permanece igual, todo cambia y se transforma: Es la Entropía destructora que hace estragos en connivencia con el tiempo.

 

 

 

 

 

Está claro que la madre ha sufrido más intensamente los efectos de la entropía que la graciosa niña que  está comenzando su andadura por la vida. ¡El Tiempo! Ese inexorable transcurrir de la fatídica flecha que nos lleva, desde el mismo instante  del nacimiento, hasta el inevitable final: Es la Entropía destructora, ese mecanismo del que se vale nuestro Universo para renovarlo todo, incluso la vida que, de otra manera, no podría evolucionar, y, de alguna manera, ese surgir de la vida nueva, y las nuevas estrellas y nuevos mundos que nacen en las galaxias, se podría considerar como entropía negativa, es decir, algo que está ocurriendo para que el Caos no sea total.

 

Resultado de imagen de El manantial que mana en lo alto de la montaña

 

 

El agua de un río está más alta y tiene más energía gravitatoria en el manantial del que mana en lo alto de la montaña y menos energía en el llano en la desembocadura, donde fluye suave y tranquila. Por eso fluye el agua río abajo  el mar (si no fuese por la lluvia, todas las aguas continentales fluirían montaña abajo hasta el mar y el nivel del océano subiría ligeramente. La energía gravitatoria total permanecería igual, pero estaría distribuida con mayor uniformidad).

Una rueda hidráulica gira gracias al agua que corre ladera abajo: ese agua puede realizar un . El agua sobre una superficie horizontal no puede realizar trabajo, aunque esté sobre una meseta muy alta y posea una energía gravitatoria excepcional. El factor crucial es la diferencia en la concentración de energía y el flujo hacia la uniformidad.

 

 

 

 

Y lo mismo reza para cualquier clase de energía. En las máquinas de vapor hay un depósito de calor que convierte el agua en vapor, y otro depósito frío que vuelve a condensar el vapor en agua. El factor decisivo es esta diferencia de temperatura. Trabajando a un mismo y único nivel de temperatura no se puede extraer ningún , por muy alta que sea aquella.

El término “entropía” lo introdujo el físico alemán Rudolf J. E. Clausius en 1.849  representar el grado de uniformidad con que está distribuida la energía, sea de la clase que sea. Cuanto más uniforme, mayor la entropía la energía está distribuida de manera perfectamente uniforme, la entropía es máxima para el sistema en cuestión.

 

 

 

                  Rudolf J. E. Clausius

 

 

Clausius observó que cualquier diferencia de energía dentro de un sistema tiende siempre a igualarse por sí sola. Si colocamos un objeto caliente junto a otro frío, el calor fluye de manera que se transmite del caliente al frío hasta que se igualan las temperaturas de ambos cuerpos. Si tenemos dos depósitos de agua comunicados  sí y el nivel de uno de ellos es más alto que el otro, la atracción gravitatoria hará que el primero baje y el segundo suba, hasta que ambos niveles se igualen y la energía gravitatoria quede distribuida uniformemente.

Clausius afirmó, por tanto, que en la naturaleza era regla general que las diferencias en las concentraciones de energía tendían a igualarse. O dicho de otra manera:

 

¡Que la entropía aumenta con el paso del Tiempo en cualquier sistema cerrado!

 

 

 

 

 

El estudio del flujo de energía desde puntos de alta concentración a otros de baja concentración se llevó a cabo de modo especialmente complejo en relación con la energía térmica. Por eso, el estudio del flujo de energía y de los intercambios de energía y trabajo recibió el  de “termodinámica”, que en griego significa “movimiento de calor”.

La termodinámica (significa “calor” y  dinámico, que significa “fuerza”) es una rama de la física que estudia los fenómenos relacionados con el calor.

 

Resultado de imagen de termodinamica 001 Motor de combustión interna: transferencia de energía.

Motor de combustión interna: transferencia de energía.

Específicamente, la termodinámica se ocupa de las propiedades macroscópicas (grandes, en oposición a lo microscópico o pequeño) de la materia, especialmente las que son afectadas por el calor y la temperatura, así  de la transformación de unas formas de energía en otras.

Con anterioridad se había llegado ya a la conclusión de que la energía no podía ser destruida ni creada regla es tan fundamental que se la denomina “primer principio de la termodinámica”.

La idea sugerida por Clausius de que la entropía aumenta con el tiempo es una regla general no  básica, y que denomina “segundo principio de la termodinámica.”

Según  segundo principio, la entropía aumenta constantemente, lo cual significa que las diferencias en la concentración de energía también van despareciendo. Cuando todas las diferencias en la concentración de energía se han igualado por completo, no se puede extraer más , ni pueden producirse cambios.

¿Está degradándose el universo?

           El tiempo corre y las piezas se desgastan

Pensemos en un reloj. Los relojes funcionan gracias a una concentración de energía en su resorte o en su batería. A medida que el resorte se destensa o la reacción química de la batería avanza, se establece un flujo de energía  el punto de alta concentración al de baja concentración, y como resultado de este flujo anda el reloj. Cuando el resorte se ha destensado por completo o la batería ha finalizado su reacción química, el nivel de energía es uniforme en todo el reloj, no hay ya flujo de energía y la maquinaria se para. Podríamos decir que el reloj se ha “degradado”. Por analogía, decimos que el universo se “degradará” cuando toda la energía se haya igualado.

Si es cierto el segundo principio de la termodinámica, todas las concentraciones de energía en todos los lugares del universo se están igualando, y en ese sentido el universo se está degradando. La entropíaalcanzará un máximo cuando la energía del universo esté perfectamente igualada; a partir de entonces no ocurrirá nada porque, aunque la energía seguirá allí, no habrá ya ningún flujo que haga que las cosas ocurran.

La situación parece deprimente (si el segundo principio es cierto), pero no es para alarmarse , ya que el proceso tardará billones de años en llegar a su final y el universo, tal como hoy existe, no sólo sobrevivirá a nuestro tiempo, sino que con toda probabilidad también a la humanidad misma.

De todo esto podemos obtener una consecuencia clara y precisa; de acuerdo con el segundo principio de la termodinámica, la entropía del universo está en constante aumento, es decir, la energía que contiene tiende a igualarse en todas partes. Así que, como cualquier proceso que iguala las concentraciones de energía está aumentando el desorden en el sistema, nuestro universo  vez tiene un mayor desorden con los movimientos aleatorios libres de las partículas que lo componen, cuyo comportamiento no es más que una especie de medida del desorden que en el universo se produce de manera continuada.

Rostros de la abuela con hija adulta y nieto en línea  Foto de archivo - 7964959

Las tres generaciones de arriba nos habla del tiempo quen pasa, de la entropía que es su compañera inseparable y, de los estragos que, en nosotros y en todas las cosas puede causar ese principio de que nada desaparece pero todo cambia.

La entropía está presente en la vida cotidiana: objetos que se descolocan, cosas que se desordenan, vestidos que se ensucian, un vaso que se cae y se rompe, los muebles que se llenan de polvo, el suelo que recoge las marcas de los pies que lo pisan, todo eso es entropía y,  arreglarla, tenemos que disponer bien las cosas, recoger los objetos caídos, lavar la ropa y limpiar el suelo o quitar el polvo, con lo cual, la entropía continúa estando presente en el esfuerzo que todo ello conlleva y deteriora la , la aspiradora y nos causa a nosotros por el esfuerzo realizado (deterioro-entropía).

La entropía está ineludiblemente unida al tiempo, ambos caminan juntos. En procesos elementales en los que intervienen pocos objetos es imposible saber si el tiempo marcha  delante o hacia atrás. Las leyes de la naturaleza se cumplen igual en ambos casos. Y lo mismo ocurre con las partículas subatómicas.

La figura muestra, al 50% del tamaño real, la trayectoria de un electrón entrando por la izquierda en una cámara de burbujas.

Un electrón curvándose en determinada dirección con el tiempo marchando hacia delante podría ser igualmente un positrón curvándose en la misma dirección,  con el tiempo marchando hacia atrás. Si sólo consideramos esa partícula, es imposible determinar cuál de las dos posibilidades es la correcta.

En aquellos procesos elementales en que no se  decir en que dirección marcha el tiempo, no hay cambio de entropía (o es tan pequeña la variación que podríamos ignorarla). Pero en los procesos corrientes, en las que intervienen muchas partículas, la entropía siempre aumenta. Que es lo mismo que decir que el desorden siempre aumenta.

Un saltador de trampolín cae en la piscina y el agua salpica  arriba; cae un jarrón al suelo y se hace añicos; las hojas caen de los árboles y se desparraman por el suelo. El paso de los años nos transforman de jovenes en viejos, ¿quién puede remediar eso?

 

      En lugares como este nacen nuevas estrellas, nuevos mundos y, en ellos… ¡Nuevas formas de Vida!

El Universo no es infinito y se renueva cíclicamente a partir del Caos destructor para que surja lo . ¡Qué me gustaría saber de donde surgió, en realidad, el Universo! ¿Será una fluctuación del vació que expulsó este universo nuestro de otro mayor? ¿Será, acaso, el mismo universo que se renueva una y otra ves? No estamos seguros de nada. Lo cierto es que, sólo tenemos el Big bang, el Modelo que más se ajusta a las observaciones, y, sin la seguridad de que ese sea el comienzo cierto. Hay un “momento” que los científicos no han podido sobrepasar, se llama el “Tiempo de Planck” no se saber que pudo pasar más allá.

Resultado de imagen de La Entrop´çia está presente en todo y en todos

Se  demostrar que todas estas cosas, y en general, todo cuanto ocurre normalmente a nuestro alrededor, lleva consigo un aumento de entropía. Estamos acostumbrados a ver que la entropía aumenta y aceptamos ese  como señal de que todo se desarrolla normalmente y de que nos movemos hacia delante en el tiempo. Si de pronto viésemos que la entropía disminuye, la única manera de explicarlo sería suponer que nos estamos moviendo hacia atrás en el tiempo: las salpicaduras de agua se juntan y el saltador saliendo del agua asciende al trampolín, los trozos del jarrón se juntan y ascienden  colocarse encima del mueble y las hojas desperdigadas por el suelo suben hacia el árbol y se vuelven a pegar en las ramas.  Todas estas cosas muestran una disminución de la entropía, y sabemos que esto está tan fuera del orden de las cosas que la película no  más remedio que estar marchando al revés.

En efecto, las cosas toman un giro extraño cuando el tiempo se invierte, que el verlo nos  reír. Por eso la entropía se denomina a veces “la flecha del Tiempo”, porque su constante aumento marca lo que nosotros consideramos el “avance del tiempo”.

Quizás, algún día, la imaginación de los seres humanos, tan poderosa, pueda idear la manera de detener el Tiempo y con él, eliminar la Entropía destructora. Por disparatada que pueda parecer la idea, yo no la descartaría…del todo. De hecho, ya se han hecho algunas pruebas y experimentos en tal dirección.

Todo esto me lleva a pensar que, si finalmente el universo en el que estamos es un universo con la densidad crítica necesaria  el universo curvo y cerrado que finaliza en un Big Crunch, en el que las galaxias se frenarán hasta parar por completo y comenzaran de  a desandar el camino hacia atrás, ¿no es eso volver atrás en la flecha del tiempo y reparar la entropía?

La galaxia NGC 3344, situada a 25 millones de años-luz de nosotros en la Constelación de Leo, presume de estrellas nuevas azuladas y llenas de energía que, nos habla del surgir de lo nuevo, de la entropía negativa que se produce continuamente en el universo, donde no todo se destruye con el paso del tiempo, sino que, a partir del Caos… ¡Surje lo nuevo!

En un comentario que les hacía, en respuesta a otros contertulios José Luis, Fandila y Kike -en el trabajo “Las galaxias y la Vida”-, hace algún tiempo,  les decía:

 

 

Cada nueva estrella que surge hace aumentar la entropía negativa

“Bueno, amigo Kike… ¡O quizás sí! Como bien dices, el simple hecho de replicarse significa Entropía negativa, es decir, es la manera que tenemos los de nuestra especie (otras también), de generar esa clase de entropía y, cuando en las galaxias nacen nuevas estrellas, también se está produciendo ese fenómeno que va contra la entropía y el Caos final, toda vez que, algo  surge para que todo siga igual.”

 

Lo cierto es que sí existe la entropía negativa y, continuamente la podemos contemplar a nuestro alrededor, hay procesos que son cíclicos y reversibles como, por ejemplo y  no ir más lejos… ¡el de la vida! ¿Que son otras vidas? Sí, cierto, otras vidas con los genes de la que se fue y, de esa manera, continúa la aventura que comenzó hace algunos cientos de miles de años en nuestra especie. Si eso no es entropía negativa…

Por otra parte, en cosas más simples y simplemente mecánicas, hay cosas que se repiten una y otra vez y, en nuestro entorno, la Naturaleza lo hace con las estaciones, las mareas y un sin fín de fenómenos naturales que,  que podamos recordar, están aquí con nosotros.

Por otra , no es cierto que la temperatura del universo esté siempre en aumento, el hecho de que las galaxias se estén alejando las unas de las otras como consecuencia de la expansión, hace que cada vez sea más frío y, de hecho, se cree que la muerte térmica del universo llegará cuando alcance el cero absoluto, es decir, -273,16º Celsius, a esa temperatura ni en los átomos habrá movimiento alguno.

Resultado de imagen de Principio de aumento de Entropía

Es cierto que cuanto mayor sea la entropía de un sistema mayor también será el desorden y la energía disponible disminuirá. El propio universo, considerado como un sistema cerrado se verá abocado a ese escenario final, ya que, de manera irremisible, su entropía aumenta más y más y lo está llevando ahacia su muerte térmica.

Existe una energía interna de la que habla la ciencia que estudia las leyes que gobiernan la conversión de una forma de energía en otra, la dirección en la que fluye el calor y la disponibilidad de energía para que siga produciéndose . Se basa en el principio de que en un sistema aislado en cualquier lugar del universo hay una cantidad medible de energía, llamada la energía interna (U) del sistema. Esta es la suma de la energía potencial y cinética total de los átomos y moléculas del sistema que pueden ser transferida directamente como calor; excluye, por tanto, la energía nuclear y química. El valor de U sólo puede cambiar si el sistema deja de estar aislado, toda vez que, si deja de estar aislado y se junta con otro, habrá transferencia de masa, energía, calor.

 En cada uno de estos escenarios de arriba, sin excepción, se crean nuevos escenarios y se producen nuevas energías

En ese caso, tenemos que pensar en cómo se fusionan las galaxias y, a menor escala, también nosotros, de alguna manera, lo hacemos para generar nueva sabia, nueva energía y nueva vida que, de alguna manera, viene a contrarrestar los efectos de la entropía destructora que no puede impedir que esa nueva vida surja, y, de la misma manera, en las galaxias, nacen nuevas estrellas y nuevos mundos.

Resultado de imagen de En el Universo como sistema cerrado que es, la Entropía aumenta

Todo esto nos puede llevar a pensar que, si nuestro universo es considerado un sistema cerrado, al final del camino, la entropía se saldrá con la suya pero… ¡Siempre hay un pero! ¿Y si nuestro universo no está sólo y se está acercando, de manera inexorable, a otro universo vecino para fusionarse con él? En ese caso, se producirán fenómenos termodinámicos que darán lugar a un escenario nuevo. No es ninguna tonteria pensar en esa posibilidad, de estudios recientes ha salido el resultado asombroso de que nuestro universo parece tener vecinos.

Es cierto que los procesos naturales obeden a la primera ley de la termodinámica (el principio de conservación de la energía). Sin embarego, aunque todos los procesos naturales obedecen a esta ley, no todos los procesos que la obedecen pueden ocurrir en la naturaleza. La mayoría de los procesos son irreversibles, es decir, solo pueden ocurrir en una dirección y la dirección que un proceso natural puede tomar es el objeto del segundo principio de la termodinámica al que antes Kike se refería y que puede ser formulado en una gran variedad de formas:

Resultado de imagen de Transmisión de calor de un cuerpo a otro

“El calor no puede ser transferido  un cuerpo a un segundo cuerpo a temperatura mayor sin producirse ningún efecto, y, la entropía de un sistema sistema cerrado aumenta con el tiempo. LO lógico es que del cuerpo caliente se transfiera calor al frío hasta igualar las temperaturas”

 

Esos conceptos introducen la Temperatura y la Entropía, los parámetros que determinan la dirección en la que un proceso irreversible  ocurrir. Como decíamos antes, si se llega al cero absoluto, el valor de la entrop´çia sería cero, es decir, el cambio de la entroìa sería nulo, como se cree que pasaría si el universo llega a ese final que algunos vaticinan de su muerte térmica.

Claro que, yo no soy tan agorero y parto de una base muy cierta: No lo sabemos todo y, lo poco que sabemos está sujeto a cambios (como nuestras teorías) a medida que vamos evolucionando y adquiriendo nuevos conocimientos. , podemos tener la impresión de que estamos a merced de esa Entropía que nos lleva al Caos y hacia la destrucción pero… (de nuevo un pero), ¿son inamovibles nuestros conocimientos actuales?

Creo en la generación de entropía negativa (por llamarla de alguna manera), y, el ejemplo de las estrellas nuevas que nacen continuamente y también, de nuestra propia descendencia… ¡Es una prueba irrefutable! De todas las maneras y,  siempre digo:

“Sabemos tan poco”

emilio silvera

Teorías, masas, partículas, dimensiones…

$
0
0

Una nos habla del Cosmos y de como el espacio se curva ante la presencia de masas, la otra, nos habla de funciones de ondas, entrelazamientos cuánticos, de diminutos objetos que conforman la materia y hacen posibles los átomos y la vida.

Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.

Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?).  Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal.  Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado!

{\displaystyle \ell _{P}={\sqrt {\frac {\hbar G}{c^{3}}}}\approx 1.616199(97)\times 10^{-35}{\mbox{ metros}}}

La longitud de Planck (P) u hodón (término acuñado en 1926 por Robert Lévi) es la distancia o escala de longitud por debajo de la cual se espera que el espacio deje de tener una geometría clásica. Una medida inferior previsiblemente no puede ser tratada adecuadamente en los modelos de física actuales debido a la aparición de efectos de Gravedad Cuántica.

¿Quién puede ir a la longitud de Planck para “verla”? A distancias comparables con la longitud de Planck, se cree que están sucediendo cosas muy curiosas que rebasan ampliamente los límites de nuestra imaginación. A diferencia de la filosofía reduccionista que propone que lo más complejo está elaborado -axiomáticamente- a partir de lo más elemental, lo que está sucediendo en la escala de Planck no parece tener nada de elemental o sencillo.

“La longitud de Planck es la única escala de distancias que puede obtenerse de manera natural a partir de las constantes de la naturaleza. Son varios los argumentos que implican que, a la escala de Planck, los efectos de la gravedad y los de la mecánica cuántica deberían combinarse, por lo que cualquier experimento que permitiesen explorar las leyes de la física a tales distancias supondría un avance tremendo en física teórica. El problema reside en su ínfimo valor, del orden de 10-35metros. En los experimentos de física de partículas, sondear distancias cada vez más pequeñas requiere emplear energías más y más elevadas. Sin embargo, la energía necesaria para escudriñar la longitud de Planck se halla muchos órdenes de magnitud por encima de las posibilidades técnicas de los aceleradores presentes o futuros. La escala de distancias que podrá explorar el LHC, por ejemplo, puede estimarse en unos 10-19 metros.”

 Resultado de imagen de La espuma cuántica

                             En ese lugar nos encontramos con una especie de espuma cuántica

Se cree que a esta escala la continuidad del espacio-tiempo en vez de ir marchando sincronizadamente al parejo con lo que vemos en el macrocosmos de hecho está variando a grado tal que a nivel ultra-microscópico el tiempo no sólo avanza o se detiene aleatoriamente sino inclusive marcha hacia atrás, una especie de verdadera máquina del tiempo. Las limitaciones de nuestros conocimientos sobre las rarezas que puedan estar ocurriendo en esta escala en el orden de los 10-35 metros, la longitud de Planck, ha llevado a la proposición de modelos tan imaginativos y tan exóticos como la teoría de la espuma cuántica que supuestamente veríamos aún en la ausencia de materia-energía si fuésemos ampliando sucesivamente una porción del espacio-tiempo plano

La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa.  En el Hiperespacio, todo es posible.  Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.

Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas.  Todo debe ser contestado a partir de una ecuación básica.

¿Dónde radica el problema?

El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni el nuevo acelerador de partículas LHC que mencioné en páginas anteriores.

La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías.

¡Necesitamos algo más avanzado!

Cada partícula tiene encomendada una misión, la de Higgs, ya sabemos lo que dicen por ahí.

Se ha dicho que la función de la partícula de Higgs es la de dar masa a las Cuando su autor lanzó la idea al mundo, resultó además de nueva muy extraña.  El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo.  El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.

Resultado de imagen de Que hay más allá de los Quarks

Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs.  Las partículas influidas por este campo, toman masa.  Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético.  Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.

Cuando los físicos hablan de la belleza de algunas ecuaciones, se refieren a las que, como ésta, dicen mucho con muy pocos caracteres. De hecho, puede que ésta sea la ecuación más famosa conocida en nuestro mundo.

Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo.  Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein.  La masa, m, tiene en realidad dos partes.  Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo.  La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos.  Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.

Pero la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo.  Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.

Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.

La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo.  El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.

Hasta hace bien poco no teniamos ni idea de que reglas controlan los incrementos de masa generados por el Higgs (de ahí la expectación creada por el nuevo acelerador de partículas LHC cuando la buscaba). Pero el problema es irritante: ¿por qué sólo esas masas -Las masas de los W+, W-, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?

Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV.  Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-salam).  Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles.  En la unidad hay cuatro partículas mensajeras sin masa -los W+, W-, Zº y fotón que llevan la fuerza electrodébil.  Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa.  La simetría se rompe espontáneamente, dicen los teóricos.  Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.

Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.

Pero, encierra tantos misterios la materia que, a veces me hace pensar en que la podríamos denominar de cualuquier manera menos de inerte ¡Parece que la materia está viva!

Son muchas las cosas que desconocemos y, nuestra curiosidad nos empuja continuamente a buscar esas respuestas.

El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o antineutrón), y, por lo tanto, han sido denominados leptones (de la voz griega lentos, que significa “delgado”).

Aunque el electrón fue descubierto en 1.897 por el físico británico Josepth John Thomson (1856-1940), el problema de su estructura, si la hay, no está resuelto.  Conocemos su masa y su carga negativa que responden a 9,1093897 (54) x 10-31 Kg la primera y, 1,602 177 33 (49) x 10-19 culombios, la segunda, y también su radio clásico: r0 = e2/mc2 = 2’82 x 10-13 m. No se ha descubierto aún ninguna partícula que sea menos cursiva que el electrón (o positrón) y que lleve  una carga eléctrica, sea lo que fuese (sabemos como actúa y cómo medir sus propiedades, pero aun no sabemos qué es), tenga asociada un mínimo de masa, y que esta es la que se muestra en el electrón.

Lo cierto es que, el electrón, es una maravilla en sí mismo.  El Universo no sería como lo conocemos si el electrón (esa cosita “insignificante”), fuese distinto a como es, bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.

                  ¡No por pequeño, se es insignificante!

Recordémoslo, todo lo grande está hecho de cosas pequeñas.

En realidad, existen partículas que no tienen en absoluto asociada en ellas ninguna masa (es decir, ninguna masa en reposo).  Por ejemplo, las ondas de luz y otras formas de radiación electromagnéticas se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones*.

Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda se denomina fotón, de la palabra griega que significa “luz”.

El fotón tiene una masa de 1, una carga eléctrica de o, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín).  La única forma que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este termino se reserva para la familia formada por el electrón, el muón y la partícula Tau con sus correspondientes neutrinos: Ve, Vu y VT.

Existen razones teóricas para suponer que, cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitacionales.  Esas ondas pueden así mismo poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.

La fuerza gravitatoria es mucho, mucho más débil que la fuerza electromagnética.  Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón y, por tanto, ha de ser inimaginablemente difícil de detectar.

De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón.  Llegó a emplear un par de cilindros de aluminio de 153 cm. De longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío.  Los gravitones (que serían detectados en forma de ondas), desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegare a captar la cienmillonésima parte de un centímetro.

Han llevado años captarlas, las ondas gravitatorias llevadas por el gravitón son débiles

Las débiles ondas de los gravitones, que producen del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea.  En 1.969, Weber anunció haber detectado los efectos de las ondas gravitatorias.  Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general).  Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaran el hallazgo de Weber.

De todas formas, no creo que, a estas alturas, nadie pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria.  La masa del gravitón es o, su carga es o, y su espín de 2.  Como el fotón, no tiene antipartícula, ellos mismos hacen las dos versiones.

Tenemos que volver a los que posiblemente son los objetos más misteriosos de nuestro Universo: Los agujeros negros.  Si estos objetos son lo que se dice (no parece que se pueda objetar nada en contrario), seguramente serán ellos los que, finalmente, nos faciliten las respuestas sobre las ondas gravitacionales y el esquivo gravitón.

La onda gravitacional emitida por el agujero negro produce una ondulación en la curvatura del espacio-temporal que viaja a la velocidad de la luz transportada por los gravitones.

Hay aspectos de la física que me dejan totalmente sin habla, me obligan a pensar y me transporta de este mundo material nuestro a otro fascinante donde residen las maravillas del Universo.  Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, limite_planck es la escala de longitud por debajo de la cual el espacio tal como lo conocemos deja de existir y se convierte en espuma cuántica.  El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2) juega un papel clave en la entropía de un agujero negro.

Me llama poderosamente la atención lo que conocemos como las fluctuaciones de vacío, esas oscilaciones aleatorias, impredecibles e ineliminables de un campo (electromagnético o gravitatorio), que son debidas a un tira y afloja en el que pequeñas regiones del espacio toman prestada momentáneamente energía de regiones adyacentes y luego la devuelven.

Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas.  En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se puede obtener, ya que todos los materiales que rodean ese espacio tienen una presión de vapor finita.  En un bajo vacío, la presión se reduce hasta 10-2 pascales, mientras que un alto vacío tiene una presión de 10-2-10-7 pascales.  Por debajo de 10-7 pascales se conoce como un vacío ultraalto.

No puedo dejar de referirme al vaciotheta (vació θ) que, es el estado de vacío de un campo gauge no abeliano (en ausencia de campos fermiónicos y campos de Higgs).

El vacío theta es el punto de partida para comprender el estado de vacío de las teoría gauge fuertemente interaccionantes, como la cromodinámica cuántica. En el vacío theta hay un número infinito de estados degenerados con efecto túnel entre estos estados.  Esto significa que el vacío theta es análogo a una fundón de Bloch* en un cristal.

Se puede derivar tanto como un resultado general o bien usando técnicas de instantón.  Cuando hay un fermión sin masa, el efecto túnel entre estados queda completamente suprimido.

Cuando hay campos fermiónicos con masa pequeña, el efecto túnel es mucho menor que para campos gauge puros, pero no está completamente suprimido.

Nos podríamos preguntar miles de cosas que no sabríamos contestar.  Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos pero que tampoco sabemos, en realidad, a que son debidos.  Si, sabemos ponerles etiquetas como, por ejemplo, la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio y, con mayor frecuencia, en los elementos que conocemos como transuránidos.

A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta.  En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de ruptura, sobre pasando a la emisión de partículas alfa.

emilio silvera

¡La máquina de Higgs-Kibble! El Vacío superconductor

$
0
0

 

“El Premio de la Sociedad de Física Americana (APS) para contribuciones a la Física de Partículas Teórica (J. J. Sakurai Prize for Theoretical Particle Physics) de 2010 le fue concedido a Carl R. Hagen (University of Rochester), Francois Englert (Universite Libre de Bruxelles), Gerald S. Guralnik (Brown University), Peter W. Higgs (University of Edinburgh), Robert Brout (Universite Libre de Bruxelles), y T.W.B. Kibble (Imperial College) por sus contribuciones al mecanismo de Higgs–Brout–Englert–Guralnik–Hagen–Kibble para explicar la ruptura espontánea de la simetría electrodébil, mecanismo normalmente abreviado a mecanismo de Higgs.”

(Brout fallecido en 2.011, también era acreedor al Nobel de Física de 2.013)

Como complemento del trabajo que se presenta hoy referido a la concesión del Nobel de Física de 2.013, aquí he recuperado éste trabajo que viene a explicar un poco, lo que antes de todo este jaleo del Higgs, habián hecho los físicos que ahora son premiados. Perdonad que lo expuesto sea algo complejo de comprender para algunos pero, hay veces que no se pueden evitar los guarismos, ecuaciones y signos que, en Física, es el lenguaje que suple a las palabras.

 

Investigación experimental

 

 

 

Resultado de imagen de El Bosón de ><a href=Higgs” />

 

En aquella fecha, el bosón de Higgs no ha sido observado experimentalmente, a pesar de los esfuerzos de los grandes laboratorios de investigación como el CERN o el Fermilab. La no observación de pruebas claras permite estimar un valor mínimo experimental de masa 114.4 GeV para el bosón de Higgs del modelo estándar, con un nivel de confianza del 95%.[6] Experimentalmente se ha registrado un pequeño número de eventos no concluyentes en el colisionador LEP en el CERN. Éstos han podido ser interpretados como resultados de los bosones de Higgs, pero la evidencia no es concluyente.[7] Se espera que el Gran Colisionador de Hadrones, ya construido en el CERN, pueda confirmar o desmentir la existencia de este bosón. El anillo de 27 km de circunferencia (llamado Large Hadron Collider) fue encendido el 10 de septiembre de 2008, como estaba previsto, pero un fallo en el sistema de enfriamiento que debe mantener los imanes a una temperatura aproximada de -271,3 °C detuvo el experimento, hasta el 20 de noviembre del 2009, fecha en que volvió a ser encendido, desde 450 GeV a 2.23 TeV. Pero fue apagado para realizar ajustes, y el 30 de marzo volvió a ser encendido, aunque a potencia de 7 TeV. Eso si, no será hasta 2016 cuando funcione a pleno rendimiento.

La búsqueda del bosón de Higgs es también el objetivo de ciertos experimentos del Tevatrón en el Fermilab

 

 

Resultado de imagen de experimentos del Tevatrón en el Fermilab

                       Los cuatro experimentos implicados en el resultado: CDF y DZero (Tevatron

Alternativas al mecanismo de Higgs para la ruptura espontánea de simetría electrodébil

Desde los años en los que fue propuesto el bosón de Higgs, han existido muchos mecanismos alternativos. Todas las otras alternativas usan una dinámica que interactúa fuertemente para producir un valor esperado del vacío que rompa la simetría electrodébil. Una lista parcial de esos mecanismos alternativos es:

Technicolor es la clase de modelo que intenta imitar la dinámica de la fuerza fuerte como camino para romper la simetría electrodébil.

El modelo de Abbott-Farhi de composición de los bosones de vectores W y Z.

 

Campo de Higgs

 

 

Resultado de imagen de El Campo de Higgs es un campo cuántico, que, de acuerdo con una hipótesis del modelo estándar de física de partículas expuesta por el físico Peter Higgs

 

 

El Campo de Higgs es un campo cuántico, que, de acuerdo con una hipótesis del modelo estándar de física de partículas expuesta por el físico Peter Higgs, permearía el universo entero, y cuyo efecto sería que las partículas se comportaran como dotadas de masa, debido a la interacción asociada de partículas elementales, con el bosón de Higgs, cuya existencia aún no ha sido probada directamente y que por la interacción consigo mismo también “adquiriría” masa. Se espera que el Gran Colisionador de Hadrones sirva para probar las hipótesis de Higgs.

 

 

Mecanismo de Higgs

 

Resultado de imagen de El mecanismo de Higgs, ideado por Peter Higgs entre otros, es uno de los mecanismos posibles para producir la ruptura espontánea de simetría electrodébil en una Teoría Gauge invariante.

 

Dobletes de Higgs. Potencial de doble pozo en una teoría de campos con ruptura espontánea de simetría.

 

 

El mecanismo de Higgs, ideado por Peter Higgs entre otros, es uno de los mecanismos posibles para producir la ruptura espontánea de simetría electrodébil en una Teoría Gauge invariante. Permitió establecer, la unificación entre la teoría electromagnética y la teoría nuclear débil, que se denominó Teoría del campo unificado dando premio Nobel en año 1979 a Steven Weinberg, Sheldon Lee Glashow y Abdus Salam

Este mecanismo también es conocido como mecanismo de Brout–Englert–Higgs, mecanismo de Higgs–Brout–Englert–Guralnik–Hagen–Kibble, o mecanismo de Anderson–Higgs. En 1964, fue inicialmente propuesto por Robert Brout y François Englert, e independientemente por Peter Higgs y por Gerald Guralnik, C. R. Hagen, y Tom Kibble.Fue inspirado en la Teoría BCS de rompimiento de simetría en superconductividad basado en Teoría Ginzburg-Landau, los trabajos de la estructura del vacío de Yoichiro Nambu, y las ideas de Philip Anderson según las cuales la superconductividad podía ser relevante en la relatividad, el electromagnetismo y otros fenomenos clásicos. El nombre de mecanismo de Higgs fue dado por Gerardus ‘t Hooft en 1971. Los tres artículos originales de Guralnik, Hagen, Kibble, Higgs, Brout, y Englert en donde se propone este mecanismo fueron reconocidos como fundamentales en la celebración del aniversario 50 de la revista Physical Review Letters

 

 

Campos y partículas

 

 

 

 

 

La segunda mitad del siglo XX fue un tiempo de descubrimiento de nuevas partículas elementales, nuevas fuerzas y, sobre todo, nuevos campos. El espacio puede llenarse con una amplia variedad de influencias invisibles que tienen todo tipo de efectos sobre la materia ordinaria. De todos los nuevos campos que se descubrieron, el que tiene más que enseñarnos sobre el paisaje es el campo de Higgs. Existe una relación general entre partículas y campos. Por cada tipo de partícula de la naturaleza hay un campo y por cada tipo de campo hay una partícula. Así campos y partículas llevan el mismo nombre. El campo electromagnético podría denominarse campo de fotones. El electrón tiene un campo, también lo tienen el qua.rk, el gluón y cada miembro del reparto de personajes del modelo Standard, incluida la partícula de Higgs.

 

El campo de Higgs

 

 

 

 

En la concepción del Modelo estándar de física de partículas, el boson de Higgs así como otros bosones (encontrados ya experimentalmente) y ligados en esta teoría, se interpretan desde el Bosón de Goldstone donde cada parte del rompimiento de simetría genera un campo, para el cual los elementos que viven en este campo son sus respectivos bosones. Existen teorías creadas a partir del miedo de la no existencia del boson de Higgs donde no es necesaria su aparición. El campo de Higgs es el ente matemático donde existe, su interpretación con la teoría es el producto de él con los otros campos que sale por el mecanismo de ruptura, este producto nos da el acople y la interacción de él, con esta interacción con los otros campos legamos la caracteristica de generador de masa.

Me resistía pero…Formulación matemática

Introducimos un campo adicional ? que rompa la simetría SU(2)L × U(1)Y ? U(1)em. Debido a las condiciones que se exigen a la teoría será un doblete (de SU(2)L) de campos escalares complejos (doblete de Higgs):

 

 

 

 

Dobletes de Higgs

 

 

Resultado de imagen de Dobletes de Higgs

 

El número total de entradas (número dimensional del vector) de Higgs no está determinado por la teoría y podría ser cualquiera. No obstante la versión mínima del SM posee uno solo de estos dobletes.

El sistema vendrá entonces descrito por un Lagrangiano de la forma:

 

 

tal que:

 

 

donde V(phi) es el potencial renormalizable (y por tanto que mantiene la invarianza gauge) más sencillo. Para que se produzca ruptura espontánea de simetría es necesario que el valor esperado del campo de Higgs en el vacío sea no nulo. Para lambda mayor que 0, si mu 2 menor que 0, el potencial posee infinitas soluciones no nulas (ver figura 1), en las cuales sólo la norma del campo de Higgs está definida:

 

 

 

Estado fundamental

 

El estado fundamental está, por consiguiente, degenerado y no respeta la simetría del grupo SU(2)L × U(1)Y. Sin embargo, sí conserva la simetría del grupo U(1)em. El valor de cup ? indica la escala de energía a la que se produce la ruptura de la simetría electrodébil. La ruptura SU(2)L × U(1)Y Phi  U(1)em se produce cuando se selecciona un estado del vacío concreto. La elección habitual es aquella que hace que Phi 3 sea no nulo:

 

 

Espectro de partículas

 

 

Resultado de imagen de El espectro de partículas físicas resultantes se construye realizando pequeñas oscilaciones en torno al vacío, que pueden ser parametrizadas en la forma:

 

Enormes energías para poder profundizar tanto en el conocimiento de lo muy pequeño

El espectro de partículas físicas resultantes se construye realizando pequeñas oscilaciones en torno al vacío, que pueden ser parametrizadas en la forma:

 

 

 

 

donde el vector \vec{\xi}(x) y el escalar h(x) son campos pequeños correspondientes a los cuatro grados de libertad reales del campo . Los tres campos \vec{\xi}(x) son los bosones de Goldstone, de masa nula, que aparecen cuando una simetría continua es rota por el estado fundamental (teorema de Goldstone).

En este punto aún tenemos 4 bosones gauge (Wi?(x) y B?(x)) y 4 escalares (\vec{\xi}(x) y h(x)), todos ellos sin masa, lo que equivale a 12 grados de libertad (Conviene notar que un bosón vectorial de masa nula posee dos grados de libertad, mientras que un bosón vectorial masivo adquiere un nuevo grado de libertad debido a la posibilidad de tener polarización longitudinal: 12 = 4[bosones vectoriales sin masa] × 2 + 4[escalares sin masa]). P. W. Higgs fue el primero en darse cuenta de que el teorema de Goldstone no es aplicable a teorías gauge, o al menos puede ser soslayado mediante una conveniente selección de la representación. Así, basta con escoger una transformación:

 

 

de forma que:

con lo cual desaparecen los tres campos de Higgs no físicos \vec{\xi}(x). Debemos aplicar estas transformaciones sobre la suma de las Lagrangianas para bosones y fermiones:

 

 

Al final del proceso, tres de los cuatro bosones gauge adquieren masa al absorber cada uno de los tres grados de libertad eliminados del campo de Higgs, gracias a los acoplamientos entre los bosones gauge y el campo Phi presentes en la componente cinética de la Lagrangiana SBS:

 

 

 

Por otro lado, el vacío de la teoría debe ser eléctricamente neutro, razón por la que no existe ningún acoplamiento entre el fotón y el campo de Higgs, h(x), de forma que aquél mantiene una masa nula. Al final, obtenemos tres bosones gauge masivos (W±?, Zµ), un bosón gauge sin masa (A?) y un escalar con masa (h), por lo que seguimos teniendo 12 grados de libertad (del mismo modo que antes: 12 = 3[bosones vectoriales masivos] × 3 + 1[bosón vectorial sin masa] × 2 + 1[escalar]). Los estados físicos de los bosones gauge se expresan entonces en función de los estados originales y del ángulo de mezcla electrodébil ?W:

 

 

 

 

Ángulo de mezcla

 

El ángulo de mezcla ?W, se define en función de las constantes de acoplamiento débil, g, y electromagnética, , según:

Las predicciones de las masas de los bosones a nivel de árbol son:

donde (e es la carga eléctrica del electrón):

 

 Masa del bosón de Higgs

 

Resultado de imagen de Masa del Bosón de Higgs

 

No creo que Homer Simpson predijera la masa del Higgs

 

La masa del bosón de Higgs se expresa en función de ? y del valor de la escala de ruptura de simetría, ?, como:

La medida de la anchura parcial de la desintegración:

a bajas energías en el SM permite calcular la constante de Fermi, GF, con gran precisión. Y puesto que:

se obtiene un valor de ? = 246 GeV. No obstante el valor de ? es desconocido y por tanto la masa del bosón de Higgs en el SM es un parámetro libre de la teoría.

 Bosones gauge y fermiones

 

 

Resultado de imagen de Bosones gauge y fermiones

 

 

 

Análogamente al caso de los bosones gauge, los fermiones adquieren masa mediante los denominados acoplamientos de Yukawa, que se introducen a través de una serie de nuevos términos en la Lagrangiana:

 

donde:

 

 

 

 

Del mismo modo que antes, se aplica la transformación sobre la parte levógira de los fermiones, mientras que la parte dextrógira no se transforma:

 

 

 

Y finalmente se obtienen las masas de los fermiones según:

 

 

 

Es conveniente hacer notar en este punto, que la determinación de la masa del bosón de Higgs, no explica directamente las masas fermiónicas ya que dependen de las nuevas constantes ?e, ?u, ?d, … Por otro lado, se deduce también el valor de los acoplamientos del bosón de Higgs con los distintos fermiones y bosones, los cuales son proporcionales a las constantes de acoplamiento gauge y a la masa de cada partícula.

Ya tendremos más sobre el tema

¡Una Singularidad! Extraño Objeto

$
0
0

El concepto mismo de “singularidad” desagradaba a la mayoría de los físicos, pues la idea de una densidad infinita se alejaba de toda comprensión.  La naturaleza humana está mejor condicionada a percibir situaciones que se caracterizan por su finitud, cosas que podemos medir y pesar, y que están alojadas dentro de unos límites concretos; serán más grande o más pequeñas pero, todo tiene un comienzo y un final pero… infinito, es difícil de digerir.  Además, en la singularidad, según resulta de las ecuaciones, ni existe el tiempo ni existe el espacio. Parece que se tratara de otro universo dentro de nuestro universo toda la región afectada por la singularidad que, eso sí, afecta de manera real al entorno donde está situada y además, no es pacífica, ya que se nutre de cuerpos estelares circundantes que atrae y engulle.

La complejidad que supone la idea de una singularidad, como he dicho en otras ocasiones, deben ser dejadas a la Metafísica, la rama de la Física que estudia la naturaleza de las cosas complejas como el Ser. la Existencia, el Ente, la causalidad, el Tiempo…

La noción de singularidad empezó a adquirir un mayor crédito cuando Robert Oppenheimer, junto a Hartlan S. Snyder, en el año 1.939 escribieron un artículo anexo de otro anterior de Oppenheimer sobre las estrellas de neutrones. En este último artículo, describió de manera magistral la conclusión de que una estrella con masa suficiente podía colapsarse bajo la acción de su propia gravedad hasta alcanzar un punto adimensional; con la demostración de las ecuaciones descritas en dicho artículo, la demostración quedó servida de forma irrefutable que una estrella lo suficientemente grande, llegado su final al consumir todo su combustible de fusión nuclear, continuaría comprimiéndose bajo su propia gravedad, más allá de los estados de enana blanca o de estrella de neutrones, para convertirse en una singularidad.

Los cálculos realizados por Oppenheimer y Snyder para la cantidad de masa que debía tener una estrella para terminar sus días como una singularidad estaban en los límites másicos de M =~ masa solar, estimación que fue corregida posteriormente por otros físicos teóricos que llegaron a la conclusión de que sólo sería posible que una estrella se transformara en singularidad, la que al abandonar su fase de gigante roja retiene una masa residual como menos de 2 – 3 masas solares.

Modelo OS
La figura de la izquierda representa a la nube de polvo en colapso de Oppenhieimer y Snyder, que ilustra una superficie atrapada.
El modelo de Oppenhieimer y Snyder posee una superficie atrapada, que corresponde a una superficie cuya área se iOppenheimer y Snyder desarrollaron el primer ejemplo explícito de una solución a las ecuaciones de Einstein que describía de manera cierta a un agujero negro, al desarrollar el planteamiento de una nube de polvo colapsante. En su interior, existe una singularidad, pero no es visible desde el exterior, puesto que está rodeada de un horizonte de suceso que no deja que nadie se asome, la vea, y vuelva para contarlo. Lo que traspasa los límites del horizonte de sucesos, ha tomado el camino sin retorno. Su destino irreversible, la singularidad de la que pasará a formar parte.

Desde entonces, muchos han sido los físicos que se han especializado profundizando en las matemáticas relativas a los agujeros negros. John Wheeler (que los bautizó como agujeros negros), Roger Penrose, Stephen Hawking, Kip S. Thorne, Kerr y muchos otros nombres que ahora no recuerdo, han contribuido de manera muy notable al conocimiento de los agujeros negros, las cuestiones que de ellas se derivan y otras consecuencias de densidad, energía, gravedad, ondas gravitacionales, etc, que son deducidas a partir de estos fenómenos del cosmos.

Se afirma que las singularidades se encuentran rodeadas por un horizonte de sucesos, pero para un observador, en esencia, no puede ver nunca la singularidad desde el exterior. Específicamente implica que hay alguna región incapaz de enviar señales al infinito exterior. La limitación de esta región es el horizonte de sucesos, tras ella se encuentra atrapado el pasado y el infinito nulo futuro. Lo anterior nos hace distinguir que en esta frontera se deberían reunir las características siguientes:

  • Debe ser una superficie nula donde es pareja, generada por geodésicas nulas;
  • contiene una geodésica nula de futuro sin fin, que se origina a partir de cada punto en el que no es pareja, y que
  • el área de secciones transversales espaciales jamás pueden disminuir a lo largo del tiempo.

Pueden existir agujeros negros  supermasivos (de 105 masas solares) en los centros de las galaxias activas. En el otro extremo, mini agujeros negros con un radio de 10-10 m y masas similares a las de un asteroide pudieron haberse formado en las condiciones extremas que se dieron poco después delBig Bang. Diminutos agujeros negros podrían ser capaces de capturar partículas a su alrededor, formando el equivalente gravitatorio de los átomos.

Todo esto ha sido demostrado matemáticamente por Israel, 1.967; Carter, 1.971; Robinson, 1.975; y Hawking, 1.978 con límite futuro asintótico de tal espaciotiempo como el espaciotiempo de Kerr, lo que resulta notable, pues la métrica de Kerr es una hermosa y exacta formulación para las ecuaciones de vacío de Einstein y, como un tema que se relaciona con la entropía en los agujeros negros.

No resulta arriesgado afirmar que existen variables en las formas de las singularidades que, según las formuladas por Oppenheimer y su colaborador Snyder, después las de Kerr y más tarde otros, todas podrían existir como un mismo objeto que se presenta en distintas formas o maneras.

Ahora bien, para que un ente, un objeto o un observador pueda introducirse dentro de una singularidad como un agujero negro, en cualquiera que fuese su forma, tendría que traspasar el radio de Schwarzschild (las fronteras matemáticas del horizonte de sucesos), cuya velocidad de escape es igual a la de la luz, aunque esta tampoco puede salir de allí una vez atrapada dentro de los límites fronterizos determinados por el radio. Este radio de Schwarzschild puede ser calculado usándose la ecuación para la velocidad de escape:

Para el caso de fotones u objeto sin masa, tales como neutrinos, se sustituye la velocidad de escape por la de la luz c2. “En el modelo de Schrödinger se abandona la concepción de los electrones como esferas diminutas con carga que giran en torno al núcleo, … Es cierto que en mecánica cuántica quedan muchos enigmas por resolver. Pero hablando de objetos de grandes masas, veámos lo que tenemos que hacer para escapar de ellos.

Podemos escapar de la fuerza de gravedad de un planeta pero, de un A.N., será imposible.

La velocidad de escape está referida a la velocidad mínima requerida para escapar de un campo gravitacional. El objeto que escapa puede ser cualquier cosa, desde una molécula de gas a una nave espacial. Como antes he reflejado está dada por , donde G es la constante gravitacional, M es la masa del cuerpo y R es la distancia del objeto que escapa del centro del cuerpo del que pretende escapar (del núcleo). Un objeto que se mueva a velocidad menor a la de escape entra en una órbita elíptica; si se mueve a una velocidad exactamente igual a la de escape, sigue una órbita parabólica, y si el objeto supera la velocidad de escape, se mueve en una trayectoria hiperbólica.

Así hemos comprendido que, a mayor masa del cuerpo del que se pretende escapar, mayor será la velocidad que necesitamos para escapar de él. Veamos algunas:

Objeto

Velocidad de escape

La Tierra

………….11,18 Km/s

El Sol

………….617,3 Km/s

Júpiter

………….59,6 Km/s

Saturno

………….35,6 Km/s

Venus

………….10,36 Km/s

Agujero negro

…….+ de 299.000 Km/s

Como se ve en el cuadro anterior, cada objeto celeste, en función de su masa, tiene su propia velocidad de escape para que cualquier cosa pueda salir de su órbita y escapar de él.

La excepción está en el último ejemplo, la velocidad de escape necesaria para vencer la fuerza de atracción de un agujero negro que, siendo preciso superar la velocidad de la luz 299.792’458 Km/s, es algo que no está permitido, ya que todos sabemos que conforme determina la teoría de la relatividad especial de Einstein, la velocidad de la luz es la velocidad límite en nuestro universo; nada puede ir más rápido que la velocidad de la luz, entre otras razones porque el objeto sufriría la transformación de Lorentz y su masa sería infinita.

Podría continuar explicando otros aspectos que rodean a los agujeros negros, pero estimo que el objetivo que perseguía de hacer conocer lo que es un agujero negro y el origen del mismo, está sobradamente cumplido.

Existen aspectos del A.N. que influyen en el mundo cuántico, y, por ejemplo, el máximo radio que puede tener un agujero negro virtual está dado aproximadamente por

que equivale a unos 10-³³ centímetros. Esta distancia se conoce como longitud de Planck y es la única unidad de distancia que se puede construir con las tres constantes fundamentales de la naturaleza: Gc. La longitud de Planck es tan extremadamente pequeña (10²° veces menor que el radio de un electrón) que debe ser la distancia característica de otro nivel de la naturaleza, subyacente al mundo subatómico, donde rigen las leyes aún desconocidas de la gravedad cuántica.

Así como el océano presenta un aspecto liso e inmóvil cuando se observa desde una gran distancia, pero posee fuertes turbulencias y tormentas a escala humana, el espacio-tiempo parece “liso” y estático a gran escala, pero es extremadamente turbulento en el nivel de la longitud de Planck, donde los hoyos negros se forman y evaporan continuamente. En el mundo de Planck, las leyes de la física deben ser muy distintas de las que conocemos hasta ahora.

La estructura macroscópica del espacio-tiempo parece plana, pero éste debe ser extremadamente turbulento en el nivel de la escala de Planck. Escala en la que parece que entramos en otro mundo… ¡El de la mecánica cuántica! que se aleja de ese mundo cotidinao que conocemos en el que lo macroscópico predomina por todas partes y lo infinitesimal no se deja ver con el ojo desnudo.

¡Existen tantos secretos!

emilio silvera


¡Cuántas maravillas!

$
0
0

 Resultado de imagen de Un bello arcoiris

No sería descabellado decir  que las simetrías que vemos a nuestro alrededor, un arco iris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría decadimensional original. Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia. Por ejemplo, la fuerza de Gravedad generada por la presencia de la materia, determina la geometría del espacio-tiempo.

Dado el enorme poder de sus simetrías, no es sorprendente que la teoría de supercuerdas sea radicalmente diferente de cualquier otro de física.  De hecho, fue descubierta casi por casualidad. Muchos físicos han comentado que si este accidente fortuito no hubiese ocurrido, entonces la teoría no se hubiese descubierto hasta bien entrado el siglo XXI. Esto es así porque supone una neta desviación de todas las ideas ensayadas en este siglo. No es una extensión natural de tendencias y teorías populares en este siglo que ha pasado; permanece aparte.

Por el contrario, la teoría de la relatividad general de Einstein tuvo una evolución normal y lógica. En primer lugar, su autor, postula el principio de equivalencia. Luego reformuló principio físico en las matemáticas de una teoría de campos de la gravitación basada en los campos de Faraday y en el tensor métrico de Riemann. Más tarde llegaron las “soluciones clásicas”, tales el agujero negro y el Big Bang. Finalmente, la última etapa es el intento actual de formular una teoría cuántica de la gravedad. Por lo tanto, la relatividad general siguió una progresión lógica, un principio físico a una teoría cuántica.

 

                        Geometría → teoría de campos → teoría clásica → teoría cuántica.

Contrariamente, la teoría de supercuerdas ha evolucionando hacia atrás desde su descubrimiento accidental en 1.968. Esta es la razón de que nos parezca extraña y poco familiar, estamos aún buscando un principio físico subyacente, la contrapartida del principio de equivalencia de Einstein.

La teoría nació casi por casualidad en 1.968 cuando dos jóvenes físicos teóricos, Gabriel Veneziano y Mahiko Suzuki, estaban hojeando independientemente libros de matemáticas. Figúrense ustedes que estaban buscando funciones matemáticas que describieran las interacciones de partículas fuertemente interactivas. Mientras estudiaban en el CERN, el Centro Europeo de Física Teórica en Ginebra, Suiza, tropezaron independientemente con la función beta de Euler, una función matemática desarrollada en el S. XIX por el matemático Leonhard Euler. Se quedaron sorprendidos al que la función beta de Euler ajustaba casi todas las propiedades requeridas para describir interacciones fuertes de partículas elementales.

File:Beta function on real plane.png

Función beta. Representación de la función valores reales positivos de x e y.

Según he leído, durante un almuerzo en el Lawrence Berkeley Laboratory en California, con una espectacular vista del Sol brillando sobre el puerto de San Francisco, Suzuki le explicó a Michio Kaku mientras almorzaban la excitación de descubrir, prácticamente por casualidad, un resultado parcialmente importante. No se suponía que la física se pudiera hacer de ese modo casual.

Tras el descubrimiento, Suzuki, muy excitado, mostró el hallazgo a un físico veterano del CERN. Tras oír a Suzuki, el físico veterano no se impresionó. De hecho le dijo a Suzuki que otro físico joven (Veneziano) había descubierto la misma función unas semanas antes. Disuadió a Suzuki de publicar su resultado. Hoy, esta función beta se conoce con el de modelo Veneziano, que ha inspirado miles de artículos de investigación iniciando una importante escuela de física y actualmente pretende unificar todas las leyes de la física.

            Gabriele Veneziano es un físico italiano

En 1.970, el Modelo de Veneziano-Suzuki (que contenía un misterio), fue parcialmente explicado cuando Yoichiro Nambu, de la Universidad de Chicago, y Tetsuo Goto, de la Nihon University, descubrieron que una cuerda vibrante yace detrás de sus maravillosas propiedades. Así que, la teoría de cuerdas fue descubierta hacia atrás y por casualidad, los físicos aún no conocen el principio físico que subyace en la teoría de cuerdas vibrantes y sus maravillosas propiedades. El último paso en la evolución de la teoría de cuerdas (y el primer paso en la evolución de la relatividad general) aún está pendiente de que alguien sea capaz de darlo.

    Así, Witten dice:

“Los seres humanos en el planeta tierra nunca dispusieron del marco conceptual que les llevara a concebir la teoría de supercuerdas de manera intencionada, surgió por razones del azar, por un feliz accidente. Por sus propios méritos, los físicos c del siglo XX no deberían haber tenido el privilegio de estudiar teoría muy avanzada a su tiempo y a su conocimiento. No tenían (ni tenemos ahora mismo) los conocimientos y los prerrequisitos necesarios para desarrollar dicha teoría, no tenemos los conceptos correctos y necesarios.”

 

Actualmente, como ha quedado dicho en este mismo , Edwar Witten es el físico teórico que, al frente de un equipo de físicos de Princeton, lleva la bandera de la teoría de supercuerdas con aportaciones muy importantes en el desarrollo de la misma. De todas las maneras, aunque los resultados y avances son prometedores, el camino por andar es largo y la teoría de supercuerdas en su conjunto es un edificio con muchas puertas cerradas de las que no tenemos las llaves acceder a su interior y mirar lo que allí nos aguarda.

Ni con colección de llaves podremos abrir la puerta que nos lleve a la Teoría cuántica de la gravedad que, según dicen, subyace en la Teoría M, la más moderna versión de la cuerdas expuesta por E. Witten y que, según contaron los que estuvieron presentes en su presentación, Witten les introdujo en un “universo” fascinante de inmensa belleza que, sin embargo, no puede ser verificado por el experimento.

El problema está en que nadie es lo suficientemente inteligente para resolver la teoría de campos de cuerdas o cualquier otro enfoque no perturbativo de esta teoría. Se requieren técnicas que están actualmente más allá de nuestras capacidades. Para encontrar la solución deben ser empleadas técnicas no perturbativas, que son terriblemente difíciles. Puesto que el 99 por ciento de lo que conocemos sobre física de altas energías se basa en la teoría de perturbaciones, esto significa que estamos totalmente perdidos a la hora de encontrar la verdadera solución de la teoría.

¿Por qué diez dimensiones?

Uno de los secretos más profundos de la teoría de cuerdas, que aún no es comprendido, es por qué está definida sólo en diez, once y veintiséis dimensiones. Si calculamos cómo se rompen y se vuelven a juntar las cuerdas en el espacio N-dimensional, constantemente descubrimos que pululan términos absurdos que destruyen las maravillosas propiedades de la teoría. Afortunadamente, estos términos indeseados aparecen multiplicados por (N-10). Por consiguiente, para hacer que desaparezcan estas anomalías, no tenemos otra elección cuántica que fijar N = 10. La teoría de cuerdas, de hecho, es la única teoría cuántica conocida que exige completamente que la dimensión del espacio-tiempo esté fijada en un número único, el diez.

Por desgracia, los teóricos de cuerdas están, por el , completamente perdidos para explicar por qué se discriminan las diez dimensiones.  La respuesta está en las profundidades de las matemáticas, en un área denominada funciones modulares.

Al manipular los diagramas de lazos1 de Kikkawa, Sakita y Virasoro creados por cuerdas en interacción, allí están esas extrañas funciones modulares en las que el 10 aparecen en los lugares más extraños. Estas funciones modulares son tan misteriosas como el hombre que las investigó, el místico del este. Quizá si entendiéramos mejor el trabajo de este genio indio, comprenderíamos por qué vivimos en nuestro universo actual.

Resultado de imagen de El universo de la teoría de cuerdas

nos asomamos a la Teoría de cuerdas, entramos en un “mundo” lleno de sombras en los que podemos ver brillar, a lo lejos, un resplandor cegador. Todos los físicos coinciden en el hecho de que es una teoría muy prometedora y de la que parece se podrán obtener buenos rendimientos en el futuro pero, de momento, es imposible verificarla.

El misterio de las funciones modulares podría ser explicado por quien ya no existe, Srinivasa Ramanujan, el hombre más extraño del mundo de los matemáticos. Igual que Riemann, murió de cumplir cuarenta años, y como Riemann antes que él, trabajó en total aislamiento en su universo particular de números y fue capaz de reinventar por sí mismo lo más valioso de cien años de matemáticas occidentales que, al estar aislado del mundo en las corrientes principales de los matemáticos, le eran totalmente desconocidos, así que los buscó sin conocerlos. Perdió muchos años de su vida en redescubrir matemáticas conocidas.

Dispersas oscuras ecuaciones en sus cuadernos están estas funciones modulares, que figuran entre las más extrañas jamás encontradas en matemáticas. Ellas reaparecen en las ramas más distantes e inconexas de las matemáticas. Una función que aparece una y otra vez en la teoría de las funciones modulares se denomina (como ya he dicho otras veces) hoy día “función de Ramanujan” en su honor. Esta extraña función contiene un término elevado a la potencia veinticuatro.

Resultado de imagen de la magia esconde la realidad

             La magia esconde una realidad

El 24 aparece repetidamente en la obra de Ramanujan. Este es un ejemplo de lo que las matemáticas llaman números mágicos, que aparecen continuamente donde menos se esperan por razones que nadie entiende.   Milagrosamente, la función de Ramanujan aparece también en la teoría de cuerdas. El número 24 que aparece en la función de Ramanujan es también el origen de las cancelaciones milagrosas que se dan en la teoría de cuerdas.  En la teoría de cuerdas, cada uno de los veinticuatro modos de la función de Ramanujan corresponde a una vibración física de la cuerda. Cuando quiera que la cuerda ejecuta sus movimientos complejos en el espacio-tiempo dividiéndose y recombinándose, deben satisfacerse un gran número de identidades matemáticas altamente perfeccionadas. Estas son precisamente las entidades matemáticas descubiertas por Ramanujan. Puesto que los físicos añaden dos dimensiones más cuando cuentan el número total de vibraciones que aparecen en una teoría relativista, ello significa que el espacio-tiempo debe tener 24 + 2 = 26 dimensiones espacio-temporales.

Para comprender este misterioso factor de dos (que añaden los físicos), consideramos un rayo de luz que tiene dos modos físicos de vibración. La luz polarizada vibrar, por ejemplo, o bien horizontal o bien verticalmente. Sin embargo, un campo de Maxwell relativista Aµ cuatro componentes, donde µ = 1, 2, 3, 4. Se nos permite sustraer dos de estas cuatro componentes utilizando la simetría gauge de las ecuaciones de Maxwell.  Puesto que 4 – 2 = 2, los cuatro campos de Maxwell originales se han reducido a dos. Análogamente, una cuerda relativista vibra en 26 dimensiones.  Sin embargo, dos de estos modos vibracionales pueden ser eliminados rompemos la simetría de la cuerda, quedándonos con 24 modos vibracionales que son las que aparecen en la función de Ramanujan.

Cuando se generaliza la función de Ramanujan, el 24 queda reemplazado por el 8. Por lo tanto, el número crítico para la supercuerda es 8+2=10. Este es el origen de la décima dimensión que exige la teoría. La cuerda vibra en diez dimensiones porque requiere estas funciones de Ramanujan generalizadas para permanecer auto consistente. Dicho de otra manera, los físicos no tienen la menor idea de por qué 10 y 26 dimensiones se seleccionan como dimensión de la cuerda. Es como si hubiera algún tipo de numerología profunda que se manifestara en estas funciones que nadie comprende. Son precisamente estos números mágicos que aparecen en las funciones modulares elípticas los que determinan que la dimensión del espacio-tiempo sea diez.

En el análisis final, el origen de la teoría decadimensional es tan misterioso como el propio Ramanujan. Si alguien preguntara a cualquier físico del mundo por qué la naturaleza debería existir en diez dimensiones, estaría obligado a responder “no lo sé”. Se sabe en términos difusos, por qué debe seleccionarse alguna dimensión del espacio tiempo (de lo contrario la cuerda no puede vibrar de una cuánticamente autoconsistente), pero no sabemos por qué se seleccionan estos números concretos.

Ghhardy@72.jpg

               Godfrey Harold Hardy

G. H. Hardy, el mentor de Ramanujan,  trató de estimar la capacidad matemática que poseía Ramanujan.   Concedió a David Hilbert, universalmente conocido y reconocido uno de los mayores matemáticos occidentales del siglo XIX, una puntuación de 80.   A Ramanujan le asignó una puntuación de 100.  Así mismo, Hardy se concedió un 25.

Por desgracia, ni Hardy ni Ramanujan parecían interesados en la psicología a los procesos de pensamiento mediante los cuales Ramanujan descubría estos increíbles teoremas, especialmente cuando diluvio material brotaba de sus sueños con semejante frecuencia.   Hardy señaló:

“Parecía ridículo importunarle sobre como había descubierto este o ese teorema conocido, cuando él me estaba mostrando media docena día, de nuevos teoremas”.

 

Resultado de imagen de Ramanujan

                           Ramanujan

Hardy recordaba vivamente:

-”Recuerdo una vez que fui a visitarle cuando estaba enfermo en Putney.  Yo había tomado el taxi 1.729, y comenté que el numero me parecía bastante feo, y que esperaba que no fuese mal presagio.”

 

- No. -Replicó Ramanujan postrado en su cama-. Es un número muy interesante; es el número más pequeño expresable como una suma de dos cubos en dos formas diferentes.

 

(Es la suma de 1 x 1 x 1  y 12 x 12 x 12, y la suma de 9 x 9 x 9  y  10 x 10 x 10).

Era capaz de recitar en el acto teoremas complejos de aritmética cuya demostración requeriría un ordenador moderno.

En 1.919 volvió a casa, en la India, donde un año más tarde murió  enfermo.

El legado de Ramanujan es su obra, que consta de 4.000 fórmulas en cuatrocientas páginas que llenan tres volúmenes de notas, todas densamente llenas de teoremas de increíble fuerza pero sin ningún comentario o, lo que es más frustrante, sin ninguna demostración.  En 1.976, sin embargo, se hizo un nuevo descubrimiento.   Ciento treinta páginas de borradores, que contenían los resultados del último año de su vida, fueron descubiertas por casualidad en una caja en el Trinity Collage.   Esto se conoce ahora con el de “Cuaderno Perdido” de Ramanujan.

Comentando cuaderno perdido, el matemático Richard Askey dice:

“El de este año, mientras se estaba muriendo, era el equivalente a una vida entera de un matemático muy grande”.  Lo que él consiguió era increíble.  Los matemáticos Jonathan Borwien y Meter Borwein, en relación a la dificultad y la ardua tarea de descifrar los cuadernos perdidos, dijeron: “Que nosotros sepamos nunca se ha intentado una redacción matemática de este alcance o dificultad”.

 

Por mi creo que, Ramanujan, fue un genio matemático muy adelantado a su tiempo y que pasaran algunos años hasta que podamos descifrar al cien por ciento sus trabajos, especialmente, sus funciones modulares que guardan el secreto de la teoría más avanzada de la física moderna,   la única capaz de unir la mecánica quántica y la Gravedad.

        Fórmula de Ramanujan determinar los decimales de pi

Las matemáticas de Ramanujan son como una sinfonía, la progresión de sus ecuaciones era algo nunca vísto, él trabajaba otro nivel, los números se combinaban y fluían de su cabeza a velocidad de vértigo y con precisión nunca antes conseguida por nadie.   Tenía tal intuición de las cosas que éstas simplemente fluían de su cerebro.   Quizá no los veía de una manera que sea traducible y el único lenguaje eran los números.

saben los físicos, los “accidentes” no aparecen sin ninguna razón.  Cuando están realizando un cálculo largo y difícil, y entonces resulta de repente que miles de términos indeseados suman milagrosamente cero, los físicos saben que esto no sucede sin una razón más profunda subyacente.  Hoy, los físicos conocen que estos “accidentes” son una indicación de que hay una simetría en juego.  Para las cuerdas, la simetría se denomina simetría conforme, la simetría de estirar y deformar la hoja del Universo de la cuerda.

                       Nuestro mundo asimétrico hermosas simetrias

Aquí es precisamente donde entra el trabajo de Ramanujan.  Para proteger la simetría conforme original contra su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto número de identidades matemáticas que, son precisamente las identidades de la función modular de Ramanujan.  ¡Increíble , cierto.

Aunque el perfeccionamiento matemático introducido por la teoría de cuerdas ha alcanzado alturas de vértigo y ha sorprendido a los matemáticos, los críticos de la teoría aún la señalan su punto más débil.  Cualquier teoría, afirman, debe ser verificable.   Puesto que ninguna teoría definida a la energía de Planck de 1019 miles de millones de eV es verificable, ¡La teoría de cuerdas no es realmente una teoría!

El principal problema, es teórico más que experimental.  Si fuéramos suficientemente inteligentes, podríamos resolver exactamente la teoría y encontrar la verdadera solución no perturbativa de la teoría.  Sin embargo, esto no nos excusa de encontrar algún medio por el que verificar experimentalmente la teoría, debemos esperar señales de la décima dimensión.

Volviendo a Ramanujan…

Es innegable lo sorprendente de su historia, un muchacho pobre con escasa preparación y arraigado pocos a sus creencias y tradiciones, es considerado como una de los mayores genios de las matemáticas del siglo XX. Su legado a la teoría de números, a la teoría de las funciones theta y a las series hipergeométricas, además de ser invaluable aún sigue estudiándose por muchos prominentes matemáticos de todo el mundo. Una de sus fórmulas más famosas es

Resultado de imagen de La fórmula de PI de Ramanujan

Utilizada para realizar aproximaciones del número Pi con más de dos millones de cifras decimales. Otra de las sorprendentes fórmulas descubiertas por Ramanujan es un igualdad en que era “casi” un entero (la diferencia era de milmillonésimas). De hecho, durante un tiempo se llegó a sospechar que el número era efectivamente entero. No lo es, pero este hallazgo sirvió de base para la teoría de los “Cuasi enteros”. A veces nos tenemos que sorprender al comprobar hasta donde puede llegar la mente humana que, prácticamente de “la nada”, es capaz de sondear los misterios de la Naturaleza para dejarlos al descubierto ante nuestros asombros ojos que, se abren como platos ante tales maravillas.

Publica: emilio silvera

Para saber mucho más: “HIPERESPACIO”, de Michio Kaku,( 1996 CRÍTICA-Grijalbo Mondadori,S.A. Barcelona) profesor de física teórica en la City University de Nueva York. Es un especialista a nivel mundial en la física de las dimensiones superiores ( hiperespacio). Despide el libro con una palabras preciosas:

Una sola teoría para todas las fuerzas del Universo

$
0
0

Resultado de imagen de Espacio tiempo

La discusión de la unificación de las leyes de la Naturaleza fue más bien abstracta, y lo habría seguido siendo si Einstein no hubiese dado el siguiente paso decisivo.  Él comprendió que si el espacio y el tiempo pueden unificarse en una sola entidad, llamada espaciotiempo, entonces quizá la materia y la energía pueden unirse también en una relación dialéctica.  Si las reglas pueden contraerse y los relojes pueden frenarse, razonó, entonces cualquier cosa que midamos con regla y relojes también debe cambiar. (Es deseable dejar aquí una nota aclaratoria de que, todo lo que ahora se cuenta de Einstein, en parte, tiene su fuente en otros científicos que, aportaron la base de sus ideas en las que él se inspiró para llegar hasta la relatividad, y, su efecto fotoeléctrico -que le valió el Nobel de Física- le llegó desde la mente de Planck que, con su cuento de acción, h, le abrió el camino a aquel trabajo).

Resultado de imagen de la luz de la tierra a la luna

Más rápido que la luz, en nuestro Universo conocido, nada puede ir. Ni información, ni objetos inanimados, ni seres vivos.  La velocidad de la luz recorre la distancia de la Tierra a la Luna en poco más de un segundo.

Sin embargo, casi todo en el laboratorio de un físico se mide con regla y relojes. Esto significa que los físicos tendrán que recalibrar todas las magnitudes del laboratorio que una vez dieron por hecho que eran constantes.

http://smolinacalvo.files.wordpress.com/2011/04/250px-world_line-es-svg1.png

En concreto, la energía es una cantidad que depende de cómo midamos las distancias y los intervalos de tiempo.  Un automóvil de prueba que choca a gran velocidad contra una pared de ladrillos tiene obviamente energía.  No obstante, si el veloz automóvil se aproxima a la velocidad de la luz, sus propiedades se distorsionan.  Se contrae como un acordeón y los relojes en su interior se frenan.

Lo que es más importante, Einstein descubrió que la masa del automóvil también aumenta cuando reacelera. Pero  ¿de dónde procede este exceso de masa?  Y él concluyó que procedía de la energía. La masa relativista es la masa de un cuerpo medida por un observador con respecto al cual ese cuerpo se mueve. De acuerdo con la teoría de Einstein,  esta masa está dada por:

donde m0 es su masa en reposo y c es la velocidad de la luz. La masa relativista sólo difiere de la masa en reposo si su velocidad es una fracción apreciable de la velocidad de la luz. Si V= c/2, por ejemplo, la masa relativista es un 15% mayor que la masa en reposo.

 De hecho, cuando una partícula se acerca a la velocidad de c, su masa … ¡aumenta! El muón, aumentó su masa m´ñas de diez veces al llegar cerca de la velocidad de la luz.


 Esto tuvo consecuencias perturbadoras.  Dos de los grandes descubrimientos de la física del siglo XIX fueron la conservación de la masa y la conservación de la energía; es decir, la masa total y la energía total de un sistema cerrado, tomadas por separado, no cambian.

Sin embargo, Einstein decía que cuando un cuerpo material se acerca a la velcoidad de la luz, su masa aumenta y, si puediera llegar  a la velocidad de c, se haría infinita. Por eso precisamente, nada, en el Universo, puede ir más rápido que la luz. Esa es la frontera que impone el Universo para la velocidad. Nació un nuevo principio de conservación que decía que la suma total de la masa y la energía debe siempre permanecer constante.  La materia no desaparece repentinamente, ni la energía brota de la nada.  En este sentido, la materia desaparece sólo para liberar enormes cantidades de energía o viceversa.

                 ¿Sabremos alguna vez qué energía es la que sale del “vacío”?

Cuando Einstein tenía 26 años, calculó exactamente cómo debía cambiar la energía si el principio de la relatividad era correcto, y descubrió la relación E=mc2.  Puesto que la velocidad de la luz al cuadrado (c2) es un número astronómicamente grande, una pequeña cantidad de materia puede liberar una enorme cantidad de energía.  Dentro de las partículas más pequeñas de materia hay un almacén de energía, más de un millón de veces la energía liberada en una explosión química.  La materia, en cierto sentido, puede verse como un depósito casi inagotable de energía; es decir, la materia es en realidad, energía condensada.

    La materia del Universo…¿donde está? ¡Esa que no podemos ver!

Einstein supo ver que las dimensiones más altas tienen un propósito: unificar los principios de la Naturaleza.  Al añadir dimensiones más altas podía unir conceptos físicos que, en un mundo tridimensional, no tienen relación, tales como la materia y la energía o el espacio y el tiempo que, gracias a la cuarta dimensión de la relatividad especial, quedaron unificados.

¿Que pensaba Einstein del puente Einstein-Rosen?

El puente de Einstein-Rosen conecta universos diferentes. Einstein creía que cualquier cohete que entrara en el puente sería aplastado, haciendo así imposible la comunicación entre estos dos universos. Sin embargo, cálculos más recientes muestran que el viaje a través del puente, aunque podría ser muy difícil, no sería imposible; existen ciertas posibilidades de que algún día se pudiera realizar

Posteriormente, los puentes de Einstein-Rosen se encontraron pronto en otras soluciones de las ecuaciones gravitatorias, tales como la solución de Reisner-Nordstrom que describe un agujero eléctricamente cargado. Sin embargo, el puente de Einstein-Rosen siguió siendo una nota a pie de página curiosa pero olvidada en el saber de la relatividad.

Resultado de imagen de El agujero negro de Kerr

Roy Patrick Kerr (16-05-1934- ) es un matemático neozelandés, famoso por haber encontrado en 1963 una solución exacta de la ecuación de campo de la relatividad general, aplicada a un agujero negro en rotación.

Las cosas comenzaron a cambiar con la solución que el trabajo matemático presentado por el neozelandés Roy Kerr, presentado en 1.963, encontró otra solución exacta de las ecuaciones de Einstein. Kerr supuso que cualquier estrella colapsante estaría en rotación. Así pues, la solución estacionaria de Schwarzschild para un Agujero Negro no era la solución físicamente más relevante de las ecuaciones de Einstein.

La solución de Kerr causó sensación en el campo de la relatividad cuando fue propuesta. El astrofísico Subrahmanyan Chandrasekhar llegó a decir:

La  experiencia que ha dejado más huella en mi vida científica, de más de cuarenta años, fue cuando comprendí que una solución exacta de las ecuaciones de Einstein de la relatividad general, descubierta por el matemático Roy Kerr, proporciona la representación absolutamente exacta de innumerables agujeros negros masivos que pueblan el universo. Este estremecimiento ante lo bello, este hecho increíble de que un descubrimiento motivado por una búsqueda de la belleza en matemáticas encontrará su réplica exacta en la naturaleza, es lo que me lleva a decir que la belleza es aquello a lo que lleva la mente humana en su nivel más profundo“.

 

Si queremos saber, tendremos que desvelar lo que ocurrió y, según la información que el agujero negro retenga de los entes cósmicos que generaron su origen o de las propiedades de su anterior vida como masiva estrella.

La solución de Kerr de un agujeros negros giratorio permite que una nave espacial pase a través del centro del agujero por el eje de rotación y sobrevivir al viaje a pesar de los enormes pero finitos campos gravitorios en el centro, y seguir derecha hacia el otro universo especular sin ser destruida por la curvatura infinita.

Desde entonces, estos conceptos, los tenemos que clasificar, no por separado, sino siempre juntos como dos aspectos de un mismo ente materia-energía por una parte y espacio-tiempo por la otra.  El impacto directo del trabajo de Einstein sobre la cuarta dimensión fue, por supuesto, la bomba de hidrógeno, que se ha mostrado la más poderosa creación de la ciencia del siglo XX.  Claro que, en contra del criterio de Einstein que era un pacifista y nunca quiso participar en proyectos de ésta índole.

                                                                         Ernest Mach

Einstein completó su teoría de la relatividad con una segunda etapa que, en parte, estaba inspirada por lo que se conoce como principio de Mach, la guía que utilizó Einstein para crear esta parte final y completar su teoría de relatividad general.

Einstein enunció que, la presencia de materia-energía determina la curvatura del espacio-tiempo a su alrededor.  Esta es la esencia del principio físico que Riemann no logró descubrir: la curvatura del espacio está directamente relacionada con la cantidad de energía y materia contenida en dicho espacio.

Esto, a su vez, puede resumirse en la famosa ecuación de Einstein que,  esencialmente afirma:

T_{ik} = \frac{c^4}{8\pi G} \left [R_{ik} - \left(\frac{g_{ik} R}{2}\right) + \Lambda g_{ik} \right ]

La ecuación anterior expresa que el contenido material determina la curvatura del espacio-tiempo.

                        Materia-energía determina la curvatura del espacio-tiempo.

Esa ecuación de arriba de la imagen, engañosamente corta es uno de los mayores triunfos de la mente humana (me he referido a ella en otras muchas ocasiones).  De ella emergen los principios que hay tras los movimientos de las estrellas y las galaxias, los agujeros negros, el big bang, y seguramente el propio destino del Universo.

Es curiosa la similitud que se da entre la teoría del electromagnetismo y la relatividad general, mientras que Faraday experimentó y sabía los resultados, no sabía expresarlos mediante las matemáticas y, apareció Maxwell que, finalmente formuló la teoría.

Einstein, al igual que Faraday, había descubierto los principios físicos correctos, pero carecía de un formulismo matemático riguroso suficientemente potente para expresarlo (claro que Faraday no era matemático y Einstein si lo era).  Carecía de una versión de los campos de Faraday para la Gravedad.  Irónicamente, Riemann tenía el aparato matemático, pero no el principio físico guía, al contrario que Einstein.  Así que, finalmente, fue Einstein el que pudo formular la teoría con las matemáticas de Riemann.

Mediante el Tensor métrico de Rieman, Einstein pudo formular su famosa teoría de la relatividad General, sonde el espacio y el tiempo se distorsionan en presencia de grandes masas. El tensor métrico de Riemann le permitió erigir un potente aparato para describir espacios de cualquier dimensión con curvatura arbitraría. Para su sorpresa, encontró que todos estos espacios están bien definidos y son autoconsistentes. Previamente, se pensaba que aparecerían terribles contradicciones al investigar el mundo prohibido de dimensiones más altas. Riemann no encontró ninguna. De hecho, resultaba casi trivial extender su trabajo a un espacio N-dimensional. El tensor métrico se parecía ahora a un tablero de ajedrez de N x N casillas

El tensor de Riemann contiene toda la información necesaria para poder describir un espacio curvo en N-dimensiones. Se necesita dieciséis números para describir el tensor métrico en un espacio tetradimensional. Estos números pueden disponerse en una matriz cuadrada (seis de dichos números son realmente redundantes; de modo que el tensor métrico tiene diez números independientes).

“¡Qué extraño sería que la teoría final se descubriera durante nuestra vida!  El descubrimiento de las leyes finales de la Naturaleza marcará una discontinuidad en la Historia del intelecto humano, la más abrupta que haya ocurrido desde el comienzo de la ciencia moderna del siglo XVII.  ¿Podemos imaginar ahora como sería?” Así se expresó Steven Weinberg que comprendia la complejidad de la empresa. Él, se refería a las modernas versiones de la teoría de cuerdas.

¿Es la belleza un principio Físico?

http://lh3.ggpht.com/MM15ES666/R5TxM5Z7bpI/AAAAAAAABUk/anUOr1lLGCg/1%5B3%5D

Cuando hablamos de las teorías de supercuerdas (todas las versiones), lo hacemos sobre otro universo…En este, de momento, las cuerdas no aparecen y, por lo que parece, durante bastante tiempo no aparecerán.Es una teoría, como nos dice Witten, adelantada a su tiempo y, no disponemos ni de la energía necesaria para poder llegar a ellas (si es que finalmente existen) ni tampoco, las matemáticas actuales son lo suficientemente potentes para poder explicarlas en toda su grandeza.

Archivo:Supercuerdas.jpg

Un universo de cuerdas que vibran en el espacio-tiempo para producirm partículas…¡Todo podríam ser!

La teoría de supercuerdas nos da una formulación convincente de la teoría del Universo, sin embargo, el problema fundamental radica en que una comprobación de dicha teoría, está más allá de nuestras posibilidades actuales.  De hecho, la misma teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, o 1019 miles de millones de electronvoltios (eV), que como sabéis, es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores de partículas.

Resultado de imagen de El LHC

Ni el LHC con toda su moderna tecnología, podría encontrar las cuerdas. No dispone de la energía de Planck, es decir 1019 GeV que es la que se calcula podría alcanzar las hipóteticas cuerdas, y, esa energía, está lejos de que la podamos manejar.

Resultado de imagen de David Gross y El cuarteto de cuerdas de la física

                        Los creadores de la QED: Feynman, Tomonaga, Schwinger y Dyson

Resultado de imagen de la cuerda heterótica

Ya he comentado otras veces que el físico David Gross (el de más edad de los miembros conocidos como el “cuarteto de cuerdas” y autores de la teoría llamada la cuerda heterótica) dijo en una ocasión: “El coste de generar esta fantástica energía, necesitaría el dinero de las tesorerías de todos los países del mundo juntos, y quizá, no llegara.  Es verdaderamente astronómico.”

Resultado de imagen de La teoría decadimensional

Siendo así, de momento estamos condenados a no poder verificar experimentalmente este motor (parado) que haría marchar el vehículo de la Física.  La teoría decadimensional está paralizada en dos sentidos: el económico y el técnico – matemático.  El primero por falta de dinero que  nos pudiera construir aceleradores tan potentes como para descubrir la partícula de Higgs (la única descubierta) los quarks e incluso las cuerdas vibrantes, esos previsibles y minúsculos objetos primordiales que conforman la materia.  En segundo lugar, las formulaciones matemáticas complejas que, según parece, aún no se han inventado.  Parece que hoy, ni siquiera Witten o Perelman, conocen el secreto de los números mágicos que nos puedan llevar hasta el final del camino iniciado con Einstein y Kaluza-Klein.

Particularmente opino que la teoría de cuerdas nos dará muchas alegrías y que en ella están las respuestas a muchas preguntas que no sabemos contestar. Incluso estaría por apostar alguna cosa (un café), sobre la posibilidad de que, aunque con mucho menos energía de la necesaria para hallar las cuerdas, en el LHC podrían aparecer…las sombras de las mismas.

                    No, de estas cuerdas no hablamos

Dentro del mundo de la Física, los hay de todas las opiniones: en contra y a favor.  Es famosa la postura detractora del Nóbel Sheldoy Glasgow de Harvard, no quiere ni oír hablar de la teoría de supercuerdas a la que califica de física de Teatro.

Otros muchos, la mayoría, como Murray Gell-Marn, Steven Weinberg (ambos Premios Nóbel) o el mismo.  E. Witten (Medalla Field), opinan lo contrario y ven en esta teoría de dimensiones más altas el futuro de la Física.

Ya sabemos que en física toda teoría debe ser verificada, una y otra vez, en uno y en otro lugar, experimentalmente, obteniendo siempre el mismo resultado, es la única manera de que sea aceptada por la comunidad científica, mientras tanto, la teoría no es fiable y queda a la espera de ser comprobada, verificada sin ningún lugar para la duda.

Pero, ¿Se puede recrear la creación?

Imagen relacionada

            Eso es, precisamente, lo que tratan de hacer aquí, recrear los primeros instantes del Universo

La teoría de supercuerdas trata de eso.  Quiere explicarnos todos los misterios del Universo a partir de ese primer momento, ¡la creación!

¿Cuántas y cuántas páginas no habré leído y escrito sobre estos temas fascinantes de los secretos del Universo, las fuerzas que lo rigen, la materia de las Galaxias y de los objetos que lo pueblan?

No podría decirlo.  Sin embargo, hay una cosa que sí puede decir: ¡Cuánto más profundizo en estas cuestiones, cuánto más conocimientos adquiero, más fascinación siento y desde luego, mi capacidad de asombro, más crece! Qué verdad dijo aquel sabio: “Siempre seremos aprendices” ¿Porque, quién puede saberlo todo? Es raro el día que nos acostamos sin haber aprendido algo nuevo.

La degradación de los cables superconductores en el corazón de la máquina de fusión ITERamenaza con provocar mayores retrasos. El ITER (International Thermonuclear Experimental Reactor) Son muchos los proyectos que tienen vía libre y otros han sido desechados por su alto costo.

Resultado de imagen de el súper colisionador superconductor! (SSC),

                      El acelerador de partículas más grande del mundo está abandonado en Texas

¡Qué lastima que no se construyera el súper colisionador superconductor! (SSC), que encontrara los vestigios subatómicos que mostrara una señal característica de la supercuerda, tal como la súpersimetría.  Aunque ni con este monstruoso SSC se hubiera podido sondear la distante energía de Planck, si podría habernos ofrecido una evidencia muy fuerte (aunque indirecta) de la corrección de la teoría de supercuerdas.

Imagen relacionada

Este súper colisionador que se hubiese completado en las afueras de Dallas, Texas, hubiera contado con un tubo gigantesco de 85 km. De circunferencia rodeado de enormes bobinas magnéticas.  Lanzaría protones a velocidades muy cercanas a la de la luz que, viajarían en el sentido de las aguas del reloj y el sentido contrario, para en un momento dado, hacerlos colisionar a una energía de 40 billones de electronvoltios (TeV), generando una intensa ráfaga de residuos subatómicos analizados por detectores que, en contrarían partículas exóticas que hubieran arrojado luz sobre la forma esencial de la materia.  Los campos magnéticos para guiar los protones y los antiprotones dentro del tubo son tan excepcionalmente grandes (del orden de 100.000 veces el campo magnético de la Tierra) que, hubieran sido necesarios procedimientos extraordinarios para generarlos y mantenerlos.

Además del enfriamiento de las bobinas hasta casi el cero absoluto (-273°) y otros problemas que hubieran obligado a enormes avances tecnológicos.  Sin embargo, la política, se cargó el proyecto y nos quedamos sin la esperada partícula de Higgs que es la que genera la ruptura de simetría y es por tanto el origen de la masa de los quarks, así que, habríamos podido descubrir el origen de la masa. Sin embargo, no podemos perder la esperanza, el LHC está en marcha y pronto, nos dará muchas alegrías.

Me viene a la memoria que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento.  En 1.825, el filósofo y crítico social francés Auguste Comte, al escribir el Curso de Filosofía, declaraba que nunca conoceríamos las estrellas de otra forma que como inalcanzables puntos de luz en el cielo debido a su enorme distancia de nosotros.  Las máquinas del siglo XIX, o de cualquier siglo, argumentaba, no eran suficientemente potentes para escapar de la Tierra y alcanzar las estrellas.

Espectro

Así que parecía que el determinar la composición de las estrellas era imposible, y, lo curioso es que, casi al mismo tiempo, el físico alemán Joseph Von Fraunhofer estuviera haciendo precisamente eso.  Utilizando un prisma y un espectroscópio, pudo descomponer la luz blanca emitida desde las estrellas lejanas y determinar la composición química de dichas estrellas.

De la misma manera, pudiera, en este mismo instante, estar trabajando un físico-matemático en profundizar en la teoría de supercuerdas y estar formulando otro respetable avance hacia nuestro futuro.

¿Qué sería de nosotros sin la Física?

emilio silvera

Velocidades inimaginables

$
0
0

En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.

Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividadespecial de Einstein.

Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.

Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:

E = mc2

Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividadtuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividadtambién sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.

Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.

La formulación de newton es bien conocida, en la segunda imagen que se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.

Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.

Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.

Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.

Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.

Desde que se puso en órbita el telescopio espacial de rayos gamma Fermi, el 11 de junio de 2008, ha detectado poblaciones enteras de objetos nunca antes vistos. El último hallazgo de Fermi afecta al púlsar J1823-3021A, avistado en 1994 con el radiotelescopio Lovell, en Inglaterra. Un equipo internacional de expertos se ha dado cuenta de que esta estrella pulsante emite rayos gamma y gracias a Fermi ha podido caracterizar sus inusuales propiedades. Los resultados de su investigación se publican en el último número de Science. Lo cierto es que han descubierto el púlsar de milisegundos más joven y con la fuerza magnética más potente.

No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.

El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).

La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.

Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.

Resultado de imagen de La constante de estructura fina

La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.

En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.

También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).

La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.

  • La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
  • La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
  • Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.

Los gravitones son el bosón hipotético de la fuerza fundamental gravedad. Con esta partícula se podria unificar la mecánica cuántica y la teoría de la relatividad especial. Un dato interesante es que se según la teoría de cuerdas los gravitones están...

La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.

La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.

Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.

Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.

La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.

La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadronespara mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.

La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.

La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.

Resultado de imagen de Las trazas de los rayos cósmicosResultado de imagen de detector cherenkov detectando rayos cósmicos

De manera habitual se hacen toda clase de pruebas con aparatos diseñados expresamente para ello y se trata de detectar las partículas presentes en los rayos cósmicos y, también los neutrinos procedentes de agujeros negros y otras fuentes, tratando de resolver el misterio que envuelve a los rayos cósmicos

Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.

Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.

Nombre Símbolo Masa (MeV) Carga Espín Vida media (s)
Fotón γ 0 0 1
Leptones (L = 1, B = 0)
Electrón e- 0’5109990 ½
Muón μ- 105’6584 ½ 2’1970 × 10-6
Tau τ
Neutrino electrónico νe ~ 0 0 ½ ~ ∞
Neutrino muónico νμ ~ 0 0 ½ ~ ∞
Neutrino tauónico ντ ~ 0 0 ½ ~ ∞
Mesones (L = 0, B = 0)
Pión + π+ 139’570 2’603 × 10-8
Pión – π- 139’570 2’603 × 10-8
Pión 0 π0 134’976 0’84 × 10-16
Kaón + k+ 493’68 1’237 × 10-8
Kaón – k- 493’68 1’237 × 10-8
Kaón largo kL 497’7 5’17 × 10-8
Kaón corto kS 497’7 0’893 × 10-10
Eta η 547’5 0 0 5’5 × 10-19
Bariones (L = 0, B = 1)
Protón p 938’2723 + ½
Neutrón n 939’5656 0 ½ 887
Lambda Λ 1.115’68 0 ½ 2’63 × 10-10
Sigma + Σ+ 1.189’4 + ½ 0’80 × 10-10
Sigma – Σ- 1.1974 ½ 7’4× 10-20
Sigma 0 Σ0 0 ½ 1’48 × 10-10
Ksi 0 Ξ0 1.314’9 0 ½ 2’9 × 10-10
Ksi – Ξ- 1.321’3 ½ 1’64 × 10-10
Omega – Ω- 1.672’4 0’82 × 10-10

Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con  y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π-, al igual que ocurre con k+ y k-. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.

Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.

Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.

Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planckh, dividido por . Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.

El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electronespudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.

Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.

Imagen relacionada

Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermionesse comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.

Resultado de imagen de Fermiones de espín semi-entero

Resultado de imagen de Fermiones

En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.

Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.

Uno de los protones se transmuta en un neutrón por medio de la interacción débil, transformando un quark “up”, en “down”. Este proceso consume energía (el neutrón tiene ligeramente más masa que..

En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:

  • La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
  • Comparada con las demás interacciones, ésta tiene un alcance muy corto.
  • La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
  • Los mediadores de la interacción débil, llamados W+, W- y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.

A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).

Resultado de imagen de La interacción fuerte

La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.

Resultado de imagen de Interacción fuerte

El triplete de Quarks que conforma a protones y neutrones están confinados en el núcleo del átomo y bien atados por los gluones que son los bosones intermediarios de la fuerza. Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).

La interacción es fuerte. En realidad, la más fuerte de todas.

Imagen relacionada

Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento ha sido una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.

Resultado de imagen de El LHC trata de encontrar la partícula de la materia oscura

Existen esperanzas de que el LHC empleando energías más elevadas, nos pueda dar alguna sorpresa y encuentre objetos largamente perseguidos. Entre otros, la partícula de la “materia oscura” si finalmente se descubre que realmente existe.

emilio silvera

¡Fisica! Siempre la Física estará presente

$
0
0

A String of 'Cosmic Pearls' Surrounds an Exploding Star

Todo el Universo conocido nos ofrece una imagen con una ingente cantidad de objetos que se nos presentan en diferentes formas y maneras: Estrellas y mundos, quásares, estrellas de neutrones, magnñetares, enanas blancas y rojas, de neutrones (y no sabemos si también de Quarks), Explosiones Supernovas que dan lugar a extraños objetos y a regar el espacio interestelar con inmensas nebulosas que están cargadas de los materiales “fabricado” en los núcleos de las estrellas y también, en esas mismas explosiones. Y, cuando las estrellas sin muy masivas y llegan al final de sus días, agotado el combustible nuclear de fusión, se convierten en singularidades rodeadas de un horizonte de sucesos… ¡Un agujero negro!.

 

 

 

 

 

El Hubble nos llevó los confines del Universo profundo para ver viejas  galaxias de 13.000 millones de años de edad, y, cercanas al del Universo primitivo. C on la nueva generación de Telescopios espaciales, podremos contemplar el Universo aún no existían estrellas y, la materia, se estaba formando.

 

La Escala del Universo

Resultado de imagen de La expansión del Universo

 Se cree que cuando el universo se expandió y se enfrió a unos 3000 ºK, se volvió transparente a la radiación, que es la que observamos en la actualidad, mucho más fría y diluida, como radiación térmica de microondas. El descubrimiento del fondo de microondas en 1.956 puso fin a una larga batalla entre el Big Bang y su rival, la teoría del universo estacionario de Fred Hoyle y otros, que no podía explicar la forma de cuerpo negro del fondo de microondas. Es irónico que el término Big Bang tuviera inicialmente un sentido burlesco y fue acuñado por Hoyle, contrario a la teoría del universo inflacionario que se inventó el término “¡La Gran Explosión!” para burlarse de la teoría.

 

 

 

 

Como nunca dejaremos a aprender cosas nuevas, de desvelar secretos de la Naturaleza, de seguir investigando en busca de “otras verdades”, de elaborar nuevos modelos y nuevas Teorías que nos acerquen, cada vez más a la realidad del mundo (ese es, de momento, nuestro cometido), estamos abocados a tratar de saber lo que no sabemos y que, no pocas veces, creemos que sabemos. Ya lo dijo el gran Sócrates:

 ”Sólo se que no se nada”

Popper lo amplió:

Cuanto más profundizo en el saber de las cosas, más consciente soy de lo poco que sé. Mis conocimientos son limitados, mi ignorancia, es infinita“.

 

 

 

Las sustancias formadas por una sola clase de átomos se llaman elementos químicos. La palabra “átomo” procede del griego ατομος, que significa “indivisible” y el uso de la palabra “elemento” sugiere que se ha llegado a los ladrillos básicos con los que está formada la materia. De hecho, esta es la imagen que se tenía a mediados del siglo XIX cuando se acuñaron estos términos. Sin embargo, hoy sabemos que todo esto es falso, que los átomos se pueden dividir y que, de esta manera, los elementos han dejado de ser verdaderamente elementales. Los físicos continúan con esta nomenclatura aunque sea formalmente incorrecta, ya que, la costumbre, como dicen los juristas, no pocas veces rigen la jerga de las leyes.

La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de extraño mundo, permitirá procesar toda la información existente en segundos.” El futuro que nos aguarda es inimaginable y cada día que pasa aparecen nuevos logros tecnológicos que nos sitúan en otro mundo, otra sociedad, otras nuevas formas de vivir y de comprender.

                                Sí, son los electrones los que dan al átomo su forma esférica

A todo esto y hablando de los átomos, por fuerza, nos tenemos que acordar del electrón que da al átomo su esférica. Son partículas cargadas eléctricamente que se mueven alegremente alrededor del núcleo. El electrón es muy ligero: su masa es solamente 1/1.836 de la del núcleo más ligero (el hidrógeno). La carga eléctrica del electrón es de signo opuesto a la del núcleo, de manera que los electrones están fuertemente atraídos el núcleo y se repelen mutuamente. Si la carga eléctrica total de los electrones en un átomo iguala a la del núcleo, lo que generalmente se necesitan varios electrones, se dice que el átomo está en equilibrio o que es eléctricamente neutro.

átomos ultrafríos

Un experimento realizado por científicos del Centro de Viena para la Ciencia y Tecnología Cuánticas ha demostrado que, en el mundo cuántico, la transición hacia el equilibrio térmico es más interesante y más complicada de lo que se pensaba.

Según destaca el , publicado en ‘Science’, entre un ordenado inicial y un estado final estadísticamente mixto, puede emerger un “cuasi-estacionario estado intermedio”. Este estado intermedio ya exhibe algunas propiedades como el equilibrio, pero parte de las características del estado inicial permanecen visibles durante un período de tiempo muy largo.

El fenómeno se denomina “pre-termalización” y desempeña un papel importante en diversos procesos de no equilibrio en la física cuántica. Podría, por ejemplo, ayudarnos a comprender el estado del universo temprano.

http://webdelprofesor.ula.ve/ciencias/labdemfi/electrostatica/fotos/carga_globo_g.gif

La fuerza a la que obedecen los electrones, la denominada fuerza electrostática o de Coulomb, es matemáticamente bastante sencilla y, sin embargo, los electrones son los responsables de las importantes propiedades de los “enlaces químicos”. Esto se debe a que las leyes de movimiento de los electrones están regidas completamente por la “mecánica cuántica”, teoría que se completó a principios del siglo XX. Es una teoría paradójica y difícil de entender y explicar, pero al mismo tiempo es muy interesante, fantástica y revolucionaria. uno se introduce en las maravillas de la mecánica cuántica es como si hiciera un viaje a un universo que está situado fuera de este mundo nuestro, ya que, las cosas que allí se ven, desdicen todo lo que dicta nuestro sentido común de cómo tiene que ser el mundo que nos rodea.

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

Sincronización perfecta, ¡es una sinfonía interpretada por la Naturaleza!

No solamente los electrones, sino también los núcleos atómicos y los átomos en su conjunto obedecen y se rigen por la mecánica cuántica. La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck, escribió un artículo de ocho páginas y allí propuso una posible solución a un problema que había intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos.

Estaban bien aceptados entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para las longitudes mayores como para las longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

El espectro electromagnético se extiende la radiación de menor longitud de onda, como los rayos gammay los rayos X, pasando por la luz ultravioleta, la luz visible y los rayos infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como son las ondas de radio. Se cree que el límite la longitud de onda más pequeña posible es la longitud de Planck mientras que el límite máximo sería el tamaño del Universo.

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de la onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:

E = h \nu \,\!

 

donde h es la constante de Planck (cuyo valor es 6,626 × 10−34 J·s). Sólo los fotones con una frecuencia alta (por encima de un valor umbral específico) podían provocar la corriente de electrones. Por ejemplo, la luz azul emitía unos fotones con una energía suficiente para arrancar los electrones del metal, mientras que la luz roja no. Una luz más intensa por encima del umbral mínimo puede arrancar más electrones, pero ninguna cantidad de luz por debajo del mismo podrá arrancar uno solo, por muy intenso que sea su brillo.

             El esquema del Efecto fotoeléctrico nos muestra como la luz arranca electrones de la placa.

Poco tiempo después, en 1905, Einstein formuló esta teoría de una forma mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en de energía, sino que toda la radiación consiste en múltiplos de los paquetes de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.

Imagen ilustrativa de la dualidad onda-partícula, en el cual se ver cómo un mismo fenómeno puede tener dos percepciones distintas. Estas son las cosas que hacen de la mecánica cuántica un “mundo” extraño.

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Erwin Schrödinger descubrió escribir la teoría ondulatoria de Debroglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños estaban exactamente determinados por la recién descubiertas “ecuaciones de onda cuánticas”.

Pocas dudas nos pueden caber a estas alturas de que la mecánica cuántica (de Planck) y, la Relatividad –tanto especial general- (de Einstein), además de ser las dos teorías más importantes de la Física de nuestro tiempo, funcionan de tal forma que uno, cuando profundiza en sus predicciones y las compara con lo que ocurre en el Universo, no por menos que, asombrarse, al comprobar como unas mentes humanas han sido capaces de llegar a estos profundos pensamientos que nos acerca a la realidad de la Naturaleza, al mismo tiempo que nos aleja de nuestra propia realidad.

Sí, están ahí pero, en realidad, no sabemos, a ciencia cierta, ni cómo se formaron las galaxias

¿Qué encontraremos cuando sea posible verificar la Teoría de cuerdas? ¿Qué hay más allá de los Quarks? ¿Sabremos alguna vez lo que es una singularidad? ¿Será verdad la existencia de esa materia oscura de la que tanto se habla? ¿Podremos al fín, encontrar esa fuente de energía que tanto necesita la Humanidad para dar ese segundo paso el futuro? ¿Tendremos, acaso, algún destino que no sea el de la irremisible extinción?

¡Preguntas! Preguntas y más preguntas que no podemos contestar. Es desesperante estar inmersos en  inmenso océano de ignorancia. ¿Cuándo sabremos? El el epitafio que Hilbert ordenó esculpir en su Tumba, nos lo prometía: “Tenemos que saber, sabremos”. Si, ¿pero cuándo?

Lo cierto es que, las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuantica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.

         Los bosones tienen un angular n h / 2p, donde n es cero o un entero y h es la constante de Planck.  bosones idénticos, la función de ondas es siempre simétrica.  Si solo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermionesidénticos es siempre antisimétrica.

http://farm5.static.flickr.com/4140/4745204958_afd02b2486.jpg

La mejor teoría explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y ajustes, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas que rigen el universo.

La relación el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. En un espacio de dos dimensiones es posible que existan partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones.  Estas partículas se conocen con el de aiones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1.  Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

Debido al principio de exclusión de Pauli no es imposible que dos fermiones ocupen el mismo espacio cuántico (al contrario de lo que ocurre con los bosones). Y, precisamente por eso, se degeneran electronesneutrones dando lugar a la formación de estrellas enanas blancas y de neutrones que, encuentran la estabilidad frenando la fuerza de gravedad.

La condensación de Bose-Einstein es de importancia fundamental explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7k) se formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un superátomo). efecto ha sido observado con átomos de rubidio y litio. Este efecto (condensación Bose-Einstein), ya habréis podido suponer, es llamado así en honor al físico Satyendra Naht Bose (1.894-1.974) y de Albert Einstein.

condensado-bose-einstein

Más reciente es la obtención del Condensado de Bose-Einstein (BEC); en este caso las bases teóricas se postularon en la década de los 20 en manos de Satyendra Nath Bose y Albert Einstein. El primero describe ciertas reglas para determinar si dos fotones deberían considerarse idénticos o diferentes (Estadísticas de Bose) y Einstein aplica dichas reglas a los átomos intentando averiguar como se comportarían. Así, halla los efectos de que a muy bajas temperaturas los átomos están al mismo nivel cuántico produciendo fenómenos como la superfluidez o la superconductividad.

Distribución de momentos que confirma la existencia de un estado de agregación de la materia, el condensado de Bose-Einstein. obtenidos en un gas de átomos de rubidio, la coloración indica la cantidad de átomos a cada velocidad, con el rojo indicando la menor y el blanco indicando la mayor. Las áreas blancas y celestes indican las menores velocidades. A la izquierda se observa el diagrama inmediato anterior al condensado de Bose-Einstein y al centro el inmediato posterior. A la derecha se observa el diagrama luego de cierta evaporación, con la sustancia cercana a un condensado de Bose-Einstein puro. El pico no es infinitamente angosto debido al Principio de indeterminación de Heisenberg: dado que los átomos están confinados en una región del espacio, su distribución de velocidades posee necesariamente un cierto ancho mínimo. La distribución de la izquierda es para T > Tc (sobre 400 nanokelvins (nK)), la central para T < Tc (sobre 200 nK) y la de la derecha para T << Tc (sobre 50 nK).

               El puntito blanco del centro es la enana blanca

Las estrellas enanas blancas, de neutrones y los púlsares existen, precisamente, por el principio de exclusión de Pauli que, degenera electrones y neutrones cuando las estrellas masivas, al final de su existencia, explotan como Supernovas y´su masa  se contraen sobre sí misma más y más. Si la estrella es demasiado masiva, entonces ni ese principio de exclusión puede frenar a la Gravedad y se convierte en un Agujero negro.

Resultado de imagen de Principio de exclusión de Pauli

         Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a todos los fermiones; pero no a los bosones.  Si nos fijamos en todo lo que estamos hablando aquí, nos daremos de que la mecánica cuántica es extraña y siendo fácil comprender como forma un campo magnético la partícula cargada que gira, no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado.

        Lo cierto es que ocurre así. La prueba directa más evidente de ello es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma que lo haría si el hierro no estuviese magnetizado.  El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalentes a cero, aunque por alguna razón desconocida, lograr crear un campo magnético cuando gira la partícula.

emilio silvera

Los núcleos, la masa, la energía…¡La Luz!

$
0
0

Hay veces en las que nos cuentan cosas y hechos de los que nunca hemos tenido noticias y, resultan del máximo interés. Nuestra curiosidad nos llama a desentrañar los misterios y secretos que, tanto a nuestro alrededor, como en las regiones más lejanas del Universo, puedan haber ocurrido, puedan estar sucediendo ahora, o, en el futuro pudieran tener lugar, ya que, de alguna manera, todas ellas tienen que ver con nosotros que, de alguna manera, somos parte de la Naturaleza, del Universo y, lo que sucedió, lo que sucede y lo que sucederá… ¡Nos importa!

El saber ocupa un lugar en nuestras mentes

Resultado de imagen de Qué tiempo estará aquí la Humanidad?

                      Algunos hablan de una nueva Humanidad, una nueva Conciencia

No podemos saber si la Humanidad como tal, estará aquí mucho tiempo más y, si con el tiempo y los cambios que se avecinan, nosotros los humanos, mutaremos hacia seres más completos y de mayor poder de adaptación al medio. Y, desde luego, nuestros descendientes, llegara un dia lejano en el futuro en el cual, habrán dejado la Tierra antes de que se convierta en Gigante Roja y calcine el Planeta y, habrán colonizado otros mundos. Para eso faltan mucho miles de millones de años. En la actualidad, solo estamos dando los inseguros primeros pasos por los alrededores de nuestro hogar, plantearnos ir mucho mas allá, es impensable. No tenemos ni la capacidad tecnológica ni la inteligencia necesaria para desarrollar los medios que se necesitan para poder desplazarnos a otros mundos lejanos que, posiblemente, estando situados en zona habitable como la misma Tierra, nos podrían dar el cobijo necesario para su colonización y hacer de ellos nuestros futuros hogares.

El futuro: Siempre será incierto

Pero, hablemos de Física

La partícula emitida por un núcleo radiactivo, por lo general lleva una considerable cantidad de energía. Y, ¿de dónde procede esa energía? Es el resultado de la conversión en energía de una pequeña parte del núcleo (E = mc2); en otras palabras, el núcleo siempre pierde un poco de masa en el acto de expeler la partícula.

Imagen relacionada

Los físicos se vieron durante mucho tiempo turbados por el hecho de que, a menudo, la partícula beta emitida en una desintegración del núcleo no alberga energía suficiente para compensar la masa perdida por el núcleo. En realidad, los electrones no eran igualmente deficitarios. Emergían con un amplio espectro de energías, y el máximo (corregido por muy pocos electrones) era casi correcto, pero todos los demás no llegaban a alcanzarlo en mayor o menos grado. Las partículas alfa emitidas por un nucleido particular poseían iguales energías en cantidades inesperadas. En ese caso, ¿qué era erróneo en la emisión de partículas beta?, ¿qué había sucedido con la energía perdida?

Teoría cuántica de camposResultado de imagen de La masa perdida y el neutrinoResultado de imagen de La masa perdida y el neutrino

En 1.922, Lise Maitner se hizo por primera vez esta pregunta, y hacia 1.936 Niels Bohr estaba dispuesto a abandonar el gran principio de conservación de la energía, al menos en lo concerniente a partículas subatómicas. En 1.931 Wolfgang Pauli sugirió una solución para el enigma de la energía desaparecida. Tal solución era muy simple: junto con la partícula beta del núcleo se desprendía otra, que se llevaba la energía desaparecida. Esa misteriosa segunda partícula tenía propiedades bastante extrañas; no poseía carga ni masa. Lo único que llevaba mientras se movía a la velocidad de la luz era cierta cantidad de energía. A decir verdad, aquello parecía un cuerpo ficticio creado exclusivamente para equilibrar el contraste de energías.

Habitualmente aceptamos que la física es la ciencia que estudia la estructura y propiedades de la materia y la energía, las formas de existencia de las mismas en el espacio y el tiempo, así como las leyes de rigen sus interacciones. En este definición no hay limitaciones precisas entre la naturaleza viviente e inanimada, y aunque ello no implica la reducción de todas las ciencias a la física, se deduce que las bases teóricas finales de cualquier dominio de las ciencias naturales tienen una naturaleza física.

Pero, sigamos…

“Primera observación de un neutrino en una cámara de burbujas, en 1970 en el Argonne National Laboratory de EE. UU., la observación se realizó gracias a las líneas observadas en la cámara de burbujasbasada en hidrógeno líquido.”

Sin embargo, tan pronto como se propuso la posibilidad de su existencia, los físicos creyeron en ella ciegamente. Y esta certeza se incrementó al descubrirse el neutrón y al saberse que se desintegraba en un protón y liberaba un electrón que, como en la decadencia beta, portaba insuficientes cantidades de energía. Enrico Fermi dio a esta partícula putativa el nombre de neutrino, palabra italiana que significa “pequeño neutro”.

Resultado de imagen de El neutrón y el neutrino

El neutrón dio a los físicos otra prueba palpable de la existencia del neutrino. Como ya he comentado en otra página de este trabajo, casi todas las partículas describen un movimiento rotatorio. Esta rotación se expresa, más o menos, en múltiplos de una mitad, según la dirección del giro. Ahora bien, el protón, el neutrón y el electrón tienen rotación de una mitad. Por tanto, si el neutrón con rotación de una mitad origina un protón y un electrón, cada uno con rotación de una mitad, ¿qué sucede con la ley sobre conservación del momento angular? Aquí hay algún error. El protón y el electrón totalizan una mitad con sus rotaciones (si ambas rotaciones siguen la misma dirección) o cero (si sus rotaciones son opuestas); pero sus rotaciones no pueden sumar jamás una mitad. Sin embargo, por otra parte, el neutrino viene a solventar la cuestión. Supongamos que la rotación del neutrón sea +½, y admitamos también que la rotación del protón sea +½ y la del electrón -½, para dar un resultado neto de cero. Demos ahora al neutrino una rotación de +½ y la balanza quedará desequilibrada.

+½ (n) = +½ (p) – ½ (e) + ½ (neutrino)

                                                                  Detectando Neutrinos

En otras palabras, la existencia de neutrinos y antineutrinos debería salvar no una, sino tres, importantes leyes de conservación: la conservación de la energía, la de conservación del espín y la de conservación de partícula/antipartícula.

Pero aún queda algo por desequilibrar. Una sola partícula (el neutrón) ha formado dos partículas (el protón y el electrón), y si incluimos el neutrino, tres partículas. Parece más razonable suponer que el neutrón se convierte en dos partículas y una antipartícula. En otras palabras: lo que realmente necesitamos equilibrar no es un neutrino, sino un antineutrino.

El propio neutrino surgiría de la conversión de un protón en un neutrón. Así pues, los productos serían un neutrón (partícula), un positrón (antipartícula) y un neutrino (partícula). Esto también equilibra la balanza.

La Vía Láctea sobre Mauna Kea

        Impresionante vista de la Vía Láctea desde el Manua Kea. La Galaxia, el Universo…Todo es energía.

Es importante conservar esas leyes puesto que parece estar presentes en toda clase de relaciones nucleares que no impliques electrones o positrones, y sería muy útil si también se hallasen presentes en reacciones que incluyesen esas partículas. Las más importantes conversiones protón-neutrón son las relacionadas con las reacciones nucleares que se desarrollan en el Sol y en los astros. Por consiguiente, las estrellas emiten radiaciones rápidas de neutrinos, y se calcula que tal vez pierdan a causa de esto el 6 u 8% de su energía. Pero eso sería meternos en otra historia y, por mi parte, con la anterior explicación sólo trataba de dar una muestra del ingenio del hombre que, como habréis visto, no es poco.

Desde que puedo recordar, he sido un amante de la física. Me asombran cuestiones como la luz, su naturaleza de un conglomerado de colores, ondas y partículas, su velocidad que nos marca el límite del máximo que podemos correr en nuestro universo, y en fin, muchos otros misterios que encierra esa cosa tan cotidiana que nos rodea y lo inunda todo haciendo posible que podamos ver por donde vamos, que las plantas vivan y emitan oxígeno o que nos calentemos. Realmente, sin luz, nuestra vida no sería posible. Entonces, ¿qué es realmente la luz?

Muchos (casi todos) opinan que es algo inmaterial. Los objetos materiales grandes o muy pequeños como las galaxias o los electrones, son materia. La luz, sin embargo, se cree que es inmaterial; dos rayos de luz se cruzan sin afectarse el uno al otro. Sin embargo, yo creo que la luz es simplemente una forma de energía lumínica, una más de las diversas formas en las que puede presentarse la materia. Nosotros mismos, en última instancia, somos luz.

Está claro que los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.

Cuando la luz entra en un cristal o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical. La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell. No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.

¿Nos suplirán un día? Seguro que en el futuro, serán otros los que hagan experimentos con la luz y busquen su verdadera naturaleza.

Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta de las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma (las dos refracciones en la misma dirección se originan porque los lados del prisma se encuentran en ángulo en vez de en forma paralela, como sería el caso de una lámina ordinaria de cristal).

Newton dedujo que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro” fantasma).

Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada. Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo verde, azul y violeta, en este orden. Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa espectro o fantasma). Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades. Le surgieron y se planteó algunas inquietantes cuestiones: ¿por qué se refractaban las partículas de luz verde más que las de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbarse mutuamente, es decir, sin que se produjeran colisiones entre partículas?

Resultado de imagen de En 1.678, el físico neerlandés Christian Huyghens

En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar las diversas difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire. La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción. Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda más corta que la luz azul; ésta, más corta que la verde, y así sucesivamente.

Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda. Y como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna (las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades).

Pero la teoría de Huyghens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos, ni por qué proyectaban sombras recortadas, ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua. Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las estrellas? ¿Cuál era esa mecánica ondulatoria?

Con el éxito de Newton de su ley de la Gravitación Universal, no es extraño que afirmara de forma tajante que la luz es corpuscular. Newton se opuso violentamente a la naturaleza ondulatoria de la luz, ya que no veía cómo se podía explicar con ella la propagación rectilínea de la misma. Por otro lado estaba Christian Huygens, 13 años mayor que Newton que defendía la naturaleza ondulatoria con algunas ventajas.

 

Ambas teorías explicaban perfectamente la reflexión y refracción de la luz. Pero diferían en una cosa. La teoría corpuscular afirmaba que las partículas de luz se acelerarían al pasar por un material de mayor densidad óptica y las ondas a menor. Esto no era comprobable por aquella época. Debido a la influencia de Newton y a la poca habilidad de Huygens para desarrollarla matemáticamente, la teoría ondulatoria quedó descartada durante un siglo.

 Young Thomas Lawrence.jpgResultado de imagen de El experimento de la doble rendija de Thomas Young

 

 

Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular de Newton fue, con mucho, la más popular, en parte porque la respaldó el famoso nombre de su autor. Pero hacia 1.801, un físico y médico inglés, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto. Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos; si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición. La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras; pareció incluso que en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.

Sería fácil explicarlo mediante la teoría ondulatoria; la banda luminosa representaba el refuerzo prestado por las ondas de un rayo a las ondas del otro, dicho de otra manera, entraban “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro. Por otra parte, las bandas oscuras representaban puntos en los que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra. En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.

Considerando la anchura de las bandas y la distancia entre los dos orificios por lo que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o de los colores intermedios. Las longitudes de onda resultaron ser muy pequeñas. Así, la de la luz roja era de unos 0’000075 cm. Hoy se expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Ángstrom; esta unidad, denominada igualmente Ángstrom (Å) en honor a su autor, es la cienmillonésima parte de un centímetro. Así pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Å, y la de la luz violeta a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.

Resultado de imagen de Longitudes de onda

En un movimiento ondulatorio, la longitud de onda se define como la distancia entre dos puntos sucesivos situados en la misma fase, por ejemplo, la distancia entre dos crestas de la onda.

La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si este no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior al de una onda luminosa, y por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de onda luminosa (por ejemplo, los virus y otras partículas subatómicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.

Un físico francés, Agustin-Jean Fresnel, fue quien demostró por vez primera en 1.818 que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”. Por ejemplo, las finísimas líneas paralelas de una “reja de difracción” actúan como una serie de minúsculos obstáculos, que se refuerzan entre sí. Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro. A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.

La mano del Universo juguetea con unos puntos luminosos que quieren llegar a ser cegadores…Son nuestras Mentes, productos de la evolución del Universo que, a partir de la materia inerte, ha podido alcanzar el estadio bio-químico de la consciencia y, al ser conscientes, hemos podido descubrir que existen “números misteriosos” dentro de los cuales subyacen mensajes que tenemos que desvelar.

Resultado de imagen de El espectro de la luz

Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso, los rayos espectrales. El físico americano Henry Augustus Rowland ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada. Ello hizo posible la sustitución del prisma por el espectroscópio.

Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.

Resultado de imagen de El espectro de la luz

No sólo se aceptó la existencia de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor. Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalcanzable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre. Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.

Archivo:Krypton discharge tube.jpg

                                                     Tubo de descarga lleno de kriptón puro


Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuales aportaba una raya cuya longitud de inda difería ligeramente de las restantes. En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.

En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de la longitud. Entonces se reestableció la longitud del metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral. Ello aumentó mil veces la precisión de las medidas de longitud. Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.

emilio silvera

Viewing all 959 articles
Browse latest View live