miércoles, 30 de enero de 2019

Beatriz Gato Rivera (IFF - CSIC)

Doctora en Física / Ph. D. Physics








Web IFF





-Iluminando el lado oscuro del Universo.
Roberto Emparan








-Enanas marrones.
María Cruz Gálvez Ortiz






Y yo quiero ser... (Beatriz)

Pues yo me sentía muy atraída por la ciencia desde muy pequeña, a pesar de no contar con familiares científicos ni ingenieros ni nada parecido (mis padres ni siquiera sabían que era la física). 
Estando en el recreo en el colegio, yo tendría 10 u 11 años, vi que una amiga mayor que yo, dos cursos por delante, que se llamaba Lilí, estaba repasando una lección en un libro que se llamaba Física y Química. Le pregunte que qué era la física y ella no supo que decirme, entonces me tendió el libro y dijo: mira el libro, así ves lo que es la física. 
Me puse a ojearlo, recuerdo ver el dibujo de un barco con explicación de mecánica de fluidos, entre otros dibujos. Unos minutos después le devolví el libro a mi amiga y le dije: 
esto es lo que yo quiero hacer cuando sea mayor, quiero ser física. 
Resultado: que no tengo ni idea de por que soy científica, siempre me atrajo mucho desde mi niñez sin ninguna razón que lo justifique. (Sera que fui científica en alguna encarnación anterior y me quedo trabajo pendiente por realizar......).


Beatriz Gato Rivera es científica titular del CSIC, miembro del Instituto de Física Fundamental (IFF). Licenciada en Ciencias Físicas y doctora en Física Teórica, tras finalizar su tesis doctoral en el tema de la supergravedad estuvo tres años investigando en el Instituto de Tecnología de Massachusetts (MIT), en el marco de la teoría de cuerdas, continuando con estas investigaciones tres años más en el CERN. Ha sido directora del departamento de Partículas, Campos y Cosmología durante cuatro años y ha sido investigadora principal de cuatro proyectos de investigación. Desde 2008 es la investigadora responsable del grupo de Física Matemática en el IFF. Sus intereses científicos se centran sobre todo en la física de partículas, en la gravitación y en los fundamentos de la física cuántica.


Editorial CSIC

Amazon(es)


Conferencia 
Antimateria, Materia Oscura y Energía Oscura




martes, 29 de enero de 2019

1969 - 2019 50º Aniversario

1969 - 2019
50º Aniversario
Un gran paso para la humanidad!!!
Era nº 1 en 1969





Disfrutad, recordad y compartir


Vamos a por otros 50!!!

lunes, 28 de enero de 2019

¿Qué es la cuarta dimensión? - Luis Velilla Prieto

¿Qué es la cuarta dimensión?
(Por Luis Velilla Prieto)



Percibimos el mundo que nos rodea como un espacio de tres dimensiones. Así, para determinar una posición en el espacio necesitamos tres coordenadas espaciales y un punto de referencia para dar esas coordenadas. En nuestra vida cotidiana, utilizamos normalmente sistemas reducidos, como por ejemplo los mapas, que requieren solo dos coordenadas para ubicarnos, ya que damos por hecho que el lugar al que queremos ir está localizado sobre el suelo. Realizamos incluso mayores abstracciones, por ejemplo cuando viajamos, ya que al definir nuestra ruta estamos simplificando el espacio tridimensional a una única coordenada. El localizador GPS [1] nos facilita esa tarea, y solo debemos preocuparnos de una coordenada: la distancia hasta el destino (o desde el punto de partida). Aunque también somos capaces de crear espacios con mayor número de dimensiones, al menos desde el punto de vista teórico, los hiperespacios.  Estos espacios surgen de manera teórica para intentar resolver problemas físicos, espacios a los que nuestra mente no está acostumbrada, no en vano llevamos millones de años de evolución observando un mundo tridimensional.

Pero dejando atrás dichos hiperespacios, existe algo mucho más cotidiano que conocemos como cuarta dimensión: el tiempo. En realidad, no basta con las tres coordenadas espaciales para establecer un evento. No basta con estar en el lugar correcto, también es necesario estar en el momento adecuado en el que un evento ocurrirá. El tiempo es esa dimensión en la que observamos como ocurren las cosas en un determinado orden, como una sucesión de eventos, con un pasado, un presente, y un futuro. Como toda dimensión, requiere de un sistema de medida, un estándar, que sea reproducible y aceptado por todo el mundo. De manera natural, el ser humano comenzó a establecer unidades de medida del tiempo en relación a fenómenos naturales como el día y la noche, las fases de la luna, las estaciones... Fenómenos que ocurren de manera periódica y que se deben al movimiento de nuestro planeta, La Tierra, en el sistema solar. Podríamos usar un péndulo o un reloj de arena para intentar medir el tiempo, pero es evidente que, en general, éstos serían métodos imprecisos que no valdrían como estándares de medida. El segundo, que es la unidad básica de medida del tiempo en los sistemas de unidades más comunes, se definía (hasta 1967) en relación al ritmo de rotación terrestre, y también respecto al período de su órbita alrededor del Sol. En 1967 se establece que estos movimientos son imprecisos como estándar de medida. Desde entonces, el segundo se establece como el lapso temporal que transcurre entre 9.192.631.770 períodos de transición entre dos niveles hiperfinos del isótopo de cesio-133. Es lo que conocemos como reloj atómico, cuyo ritmo estamos acostumbrados a escuchar en las emisoras de radio cuando se produce un cambio de hora, como una secuencia de seis pitidos consecutivos, siendo el último (el más largo) el que nos indica el comienzo de la nueva hora. Estos relojes son tan precisos que el mayor desfase que se produce entre dos relojes atómicos cualesquiera del mundo es de 1 nanosegundo (una milmillonésima parte de un segundo) en un día.

Pero, ¿qué y cómo es en realidad el tiempo? La física trata de darnos una respuesta objetiva para contestar a estas preguntas, y la experiencia nos muestra que el tiempo es relativo y no absoluto. Fue Albert Einstein quien en 1905 ejemplificó esta relatividad del tiempo tratando de describir el movimiento de los objetos. Anteriormente a Einstein, el tiempo se consideraba absoluto, si bien sí se conocía la relatividad del movimiento. Supongamos que tres personas se disponen a realizar un experimento sobre el movimiento, para lo que dos de ellas (A y B) se suben a un tren, mientras que el tercero (C) esperará sentado en la estación observando a las otras dos personas. Supongamos que el tren comienza a moverse, y que A se encuentra sentado dentro del tren y B se encuentra andando a través de uno de los vagones del tren. ¿Cuál es el estado de movimiento de A, B y C? La respuesta dependerá de a quién preguntemos. La persona C nos dirá que A se encuentra en movimiento, mientras que B nos dirá que A está quieto. Por tanto, el estado de movimiento de un objeto es relativo. El tiempo es también relativo, y no me refiero a la percepción subjetiva que cada uno tenemos del tiempo, esa sensación de que las horas se hacen interminables cuando hacemos algo a disgusto. Fuera de esta subjetividad, el tiempo es relativo porque depende del estado de movimiento del observador que trate de medirlo. Mediante las teorías de la relatividad especial y general de Einstein se puede demostrar este hecho, que además se ha probado experimentalmente. Es bastante conocida la llamada paradoja de los gemelos, donde se establece que si uno de los hermanos (de una pareja de gemelos) decidiera realizar un viaje desde La Tierra al espacio moviéndose a una velocidad cercana a la de la luz, mientras que el otro gemelo permanece en La Tierra, resultará que a la vuelta del viaje, el gemelo que no viajó habrá envejecido mucho más que el gemelo viajero,  fenómeno conocido como dilatación temporal. No penséis que este es el secreto de la eterna juventud, pues para cada uno de los observadores el tiempo propio transcurre de manera natural. Existen además pruebas empíricas que demuestran que Einstein estaba en lo cierto, así en 1972 se publicaron en la revista Science [2] los resultados sobre el desfase temporal que experimentaban varios relojes atómicos que viajaron en vuelos comerciales en diferentes direcciones (hacia el este y hacia el oeste). No entraremos en las ecuaciones que explican este fenómeno, pero este experimento reproducía satisfactoriamente las predicciones de Einstein, de modo que cuando los relojes viajaban hacia el este el lapso de tiempo que medían era menor que cuando viajaban hacia el oeste, ya que en realidad la velocidad (que mediría un observador fuera de La Tierra, como el observador C de nuestro ejemplo del tren) en ambos viajes no será exactamente igual debido a la rotación terrestre (que rota hacia el este). Lo cierto es que para las velocidades de los aviones comerciales y la duración de estos viajes, los desfases que se producen entre los relojes son del orden de las decenas a pocos cientos de nanosegundos, por lo que en nuestra vida cotidiana no percibiríamos este desfase aunque pasáramos el resto de nuestra vida viajando en avión. Sin embargo, si que tenemos en cuenta este efecto cuando realizamos cálculos precisos, como por ejemplo con la mencionada tecnología GPS.

De la teoría de la relatividad especial de Einstein se desprende que espacio y tiempo van ligados, como hemos dicho, por el estado de movimiento. Desde entonces se trata el espacio-tiempo como una entidad indivisible, de cuatro dimensiones, tres espaciales y una temporal. El espacio-tiempo es el tejido que conforma el Universo, y que además de verse afectado por el estado de movimiento de quién lo observa, cambia por la presencia de objetos masivos, como indica la teoría de la relatividad general de Einstein. Para entender cómo funciona este efecto, propongamos otro experimento. Sujetemos una tela (por ejemplo una toalla) por sus cuatro esquinas con la ayuda de otra persona, aplicando cierta tensión. La toalla será nuestro espacio-tiempo, y cualquier cosa que ocurra en este Universo, ocurrirá sobre la superficie de la toalla. Si aplicando la misma tensión pedimos a una tercera persona que coloque un objeto pesado (por ejemplo una pelota) en el centro, ocurrirá que la toalla se curvará hacia el punto donde la pelota se apoya. La forma de nuestro espacio-tiempo ha cambiado por la presencia de un objeto masivo. Así que el contenido del Universo influye en el espacio-tiempo de éste, y además afecta a sus propiedades. De hecho en nuestro Universo, los objetos muy masivos como los agujeros negros son capaces de desviar e incluso “tragar” las partículas que componen la luz (los fotones) y que viajan a una velocidad aproximada de 300,000 kilómetros por segundo. Los agujeros negros pueden curvar tanto el espacio-tiempo que ni los fotones que pasan cerca de ellos son capaces de evitar caer en ese pozo. Probad a hacer rodar una canica por la superficie de vuestra toalla e intentad que la canica no caiga en el pozo creado por la pelota. Si la pelota llega a curvar mucho la toalla llegará un punto en que no tendréis fuerza suficiente para evitar que la canica caiga en el pozo, salvo que escojáis una trayectoria adecuada. Esta teoría de la relatividad general predice además que el tiempo transcurre de manera más lenta para un observador que se encuentre cerca de un objeto muy masivo (bajo la influencia de su campo gravitatorio). Este efecto también se ha probado experimentalmente, gracias a los experimentos mencionados anteriormente sobre los relojes atómicos viajeros [2,3]. Si situamos dos relojes idénticos uno sobre la superficie de La Tierra y el otro reloj a una altura determinada sobre su superficie, resultará que el reloj situado en la superficie se retrasa comparado con el otro. Si bien el desfase producido sería de unos pocos segundos si los dejáramos funcionando millones de años. La razón del desfase es que el reloj que se encuentra sobre la superficie terrestre experimenta una atracción gravitatoria debida a  La Tierra mayor que el reloj en altura.

Las matemáticas que explican estos fenómenos son realmente complejas, pero tanto teoría como experimentación muestran que el tiempo es relativo y que depende del estado de movimiento del observador que lo mide, así como de la materia que constituye el Universo, ya que los campos gravitatorios creados por esa materia alteran el propio espacio-tiempo. No obstante, lo que sabemos sobre el espacio-tiempo lo acabamos de aprender, por así decirlo, pues las teorías de la relatividad tienen solo cien años. Al igual que hemos sustituido los relojes de sol por los atómicos, en el futuro nuestra concepción del tiempo será distinta. Si queréis llegar a conocer el futuro, la física os recomienda viajar lo máximo posible.


Notas:
[1] Del inglés Global Positioning System, o sistema de posicionamiento global.
[2] “Around-the-world atomic clocks: observed relativistic time gains”. J.C. Hafele, Richard E. Keating. Science, 14 de Julio de 1972.Vol. 177, Issue 4044, pp. 168-170. 
[3] “Optical clocks and relativity”. C.W Chou, D.B. Hume, T. Rosenband, D.J. Wineland. Science, 24 de Septiembre de 2010. Vol. 329, Issue 5999, pp. 1630-1633.

Luis Velilla Prieto
Doctorando Astrofísica
Instituto de Ciencia de Materiales de Madrid (CSIC)





miércoles, 23 de enero de 2019

CONFERENCIA Prof. Anthony Legget


CONFERENCIA

WHAT IS SUPERCONDUCTIVITY?

Prof. Anthony Leggett



http://www.ucm.es/directo

martes, 22 de enero de 2019

1969 - 2019 50º Aniversario

1969 - 2019
50º Aniversario
Un gran paso para la humanidad!!!
Era nº 1 en 1969




Disfrutad, recordad y compartir


Vamos a por otros 50!!!

lunes, 21 de enero de 2019

¿Cuál es la unidad de tiempo más pequeña posible? - José Edelstein

¿Cuál es la unidad de tiempo más pequeña posible?
(Por José Edelstein)



Todas las culturas humanas desarrollaron sistemas para medir el paso del tiempo, ese flujo que experimentamos en la sucesión de eventos, que los conecta causalmente y que, según parece, no tiene vuelta atrás. Cualquier acontecimiento periódico, que se repitiera con un ritmo aproximadamente constante, podía servir para ello: las estaciones dieron origen al año, las fases de la Luna a los meses y el ciclo diurno al día. La división de éste en horas tuvo su origen en los relojes solares y la partición de éstas en minutos y, luego, segundos presumiblemente resultó de la confección de relojes de arena y de la cadencia acompasada del corazón humano.

Dado que un segundo es un espacio de tiempo demasiado breve para los seres humanos, su división ulterior abandonó el uso de definiciones relativamente caprichosas y siguió, sin más, el desapasionado imperio del sistema decimal. Esto nos coloca ante una disyuntiva: del mismo modo en que no hay un límite a lo diminuto que puede ser un número, ¿existen intervalos de tiempo arbitrariamente pequeños? Si fraccionamos un segundo dividiéndolo a la mitad, una y otra vez, ¿podremos hacerlo indefinidamente o llegaremos a una unidad mínima e indivisible? Esta pregunta está indisolublemente ligada a otra: ¿existe una distancia mínima entre dos puntos cualesquiera del espacio? La conexión entre ambas cuestiones está dada por la universalidad de la velocidad de la luz en el vacío: si hubiera dos puntos del espacio arbitrariamente cercanos, lo mismo ocurriría con el tiempo ya que la pregunta '¿cuánto tarda la luz en ir de uno al otro?' debería tener una respuesta.

Una pregunta similar se hicieron Demócrito y Leucipo de Mileto en relación a la materia y concluyeron que debía existir una unidad mínima de ésta a la que llamaron átomo. Si estos no existieran podríamos dividir la materia infinitamente y una cucharilla de aceite vertida al mar podría expandirse indefinidamente ya que no habría un límite inferior al espesor de la delgadísima película que, de ese modo, envolvería los océanos. El átomo, en cualquier caso, resultó divisible en constituyentes aún más pequeños, los electrones y el núcleo, y dentro de éste los protones y neutrones. Estos son tan pequeños que la luz demora aproximadamente un yoctosegundo —la cuatrillonésima parte del segundo— en atravesarlos. El mismo tiempo que demora un quark top en desvanecerse. Lapsos de tiempo como estos, cuya existencia apenas podemos inferir, son mucho menores que aquellos que se han podido medir directamente, de manera controlada, en un laboratorio y que andan en torno al millón de yoctosegundos.

La jurisprudencia aplicable a preguntas que tengan que ver con las pequeñas escalas es la de la Mecánica Cuántica. Y ésta nos dice que cuanto mayor es la energía que se confiere a un sistema microscópico, más pequeño es el detalle con el que se lo observa; de allí el uso de aceleradores de partículas. En el Gran Colisionador de Hadrones (LHC) se ha alcanzado una resolución tan fina para la estructura de la materia, que la luz recorrería ese diminuto píxel en una cienmilésima de yoctosegundo. Ninguna máquina fabricada por seres humanos ha inyectado la energía suficiente en un sistema microscópico que permita ir más allá de estas escalas. Pero existen sistemas naturales que, por un mecanismo aún no del todo comprendido, son capaces de acelerar partículas hasta energías millones de veces mayores. Estas partículas recorren enormes distancias en el Universo y eventualmente entran en la atmósfera terrestre: son los llamados rayos cósmicos. El más energético registrado hasta la escritura de estas líneas surcó el espacio experimentando un pixelado que la luz recorrería en unas cienmilmillonésimas de yoctosegundo. Un intervalo de tiempo que nos resulta inimaginable, absurdamente pequeño, y que nos devuelve a la pregunta formulada más arriba, ¿podremos dividir al segundo indefinidamente?

De la legislación del mundo microscópico se desprende el principio de incertidumbre que formuló Werner Heisenberg en 1927. Éste nos dice, entre otras cosas, que mientras mayor resulte la certeza respecto del instante en el que un fenómeno acontece, más grande será la indeterminación de su energía. Y lo más sorprendente es que la Naturaleza saca provecho de ello, permitiendo cierta efervescencia microscópica del vacío que resulta de la continua creación y destrucción de partículas: mientras estos procesos tengan lugar en intervalos de tiempo inferiores a la cienmilmillonésima de yoctosegundo, el principio de conservación de la energía resultará escrupulosamente respetado. Por otra parte, dada la icónica fórmula de Einstein, E = mc2, cuanto más pequeño sea el intervalo temporal observado mayor será la masa de las partículas que se puedan crear espontáneamente en el chispeante vacío.

La posibilidad de determinar un intervalo de tiempo arbitrariamente pequeño, entonces, va inexorablemente de la mano de la disponibilidad ilimitada de energía del vacío. La Teoría de la Relatividad General, por otra parte, nos dice que la acumulación de energía en una región pequeña del espacio da lugar a un agujero negro. Así, si el tiempo pudiera fraccionarse indefinidamente, ¡el Universo estaría infestado de agujeros negros microscópicos! Si la jurisprudencia de la Mecánica Cuántica alcanza a las escalas más diminutas, entonces no puede existir un intervalo de tiempo arbitrariamente pequeño. Una conclusión que choca con la sensación de continuidad en el devenir temporal que experimentamos los seres vivos, enfrentándonos una vez más a la física de la perplejidad que gobierna al universo microscópico. Nada sorprendente si recordamos que nuestros sentidos han sido moldeados por la evolución para desenvolverse en las escalas de tiempo, espacio y materia en las que habitan nuestros cuerpos, alimentos y depredadores.

¿A qué diminuta escala del tiempo es de esperar que la noción de flujo continuo deje de ser una buena aproximación de la realidad? Una pista nos la brindan las constantes fundamentales de la Naturaleza. Estas son cantidades que forman parte de sus leyes y que resultan las mismas en cualquier rincón del Universo observable: la velocidad de la luz, la constante de Newton y la constante de Planck. Cada una de ellas representa la marca de identidad de, respectivamente, la relatividad, la gravedad y la física cuántica. Existe una única combinación aritmética de ellas que da lugar a una escala temporal. No hay otra forma de generar con ellas algo que pueda medirse en segundos. Se la conoce como el tiempo de Planck y su propia constitución deja claro que al llegar a esta escala crujirán los cimientos del edificio que sostiene nuestra noción de continuidad temporal.

Si recordamos el valor del instante de tiempo más pequeño que hemos podido medir directamente y de manera controlada en un laboratorio, caben en él tantos tiempos de Planck como horas en la edad del Universo. El tiempo de Planck es extremadamente diminuto, la cientrillonésima parte de un yoctosegundo. Así como en el universo microscópico tenemos dificultades para discernir si los constituyentes de la materia son ondas o partículas, del mismo modo en que su naturaleza corpórea se vuelve elusiva, sabemos que al llegar a la escala de Planck el tiempo, tal como lo entendemos, dejará de existir. Si recortáramos un segundo una y otra vez como si fuera un largo hilo, nos encontraremos que al acercarnos a la escala de Planck la hebra comenzará a desdibujarse, a convertirse en algo completamente irreconocible. ¿Un enjambre de cuerdas microscópicas que vibran? ¿Una enorme colección de bits que de lejos generan la ilusión de un tiempo continuo que fluye? ¿Un píxel de tiempo, como el grano de arena de un reloj? Tal como los átomos y las moléculas son la expresión mínima de la materia, no hay intervalo más fugaz que el tiempo de Planck.


José Edelstein
Doctor en Física
Dpto. Física de Partículas, Universidad de Santiago de Compostela





martes, 15 de enero de 2019

1969 - 2019 50º Aniversario

1969 - 2019
50º Aniversario
Un gran paso para la humanidad!!!
Era nº 1 en 1969



Disfrutad, recordad y compartir


Vamos a por otros 50!!!

lunes, 14 de enero de 2019

¿Qué es el efecto invernadero? - Emilio García Ladona y Joaquim Ballabrera Poy

¿Qué es el efecto invernadero?
(Por Emilio García Ladona y Joaquim Ballabrera Poy)



El Sol irradia energía electromagnética que llega a la superficie tras interaccionar con los gases que componen la atmósfera de la Tierra. Para entender qué ocurre y cómo se produce ésta interacción debemos saber cuáles son las propiedades de absorción y emisión tanto de la fuente emisora como de los elementos que reciben la energía solar. En primer lugar debemos tener una idea de qué gases conforman la atmósfera. En la tabla 1 hemos listado los componentes principales de la atmósfera terrestre. Se observa que el N2 y el O2 son los más abundantes seguidos, en menor medida, por una serie de componentes con una fracción de volumen menor del 1%, excepto el vapor de agua que puede variar hasta un 5%  según las condiciones atmosféricas.

          La radiación solar que llega a la parte superior de la atmósfera se puede aproximar por la radiación de un cuerpo negro a una temperatura 5525 K (figura 1) y centrada en la banda de luz visible, pero conteniendo una fracción importante de ultravioleta e infrarrojo corto (< 3 micras). Tras atravesar la atmósfera, la radiación incidente se ve atenuada en un 70-75 % en la superficie terrestre y la mayor atenuación se produce en la banda de ultravioleta y visible. Esto es debido esencialmente a la absorción del O3 en la estratosfera principalmente así como una cierta dispersión de la radiación (dispersión de Rayleigh). En la banda inferior del infrarrojo (~0.6-2 micras) la curva muestra unos lapsus o pozos que se corresponden esencialmente con las diferentes bandas de absorción del vapor de agua. Así, el vapor de agua actúa como un primer filtro radiativo absorbiendo parte de la radiación entrante.

Tras atravesar la atmósfera, la radiación restante interacciona con la superficie de la Tierra siendo reflejada o absorbida. La mayor parte de esta radiación es absorbida por el océano. Allí la penetración disminuye fuertemente y prácticamente en el primer metro solamente queda radiación en la banda visible alrededor de 462 nm (~ 0.4 micras) típicamente el color azul de aguas transparentes, y a 100 m de profundidad la atenuación es prácticamente total. A pesar de esta fuerte atenuación entre 0-100 m, la radiación solar es suficiente para sustentar el desarrollo de la fotosíntesis de prácticamente toda la vida vegetal marina (fitoplancton).

La absorción de la radiación electromagnética en el mar es una fuente de energía que calienta las capas superficiales y contribuye a potenciar las corrientes oceánicas a gran escala con el fin de redistribuir y homogeneizar esta energía por todo el planeta. Al hacer un promedio de la temperatura de la superficie de la Tierra nos encontramos con un valor característico de unos 15-17 ºC que, a su vez, por la ley de Planck irradia energía electromagnética. El espectro de emisión (curvas suaves en negro, azul y lila en la figura 1) está en la banda del infrarrojo “largo” (~3-60 micras). Sin embargo vemos que el espectro de energía que escapa al espacio exterior tras haber atravesado la atmósfera tiene una forma muy alejada de las curvas de emisión teóricas. Esto sucede porque el tipo de radiación emitida coincide con varias bandas de absorción características de muchos más componentes atmosféricos (CO2, CH4,…) dejando libre  tan solo esa ventana en el rango 8-15 micras (“ventana atmosférica”) para la radiación saliente (esa es la banda que utilizan la gran mayoría de los satélites de observación de la Tierra para escudriñar la superficie terrestre). Cómo podemos observar básicamente los gases que absorben en esas bandas son el vapor de agua nuevamente, el CO2, el CH4 y el óxido nitroso NO2.

Figura 1: Intensidad espectral de la radiación de entrada y salida de la Tierra y curvas de absorción de radiación total y de cada uno de los componentes atmosféricos principales que intervienen en el balance radiativo de la Tierra (incluida la dispersión de radiación por las moléculas, dispersión de Rayleigh). Las curvas continuas corresponden a las curvas de emisión de la Ley de Planck para la temperatura característica del Sol (5525 K) y 3 valores de la superficie de la Tierra entre -63ºC (210 K) y 37ºC (310 K). Datos basados en la calculadora espectral (http://www.spectralcalc.com) a partir de la base de datos espectroscópicos HITRANS2004. © Robert A. Rhode reproducida aquí bajo licencia GNU versión 1.2 de la Free Software Foundation.

Por tanto estos gases absorben parte de esta radiación saliente y la reemiten, una parte de retorno a la superficie y otra hacia capas superiores de la atmósfera, y así hasta que abandona finalmente la atmósfera. Es la energía de la radiación reemitida por estos gases añadida a la de la radiación entrante que contribuye a establecer la temperatura característica del planeta y que se denomina comúnmente como efecto invernadero. Llegado a este punto debemos precisar acerca de este concepto que a nuestro modo de ver podemos considerar inadecuado. Una experiencia cotidiana muy común al entrar en un coche estacionado que haya estado expuesto al Sol durante varias horas, con puertas y ventanas cerradas, es que la temperatura del interior es muy alta y que el tablero de mandos y el volante literalmente queman al tocarlos con la mano. La radiación solar penetra dentro del habitáculo calentando todos los objetos y superficies además del aire en su interior. Esta sencilla observación es análoga a la que se produce en locales y verandas exteriores encerradas con cristaleras y es bien conocido de los  invernaderos para proteger plantas que pueden ser sensibles a temperaturas ambientes excesivamente frías. Sin embargo, y volviendo al coche, si dejamos abierta un poco una de las ventanas, la temperatura dentro del habitáculo será menor que si estuviera cerrada. La causa es que la ventana abierta facilita el intercambio de masas de aire y por ende de temperatura entre el interior y exterior vía la convección, que es una forma efectiva y rápida de intercambiar calor. Es decir, básicamente el mayor calentamiento del interior de los habitáculos tipo invernaderos no se debe tanto a un atrapamiento de la radiación y reemisión de la radiación electromagnética por las paredes que lo delimitan, sino por la supresión del intercambio convectivo con el aire exterior.

En el caso de la atmósfera terrestre el calentamiento no se produce por una supresión del intercambio convectivo, dado que es un sistema abierto, sino básicamente por la absorción y reemisión de energía de los gases atmosféricos hacia las capas más bajas de nuevo incidiendo en el balance neto entre la radiación entrante y la radiación saliente. Según sea este balance, la temperatura terrestre aumentará o disminuirá o permanecerá constante en caso de tener un perfecto balance radiativo. Cuando este balance se rompe la temperatura varía hasta alcanzar un nuevo estado de equilibrio radiativo con modificaciones que afectan de una manera u otra al sistema climático. De hecho la historia de la Tierra ha sido un continuo cambio de patrones climáticos a veces fruto de eventos catastróficos (grandes explosiones volcánicas, impacto de asteroides, etc.) que han modificado el balance radiativo a escalas interanuales, decadales, seculares, milenarias....

Evidentemente el desequilibrio del balance radiativo puede variar o bien porque la radiación entrante varía (relacionado con la propia dinámica de Sol) o bien porque la radiación saliente varía (alteración de los componentes y condiciones que más contribuyen a la emisión). Como apuntábamos antes, la historia de la Tierra tal y como la conocemos, nos ha enseñado que ambas componentes han ido fluctuando, configurando un sistema climático variable dando lugar a periodos fríos y cálidos, a veces extremadamente fríos (conocidos como superglaciaciones o Tierra Bola de Nieve del inglés SnowballEarth). No es de extrañar que una parte importante de estos cambios estén asociados al ciclo del agua, dado que podemos observar cómo el vapor de agua es uno de los gases que mayor influencian el balance radiativo al absorber simultáneamente radiación entrante y saliente. La prueba más evidente de cómo el vapor de agua afecta de forma apreciable al balance radiativo, la podemos constatar en nosotros mismos cuando observamos las variaciones de la temperatura entre los días nublados y los días despejados, sobre todo durante la noche. En noches cubiertas la temperatura en la superficie es por lo general más cálida ya que la absorción y reemisión de la energía saliente por las nubes atenúa el enfriamiento que se produciría si los cielos estuvieran despejados. Resulta cuando menos curioso, rayando la falta de rigurosidad, que el papel del vapor de agua sea uno de los grandes ausentes de los debates o presentaciones que tan a menudo se oyen en medios de comunicación o conferencias divulgativas acerca de las causas y consecuencias del cambio climático en la era moderna.

Ciertamente, la acción humana ha incidido en el sistema climático, entre otros aspectos, contribuyendo artificialmente a aumentar la concentración de los gases que intervienen en el balance radiativo. Uno de los efectos más evidentes de estos gases es la realimentación positiva precisamente a través del vapor de agua. Así las bandas de absorción del CO2, en particular algunas que no se superponen con las del vapor de agua (alrededor de las 4 micras) son una aportación neta al balance radiativo. Inducen un aumento de la temperatura, favoreciendo a su vez un aumento de la humedad y por tanto potenciando el papel del vapor de H2O. El papel que juega el vapor de H2O en la atmósfera contribuyendo con retroalimentaciones positivas y negativas en el balance radiativo es uno de los aspectos esenciales para entender plenamente de qué manera ha evolucionado, evoluciona y evolucionará el clima en el futuro.

En el resumen del capítulo 9 del último informe del IPCC panel (IPCC, 2013) se indica que los modelos climáticos reproducen razonablemente bien las tendencias genéricas de la evolución del clima terrestre durante el pasado siglo (mayormente utilizando la evolución de la temperatura media en superficie). Sin embargo, también señalan que hay discrepancias con la evolución del clima de los últimos 30 años donde la temperatura no ha aumentado como habían predicho los modelos en el informe anterior, pese al continuo aumento de emisión de gases invernadero. Dejando aparte la representatividad de los modelos actuales de clima, la hipótesis que parece tomar mayor relevancia es una mayor acumulación de calor en el océano.

¿Por qué entonces la temperatura de la Tierra no ha aumentado en proporción a la acumulación de calor y el aumento continuado de los gases de efecto invernadero, en particular del CO2? La explicación radica en que el agua tiene una capacidad calorífica mucho mayor que el aire, unas 4000 veces más grande. Esto significa que si tenemos dos volúmenes iguales de aire y agua y queremos elevar 1ºC la temperatura de ambos, necesitamos unas 4000 veces más de energía calorífica para el agua que para el aire. Lo mismo sucede entre el agua y las superficies rocosas en general aunque las diferencias son menores. Así ese aumento de calor en el océano no ha supuesto un aumento considerable de la temperatura en tanto en cuanto el océano además constituye la mayor superficie del planeta. En esto radica el papel del océano como regulador del clima que permite tener en zonas costeras variaciones de temperatura muy suaves respecto a las grandes variaciones de temperatura características de las zonas interiores de los continentes. En cierto modo la evolución futura del clima, como ha sido sin duda en el pasado, va a depender en gran medida de cómo responda y evolucione el océano ante esta mayor acumulación de calor.


Constituyente
Porcentaje
en volumen
Nitrógeno(N2)
78.08 %
Oxígeno (O2)
20.95 %
Argón (Ar)
0.93 %
Vapor de Agua (H2O)
0-5 %
Dióxido de Carbono (CO2)
380 ppm
Neón (Ne)
18 ppm
Helio (He)
5 ppm
Metano (CH4)
1.75 ppm
Kriptón (Kr)
1 ppm
Hidrógeno (H2)
0.5 ppm
Óxido Nitroso (NO2)
0.3 ppm
Ozono (O3)
0-0.1 ppm

Tabla 1: Principales constituyentes de la atmósfera ordenados según el porcentaje en volumen (ppm, partes por millón, 10.000 ppm = 1%). En negrita los constituyentes más relevantes para el balance radiativo de la Tierra (gases de efecto invernadero). Fuente: J. Wallace, P. Hobbs, AtmosphericScienceanIntroductorySurvey


Emilio García Ladona                Joaquim Ballabrera Poy
Doctores en Ciencias Físicas
Dept. de Oceanografía Física y Tecnológica
Instituto de Ciencias del Mar (ICM-CSIC)

martes, 8 de enero de 2019

1969 - 2019 50º Aniversario

1969 - 2019
50º Aniversario
Un gran paso para la humanidad!!!
Era nº 1 en 1969

Disfrutad, recordad y compartir


Vamos a por otros 50!!!

lunes, 7 de enero de 2019

¿Extinción? - Felipe Zapata Ruiz

¿Cuál será la causa más probable de la extinción humana?
(Por Felipe Zapata Ruiz)




En la historia de nuestro planeta han ocurrido cinco grandes extinciones masivas, que se caracterizan por un decrecimiento acelerado de la variedad de organismos presentes en nuestro planeta. Algunos de estos fenómenos se han atribuido a cambios climáticos extremos, actividad volcánica, supernovas o impacto de asteroides, entre otros. Sin embargo estas no son las únicas extinciones que han ocurrido y ocurren en nuestro planeta, por ejemplo, la extinción masiva del Holoceno empezó aproximadamente 10000 antes de cristo y continúa hasta la actualidad donde miles de especies animales han desaparecido, principalmente por el cambio climático y la acción del hombre. Tomando como punto de partida las extinciones masivas de las especies y la extinción del Holoceno, vamos a clasificar las causas más probables de la extinción humana en dos grandes grupos: causas relacionadas con la acción del hombre o antropogénicas y causas naturales. 


1 Causas Antropogénicas

En esta categoría apocalíptica se encuentran los siguientes tópicos que causan revuelo entre científicos, gobiernos y el público en general, quienes debaten acaloradamente sobre el verdadero alcance de los siguientes fenómenos: calentamiento global, resistencia a los antibióticos y la muerte de las abejas. Esta lista ignora de manera flagrante los desastres nucleares o conflictos entre países, que podrían diezmar la población humana pero que están lejos de una posible extinción (al menos así lo espero yo).

El calentamiento global es uno de los tópicos más ardientes en todos los ámbitos de la sociedad y para evitar discusiones innecesarias empecemos por recalcar que este fenómeno es causado por los humanos como ha sido establecido por la panel intergubernamental para el cambio climático (IPCC) por sus siglas en ingles, donde se ha declarado que: “ Existe más de un 90% de certeza que la emisión de los gases de invernadero resultantes de las actividades humanas han causado la mayor parte del aumento en las temperaturas observadas desde la mitad del siglo XX”. El cambio climático no solo involucra un aumento en las temperaturas medias del planeta generando sequías y hambrunas (por ejemplo el verano del 2016 es el mas cálido desde que empezamos los registros de la temperatura a mediados del siglo XIX), sino que dispara un conjunto de cambios a escala global que repercute en la naturaleza. Al aumentar la temperatura, se provoca un deshielo masivo de los casquetes polares y los glaciares que aumentan el nivel del mar y pone en peligro de inundación las ciudades costeras, además de verter al mar millones de litro de agua potable, reduciendo su salinidad y afectando a los organismos vivos de agua salina. También resulta que debajo de las capas de hielo en el hemisferio norte hay atrapados miles de toneladas de metano en estado gaseoso, que al derretirse las capas de hielo escapan al aire, y vosotros os preguntareis que tiene que ver el metano con todo esto, pues resulta que el metano es un gas de invernadero mucho peor que el CO2, causando una aceleración en el calentamiento. Recientemente una ola de calor en Siberia ha descongelado una cepa bacteriana de ántrax que ha provocado la muerte a 40 indígenas de la zona y cientos de ciervos. 

Además sabemos que la solubilidad del oxigeno en agua es inversamente proporcional a la temperatura, es decir que a medida que los océanos se calientan su nivel de oxígeno disminuye, poniendo en riesgo los corales marinos de lo que dependen millones de peces y nosotros, por supuesto. Como si esto fuera poco, las corrientes de aire en nuestro planeta se comportan como un sistema cerrado, aproximadamente como una olla a presión y a mayor temperatura mayor presión, lo que hace que los huracanes, tormentas y demás fenómenos que resultan de la diferencia de presión y temperatura de las corrientes de aire sean cada vez más violentos. Como dato curioso, uno de los mayores productores de metano en nuestro planeta es el estómago de las vacas que libera grandes cantidades de este gas durante la digestión, así que la próxima vez que estés comiéndote una deliciosa hamburguesa en un día caluroso ¡recuerda la venganza de las vacas! 

Nuestra segunda causa de una posible extinción humana es la resistencia a los antibióticos, título que recuerda a una película de ciencia ficción de bajo presupuesto, pero la realidad ha mostrado que la resistencia a los antibióticos es un problema muy complejo. Gracias a Louis Pasteur y su investigación en la segunda mitad del siglo XIX, dimos pasos agigantados en el entendimiento de los microorganismo y su relación con las enfermedades, seguidamente Alexander Fleming cambió para siempre la historia del a humanidad cuando introdujo la penicilina como método efectivo para combatir infecciones bacterianas. Desde entonces hemos venido utilizando de forma rutinaria diferentes antibióticos para combatir enfermedades que han matado a millones de personas en la historia de la humanidad. El problema con los antibióticos empieza cuando intentamos matar un mosquito a cañonazos. Cuando tenemos una gripe o catarro en lugar de dejar que nuestro sistema defensivo se encargue naturalmente de ello, tomamos antibióticos para aliviar prontamente el malestar y una vez nos sentimos mejor dejamos los antibióticos de lado y seguimos con nuestras vidas, dejando con vida a parte de los microorganismos que causaban el catarro. Ingenuamente creíamos haber eliminado el causante del problema, pero parte de los microorganismos agresores han sobrevivido y peor aun ahora saben cómo resistir al antibiótico. Los microorganismos se reproducen muy rápido (algo así como un centenar de generaciones por día) y las nuevas generaciones tienen pequeñas mutaciones que los diferencias de sus progenitores, estas mutaciones pueden ser, por ejemplo, la resistencia a ciertos antibióticos. Como resultado se ha creado una generación de microorganismos resistentes a una familia de antibióticos, si una persona cae enferma con unos de estos microorganismos resistentes debe aplicarse un antibiótico más fuerte y el ciclo de la resistencia puede repetirse. 

El mal uso de los antibióticos lleva dándose desde mediados del siglo XX en países desarrollados dado que los antibióticos están al alcance de nuestra mano. El resultado es entonces que hemos producido un conjunto de microorganismos que son resistentes básicamente a todos los antibióticos que conocemos y que de no tomarse medidas prontamente podríamos llegar a morir de enfermedades comunes que años atrás parecían haberse extinguido de la tierra. Muchos de vosotros os preguntaréis si no es posible crear antibióticos más potentes y la respuesta no es tan sencilla puesto que la mayoría de los antibióticos actuales son moléculas pequeñas que presentan interacciones relativamente simples con los microorganismos, son fáciles de producir en masa y testear. Mientras los hipotéticos futuros antibióticos más potentes involucrarían una mayor complejidad tanto en la interacción con los patógenos como en su producción en masa. La próxima vez que pienses en usar algún antibiótico para curar un catarro, piénsalo dos veces y el resto de la humanidad te lo agradecerá.

La tercera posible causa de extinción debida a posibles razones humanas es la muerte acelerada de millones de abejas que hemos venido observando en los últimos años. La desaparición de millones de abejas se conoce como el “colapso desordenado de la colonia”, cuya causa está aún en debate pero se asocia a varios factores como la utilización de pesticidas, el virus de las alas deformes, el cambio climático entre otras. Aparte de producir la deliciosa miel, las abejas polinizan la mayoría de las plantas que consumimos los humanos o que utilizamos como alimento para nuestro ganado, por lo tanto la desaparición repentina de millones de abejas significa la subsecuente muerte de millones de plantas y seguidamente de millones de humanos. Un comentario atribuido a Albert Einstein dice que: “si las abejas desaparecieran de la superficie del planeta al hombre solo le quedarían cuatro años de vida”.


2 Causas Naturales

Dentro de las causas naturales que podrían poner en peligro nuestra existencia como especie se encuentran los siguientes eventos hipotéticos: erupciones volcánicas a gran escala, colisiones con objetos pequeños del sistema solar o un estallido de radiación gamma.

Erupciones volcánicas de dimensiones épicas han sido asociadas con la extinción masiva del Triásico-Jurásico. Estas erupciones pudieron haber liberado grandes cantidades de gases invernadero y cenizas que pudieron generar un calentamiento global acelerado o las cenizas pudieron haber ocultado el Sol durante meses evitando que las plantas llevarán a cabo la fotosíntesis por lo que los animales hubieran perecido por falta de alimentos.

Aunque nunca ha sido reportado ninguna colisión con un cuerpo celeste que tuviese consecuencias graves para la humanidad, no quiere decir que un evento de este tipo no pueda suceder y traiga consigo gran devastación entre la población humana y sus campos de cultivo, sino también puede levantar una gran cantidad de partículas que pueden oscurecer el cielo por un tiempo significativo destruyendo plantas y generar una hambruna.

Por otra parte un estallido de radiación gamma o rayos x, provenientes de la explosión de un estrella súper masiva, podría destruir completamente la capa de ozono, dejando la superficie de la tierra expuesta a los peligrosos rayos ultravioleta provenientes del Sol, resultando en una catástrofe para toda la vida en el planeta. 

Bibliografia:
IPCC, 2007: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor and H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA.

http://news.nationalgeographic.com/news/2013/03/130321-triassic-mass-extinction-volcano-paleontology-science/
http://www.iflscience.com/health-and-medicine/zombie-anthrax-outbreak-in-siberia-blamed-on-thawedout-infected-reindeer-corpse/



Felipe Zapata Ruiz
Doctor en Química
Investigador Postdoctoral, Vrije Universiteit, Amsterdam






martes, 1 de enero de 2019

1969 - 2019 50º Aniversario

1969 - 2019
50º Aniversario
Un gran paso para la humanidad!!!
Era nº 1 en 1969
Disfrutad, recordad y compartir
Vamos a por otros 50!!!