miércoles, 1 de julio de 2020

CIENCIA, y el "Cosmos" del siglo XXI

CIENCIA, y el “Cosmos” del siglo XXI

El libro homenaje/actualización del COSMOS de Carl Sagan.




Más de medio centenar de científicos recogen el guante lanzado por Alicia Parra y Quintín Garrido para homenajear y actualizar el COSMOS de Carl Sagan en el 40 aniversario del estreno de la serie en televisión y de la publicación del libro.

Este homenaje se plasma siguiendo la línea, estructura, utilizada en el libro original. Los autores participantes, tras la elección de un tema tratado en COSMOS, desarrollan su aportación con un lenguaje claro y riguroso, a modo de continuación del legado divulgativo iniciado por Carl Sagan.

Este libro se presenta bajo Licencia Creative Commons y en formato de archivo pdf para su descarga gratuita. Tanto la descarga como la lectura en línea se realiza a través del blog:


Es de destacar que todo el proyecto gira en torno a la premisa de “sin ánimo de lucro”, ni que decir tiene que ha sido posible gracias a que todos los participantes lo han hecho de manera altruista.

Mención expresa a las introducciones de Inés Pellón González y Jesús Martínez Frías que junto con la contribución especial de Jon Lomberg y del resto de participantes hacen de este libro una auténtica gran obra en la divulgación de este siglo XXI.

No se puede hablar de la serie Cosmos y no mencionar la música que acompañaba las espectaculares imágenes (Vangelis entre otros), en esta ocasión hemos conseguido, para su escucha si se opta por la lectura en línea de nuestro CIENCIA, y el “Cosmos” del siglo XXI, la participación altruista de grandes músicos, todos participan bajo Licencia CC también, mencionar y agradecer a J.J. Machuca, J.A. Caballero, Bert Schellekens, Gabriel de Paco, entre otros muchos.

Y un agradecimiento especial a Carl Sagan por habernos hecho partícipes de la aventura de la Ciencia: “El cosmos es todo lo que es o todo lo que fue o todo lo que será”. Comienzo del capítulo 1 de COSMOS.

Solo queda disfrutar de la lectura de este libro y adentrarnos poco a poco en el vasto océano del conocimiento.


miércoles, 13 de mayo de 2020

TRABAJOS MANUALES Y EXPERIMENTOS

PARA ENTRETENERSE DURANTE
EL CONFINAMIENTO!!!

viernes, 20 de marzo de 2020

martes, 10 de marzo de 2020

Sobre el coronavirus - Margarita del Val

Sobre el coronavirus.
(Por Margarita del Val)




Soy viróloga e inmunóloga, pero no epidemióloga.

A mi juicio, la clave para entenderlo es pasar del nivel de individuo al nivel de epidemia, que la que la sufre es la sociedad.

Entiendo vuestro asombro porque estoy de acuerdo en que no se dice por qué se toman estas medidas tan inhabituales, y, de verdad, no entiendo por qué no se dice. En breve, para quien no quiera leer más: se toman estas medidas no solo para protegernos a cada uno de nosotros, sino especialmente para proteger a los vulnerables y especialmente a los que nos curan, para que los sanitarios no se saturen ni enfermen en masa y puedan curarnos a todos. Entiendo también que no se quiera alarmar a la población para que no acudan innecesariamente al médico. Aún así, como vosotros, echo de menos una explicación de las medidas drásticas.

Algunos puntos para entenderlo, en mi humilde opinión:

La mortalidad parece ser algo superior que la de la gripe, pero el grupo más vulnerable es parecido y hablar como de gripe no es alejarse mucho de lo que es. La gripe, por cierto, no es tan banal como nos creemos. Cada año mueren 6.300 españoles de gripe. Muchos más que por accidentes de tráfico. Hay que tener especial atención con gente con patologías previas de varios tipos y con gente de mayor edad: la mortalidad en China aproximadamente se duplica con cada década (buscad datos exactos si queréis), llegando al 14,8 % para los mayores de 80 años.

Así que a nivel individual no hay que sobre-preocuparse. Si tenemos síntomas por los que por gripe no iríamos al médico ni al teléfono, y si no somos contacto de un infectado o hemos viajado a lugares de riesgo, solo tenemos que leernos las instrucciones de Sanidad, quedarnos tranquilos, y no saturar los centros médicos por el miedo.

PERO: (y no quiero alarmar): a nivel colectivo hay varias diferencias que justifican este cuidado, estas cuarentenas, este impacto social y económico. Es lo que es el contenido completo de la palabra epidemia: que el impacto es a nivel colectivo, de sociedad, no solo individual:

Es un virus nuevo y la ciencia sabe muy poco de él. Y por tanto puede predecir muy poco. Pero hacemos bien los científicos en afanarnos e intentar entender todo lo posible

No tenemos ni un antiviral ni una vacuna, mientras que frente a la gripe tenemos vacunas, mejorables, pero tenemos. Ni sabemos si toda la ciencia logrará producir vacunas; es posible, pero hasta que no las tengamos, no sabemos. Tenemos vacunas frente a pocas enfermedades infecciosas, no olvidéis que hay infecciones que se resisten a pesar de esfuerzos científicos mundiales tremendos, como HIV o dengue, malaria o tuberculosis, y muchas más.

Es bastante más contagioso que la gripe, entre otras cosas quizás porque mal que bien contra la gripe tenemos algo de inmunidad pasada, pero frente a este virus estamos totalmente inermes, naive.

De gripe se enferma (o sea, con síntomas como para ir al médico) un 1% de la población cada año en la temporada de invierno. Lo que quiere decir que a lo mejor no sabemos lo que es una gripe en nuestra vida - puede que no nos toque más de una en 100 años - a no confundir una buena gripe con otras infecciones más leves con síntomas muy parecidos. Y se hospitalizan cada año unos 30.000.

De coronavirus nos podemos infectar, teóricamente y sin cuarentenas ni barreras, un 100% de la población en unos pocos meses, en el peor de los casos. Bueno, solo un 20-25% tendrán síntomas, en el peor de los casos.

El 1% de gripe anual en invierno es lo que absorbe el sistema sanitario, que llega en esos meses a sus niveles máximos de saturación.

No podemos permitirnos la libre circulación del coronavirus porque enfermaría (grave o crítico) un 17% de la población (datos de China actuales), número de pacientes que es inabsorbible por el sistema sanitario.

Por tanto hacen falta cuarentenas, trazado de contactos, y cualquier medida que logre reducir la velocidad a la que, lentamente, nos iremos contagiando casi todos. Hay que ganar todo el tiempo posible para que la infección de todos tarde ojalá que 100 años. Hay que ganar tiempo para que haya una vacuna o un tratamiento. Hay que ganar tiempo a ver si hay suerte y se atenúa en verano. O desaparece, como el SARS con medidas de contención parecidas a las actuales. Hay que ganar tiempo para que haya un antiviral. Hay que ganar tiempo a ver si vivo más y no me muero precozmente.

Pero, sobre todo, hace falta que nuestro sistema sanitario no colapse. Porque es una enfermedad que, con asistencia sanitaria, es mucho menos dañina y mucho menos mortal que sin ella: oxígeno, hidratación, antipiréticos, antiinflamatorios, antibióticos si se complica, soporte vital... - lo saben los médicos para las demás neumonías, pero quizás este virus tiene patologías y secuelas propias. En China, en la "zona cero" la mortalidad ha sido entre 8 y 30 veces mayor que en otras provincias de China: "Asked why [in] Wuhan [the fatality ratio] was so much higher than the national level, the National Health Commission of China official replied that it was for lack of resources" (reunión NHCC y OMS, Feb 20, 2020).

Porque hay que frenar la epidemia, está protocolizado que los sanitarios se pongan en cuarentena cuando han estado expuestos sin saberlo y sin protegerse a un enfermo. Esto se hace ya para neumonías, sarampión, por ejemplo, y también ahora para coronavirus. Si ellos se infectan, aunque sea levemente, y se tienen que poner en cuarentena, para evitar contagiar a su vez a pacientes muy vulnerables, van bajando los recursos humanos sanitarios.

Porque hay que frenar la epidemia, está protocolizado que los enfermos sean aislados, en hospital o en casa según la gravedad y según los recursos disponibles. Pero de esta manera, con las medidas necesarias de aislamiento, no podrán ni siquiera atendernos si llega a enfermar el 1% de la población en unos meses, si llega a ser el nivel habitual que alcanza la gripe en invierno, ni si llega a ser un año de gripe duro. Lombardía ha llegado este fin de semana pasado del día internacional de la mujer a niveles cercanos a la emergencia sanitaria con unos 350 casos por millón de habitantes, muy lejos del 1% (que son 10.000 casos por millón). Por eso ha sido necesaria la adopción de medidas drásticas de circulación de las personas. Y la Sanidad italiana es la quinta del mundo, con la española la tercera, con todas sus deficiencias y sus grandezas que conocemos, En Hubei han llegado a un máximo de 1.200 casos/millón. Por eso han tenido que construir 16 hospitales en pocos días y reclutar a decenas de miles de sanitarios de otras provincias.

Hay que frenar la epidemia porque la observación de Italia, de España, nos muestra que cada semana o diez días se multiplica el número de casos por 10. Haced números a corto plazo, estimad cómo llegamos tan solo a fin de mes si seguimos reticentes a adoptar o seguir las medidas recomendadas.

Por eso hay que respetar todas las medidas de contención, de cuarentena, de aislamiento que nos recomienden las autoridades sanitarias. Porque aún haciéndolo, y estando más preparados que nunca en la historia para combatir una pandemia, estamos también más globalizados que nunca para expandir y potenciar una pandemia.

Por eso, además de seguir a rajatabla todas las medidas recomendadas, hay que tener sensatez y autolimitarse los contactos. Porque lo que está en cuestión no es solo si me infecto yo o no, sino sobre todo si yo puedo infectar o no a otras personas, justo lo contrario. Recordad, es una epidemia. Por eso, cancelar congresos de sanitarios. Por eso, evitar viajes innecesarios y en los que estemos expuestos y exponiendo a mucha gente de orígenes diversos. Por eso, evitar multitudes y reuniones grandes. Por eso, cuando te cierran la empresa porque hay un caso de coronavirus en tu departamento, no hay que irse a tomar una copa o a visitar a tu madre o a hacer la compra en un momentito: te envían a casa no para protegerte a ti, que estás fuertote, joven y sano, sino para que no seas un vehículo de contagio que podría llevar a la muerte a personas más vulnerables en un par de saltos de contagio, e incluso a ti si inopinadamente sufres una apendicitis y no te pueden curar.

Por no hablar de si pasa lo mismo en unas semanas en países con menos recursos.

Ojala que en un futuro se convierta tan solo en una enfermedad estacional como la gripe y las múltiples infecciones respiratorias que sufrimos regularmente. Pero para llegar a ello tenemos que pasar por la oleada de la epidemia. Y tiene que ser lo más lentamente posible. Hay que ganar tiempo, cualquier retraso en la diseminación del virus y la extensión de la epidemia es importante. Sí, es posible hacerlo y los retrasos están en las manos de todos (nunca mejor dicho, lávatelas) incluso con medidas sencillas.

Además de un intento de explicación, esto es una llamada a la sensatez y a la responsabilidad, una vez que tenemos los datos, los pocos datos que conocemos de este virus. La responsabilidad no es solo no sentir pánico, que también, sino pensar en los demás, que suelen ser, siempre, los más cercanos.

Bueno, esta es mi opinión.

Margarita del Val
Doctora en Química
CBMSO-CSIC-UAM
Recomendación de lectura en este blog.



domingo, 23 de febrero de 2020

¿Cómo funciona un microscopio electrónico? - Francisco J. Terán

¿Cómo funciona un microscopio electrónico? ¿Existen microscopios basados en otras partículas fundamentales?
(Por Francisco J. Terán)

(Noviembre 2016)


Desde finales del siglo XVI, la microscopía se ha venido desarrollando como una rama de la ciencia con el fin de proporcionar tecnologías que faciliten la observación y el estudio de objetos demasiado pequeños de ser percibidos a simple vista. A día de hoy, no está del todo claro si la primera “mirada” de la microscopía fue puesta en el firmamento para estudiar esas “pequeñas luces” que allí brillan denominadas "astros" -Galileo Galilei no fue el pionero en la creación del telescopio pero si quien más lo mejoró y publicitó (1)- o en los microorganismos -Antonie van Leeuwenhoek fue pionero en microbiología por sus mejoras en el microscopio (2)-.La microscopía óptica, basada en el uso de luz, lentes y otros componentes ópticos, fue la primera en desarrollarse. Con ella se asentaron buena parte de los fundamentos generales para otras microscopías que también emplean ondas para sondear la materia en la escala submicrométrica. Así, se abrieron las puertas a grandes avances en distintas áreas de la ciencia, desde el estudio de la célula a las propiedades de la luz o la materia. Esto último fue clave para el descubrimiento de ciertas leyes de la física a partir de las cuales han surgido microscopías como la electrónica, permitiendo la visualización y manipulación de objetos en la escala del nanómetro (1 nm = 10-9 m). A principios del siglo XX, de Broglie (3) enunció el carácter ondulatorio del electrón. La "óptica electrónica" superó las limitaciones de la microscopía óptica en el rango visible (400-700 nm) gracias a que de Broglie relacionó la longitud de onda del electrón con su energía cinética (𝜆dB=h/p, donde h es la constante de Planck y p el módulo del momento del electrón). De esta forma, acelerando al electrón (i.e. aumentando p) se puede reducir 𝜆dB varios órdenes de magnitud. Consecuentemente, se pueden lograr aumentos del orden de x106 con una resolución espacial del orden del angstrom (1 Å= 10-10 m), valores muy alejados de los que ofrece la microscopía óptica tanto en aumentos (~x103) como en resolución espacial (~200 nm).

A continuación describiremos los fundamentos básicos de las modalidades más relevantes de la microscopía electrónica. Para finalizar, haremos mención a otras microscopías basadas en el carácter ondulatorio de otras partículas.


1        Así funciona un microscopio electrónico

En la actualidad, la microscopía electrónica es una técnica ampliamente extendida para caracterizar formas, dimensiones, superficies y composición química de la materia en la escala del nanómetro. A pesar de compartir fundamentos ondulatorios teóricos con la microscopía óptica, la electrónica  implica una tecnología mucho más compleja. La microscopía electrónica posee principalmente tres modalidades: microscopía electrónica de barrido (en inglés Scanning Electron Microscope, SEM), transmisión (en inglés, Transmission Electron Microscopy, TEM), o de efecto túnel (Scaning Tunelling Microscope, STM). De estas, se derivan a su vez otras modalidades subyacentes como la microscopía electrónica de transmisión en barrido (en inglés, scanning transmission electron microscope) o la microscopía electrónica de reflexión (en inglés, reflection electron microscope).

Históricamente, el primer microscopio electrónico se desarrolló en los años 30 del siglo XX. Ernst Ruska desarrollo en Alemania el TEM  cuyo diseño original mantiene en la actualidad las partes principales. En su origen, el desarrollo del TEM se benefició además de la demostración por Ruska que un electroimán actúa como una lente electrónica. Ambos avances, la capacidad de controlar la energía del electrón (i.e., 𝜆dB), y de generar un haz de electrones de trayectoria variable, hicieron posible la construcción el primer TEM en 1933. Siemens inicio su comercialización en 1939. De esta manera se inició el estudio de objetos cuyas dimensiones están en la escala del nm, que no ha parado hasta hoy.  En paralelo al desarrollo del TEM, Manfred von Ardenne inventa en 1937 el SEM apoyándose en descubrimientos de Max Knoll, quien también participo en la invención del TEM. El funcionamiento del SEM se basa en el barrido de una región espacial mientras incide un haz de electrones. Así, se puede estudiar superficies en base al análisis de la interacción de los electrones con la superficie, por ejemplo, analizando los electrones secundarios emitidos por los átomos de la superficie. Finalmente, en 1981 Gerd Binnig y Heinrich Rohrer desarrollan el STM, un microscopio electrónico basado en el efecto túnel, un fenómeno cuántico que permite a un electrón atravesar una barrera de  potencial mayor que su energía cinética. Es decir, permitir el paso de una corriente de electrones desde el último átomo de una punta metálica a otro ubicado sobre la superficie de la muestra (metálica o semiconductora). Esto es posible cuando la distancia entre la punta y la muestra es de unos pocos Å  y se aplica una tensión generalmente inferior a tres voltios entre la punta y la muestra (4). De esta forma se pueden obtener imágenes sin precedentes de átomos individuales en superficies con una resolución inferior a 1 Å, tanto lateral como verticalmente. La clave de la sensibilidad STM reside en que la corriente túnel de electrones varía un orden de magnitud por Å de distancia punta a muestra. Pequeñas variaciones topográficas se traducen en grandes cambios de corriente. Debido a la naturaleza del propio efecto túnel, la corriente de electrones que "tunelean" desde la punta hasta los átomos de la superficie sondea orbitales electrónicos de valencia del átomo. Por tanto, la microscopía STM también da información de los orbitales electrónicos, permitiendo describir la estructura electrónica de las superficies. Pero la característica más fascinante del STM es la manipulación de la posición de átomos individuales, variando su ubicación espacial a voluntad (5). Uno de los componentes básicos del STM a los que debe su éxito y avance son los soportes piezoeléctricos sobre los que se montan las puntas. Estos soportes permiten mover la punta con total precisión distancias < 1 Å y mantenerla días con plena fiabilidad. Esta microscopía despierta un interés exclusivamente académico, para estudiar las propiedades de la materia relacionadas con la morfología de superficies, moléculas individuales, propiedades eléctricas y magnéticas de moléculas y átomos individuales, afinidades y enlaces electrónicos de átomos y moléculas individuales, síntesis de nuevos materiales, propiedades electrónicas de materiales topológicos, entre otros temas.

Como se señalaba anteriormente, las microscopías electrónicas (salvo la STM) se benefician de la modulación de 𝜆dB a través de aumentar el momento del electrón para alcanzar extraordinarios valores de resolución espacial y aumentos. Pero es sin duda, el análisis de los distintos procesos de interacción de un electrón con los átomos de la muestra en estudio lo que marca la mayor diferencia con la microscopía óptica (ver figura 1). Así, las microscopías SEM y TEM son las técnicas de caracterización estructural y composicional de nanomateriales más empleadas tanto por científicos como por  ingenieros. Ambas tienen similitudes y diferencias en su tecnología. Las similitudes son en cuanto al uso de fuentes de electrones para generar el haz, lentes electromagnéticas para focalizarlo en una determinada ubicación espacial de la muestra, y sistemas de vacío (vacío más alto para TEM) para minimizar la desviación del haz a fin de mejorar la nitidez de la imagen. Por un lado, la generación del haz de electrones emplea habitualmente filamentos de tungsteno o dispositivos de efecto campo con el fin de crear haces de electrones coherentes que mejoren el contraste de la imagen. Tras la generación del haz de electrones en la fuente, se les somete a un alto voltaje con respecto a la muestra para dotarles de un momento p definido. Estos valores de voltaje suelen ser de unos  ~100 kV para un TEM estándar hasta 200 kV para un TEM de alta resolución. En el caso del SEM, el voltaje aplicado es inferior a los 40 kV. Por otro lado, las lentes electromagnéticas se basan en la fuerza que ejerce un campo magnético sobre una carga eléctrica que se mueve con una determinada energía cinética = q𝜈͞ x   . También, los campos eléctricos pueden deflectar un ángulo fijo la trayectoria de un electrón. La aplicación de una fuerza magnética y/o eléctrica permite desplazar lateralmente la trayectoria de un haz de electrones para focalizarlo en una posición especial determinada. Para ello, se requiere que la muestra esté en un vacío cuya presión típica oscile entre 10-4 y 10-8 Pa. La necesidad de vacío en la cámara de la muestra limita consecuentemente tanto el modo de introducir las muestras como su preparación. Así por ejemplo, las muestras biológicas (que poseen un gran contenido en agua) requieren ser inmovilizadas en resinas plásticas (fijación química, intercambio de agua e inclusión en resina) o ser preservadas en frío (crío-fijación) para no alterar las condiciones de vacío.

Por el contrario, los SEM y TEM poseen grandes diferencian en cuanto al tipo de muestras que pueden estudiar y a su preparación. Por un lado, las muestras SEM  han de ser conductoras o de lo contrario ser metalizadas para evitar acumulación de electrones (carga) lo cual altera la calidad de la imagen. Por otro lado, las muestras TEM pueden ser cualquier tipo de muestras amorfas, cristalinas, biológicas, etc. Su única condición es que el espesor ha de ser ultrafino (inferior a 500 nm) para permitir la transmisión de electrones a través. También, las técnicas de visualización de imágenes son distintas para el SEM y TEM ya que analizan diferentes procesos de interacción electrón-materia (ver figura 1), sean relacionados con la transmisión (TEM) o con la difusión (SEM) del electrón sobre la muestra. Así, el TEM proporciona imágenes de mayor resolución (hasta 3 Å cuando la aberración esférica de tercer orden está corregida (6)) que son una proyección bidimensional generada por la superposición de las funciones de ondas de los electrones que atraviesan la muestra. Sin embargo un SEM proporciona imágenes tridimensionales de la superficie pero con una menor resolución espacial (~10 nm). A los correspondientes sistemas de visualización SEM y TEM, se les puede complementar con otro tipo de análisis (rayos X, catodoluminescencia, pérdidas de energía del electrón, procesos Auger, electrones secundarios, etc.…) que proporcionan valiosa información sobre la muestra (composición química, número atómico, estado electrónico). En la actualidad, la gran revolución ha llegado de la mano de los detectores directos de electrones, que han permitido la toma de datos con mucha menor intensidad del haz y mejor contraste. Tradicionalmente, los histogramas o imágenes de SEM y TEM se han venido haciendo en blanco y negro, porque la técnica elimina los matices cromáticos. Recientemente se ha logrado la manera de colorear dichas imágenes empleando un detector que captura los electrones que devuelven los iones en color (7). También, por el avance informático que permite controlar y analizar imágenes en las que se combinan imágenes morfológicas con "mapeados" de la muestra en relación a distintos análisis (por ejemplo, presencia de un elemento químico). La llegada de las cámaras CCD y la mejora en la informática permitió la automatización de los procesos de visualización de imágenes y de control de los componentes del microscopio.

(pinchar en la imagen para aumentar)
Figura 1: Representación esquemática de las distintas modalidades de interacción de un haz de electrones y la materia.


2        Otras microscopías basadas en otras partículas fundamentales

Como hemos mencionado anteriormente, la microscopía electrónica se basa en el carácter ondulatorio del electrón para el análisis de la materia. No existen otras microscopías alternativas basadas en el carácter ondulatorio de otras partículas fundamentales con carga por la dificultad en las condiciones de su generación  y la imposibilidad de desarrollar fuentes (estas partículas se generan típicamente en instalaciones de alta energía). Sin embargo, si ha sido posible desarrollar microscopios que emplean haces de partículas más pesadas, como son los iones de gases nobles (He, Ne, Ar), moléculas de hidrogeno (H2) o mezclas de ambos. La invención de la microscopía de iones de campo (en inglés, Field Ion Microscopy, FIM)  por  Erwin Wilhelm Müller en 1951 permite analizar superficies con una metodología similar a la del SEM (análisis de electrones secundarios). Sin embargo, su resolución espacial (< 3 Å) es dos órdenes de  magnitud superior gracias a que la longitud de onda de los iones es más corta que la de los electrones. Otra de sus ventajas respecto al SEM es que la muestra no requiere ser un conductor eléctrico. Las generalidades del funcionamiento de un FIM son similares a las de un SEM, variando la fuente de ondas (iones), la refrigeración de muestra (a temperaturas entre 10 y 150 K) que está colocada en un soporte redondeado (de radio entre 10 y 100 nm) y el sistema de visualización de la superficie de la muestra que incluye placas con microcanales para amplificar la señal de los iones dispersados. La versión más avanzada del FIM es la que emplea iones de He comercializado desde 2007 (8) debido a que los iones de He no alteran la muestra en estudio por la ligera masa del He. Finalmente, mencionar que si bien la microscopía óptica se basa en luz visible, luz de alta energía como son los Rayos X (con longitudes de onda 2-4 nm, cien veces más pequeña que la luz visible) ofrece una resolución espacial del orden de los 30 nm. En 1950, Sterling Newberry desarrolló el primer microscopio de rayos X que fue comercializado por General Electrics. A día de hoy, se han realizado versiones que permiten un barrido de la muestra (en inglés, Scanning X-Ray microscope)  y se benefician de las cámaras CCD y el avance de la informática para el control del microscopio, y el análisis de imágenes.


Notas:
1. Gribbin, John (2006). Historia de la ciencia. 1543-2001. Crítica, p. 82.
2. Finlay BJ1, Esteban GF. Int Microbiol. 2001 Sep;4(3):125-33.
3. Louis Victor de Broglie, RECHERCHES SUR LA THÉORIE DES QUANTA (Ann. de Phys., 10e  série, t. III  (Janvier-Février 1925).
4. Gerd Binnig and Heinrich Rohrer" Scanning tunneling microscopy—from birth to adolescence" Rev. Mod. Phys. 59, 615 – Published 1 July 1987.
5. Famosa es la imagen de STM con el texto "IBM" que escribieron con átomos  individuales los descubridores del STM mientras trabajaban en el Centro de Investigación IBM en Zürich (Suiza).
6. La aberración esférica es el óptico por excelencia en la limitación de la resolución espacial  del TEM y SEM.
7. Adams, Stephen R. et al., Cell Chemical Biology, Volume 23, Issue 11, 1417-1427
8. Orion Helium Ion Microscope, ZEISS Group

Francisco José Terán Garcinuño
Doctor en Ciencias Físicas
Investigador en iMdea Nanociencia



Francisco J. Terán


Licenciado en 1997 en Ciencias Físicas por la Universidad Autónoma de Madrid, obtuvo en 2001 el título de Doctor en Ciencias Físicas por la Université Joseph Fourier - Grenoble 1. Realizó varias estancias postdoctorales en la Universidad de Nottingham (Nottingham, Reino Unido), Laboratorio de Altos Campos Magnéticos CNRS/MPI-FKF (Grenoble, Francia), y la Universidad Autónoma de Madrid entre 2002 y 2007. Posteriormente, se incorporó como investigador senior en el Centro Tecnológico Gaiker antes de volver a Madrid en el Instituto de Estudios Avanzados en Nanociencia, donde desde 2012 lidera el Laboratorio de Hipertermia y el Servicio de Instrumentación.


Sus investigaciones se centran en el estudio de propiedades magnéticas de nanopartículas de óxidos de hierro para aplicaciones biomédicas (sensores, mediadores de calor y trazadores de imagen). Ha desarrollado numerosos prototipos para la caracterización de propiedades ópticas, electricas y magnéticas de nanomateriales. Es autor de más de 60 artículos científicos, un libro, y varios capítulos, y cuenta con decenas de comunicaciones a congresos internacionales.

jueves, 13 de febrero de 2020

Fusión Termonuclear ¿cuestión tecnológica, económica o política? - Julio Gutiérrez Muñoz

¿Se llegará a obtener energía gracias a la Fusión Termonuclear controlada? ¿Es una cuestión tecnológica, económica o política?
(Por Julio Gutiérrez Muñoz)

(Noviembre 2016)


Antes de comenzar a analizar estas preguntas, conviene dar unas pinceladas sobre qué es la Fusión Termonuclear y su nomenclatura habitual.

Las altas temperaturas necesarias para vencer la repulsión eléctrica de los núcleos a fusionar para obtener energía –millones de grados Celsius– hacen que los “combustibles” (normalmente Deuterio y Tritio) estén ionizados. Es decir, los átomos habrán perdido sus electrones y se encuentran en un estado denominado plasma, cuyas propiedades y comportamiento se conocen muy mal. Además, esas mismas temperaturas imposibilitan el confinamiento del plasma en recipientes, los cuales se volatilizarían al contacto con el gas ionizado. Actualmente, existen dos posibilidades, con ventaja sobre las demás barajadas hasta el momento, de controlar el proceso:

1) la fusión por confinamiento magnético, consistente en utilizar fuertes campos magnéticos para mantener el plasma en el interior de un recipiente, pero alejado de sus paredes

2) la fusión por confinamiento inercial, también llamada fusión por láser, consistente en comprimir en el vacío la mezcla de núcleos a fusionar hasta densidades extremas, mediante el bombardeo de haces de luz procedentes de un láser de gran energía.

Ambos tipos de dispositivos, en su evolución desde los comienzos de la fusión nuclear, han adquirido tamaños descomunales como acreditan las figuras 1 y 2, y ese es el primer problema –quizás el más grave que– aleja de la realidad práctica la obtención de la energía prometida.

Ante la complejidad de la fusión, sea cual sea el tipo de confinamiento, ¿qué cabe decir? En consecuencia, los avances tecnológicos tienen, y seguramente tendrán por incontables años, mucho de acierto/error. Algunos de los problemas que presentan los diseños actuales tienen su origen, fundamentalmente, en la ingeniería y, en comparación con las dificultades conceptuales de la física subyacente, son extremadamente graves y difíciles de resolver.

Existe un problema adicional no menor. En el proceso se producen neutrones de alta energía imposibles de frenar antes de que atraviesen las paredes del dispositivo. Ello convierte en radiactivas las estructuras, por lo que se hace necesario encontrar materiales de baja activación frente al intenso bombardeo neutrónico, amén de otras partículas que escapan del confinamiento.



Figura 1: Esquemas a escala que ilustran la evolución de los tamaños de los dispositivos de confinamiento magnético, los llamados “TOKAMAK” –acrónimo del ruso тороидальная камера с магнитными катушками (toroidal'naya kamera s magnitnymi katushkami, en español cámara toroidal con bobinas magnéticas)– El ITER se encuentra en estado de construcción y el DEMO, en etapa de proyecto, se supone será el primer reactor comercial.


Este bombardeo no solo induce radiactividad, sino que cambia las propiedades físico-químicas por las que fueron elegidos tales materiales (resistencia a las altas temperaturas, resistencia a las grandes tensiones mecánicas, etc.). En el confinamiento magnético, debido a los intensísimos campos, las estructuras estarán sometidas a enormes tensiones mecánicas y aceptarán mal las pérdidas de sus propiedades, eso por no hablar de la posible volatilización de parte de la cámara de confinamiento cada vez que se produce una disrupción, fenómeno que, a causa de inestabilidades, desvía toda la columna de plasma haciéndola impactar contra las paredes (cortocircuito), ¡y ello a temperaturas del orden de millones de grados Celsius! Por otra parte, las bobinas superconductoras, necesarias para conseguir elevados campos magnéticos, jamás se han empleado bajo el intenso flujo de neutrones que supondrá el funcionamiento del ITER (el prototipo casi comercial en fase de proyecto) y puede haber sorpresas nada agradables al respecto.

Aunque los materiales irradiados procedentes de la fusión son menos radiactivos que los correspondientes a un reactor de fisión y podrán ser manipulados sin peligro en cuestión de un par de decenas de años, los defensores de la fisión atacaron fuerte y uno de sus argumentos consistía en decir que la fusión era igual de sucia y por el contrario mucho más cara. Hace unos 35 años, Lawrence Lidsky, profesor de Ingeniería Nuclear del MIT (Massachusetts Institute of Technology), publicó un artículo atacando la fusión, en la revista de esa institución “Technology Review”, del cual se hizo eco el Washington Post y terminó por dar la vuelta al mundo. Los titulares de los periódicos eran de este tenor: “La fusión no es posible”; “Se cree que la fusión termonuclear ha llegado a su fin”; “Se considera la fusión sencilla pero inútil”; “Un veterano de la fusión declara que los problemas a los que se enfrentan son irresolubles”... Los entusiastas de la fusión tampoco acertaban con los argumentos para rebatir el ataque.

Los razonamientos técnicos de Lidsky eran los siguientes:

a) los costes de construcción de un reactor de fusión serán siempre mayores que los correspondientes a un reactor de fisión de la misma potencia

b) los problemas de ingeniería serán mayores, empezando por la necesidad de evitar el bombardeo neutrónico de los materiales estructurales que deben soportar tensiones mecánicas hasta ahora inimaginables

c) aunque no sean muy graves, los accidentes provocarán en un reactor de fusión paros que harán no rentable económicamente una central de este tipo

d) los reactores de fusión serán enormes, complicados, caros y poco fiables

e) el uso de un reactor de fusión estará limitado a formar tándem con uno de fisión en el mejor de los escenarios.

En cualquier caso, la reacción política no se hizo esperar y Lidsky fue destituido de su cargo de director adjunto del Centro de Fusión del MIT. El encargado de rebatir sus manifestaciones fue Harold Furth, de Princeton, quien utilizó la batería de siempre. La justificación “estrella” consistió en decir: “Si los hermanos Wright no hubieran construido un primer aparato volador torpón, nunca se hubiera desarrollado la tecnología aeronáutica actual”, en una clara defensa de la forma de investigar en modo acierto/error. Evidente, pero también debemos reconocer que el método lo emplearon con prototipos pequeñitos. ¿Se imagina el lector a los hermanos Wright intentando hacer volar un primer modelo de la talla de un Jumbo?

De todo lo anterior se desprende que la mayor desventaja de la fusión controlada, frente a otras fuentes de energía quizás menos prometedoras pero sí más fáciles de manejar, incluida la fisión, reside en el factor económico. ¿Qué compañía arriesgará su capital en construir una planta de fusión que, en el mejor de los casos, funcionará a trompicones y producirá energía a un coste superior al de cualquier otro sistema? Primero se necesita un esfuerzo suplementario para simplificar la complejidad tecnológica de las máquinas actuales y minimizar su coste. Hoy día un reactor de fusión requiere el concurso de muchos países y, si fuera un sistema prometedor, más de una compañía eléctrica ya habría entrado en tales consorcios; no olvidemos que se postula como la energía más limpia, barata e inagotable de la historia presente y futura de la Humanidad.

Por otra parte, muchas organizaciones ecologistas ya han levantado la voz sobre la falacia de la inagotabilidad del combustible. Si la fusión del combustible mezcla Deuterio-Tritio ha sido inviable hasta hoy, más difícil será conseguir la fusión mediante la mezcla Deuterio-Deuterio. Como el Tritio es radiactivo y de corta vida media, no se encuentra en abundancia suficiente en la Naturaleza y hay que obtenerlo por bombardeo neutrónico del Litio6, por consiguiente, es el Litio el elemento que debe proveer de combustible a una planta termonuclear y su abundancia, aunque es 15 veces mayor que la del Uranio, no es ilimitada, sobre todo la del isótopo Litio6, el cual representa solo un 7 % del Litio natural. A ello se añade el problema del uso del radiactivo Tritio, susceptible de pasar al ciclo biológico del agua, y de los materiales, también radiactivos, que saldrán de las estructuras desechadas.

La fusión, por lo tanto, podría ser una gran mentira, como algunos la califican.

Supongamos que estamos en 2050 y los prototipos como el ITER han demostrado que la fusión es viable a un coste de, pongamos por caso, 8000 millones de euros por planta energética. Además, la Física del Plasma no ha proporcionado ninguna sorpresa nueva con relación a las inestabilidades, disrupciones, etc., y los reactores se han mostrado estables. El problema seguiría siendo el mismo que el actual en relación a las plantas de fisión. Una central de este estilo siempre será un generador de base, es decir, debe proporcionar energía eléctrica a la red a un ritmo constante y sin interrupciones imprevistas, pues su coste inicial hace que solamente sea rentable si está siempre operativa. Por otra parte, es muy probable que siempre se necesiten enormes cantidades de energía para reiniciar la ignición tras una parada, por consiguiente, desde el punto de vista del coste energético, una parada en fusión supone un problema mucho mayor que en fisión.

Hablemos del coste del combustible en el confinamiento magnético. Sin lugar a dudas es prácticamente despreciable frente a la inversión inicial en infraestructuras, pero esta es tan elevada, al nivel actual de conocimiento, que supera con creces los costes de otras fuentes de energía. Por esta razón muchos opinan que el tiempo y el dinero dedicado a la investigación de fusión deberían dedicarse a otras tecnologías energéticas que ya hubieran mostrado su viabilidad.

¿Es viable económicamente la fusión por láser? La respuesta, de momento, es negativa y, esta vez, aunque parezca mentira, por cuestiones de coste del combustible. Efectivamente la fabricación de los “perdigones” de combustible es hoy un proceso carísimo (véase la figura 2). El presupuesto de la Universidad de Rochester es de varios millones de dólares por 6 cápsulas de Deuterio-Tritio que se introducen en la cámara de irradiación para quemar en un año. Una máquina comercial necesitaría unas 90 000 de esas cápsulas por día. La pregunta es obvia: ¿es posible abaratar hasta extremos rentables la producción de esas cápsulas de D-T?



Figura 2: Proyecto NIF (National Ignition Facility) del Lawrence Livermore National Laboratory, California. 
Izquierda: Microcápsula de combustible (“perdigón” mezcla Deuterio-Tritio). 
Derecha: Cámara de irradiación en cuyo centro debe implotar la microcápsula al ser iluminada simultáneamente por los haces de un láser de 500 TW. En el centro de la parte superior puede verse a un operario en labores de mantenimiento.


Debemos pues concluir que el enfoque actual de un mundo basado únicamente en la energía de fusión no solo es poco realista, sino que en ningún caso es la panacea, ni energética, ni económica, ni política, ni social.

Rebecca Harme, del grupo de “Los Verdes” del Parlamento Europeo, solicitando en la Comisión de Industria que el esfuerzo se desvíe en otra dirección, ha asegurado: “En los próximos cincuenta años la fusión nuclear no va a luchar contra el cambio climático ni a garantizar la seguridad de nuestro suministro energético”. Hoy, en plena crisis económica, la opinión generalizada es que invertir 13 000 millones de euros en un proyecto a cincuenta años, del cual no tenemos asegurada la viabilidad, es descabellado. Claro que cabe preguntarse: ¿cuánto ha costado el rescate bancario, solo en España?; ¿cuál va a ser el resultado del mismo? Evidentemente se pueden hacer críticas a la fusión pero deben ser más serias y quizás provenir de ambientes más cualificados. Sin embargo, la respuesta desde el sector científico a estas críticas es siempre la misma, y siempre igual de tibia, se limita a afirmar que la seguridad intrínseca de esta forma de producir energía es suficiente pretexto como para intentar ganar la partida.

Afortunadamente hay voces discordantes más cualificadas que piensan, no que la fusión termonuclear controlada es un imposible, sino que el camino elegido, el ITER (iter es “camino” en latín), no es el correcto. Estas críticas provenientes de la comunidad científica del plasma son las más demoledoras, y no son recientes sino que incluso se remontan a los comienzos de la puesta en marcha de tokamaks como el TFTR americano y el JET europeo. El problema sobrevino cuando los demás dispositivos de confinamiento magnético fueron abandonados a favor de los tokamak, sin haber sido estudiados con la profundidad requerida ante una decisión de tal envergadura. Los primeros en caer en el olvido, pese a su simplicidad, fueron los espejos magnéticos y el laboratorio de Livermore, a comienzos de la década de los ochenta del pasado siglo, estaba a punto de inaugurar uno de esos dispositivos, también de un tamaño considerable, cuando pocas semanas antes recibió de la administración Reagan la orden de abandonar el proyecto en favor de la fusión por láser, con connotaciones más belicistas, relacionadas con el famoso proyecto conocido popularmente como “guerra de las galaxias”.

En definitiva, no se han dejado madurar las ideas, no se han hecho suficientes experimentos de laboratorio a pequeña escala. Se ha cercenado la investigación básica. Algunos países como España se han lanzado a gastar dinero en construir máquinas inservibles, cuando hubiera costado mucho menos tener a los científicos y técnicos preparados con estancias en los centros donde se cocían de verdad las grandes soluciones. El propio Bob Hirsch, defensor a ultranza de las grandes máquinas tokamak a comienzos de su carrera, “cuando era un joven con prisas”, –como dijo alguien–, en un discurso ante la Sociedad Nuclear Americana en 1985, atacó la idea del tokamak como inservible para los objetivos de la energía comercial de fusión. ¿Llevaría razón? Sus argumentos científicos terminaban con la idea de la inviabilidad a nivel comercial de un sistema que consistía en una complicada geometría, con anillos y más anillos abrazando una cámara de vacío a la que apenas se podía llegar ni con radiación electromagnética; “la industria preferirá una geometría sencilla”, afirmaba. Hirsch abogaba entonces por dispositivos más pequeños y manejables.

También hay voces que opinan que el problema reside en la falta de presupuesto. ¿Si se hubiera hecho el mismo esfuerzo por desarrollar la Física del Plasma como se ha hecho para encontrar “el color” de los quarks, sería hoy la fusión una realidad?  Es más, bastaría haber dedicado el mismo presupuesto a otros diseños que el dedicado al desarrollo del tokamak, quizás con eso hubiera sido suficiente para encontrar la solución.

Don Grove, antiguo colaborador de Spitzer, padre de los “stellarator” –otro diseño de confinamiento magnético para la fusión–, y a la sazón responsable del grupo de fusión de la Universidad de Princeton, se quejaba de lo que parecía evidente: cuánto menos práctico era un proyecto mayor apoyo recibía de los políticos, con tal de ganarle la carrera a algún “enemigo”. Erik Storm, líder de la fusión por láser, compartía el mismo pesimismo: “Creo que las soluciones a los problemas de la Humanidad pasan por descubrir el verdadero color de los quarks”, decía. Claro que, al fin y al cabo, la comunidad de fusión se pasaba la vida diciendo que ya estaba a punto de encontrar la energía más segura, inagotable y barata, pero sus proyectos eran tan caros, que era más rentable escurrir las últimas gotas de petróleo de los sitios más inaccesibles.

La última crítica conocida es más feroz, si cabe, y proviene de Jean Pierre Petit, exdirector de investigación del CNRS francés y gran especialista en Física del Plasma. Petit afirma que el problema fundamental reside en el propio comportamiento del plasma de un tokamak; las disrupciones no permitirán jamás que un dispositivo comercial llegue a funcionar. Estos “apagones” del gas ionizado, de consecuencias desastrosas, están muy lejos de evitarse y pueden aparecer en cualquier momento, basta una ligera inestabilidad desencadenada por unos cuantos átomos de impurezas mezclados con el combustible.

Es posible que el problema mayor del ITER provenga del empeño de los socios en no hacer un fondo común y designar un equipo de realización del proyecto. Cada país participante quiere hacer revertir su inversión en la industria propia. En palabras de Brumfiel periodista de la revista “Nature” que sigue el proceso de su construcción desde hace más de 10 años: “es como si uno pidiera bajo catálogo una serie de chapas y cientos de miles de tuercas y tornillos para construir en el jardín de su casa un Boeing 747”. Pero hay un par de detalles que todos olvidan: 1) en plena crisis no es difícil que alguna de las empresas adjudicatarias de parte del proyecto quiebre a la mitad o casi al final del camino, con el dinero gastado y la pieza a medio hacer; y 2) tras los muchos ajustes, hay piezas que nunca han sido especificadas en los catálogos, posiblemente hasta la hora de ensamblar el conjunto no se sepa cuáles son. Efectivamente, algunos países, como la India, empiezan a tener problemas para cumplir sus compromisos o para repartir los contratos entre las empresas subcontratantes.

En resumen, podemos afirmar que, por mucho tiempo, la fusión no será la protagonista del futuro energético de la Humanidad.


Julio Gutiérrez Muñoz
Doctor en Física
Catedrático de Universidad de Física Atómica, Molecular y Nuclear, jubilado.

miércoles, 8 de enero de 2020

TERTULIA FULBRIGHT: ENCUENTRO CON EL DR. JOSÉ MIGUEL GARCÍA MARTÍN

Tertulia Fulbright
Dr. José Miguel García Martín
"Nanomateriales para luchar contra
las infecciones y el cáncer"



Un par de textos muy recomendables de Dr. José Miguel García Martín:

Y yo quiero ser... Nanotecnólogo

Nanotecnología para la salud