martes, 10 de marzo de 2020

Sobre el coronavirus - Margarita del Val

Sobre el coronavirus.
(Por Margarita del Val)




Soy viróloga e inmunóloga, pero no epidemióloga.

A mi juicio, la clave para entenderlo es pasar del nivel de individuo al nivel de epidemia, que la que la sufre es la sociedad.

Entiendo vuestro asombro porque estoy de acuerdo en que no se dice por qué se toman estas medidas tan inhabituales, y, de verdad, no entiendo por qué no se dice. En breve, para quien no quiera leer más: se toman estas medidas no solo para protegernos a cada uno de nosotros, sino especialmente para proteger a los vulnerables y especialmente a los que nos curan, para que los sanitarios no se saturen ni enfermen en masa y puedan curarnos a todos. Entiendo también que no se quiera alarmar a la población para que no acudan innecesariamente al médico. Aún así, como vosotros, echo de menos una explicación de las medidas drásticas.

Algunos puntos para entenderlo, en mi humilde opinión:

La mortalidad parece ser algo superior que la de la gripe, pero el grupo más vulnerable es parecido y hablar como de gripe no es alejarse mucho de lo que es. La gripe, por cierto, no es tan banal como nos creemos. Cada año mueren 6.300 españoles de gripe. Muchos más que por accidentes de tráfico. Hay que tener especial atención con gente con patologías previas de varios tipos y con gente de mayor edad: la mortalidad en China aproximadamente se duplica con cada década (buscad datos exactos si queréis), llegando al 14,8 % para los mayores de 80 años.

Así que a nivel individual no hay que sobre-preocuparse. Si tenemos síntomas por los que por gripe no iríamos al médico ni al teléfono, y si no somos contacto de un infectado o hemos viajado a lugares de riesgo, solo tenemos que leernos las instrucciones de Sanidad, quedarnos tranquilos, y no saturar los centros médicos por el miedo.

PERO: (y no quiero alarmar): a nivel colectivo hay varias diferencias que justifican este cuidado, estas cuarentenas, este impacto social y económico. Es lo que es el contenido completo de la palabra epidemia: que el impacto es a nivel colectivo, de sociedad, no solo individual:

Es un virus nuevo y la ciencia sabe muy poco de él. Y por tanto puede predecir muy poco. Pero hacemos bien los científicos en afanarnos e intentar entender todo lo posible

No tenemos ni un antiviral ni una vacuna, mientras que frente a la gripe tenemos vacunas, mejorables, pero tenemos. Ni sabemos si toda la ciencia logrará producir vacunas; es posible, pero hasta que no las tengamos, no sabemos. Tenemos vacunas frente a pocas enfermedades infecciosas, no olvidéis que hay infecciones que se resisten a pesar de esfuerzos científicos mundiales tremendos, como HIV o dengue, malaria o tuberculosis, y muchas más.

Es bastante más contagioso que la gripe, entre otras cosas quizás porque mal que bien contra la gripe tenemos algo de inmunidad pasada, pero frente a este virus estamos totalmente inermes, naive.

De gripe se enferma (o sea, con síntomas como para ir al médico) un 1% de la población cada año en la temporada de invierno. Lo que quiere decir que a lo mejor no sabemos lo que es una gripe en nuestra vida - puede que no nos toque más de una en 100 años - a no confundir una buena gripe con otras infecciones más leves con síntomas muy parecidos. Y se hospitalizan cada año unos 30.000.

De coronavirus nos podemos infectar, teóricamente y sin cuarentenas ni barreras, un 100% de la población en unos pocos meses, en el peor de los casos. Bueno, solo un 20-25% tendrán síntomas, en el peor de los casos.

El 1% de gripe anual en invierno es lo que absorbe el sistema sanitario, que llega en esos meses a sus niveles máximos de saturación.

No podemos permitirnos la libre circulación del coronavirus porque enfermaría (grave o crítico) un 17% de la población (datos de China actuales), número de pacientes que es inabsorbible por el sistema sanitario.

Por tanto hacen falta cuarentenas, trazado de contactos, y cualquier medida que logre reducir la velocidad a la que, lentamente, nos iremos contagiando casi todos. Hay que ganar todo el tiempo posible para que la infección de todos tarde ojalá que 100 años. Hay que ganar tiempo para que haya una vacuna o un tratamiento. Hay que ganar tiempo a ver si hay suerte y se atenúa en verano. O desaparece, como el SARS con medidas de contención parecidas a las actuales. Hay que ganar tiempo para que haya un antiviral. Hay que ganar tiempo a ver si vivo más y no me muero precozmente.

Pero, sobre todo, hace falta que nuestro sistema sanitario no colapse. Porque es una enfermedad que, con asistencia sanitaria, es mucho menos dañina y mucho menos mortal que sin ella: oxígeno, hidratación, antipiréticos, antiinflamatorios, antibióticos si se complica, soporte vital... - lo saben los médicos para las demás neumonías, pero quizás este virus tiene patologías y secuelas propias. En China, en la "zona cero" la mortalidad ha sido entre 8 y 30 veces mayor que en otras provincias de China: "Asked why [in] Wuhan [the fatality ratio] was so much higher than the national level, the National Health Commission of China official replied that it was for lack of resources" (reunión NHCC y OMS, Feb 20, 2020).

Porque hay que frenar la epidemia, está protocolizado que los sanitarios se pongan en cuarentena cuando han estado expuestos sin saberlo y sin protegerse a un enfermo. Esto se hace ya para neumonías, sarampión, por ejemplo, y también ahora para coronavirus. Si ellos se infectan, aunque sea levemente, y se tienen que poner en cuarentena, para evitar contagiar a su vez a pacientes muy vulnerables, van bajando los recursos humanos sanitarios.

Porque hay que frenar la epidemia, está protocolizado que los enfermos sean aislados, en hospital o en casa según la gravedad y según los recursos disponibles. Pero de esta manera, con las medidas necesarias de aislamiento, no podrán ni siquiera atendernos si llega a enfermar el 1% de la población en unos meses, si llega a ser el nivel habitual que alcanza la gripe en invierno, ni si llega a ser un año de gripe duro. Lombardía ha llegado este fin de semana pasado del día internacional de la mujer a niveles cercanos a la emergencia sanitaria con unos 350 casos por millón de habitantes, muy lejos del 1% (que son 10.000 casos por millón). Por eso ha sido necesaria la adopción de medidas drásticas de circulación de las personas. Y la Sanidad italiana es la quinta del mundo, con la española la tercera, con todas sus deficiencias y sus grandezas que conocemos, En Hubei han llegado a un máximo de 1.200 casos/millón. Por eso han tenido que construir 16 hospitales en pocos días y reclutar a decenas de miles de sanitarios de otras provincias.

Hay que frenar la epidemia porque la observación de Italia, de España, nos muestra que cada semana o diez días se multiplica el número de casos por 10. Haced números a corto plazo, estimad cómo llegamos tan solo a fin de mes si seguimos reticentes a adoptar o seguir las medidas recomendadas.

Por eso hay que respetar todas las medidas de contención, de cuarentena, de aislamiento que nos recomienden las autoridades sanitarias. Porque aún haciéndolo, y estando más preparados que nunca en la historia para combatir una pandemia, estamos también más globalizados que nunca para expandir y potenciar una pandemia.

Por eso, además de seguir a rajatabla todas las medidas recomendadas, hay que tener sensatez y autolimitarse los contactos. Porque lo que está en cuestión no es solo si me infecto yo o no, sino sobre todo si yo puedo infectar o no a otras personas, justo lo contrario. Recordad, es una epidemia. Por eso, cancelar congresos de sanitarios. Por eso, evitar viajes innecesarios y en los que estemos expuestos y exponiendo a mucha gente de orígenes diversos. Por eso, evitar multitudes y reuniones grandes. Por eso, cuando te cierran la empresa porque hay un caso de coronavirus en tu departamento, no hay que irse a tomar una copa o a visitar a tu madre o a hacer la compra en un momentito: te envían a casa no para protegerte a ti, que estás fuertote, joven y sano, sino para que no seas un vehículo de contagio que podría llevar a la muerte a personas más vulnerables en un par de saltos de contagio, e incluso a ti si inopinadamente sufres una apendicitis y no te pueden curar.

Por no hablar de si pasa lo mismo en unas semanas en países con menos recursos.

Ojala que en un futuro se convierta tan solo en una enfermedad estacional como la gripe y las múltiples infecciones respiratorias que sufrimos regularmente. Pero para llegar a ello tenemos que pasar por la oleada de la epidemia. Y tiene que ser lo más lentamente posible. Hay que ganar tiempo, cualquier retraso en la diseminación del virus y la extensión de la epidemia es importante. Sí, es posible hacerlo y los retrasos están en las manos de todos (nunca mejor dicho, lávatelas) incluso con medidas sencillas.

Además de un intento de explicación, esto es una llamada a la sensatez y a la responsabilidad, una vez que tenemos los datos, los pocos datos que conocemos de este virus. La responsabilidad no es solo no sentir pánico, que también, sino pensar en los demás, que suelen ser, siempre, los más cercanos.

Bueno, esta es mi opinión.

Margarita del Val
Doctora en Química
CBMSO-CSIC-UAM
Recomendación de lectura en este blog.



domingo, 23 de febrero de 2020

¿Cómo funciona un microscopio electrónico? - Francisco J. Terán

¿Cómo funciona un microscopio electrónico? ¿Existen microscopios basados en otras partículas fundamentales?
(Por Francisco J. Terán)

(Noviembre 2016)


Desde finales del siglo XVI, la microscopía se ha venido desarrollando como una rama de la ciencia con el fin de proporcionar tecnologías que faciliten la observación y el estudio de objetos demasiado pequeños de ser percibidos a simple vista. A día de hoy, no está del todo claro si la primera “mirada” de la microscopía fue puesta en el firmamento para estudiar esas “pequeñas luces” que allí brillan denominadas "astros" -Galileo Galilei no fue el pionero en la creación del telescopio pero si quien más lo mejoró y publicitó (1)- o en los microorganismos -Antonie van Leeuwenhoek fue pionero en microbiología por sus mejoras en el microscopio (2)-.La microscopía óptica, basada en el uso de luz, lentes y otros componentes ópticos, fue la primera en desarrollarse. Con ella se asentaron buena parte de los fundamentos generales para otras microscopías que también emplean ondas para sondear la materia en la escala submicrométrica. Así, se abrieron las puertas a grandes avances en distintas áreas de la ciencia, desde el estudio de la célula a las propiedades de la luz o la materia. Esto último fue clave para el descubrimiento de ciertas leyes de la física a partir de las cuales han surgido microscopías como la electrónica, permitiendo la visualización y manipulación de objetos en la escala del nanómetro (1 nm = 10-9 m). A principios del siglo XX, de Broglie (3) enunció el carácter ondulatorio del electrón. La "óptica electrónica" superó las limitaciones de la microscopía óptica en el rango visible (400-700 nm) gracias a que de Broglie relacionó la longitud de onda del electrón con su energía cinética (𝜆dB=h/p, donde h es la constante de Planck y p el módulo del momento del electrón). De esta forma, acelerando al electrón (i.e. aumentando p) se puede reducir 𝜆dB varios órdenes de magnitud. Consecuentemente, se pueden lograr aumentos del orden de x106 con una resolución espacial del orden del angstrom (1 Å= 10-10 m), valores muy alejados de los que ofrece la microscopía óptica tanto en aumentos (~x103) como en resolución espacial (~200 nm).

A continuación describiremos los fundamentos básicos de las modalidades más relevantes de la microscopía electrónica. Para finalizar, haremos mención a otras microscopías basadas en el carácter ondulatorio de otras partículas.


1        Así funciona un microscopio electrónico

En la actualidad, la microscopía electrónica es una técnica ampliamente extendida para caracterizar formas, dimensiones, superficies y composición química de la materia en la escala del nanómetro. A pesar de compartir fundamentos ondulatorios teóricos con la microscopía óptica, la electrónica  implica una tecnología mucho más compleja. La microscopía electrónica posee principalmente tres modalidades: microscopía electrónica de barrido (en inglés Scanning Electron Microscope, SEM), transmisión (en inglés, Transmission Electron Microscopy, TEM), o de efecto túnel (Scaning Tunelling Microscope, STM). De estas, se derivan a su vez otras modalidades subyacentes como la microscopía electrónica de transmisión en barrido (en inglés, scanning transmission electron microscope) o la microscopía electrónica de reflexión (en inglés, reflection electron microscope).

Históricamente, el primer microscopio electrónico se desarrolló en los años 30 del siglo XX. Ernst Ruska desarrollo en Alemania el TEM  cuyo diseño original mantiene en la actualidad las partes principales. En su origen, el desarrollo del TEM se benefició además de la demostración por Ruska que un electroimán actúa como una lente electrónica. Ambos avances, la capacidad de controlar la energía del electrón (i.e., 𝜆dB), y de generar un haz de electrones de trayectoria variable, hicieron posible la construcción el primer TEM en 1933. Siemens inicio su comercialización en 1939. De esta manera se inició el estudio de objetos cuyas dimensiones están en la escala del nm, que no ha parado hasta hoy.  En paralelo al desarrollo del TEM, Manfred von Ardenne inventa en 1937 el SEM apoyándose en descubrimientos de Max Knoll, quien también participo en la invención del TEM. El funcionamiento del SEM se basa en el barrido de una región espacial mientras incide un haz de electrones. Así, se puede estudiar superficies en base al análisis de la interacción de los electrones con la superficie, por ejemplo, analizando los electrones secundarios emitidos por los átomos de la superficie. Finalmente, en 1981 Gerd Binnig y Heinrich Rohrer desarrollan el STM, un microscopio electrónico basado en el efecto túnel, un fenómeno cuántico que permite a un electrón atravesar una barrera de  potencial mayor que su energía cinética. Es decir, permitir el paso de una corriente de electrones desde el último átomo de una punta metálica a otro ubicado sobre la superficie de la muestra (metálica o semiconductora). Esto es posible cuando la distancia entre la punta y la muestra es de unos pocos Å  y se aplica una tensión generalmente inferior a tres voltios entre la punta y la muestra (4). De esta forma se pueden obtener imágenes sin precedentes de átomos individuales en superficies con una resolución inferior a 1 Å, tanto lateral como verticalmente. La clave de la sensibilidad STM reside en que la corriente túnel de electrones varía un orden de magnitud por Å de distancia punta a muestra. Pequeñas variaciones topográficas se traducen en grandes cambios de corriente. Debido a la naturaleza del propio efecto túnel, la corriente de electrones que "tunelean" desde la punta hasta los átomos de la superficie sondea orbitales electrónicos de valencia del átomo. Por tanto, la microscopía STM también da información de los orbitales electrónicos, permitiendo describir la estructura electrónica de las superficies. Pero la característica más fascinante del STM es la manipulación de la posición de átomos individuales, variando su ubicación espacial a voluntad (5). Uno de los componentes básicos del STM a los que debe su éxito y avance son los soportes piezoeléctricos sobre los que se montan las puntas. Estos soportes permiten mover la punta con total precisión distancias < 1 Å y mantenerla días con plena fiabilidad. Esta microscopía despierta un interés exclusivamente académico, para estudiar las propiedades de la materia relacionadas con la morfología de superficies, moléculas individuales, propiedades eléctricas y magnéticas de moléculas y átomos individuales, afinidades y enlaces electrónicos de átomos y moléculas individuales, síntesis de nuevos materiales, propiedades electrónicas de materiales topológicos, entre otros temas.

Como se señalaba anteriormente, las microscopías electrónicas (salvo la STM) se benefician de la modulación de 𝜆dB a través de aumentar el momento del electrón para alcanzar extraordinarios valores de resolución espacial y aumentos. Pero es sin duda, el análisis de los distintos procesos de interacción de un electrón con los átomos de la muestra en estudio lo que marca la mayor diferencia con la microscopía óptica (ver figura 1). Así, las microscopías SEM y TEM son las técnicas de caracterización estructural y composicional de nanomateriales más empleadas tanto por científicos como por  ingenieros. Ambas tienen similitudes y diferencias en su tecnología. Las similitudes son en cuanto al uso de fuentes de electrones para generar el haz, lentes electromagnéticas para focalizarlo en una determinada ubicación espacial de la muestra, y sistemas de vacío (vacío más alto para TEM) para minimizar la desviación del haz a fin de mejorar la nitidez de la imagen. Por un lado, la generación del haz de electrones emplea habitualmente filamentos de tungsteno o dispositivos de efecto campo con el fin de crear haces de electrones coherentes que mejoren el contraste de la imagen. Tras la generación del haz de electrones en la fuente, se les somete a un alto voltaje con respecto a la muestra para dotarles de un momento p definido. Estos valores de voltaje suelen ser de unos  ~100 kV para un TEM estándar hasta 200 kV para un TEM de alta resolución. En el caso del SEM, el voltaje aplicado es inferior a los 40 kV. Por otro lado, las lentes electromagnéticas se basan en la fuerza que ejerce un campo magnético sobre una carga eléctrica que se mueve con una determinada energía cinética = q𝜈͞ x   . También, los campos eléctricos pueden deflectar un ángulo fijo la trayectoria de un electrón. La aplicación de una fuerza magnética y/o eléctrica permite desplazar lateralmente la trayectoria de un haz de electrones para focalizarlo en una posición especial determinada. Para ello, se requiere que la muestra esté en un vacío cuya presión típica oscile entre 10-4 y 10-8 Pa. La necesidad de vacío en la cámara de la muestra limita consecuentemente tanto el modo de introducir las muestras como su preparación. Así por ejemplo, las muestras biológicas (que poseen un gran contenido en agua) requieren ser inmovilizadas en resinas plásticas (fijación química, intercambio de agua e inclusión en resina) o ser preservadas en frío (crío-fijación) para no alterar las condiciones de vacío.

Por el contrario, los SEM y TEM poseen grandes diferencian en cuanto al tipo de muestras que pueden estudiar y a su preparación. Por un lado, las muestras SEM  han de ser conductoras o de lo contrario ser metalizadas para evitar acumulación de electrones (carga) lo cual altera la calidad de la imagen. Por otro lado, las muestras TEM pueden ser cualquier tipo de muestras amorfas, cristalinas, biológicas, etc. Su única condición es que el espesor ha de ser ultrafino (inferior a 500 nm) para permitir la transmisión de electrones a través. También, las técnicas de visualización de imágenes son distintas para el SEM y TEM ya que analizan diferentes procesos de interacción electrón-materia (ver figura 1), sean relacionados con la transmisión (TEM) o con la difusión (SEM) del electrón sobre la muestra. Así, el TEM proporciona imágenes de mayor resolución (hasta 3 Å cuando la aberración esférica de tercer orden está corregida (6)) que son una proyección bidimensional generada por la superposición de las funciones de ondas de los electrones que atraviesan la muestra. Sin embargo un SEM proporciona imágenes tridimensionales de la superficie pero con una menor resolución espacial (~10 nm). A los correspondientes sistemas de visualización SEM y TEM, se les puede complementar con otro tipo de análisis (rayos X, catodoluminescencia, pérdidas de energía del electrón, procesos Auger, electrones secundarios, etc.…) que proporcionan valiosa información sobre la muestra (composición química, número atómico, estado electrónico). En la actualidad, la gran revolución ha llegado de la mano de los detectores directos de electrones, que han permitido la toma de datos con mucha menor intensidad del haz y mejor contraste. Tradicionalmente, los histogramas o imágenes de SEM y TEM se han venido haciendo en blanco y negro, porque la técnica elimina los matices cromáticos. Recientemente se ha logrado la manera de colorear dichas imágenes empleando un detector que captura los electrones que devuelven los iones en color (7). También, por el avance informático que permite controlar y analizar imágenes en las que se combinan imágenes morfológicas con "mapeados" de la muestra en relación a distintos análisis (por ejemplo, presencia de un elemento químico). La llegada de las cámaras CCD y la mejora en la informática permitió la automatización de los procesos de visualización de imágenes y de control de los componentes del microscopio.

(pinchar en la imagen para aumentar)
Figura 1: Representación esquemática de las distintas modalidades de interacción de un haz de electrones y la materia.


2        Otras microscopías basadas en otras partículas fundamentales

Como hemos mencionado anteriormente, la microscopía electrónica se basa en el carácter ondulatorio del electrón para el análisis de la materia. No existen otras microscopías alternativas basadas en el carácter ondulatorio de otras partículas fundamentales con carga por la dificultad en las condiciones de su generación  y la imposibilidad de desarrollar fuentes (estas partículas se generan típicamente en instalaciones de alta energía). Sin embargo, si ha sido posible desarrollar microscopios que emplean haces de partículas más pesadas, como son los iones de gases nobles (He, Ne, Ar), moléculas de hidrogeno (H2) o mezclas de ambos. La invención de la microscopía de iones de campo (en inglés, Field Ion Microscopy, FIM)  por  Erwin Wilhelm Müller en 1951 permite analizar superficies con una metodología similar a la del SEM (análisis de electrones secundarios). Sin embargo, su resolución espacial (< 3 Å) es dos órdenes de  magnitud superior gracias a que la longitud de onda de los iones es más corta que la de los electrones. Otra de sus ventajas respecto al SEM es que la muestra no requiere ser un conductor eléctrico. Las generalidades del funcionamiento de un FIM son similares a las de un SEM, variando la fuente de ondas (iones), la refrigeración de muestra (a temperaturas entre 10 y 150 K) que está colocada en un soporte redondeado (de radio entre 10 y 100 nm) y el sistema de visualización de la superficie de la muestra que incluye placas con microcanales para amplificar la señal de los iones dispersados. La versión más avanzada del FIM es la que emplea iones de He comercializado desde 2007 (8) debido a que los iones de He no alteran la muestra en estudio por la ligera masa del He. Finalmente, mencionar que si bien la microscopía óptica se basa en luz visible, luz de alta energía como son los Rayos X (con longitudes de onda 2-4 nm, cien veces más pequeña que la luz visible) ofrece una resolución espacial del orden de los 30 nm. En 1950, Sterling Newberry desarrolló el primer microscopio de rayos X que fue comercializado por General Electrics. A día de hoy, se han realizado versiones que permiten un barrido de la muestra (en inglés, Scanning X-Ray microscope)  y se benefician de las cámaras CCD y el avance de la informática para el control del microscopio, y el análisis de imágenes.


Notas:
1. Gribbin, John (2006). Historia de la ciencia. 1543-2001. Crítica, p. 82.
2. Finlay BJ1, Esteban GF. Int Microbiol. 2001 Sep;4(3):125-33.
3. Louis Victor de Broglie, RECHERCHES SUR LA THÉORIE DES QUANTA (Ann. de Phys., 10e  série, t. III  (Janvier-Février 1925).
4. Gerd Binnig and Heinrich Rohrer" Scanning tunneling microscopy—from birth to adolescence" Rev. Mod. Phys. 59, 615 – Published 1 July 1987.
5. Famosa es la imagen de STM con el texto "IBM" que escribieron con átomos  individuales los descubridores del STM mientras trabajaban en el Centro de Investigación IBM en Zürich (Suiza).
6. La aberración esférica es el óptico por excelencia en la limitación de la resolución espacial  del TEM y SEM.
7. Adams, Stephen R. et al., Cell Chemical Biology, Volume 23, Issue 11, 1417-1427
8. Orion Helium Ion Microscope, ZEISS Group

Francisco José Terán Garcinuño
Doctor en Ciencias Físicas
Investigador en iMdea Nanociencia



Francisco J. Terán


Licenciado en 1997 en Ciencias Físicas por la Universidad Autónoma de Madrid, obtuvo en 2001 el título de Doctor en Ciencias Físicas por la Université Joseph Fourier - Grenoble 1. Realizó varias estancias postdoctorales en la Universidad de Nottingham (Nottingham, Reino Unido), Laboratorio de Altos Campos Magnéticos CNRS/MPI-FKF (Grenoble, Francia), y la Universidad Autónoma de Madrid entre 2002 y 2007. Posteriormente, se incorporó como investigador senior en el Centro Tecnológico Gaiker antes de volver a Madrid en el Instituto de Estudios Avanzados en Nanociencia, donde desde 2012 lidera el Laboratorio de Hipertermia y el Servicio de Instrumentación.


Sus investigaciones se centran en el estudio de propiedades magnéticas de nanopartículas de óxidos de hierro para aplicaciones biomédicas (sensores, mediadores de calor y trazadores de imagen). Ha desarrollado numerosos prototipos para la caracterización de propiedades ópticas, electricas y magnéticas de nanomateriales. Es autor de más de 60 artículos científicos, un libro, y varios capítulos, y cuenta con decenas de comunicaciones a congresos internacionales.