Mostrando entradas con la etiqueta Ingeniería / Engineering. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ingeniería / Engineering. Mostrar todas las entradas

lunes, 6 de marzo de 2023

Arquímedes y la flotabilidad de los cuerpos sumergidos - Mario Sánchez Sanz

Arquímedes y la flotabilidad de los cuerpos sumergidos.
(Por Mario Sánchez Sanz)



(Noviembre 2016)



El “eureka” de Arquímedes es, con permiso de la manzana de Newton, el falso mito asociado a la ciencia más reconocible por todos nosotros. La imagen del joven matemático corriendo desnudo por la ciudad griega de Siracusa, con la falsa corona de oro del rey Hierón en la mano, es suficientemente sugerente como para dejar que la realidad estropee una buena historia.  Dejando de lado la anécdota, la contribución de Arquímedes fue de tal importancia que cualquier estudiante de secundaria es capaz de recitar de memoria el principio de Arquímedes:

“la fuerza de flotabilidad que aparece en un cuerpo sumergido es igual al peso del volumen de fluido que el cuerpo desaloja”.

Enunciado de esta manera es probable que nos preguntemos a nosotros mismos sí realmente entendemos su significado. Afortunadamente, todos hemos experimentado esa fuerza de flotabilidad de la que habla Arquímedes cuando nos bañamos en una piscina o en el mar.  Si recordamos el esfuerzo que nos requiere levantar un objeto pesado en el agua e intentamos repetir esa acción fuera de ella, nos daremos cuenta rápidamente que la sensación de ligereza del primer ejercicio no se debía a nuestras duras sesiones de gimnasio, sino a la ayuda que el fluido nos estaba prestando. Barcos, submarinos, boyas y un largo etcétera explican su funcionamiento a través del principio de Arquímedes.

A pesar de no ser mencionado, el concepto fundamental que subyace implícitamente en el enunciado del principio de Arquímedes es el de presión hidrostática. La presión se define como una fuerza por unidad de superficie y tiene unidades de Pascales o N/m2. Bajo un campo de presión constante, es posible calcular la fuerza que esa presión ejerce sobre una superficie de área S multiplicando el valor de la presión por S. Para campos de presiones variables, el cálculo de la fuerza implica, generalmente, el uso del cálculo integral y puede llegar a ser complicado en cuerpos con superficies irregulares.

Aunque nos hayamos acostumbrado a ella y no la notemos, la presión forma parte de nuestra vida diaria. Cuando caminamos por la calle y nos dirigimos a nuestros quehaceres diarios, nos olvidamos que nos movemos en el interior de un fluido, el aire. Al nivel del mar, cualquiera de nosotros siente una presión constante, que conocemos como presión atmosférica, generada por el peso de la ancha capa de aire que nos separa del espacio exterior. Si asumimos que el aire está quieto, es posible calcular la magnitud de esa presión multiplicando la densidad del aire (1.1 kg/m3 a 20 ºC) por la aceleración de la gravedad (9.81 m/s2) y por la anchura de la atmósfera (unos 9.5 km, aproximadamente) para obtener un número que se acerca a 101300 N/m2 o 1 atmósfera de presión. Cuanto mayor sea el espesor de la capa de aire o mayor sea la densidad del aire, mayor será la presión que tenemos que soportar. Lo contrario ocurre cuando disminuimos la densidad del aire o disminuye el espesor de la capa de aire que tenemos sobre nosotros, como bien saben los montañeros que sufren de “mal de altura” debido a la disminución de la presión atmosférica al ascender por encima de los 4000 o 5000 metros. La densidad del fluido es fundamental a la hora de determinar cómo cambia la presión. Como acabamos de describir, para encontrar variaciones notables en la presión atmosférica necesitamos variar la anchura de la capa de aire sobre nosotros en cantidades cercanas al kilómetro. Eso no ocurre si estudiamos como cambia la presión en el agua a medida que nos sumergimos en ella. Aunque los principios que explican los cambios de presión son los mismos, el incremento de presión con la profundidad es mucho más rápido en el agua debido a que su densidad r=1000 kg/m3 es casi 1000 veces superior a la densidad del aire r=1.1 kg/m3. Así, cada vez que nos sumergimos 10 metros en el mar, la presión aumenta en aproximadamente una atmósfera [1].

Para entender el principio de Arquímedes vamos a realizar un sencillo experimento mental. Para ello vamos a sumergir, en agua, un cubo de Rubik. Este juguete, en el que muchos hemos invertido muchas más horas de las que deberíamos en épocas de exámenes, no es más que un prisma cuadrado con una longitud de lado “𝐿” conocida. Para estudiar en qué consiste la fuerza de la flotabilidad, sumergimos el cubo en un fluido de tal forma que dos de sus caras permanezcan paralelas a la superficie. Para medir la profundidad a la que colocamos el cubo, situamos nuestro sistema de referencia en la superficie de agua de forma que la profundidad la definimos como la distancia vertical medida desde la superficie del agua hasta la cara superior del cubo. Como ya hemos visto anteriormente, la presión aumenta a medida que sumergimos el cubo a una mayor profundidad, de forma que si la distancia entre la cara superior del cubo y la superficie del agua es “”, la presión a la que se ve sometida esa cara del cubo será 𝑝 = 𝜌𝑔ℎ. Esa presión induce una fuerza vertical 𝐹𝑠 = ― 𝜌𝑔ℎ𝐿², donde el signo negativo indica que la fuerza tiende a desplazar el cubo hacia aguas más profundas. Si repetimos el ejercicio sobre la cara inferior, la presión en esa cara será 𝑝 = 𝜌𝑔(ℎ + 𝐿) y la fuerza asociada 𝐹𝑖=𝜌𝑔(ℎ + 𝐿)𝐿², en este caso con signo positivo porque esa fuerza trata de desplazar al cubo hacia la superficie del fluido. Sumando ambas fuerzas, obtenemos la fuerza vertical neta inducida por el campo de presiones sobre nuestro cubo de Rubik para dar 𝐹 = 𝐹𝑠 + 𝐹𝑖 = 𝜌𝑔𝐿³, magnitud positiva que representa el peso del volumen de agua desalojado por el cubo, cuyo volumen es 𝐿³.

La fuerza neta 𝐹 que acabamos de calcular, conocida también como la fuerza de flotabilidad, es independiente de la profundidad a la que coloquemos nuestro cubo y será siempre la misma si el cubo está completamente sumergido. Obviamente, para saber si eso va a ser así, tenemos que tener en cuenta que el cubo tiene un peso 𝑊. Si consideramos que el material del que está hecho el cubo tiene una densidad 𝜌𝑐, su peso lo podemos expresar como 𝑊 = ―𝜌𝑐𝑔𝐿³   donde el signo negativo indica que la esa fuerza intenta desplazar al cubo hacia profundidades mayores. Teniendo en cuenta que sobre el cubo únicamente actúan estás dos fuerzas, la segunda ley de Newton nos permite determinar la dirección hacia la cual se desplazará nuestro prisma en función del signo del resultado de la suma de nuestras dos fuerzas  𝐹 + 𝑊 =(𝜌―𝜌𝑐)𝑔𝐿³:

1) Si la suma de las dos fuerzas resulta ser idénticamente nula, nuestro cubo se encuentra en equilibrio y se quedará, hasta el final de los tiempos, en la misma posición en la que lo hemos colocado inicialmente. Esto ocurre únicamente si las densidades del fluido y del cuerpo que hemos sumergido son idénticas 𝜌 = 𝜌𝑐.

2) Si la suma es positiva, el resultado indicaría que la fuerza de flotabilidad 𝐹 es mayor que el peso y el cubo se desplazaría hacia la superficie del agua, donde quedaría parcialmente sumergido hasta que la fuerza de flotabilidad igualara al peso. Este caso representa lo que ocurre con los barcos y lo analizaremos con más detalle un poco más abajo.

3) Si la suma es negativa, la fuerza de flotabilidad no es suficiente para compensar al peso del cubo y éste se hundiría irremediablemente hasta llegar al fondo del mar.

El caso número 2, en el que el cubo queda parcialmente sumergido en la superficie del agua, podemos utilizarlo para entender por qué flotan los barcos. Claro, hasta el momento ya sabemos que cuando el cubo se encuentra completamente sumergido, la fuerza de flotabilidad 𝐹 se calcula tal y como hemos indicado más arriba. Si la densidad del material del que está hecho el cubo es más pequeña que la densidad del fluido en el que el cubo está inmerso 𝜌 > 𝜌𝑐, el cubo asciende hasta alcanzar la superficie donde permanece parcialmente sumergido. Para obtener la proporción del cubo que queda bajo el agua solo tenemos que igualar las dos fuerzas y obtener el volumen del cubo que debería estar sumergido para que la fuerza de flotabilidad igual al peso, que resulta ser  (𝜌𝑐 / 𝜌)𝐿³< 𝐿³. Cuanto mayor sea la densidad del fluido respecto a la densidad del cubo, menor será el volumen del cubo que queda sumergido.

El resultado que hemos obtenido anteriormente se puede generalizar para cuerpos con geometrías más complejas que la del cubo de Rubik que hemos usado nosotros. Es posible demostrar, con ayuda del cálculo integral y del teorema de Gauss, que la fuerza de flotabilidad se puede expresar, de forma general, como 𝐹 = 𝜌𝑔𝑉, donde 𝑉 representan el volumen del cuerpo que está sumergido en el fluido que consideremos. La construcción de barcos, desde la antigüedad, se basa en esta idea. El diseño trata de buscar  minimizar el peso del barco, usando para ello materiales lo más ligeros posibles, maximizando la flotabilidad con un diseño apropiado del casco del barco. Obviamente, no es lo mismo el diseño de un barco que se mueve a baja velocidad que uno pensado para desplazamientos rápidos, donde el casco se eleva para disminuir la superficie de contacto con el agua reduciendo, de esta forma, la resistencia que el líquido presenta al desplazamiento del barco. En barcos lentos, como pueden ser los barcos de transporte de mercancías, el buque navegando desplaza prácticamente el mismo volumen de agua sumergida que en parado.

Una de las aplicaciones más espectaculares del principio de Arquímedes es, sin duda, el submarino. Concebido por Isaac Peral en 1884, el primer submarino construido fue botado  en 1888 consiguiendo, tras unos pocos ensayos, simular el ataque a un navío durante la noche volviendo a puerto sin ser detectado. Unos años más tarde, su diseño fue mejorado por John Phillip Holland sustituyendo las baterías que Peral instaló como sistema de propulsión por un motor de combustión interna.

El principio de funcionamiento del submarino es conceptualmente sencillo. Está compuesto por un doble casco que forma una cámara que puede llenarse de aire o agua en función de si se quiere que el submarino descienda o ascienda. Cuando el submarino se encuentra en flotación, se introduce agua dentro de esa cámara aumentando, así, su peso. Puesto que la flotabilidad depende del volumen del casco interior, a medida que se llena de agua la cámara conseguimos un desplazamiento controlado hacia aguas más profundas. Por el contrario, para ascender, se vacía de agua la cámara formada por los dos cascos llenándola de aire comprimido. Con esta sencilla maniobra, se consigue disminuir el peso y aumentar la flotabilidad del  submarino. A medida que el submarino desciende a mayores profundidades, la presión que debe soportar el casco es mayor. En el diseño de submarinos se define la máxima profundidad de operación y la profundidad de colapso. La primera marca la máxima profundidad a la que el submarino podría sumergirse para operación normal mientras la segunda es la profundidad a la que el casco del submarino fallaría por colapso estructural. Los submarinos atómicos modernos de la clase Seawolf son capaces de alcanzar profundidades de operación de 490 metros [2] (47.4 atmósferas de presión) y profundidades de colapso de 730 metros (70 atmósferas de presión).

En el año 2012, el director de cine James Cameron descendió, con la ayuda de un submarino especialmente diseñado para soportar altas presiones, hasta los 11000 metros de profundidad. El batiscafo que le protegía soportó cerca de 1064 atmósferas de presión.

De forma rutinaria, ciertos mamíferos marinos alcanzan 1500 metros de profundidad en busca de alimento. Como hemos aprendido anteriormente, el balance entre la flotabilidad y el peso determina la profundidad a la que un cuerpo sumergido encuentra el equilibrio. Por una razón u otra, peces y mamíferos marinos se ven obligado a modificar la profundidad a la que nadan, acción que, en principio, implicaría un esfuerzo muscular y un consumo de energía. Para entender este hecho, recurro una vez más al ejemplo de la piscina para que el lector experimente en su propio cuerpo el esfuerzo que es necesario realizar para mantener la profundidad de inmersión. Claro, si no podemos cambiar nuestro peso y no podemos modificar nuestra flotabilidad, la única manera de permanece estacionarios a una distancia de la superficie es nadando, es decir, realizando una fuerza que compense el exceso de peso, que nos llevaría al fondo, o de flotabilidad, que nos llevaría a la superficie.

Los peces y mamíferos marinos han desarrollado un órgano extraordinario que permite modificar su densidad e igualarla a la del agua que les rodea para evitar malgastar energía en mantener su profundidad. La vejiga natatoria es un órgano de flotación con paredes flexibles, que se sitúa en la columna vertebral y que permite modificar la densidad del pez introduciendo aire en ella cada vez que acceden a la superficie del agua. Para modificar su densidad, expulsan poco a poco el aire de la vejiga hasta llegar a la profundidad deseada. De esa manera, solo es necesario hacer un esfuerzo muscular para regresar a la superficie del agua,  donde llenaría de nuevo su vejiga para volver a sumergirse.

                                                

Notas: 

[1] Claro, como la densidad del agua es  𝜌=1000 kg/m³, para que la presión aumente en una atmósfera, el espesor de la columna de agua sobre nosotros debe ser  𝑧 = 101300/(1000·9.8) = 10.33 𝑚 .

[2] Federation of American Scientists (8 December 1998). "Run Silent, Run Deep"Military Analysis Network. Retrieved 10 May 2010.

 

 

Mario Sánchez Sanz

Doctor en Ingeniería Matemática

Profesor Titular, Universidad Carlos III de Madrid

 




Doctor en Ingeniería Matemática por la Universidad Carlos III de Madrid en 2007. Ese mismo año se incorporó a la ETSI Aeronáuticos de la Universidad Politécnica de Madrid tras recibir una beca Juan de la Cierva.

Tras varias estancias de investigación en la Universidad de East Anglia (Norwich, UK), en la Universidad de Yale (New Haven, USA), en la Universidad de California en Berkeley (Berkeley, USA) y en la Universidad California en San Diego (San Diego, USA) , se incorporó como profesor titular de Mecánica de Fluidos en la Universidad Carlos III en Junio de 2012.

Su investigación se centra en la mejora de la eficiencia de la combustión de biocombustibles y combustibles fósiles, la dinámica de gases reactivos y no reactivos y los sistemas de producción de potencia portátil (MEMS, baterías sin membrana).

domingo, 23 de febrero de 2020

¿Cómo funciona un microscopio electrónico? - Francisco J. Terán

¿Cómo funciona un microscopio electrónico? ¿Existen microscopios basados en otras partículas fundamentales?
(Por Francisco J. Terán)

(Noviembre 2016)


Desde finales del siglo XVI, la microscopía se ha venido desarrollando como una rama de la ciencia con el fin de proporcionar tecnologías que faciliten la observación y el estudio de objetos demasiado pequeños de ser percibidos a simple vista. A día de hoy, no está del todo claro si la primera “mirada” de la microscopía fue puesta en el firmamento para estudiar esas “pequeñas luces” que allí brillan denominadas "astros" -Galileo Galilei no fue el pionero en la creación del telescopio pero si quien más lo mejoró y publicitó (1)- o en los microorganismos -Antonie van Leeuwenhoek fue pionero en microbiología por sus mejoras en el microscopio (2)-.La microscopía óptica, basada en el uso de luz, lentes y otros componentes ópticos, fue la primera en desarrollarse. Con ella se asentaron buena parte de los fundamentos generales para otras microscopías que también emplean ondas para sondear la materia en la escala submicrométrica. Así, se abrieron las puertas a grandes avances en distintas áreas de la ciencia, desde el estudio de la célula a las propiedades de la luz o la materia. Esto último fue clave para el descubrimiento de ciertas leyes de la física a partir de las cuales han surgido microscopías como la electrónica, permitiendo la visualización y manipulación de objetos en la escala del nanómetro (1 nm = 10-9 m). A principios del siglo XX, de Broglie (3) enunció el carácter ondulatorio del electrón. La "óptica electrónica" superó las limitaciones de la microscopía óptica en el rango visible (400-700 nm) gracias a que de Broglie relacionó la longitud de onda del electrón con su energía cinética (𝜆dB=h/p, donde h es la constante de Planck y p el módulo del momento del electrón). De esta forma, acelerando al electrón (i.e. aumentando p) se puede reducir 𝜆dB varios órdenes de magnitud. Consecuentemente, se pueden lograr aumentos del orden de x106 con una resolución espacial del orden del angstrom (1 Å= 10-10 m), valores muy alejados de los que ofrece la microscopía óptica tanto en aumentos (~x103) como en resolución espacial (~200 nm).

A continuación describiremos los fundamentos básicos de las modalidades más relevantes de la microscopía electrónica. Para finalizar, haremos mención a otras microscopías basadas en el carácter ondulatorio de otras partículas.


1        Así funciona un microscopio electrónico

En la actualidad, la microscopía electrónica es una técnica ampliamente extendida para caracterizar formas, dimensiones, superficies y composición química de la materia en la escala del nanómetro. A pesar de compartir fundamentos ondulatorios teóricos con la microscopía óptica, la electrónica  implica una tecnología mucho más compleja. La microscopía electrónica posee principalmente tres modalidades: microscopía electrónica de barrido (en inglés Scanning Electron Microscope, SEM), transmisión (en inglés, Transmission Electron Microscopy, TEM), o de efecto túnel (Scaning Tunelling Microscope, STM). De estas, se derivan a su vez otras modalidades subyacentes como la microscopía electrónica de transmisión en barrido (en inglés, scanning transmission electron microscope) o la microscopía electrónica de reflexión (en inglés, reflection electron microscope).

Históricamente, el primer microscopio electrónico se desarrolló en los años 30 del siglo XX. Ernst Ruska desarrollo en Alemania el TEM  cuyo diseño original mantiene en la actualidad las partes principales. En su origen, el desarrollo del TEM se benefició además de la demostración por Ruska que un electroimán actúa como una lente electrónica. Ambos avances, la capacidad de controlar la energía del electrón (i.e., 𝜆dB), y de generar un haz de electrones de trayectoria variable, hicieron posible la construcción el primer TEM en 1933. Siemens inicio su comercialización en 1939. De esta manera se inició el estudio de objetos cuyas dimensiones están en la escala del nm, que no ha parado hasta hoy.  En paralelo al desarrollo del TEM, Manfred von Ardenne inventa en 1937 el SEM apoyándose en descubrimientos de Max Knoll, quien también participo en la invención del TEM. El funcionamiento del SEM se basa en el barrido de una región espacial mientras incide un haz de electrones. Así, se puede estudiar superficies en base al análisis de la interacción de los electrones con la superficie, por ejemplo, analizando los electrones secundarios emitidos por los átomos de la superficie. Finalmente, en 1981 Gerd Binnig y Heinrich Rohrer desarrollan el STM, un microscopio electrónico basado en el efecto túnel, un fenómeno cuántico que permite a un electrón atravesar una barrera de  potencial mayor que su energía cinética. Es decir, permitir el paso de una corriente de electrones desde el último átomo de una punta metálica a otro ubicado sobre la superficie de la muestra (metálica o semiconductora). Esto es posible cuando la distancia entre la punta y la muestra es de unos pocos Å  y se aplica una tensión generalmente inferior a tres voltios entre la punta y la muestra (4). De esta forma se pueden obtener imágenes sin precedentes de átomos individuales en superficies con una resolución inferior a 1 Å, tanto lateral como verticalmente. La clave de la sensibilidad STM reside en que la corriente túnel de electrones varía un orden de magnitud por Å de distancia punta a muestra. Pequeñas variaciones topográficas se traducen en grandes cambios de corriente. Debido a la naturaleza del propio efecto túnel, la corriente de electrones que "tunelean" desde la punta hasta los átomos de la superficie sondea orbitales electrónicos de valencia del átomo. Por tanto, la microscopía STM también da información de los orbitales electrónicos, permitiendo describir la estructura electrónica de las superficies. Pero la característica más fascinante del STM es la manipulación de la posición de átomos individuales, variando su ubicación espacial a voluntad (5). Uno de los componentes básicos del STM a los que debe su éxito y avance son los soportes piezoeléctricos sobre los que se montan las puntas. Estos soportes permiten mover la punta con total precisión distancias < 1 Å y mantenerla días con plena fiabilidad. Esta microscopía despierta un interés exclusivamente académico, para estudiar las propiedades de la materia relacionadas con la morfología de superficies, moléculas individuales, propiedades eléctricas y magnéticas de moléculas y átomos individuales, afinidades y enlaces electrónicos de átomos y moléculas individuales, síntesis de nuevos materiales, propiedades electrónicas de materiales topológicos, entre otros temas.

Como se señalaba anteriormente, las microscopías electrónicas (salvo la STM) se benefician de la modulación de 𝜆dB a través de aumentar el momento del electrón para alcanzar extraordinarios valores de resolución espacial y aumentos. Pero es sin duda, el análisis de los distintos procesos de interacción de un electrón con los átomos de la muestra en estudio lo que marca la mayor diferencia con la microscopía óptica (ver figura 1). Así, las microscopías SEM y TEM son las técnicas de caracterización estructural y composicional de nanomateriales más empleadas tanto por científicos como por  ingenieros. Ambas tienen similitudes y diferencias en su tecnología. Las similitudes son en cuanto al uso de fuentes de electrones para generar el haz, lentes electromagnéticas para focalizarlo en una determinada ubicación espacial de la muestra, y sistemas de vacío (vacío más alto para TEM) para minimizar la desviación del haz a fin de mejorar la nitidez de la imagen. Por un lado, la generación del haz de electrones emplea habitualmente filamentos de tungsteno o dispositivos de efecto campo con el fin de crear haces de electrones coherentes que mejoren el contraste de la imagen. Tras la generación del haz de electrones en la fuente, se les somete a un alto voltaje con respecto a la muestra para dotarles de un momento p definido. Estos valores de voltaje suelen ser de unos  ~100 kV para un TEM estándar hasta 200 kV para un TEM de alta resolución. En el caso del SEM, el voltaje aplicado es inferior a los 40 kV. Por otro lado, las lentes electromagnéticas se basan en la fuerza que ejerce un campo magnético sobre una carga eléctrica que se mueve con una determinada energía cinética = q𝜈͞ x   . También, los campos eléctricos pueden deflectar un ángulo fijo la trayectoria de un electrón. La aplicación de una fuerza magnética y/o eléctrica permite desplazar lateralmente la trayectoria de un haz de electrones para focalizarlo en una posición especial determinada. Para ello, se requiere que la muestra esté en un vacío cuya presión típica oscile entre 10-4 y 10-8 Pa. La necesidad de vacío en la cámara de la muestra limita consecuentemente tanto el modo de introducir las muestras como su preparación. Así por ejemplo, las muestras biológicas (que poseen un gran contenido en agua) requieren ser inmovilizadas en resinas plásticas (fijación química, intercambio de agua e inclusión en resina) o ser preservadas en frío (crío-fijación) para no alterar las condiciones de vacío.

Por el contrario, los SEM y TEM poseen grandes diferencian en cuanto al tipo de muestras que pueden estudiar y a su preparación. Por un lado, las muestras SEM  han de ser conductoras o de lo contrario ser metalizadas para evitar acumulación de electrones (carga) lo cual altera la calidad de la imagen. Por otro lado, las muestras TEM pueden ser cualquier tipo de muestras amorfas, cristalinas, biológicas, etc. Su única condición es que el espesor ha de ser ultrafino (inferior a 500 nm) para permitir la transmisión de electrones a través. También, las técnicas de visualización de imágenes son distintas para el SEM y TEM ya que analizan diferentes procesos de interacción electrón-materia (ver figura 1), sean relacionados con la transmisión (TEM) o con la difusión (SEM) del electrón sobre la muestra. Así, el TEM proporciona imágenes de mayor resolución (hasta 3 Å cuando la aberración esférica de tercer orden está corregida (6)) que son una proyección bidimensional generada por la superposición de las funciones de ondas de los electrones que atraviesan la muestra. Sin embargo un SEM proporciona imágenes tridimensionales de la superficie pero con una menor resolución espacial (~10 nm). A los correspondientes sistemas de visualización SEM y TEM, se les puede complementar con otro tipo de análisis (rayos X, catodoluminescencia, pérdidas de energía del electrón, procesos Auger, electrones secundarios, etc.…) que proporcionan valiosa información sobre la muestra (composición química, número atómico, estado electrónico). En la actualidad, la gran revolución ha llegado de la mano de los detectores directos de electrones, que han permitido la toma de datos con mucha menor intensidad del haz y mejor contraste. Tradicionalmente, los histogramas o imágenes de SEM y TEM se han venido haciendo en blanco y negro, porque la técnica elimina los matices cromáticos. Recientemente se ha logrado la manera de colorear dichas imágenes empleando un detector que captura los electrones que devuelven los iones en color (7). También, por el avance informático que permite controlar y analizar imágenes en las que se combinan imágenes morfológicas con "mapeados" de la muestra en relación a distintos análisis (por ejemplo, presencia de un elemento químico). La llegada de las cámaras CCD y la mejora en la informática permitió la automatización de los procesos de visualización de imágenes y de control de los componentes del microscopio.

(pinchar en la imagen para aumentar)
Figura 1: Representación esquemática de las distintas modalidades de interacción de un haz de electrones y la materia.


2        Otras microscopías basadas en otras partículas fundamentales

Como hemos mencionado anteriormente, la microscopía electrónica se basa en el carácter ondulatorio del electrón para el análisis de la materia. No existen otras microscopías alternativas basadas en el carácter ondulatorio de otras partículas fundamentales con carga por la dificultad en las condiciones de su generación  y la imposibilidad de desarrollar fuentes (estas partículas se generan típicamente en instalaciones de alta energía). Sin embargo, si ha sido posible desarrollar microscopios que emplean haces de partículas más pesadas, como son los iones de gases nobles (He, Ne, Ar), moléculas de hidrogeno (H2) o mezclas de ambos. La invención de la microscopía de iones de campo (en inglés, Field Ion Microscopy, FIM)  por  Erwin Wilhelm Müller en 1951 permite analizar superficies con una metodología similar a la del SEM (análisis de electrones secundarios). Sin embargo, su resolución espacial (< 3 Å) es dos órdenes de  magnitud superior gracias a que la longitud de onda de los iones es más corta que la de los electrones. Otra de sus ventajas respecto al SEM es que la muestra no requiere ser un conductor eléctrico. Las generalidades del funcionamiento de un FIM son similares a las de un SEM, variando la fuente de ondas (iones), la refrigeración de muestra (a temperaturas entre 10 y 150 K) que está colocada en un soporte redondeado (de radio entre 10 y 100 nm) y el sistema de visualización de la superficie de la muestra que incluye placas con microcanales para amplificar la señal de los iones dispersados. La versión más avanzada del FIM es la que emplea iones de He comercializado desde 2007 (8) debido a que los iones de He no alteran la muestra en estudio por la ligera masa del He. Finalmente, mencionar que si bien la microscopía óptica se basa en luz visible, luz de alta energía como son los Rayos X (con longitudes de onda 2-4 nm, cien veces más pequeña que la luz visible) ofrece una resolución espacial del orden de los 30 nm. En 1950, Sterling Newberry desarrolló el primer microscopio de rayos X que fue comercializado por General Electrics. A día de hoy, se han realizado versiones que permiten un barrido de la muestra (en inglés, Scanning X-Ray microscope)  y se benefician de las cámaras CCD y el avance de la informática para el control del microscopio, y el análisis de imágenes.


Notas:
1. Gribbin, John (2006). Historia de la ciencia. 1543-2001. Crítica, p. 82.
2. Finlay BJ1, Esteban GF. Int Microbiol. 2001 Sep;4(3):125-33.
3. Louis Victor de Broglie, RECHERCHES SUR LA THÉORIE DES QUANTA (Ann. de Phys., 10e  série, t. III  (Janvier-Février 1925).
4. Gerd Binnig and Heinrich Rohrer" Scanning tunneling microscopy—from birth to adolescence" Rev. Mod. Phys. 59, 615 – Published 1 July 1987.
5. Famosa es la imagen de STM con el texto "IBM" que escribieron con átomos  individuales los descubridores del STM mientras trabajaban en el Centro de Investigación IBM en Zürich (Suiza).
6. La aberración esférica es el óptico por excelencia en la limitación de la resolución espacial  del TEM y SEM.
7. Adams, Stephen R. et al., Cell Chemical Biology, Volume 23, Issue 11, 1417-1427
8. Orion Helium Ion Microscope, ZEISS Group

Francisco José Terán Garcinuño
Doctor en Ciencias Físicas
Investigador en iMdea Nanociencia



Francisco J. Terán


Licenciado en 1997 en Ciencias Físicas por la Universidad Autónoma de Madrid, obtuvo en 2001 el título de Doctor en Ciencias Físicas por la Université Joseph Fourier - Grenoble 1. Realizó varias estancias postdoctorales en la Universidad de Nottingham (Nottingham, Reino Unido), Laboratorio de Altos Campos Magnéticos CNRS/MPI-FKF (Grenoble, Francia), y la Universidad Autónoma de Madrid entre 2002 y 2007. Posteriormente, se incorporó como investigador senior en el Centro Tecnológico Gaiker antes de volver a Madrid en el Instituto de Estudios Avanzados en Nanociencia, donde desde 2012 lidera el Laboratorio de Hipertermia y el Servicio de Instrumentación.


Sus investigaciones se centran en el estudio de propiedades magnéticas de nanopartículas de óxidos de hierro para aplicaciones biomédicas (sensores, mediadores de calor y trazadores de imagen). Ha desarrollado numerosos prototipos para la caracterización de propiedades ópticas, electricas y magnéticas de nanomateriales. Es autor de más de 60 artículos científicos, un libro, y varios capítulos, y cuenta con decenas de comunicaciones a congresos internacionales.

jueves, 13 de febrero de 2020

Fusión Termonuclear ¿cuestión tecnológica, económica o política? - Julio Gutiérrez Muñoz

¿Se llegará a obtener energía gracias a la Fusión Termonuclear controlada? ¿Es una cuestión tecnológica, económica o política?
(Por Julio Gutiérrez Muñoz)

(Noviembre 2016)


Antes de comenzar a analizar estas preguntas, conviene dar unas pinceladas sobre qué es la Fusión Termonuclear y su nomenclatura habitual.

Las altas temperaturas necesarias para vencer la repulsión eléctrica de los núcleos a fusionar para obtener energía –millones de grados Celsius– hacen que los “combustibles” (normalmente Deuterio y Tritio) estén ionizados. Es decir, los átomos habrán perdido sus electrones y se encuentran en un estado denominado plasma, cuyas propiedades y comportamiento se conocen muy mal. Además, esas mismas temperaturas imposibilitan el confinamiento del plasma en recipientes, los cuales se volatilizarían al contacto con el gas ionizado. Actualmente, existen dos posibilidades, con ventaja sobre las demás barajadas hasta el momento, de controlar el proceso:

1) la fusión por confinamiento magnético, consistente en utilizar fuertes campos magnéticos para mantener el plasma en el interior de un recipiente, pero alejado de sus paredes

2) la fusión por confinamiento inercial, también llamada fusión por láser, consistente en comprimir en el vacío la mezcla de núcleos a fusionar hasta densidades extremas, mediante el bombardeo de haces de luz procedentes de un láser de gran energía.

Ambos tipos de dispositivos, en su evolución desde los comienzos de la fusión nuclear, han adquirido tamaños descomunales como acreditan las figuras 1 y 2, y ese es el primer problema –quizás el más grave que– aleja de la realidad práctica la obtención de la energía prometida.

Ante la complejidad de la fusión, sea cual sea el tipo de confinamiento, ¿qué cabe decir? En consecuencia, los avances tecnológicos tienen, y seguramente tendrán por incontables años, mucho de acierto/error. Algunos de los problemas que presentan los diseños actuales tienen su origen, fundamentalmente, en la ingeniería y, en comparación con las dificultades conceptuales de la física subyacente, son extremadamente graves y difíciles de resolver.

Existe un problema adicional no menor. En el proceso se producen neutrones de alta energía imposibles de frenar antes de que atraviesen las paredes del dispositivo. Ello convierte en radiactivas las estructuras, por lo que se hace necesario encontrar materiales de baja activación frente al intenso bombardeo neutrónico, amén de otras partículas que escapan del confinamiento.



Figura 1: Esquemas a escala que ilustran la evolución de los tamaños de los dispositivos de confinamiento magnético, los llamados “TOKAMAK” –acrónimo del ruso тороидальная камера с магнитными катушками (toroidal'naya kamera s magnitnymi katushkami, en español cámara toroidal con bobinas magnéticas)– El ITER se encuentra en estado de construcción y el DEMO, en etapa de proyecto, se supone será el primer reactor comercial.


Este bombardeo no solo induce radiactividad, sino que cambia las propiedades físico-químicas por las que fueron elegidos tales materiales (resistencia a las altas temperaturas, resistencia a las grandes tensiones mecánicas, etc.). En el confinamiento magnético, debido a los intensísimos campos, las estructuras estarán sometidas a enormes tensiones mecánicas y aceptarán mal las pérdidas de sus propiedades, eso por no hablar de la posible volatilización de parte de la cámara de confinamiento cada vez que se produce una disrupción, fenómeno que, a causa de inestabilidades, desvía toda la columna de plasma haciéndola impactar contra las paredes (cortocircuito), ¡y ello a temperaturas del orden de millones de grados Celsius! Por otra parte, las bobinas superconductoras, necesarias para conseguir elevados campos magnéticos, jamás se han empleado bajo el intenso flujo de neutrones que supondrá el funcionamiento del ITER (el prototipo casi comercial en fase de proyecto) y puede haber sorpresas nada agradables al respecto.

Aunque los materiales irradiados procedentes de la fusión son menos radiactivos que los correspondientes a un reactor de fisión y podrán ser manipulados sin peligro en cuestión de un par de decenas de años, los defensores de la fisión atacaron fuerte y uno de sus argumentos consistía en decir que la fusión era igual de sucia y por el contrario mucho más cara. Hace unos 35 años, Lawrence Lidsky, profesor de Ingeniería Nuclear del MIT (Massachusetts Institute of Technology), publicó un artículo atacando la fusión, en la revista de esa institución “Technology Review”, del cual se hizo eco el Washington Post y terminó por dar la vuelta al mundo. Los titulares de los periódicos eran de este tenor: “La fusión no es posible”; “Se cree que la fusión termonuclear ha llegado a su fin”; “Se considera la fusión sencilla pero inútil”; “Un veterano de la fusión declara que los problemas a los que se enfrentan son irresolubles”... Los entusiastas de la fusión tampoco acertaban con los argumentos para rebatir el ataque.

Los razonamientos técnicos de Lidsky eran los siguientes:

a) los costes de construcción de un reactor de fusión serán siempre mayores que los correspondientes a un reactor de fisión de la misma potencia

b) los problemas de ingeniería serán mayores, empezando por la necesidad de evitar el bombardeo neutrónico de los materiales estructurales que deben soportar tensiones mecánicas hasta ahora inimaginables

c) aunque no sean muy graves, los accidentes provocarán en un reactor de fusión paros que harán no rentable económicamente una central de este tipo

d) los reactores de fusión serán enormes, complicados, caros y poco fiables

e) el uso de un reactor de fusión estará limitado a formar tándem con uno de fisión en el mejor de los escenarios.

En cualquier caso, la reacción política no se hizo esperar y Lidsky fue destituido de su cargo de director adjunto del Centro de Fusión del MIT. El encargado de rebatir sus manifestaciones fue Harold Furth, de Princeton, quien utilizó la batería de siempre. La justificación “estrella” consistió en decir: “Si los hermanos Wright no hubieran construido un primer aparato volador torpón, nunca se hubiera desarrollado la tecnología aeronáutica actual”, en una clara defensa de la forma de investigar en modo acierto/error. Evidente, pero también debemos reconocer que el método lo emplearon con prototipos pequeñitos. ¿Se imagina el lector a los hermanos Wright intentando hacer volar un primer modelo de la talla de un Jumbo?

De todo lo anterior se desprende que la mayor desventaja de la fusión controlada, frente a otras fuentes de energía quizás menos prometedoras pero sí más fáciles de manejar, incluida la fisión, reside en el factor económico. ¿Qué compañía arriesgará su capital en construir una planta de fusión que, en el mejor de los casos, funcionará a trompicones y producirá energía a un coste superior al de cualquier otro sistema? Primero se necesita un esfuerzo suplementario para simplificar la complejidad tecnológica de las máquinas actuales y minimizar su coste. Hoy día un reactor de fusión requiere el concurso de muchos países y, si fuera un sistema prometedor, más de una compañía eléctrica ya habría entrado en tales consorcios; no olvidemos que se postula como la energía más limpia, barata e inagotable de la historia presente y futura de la Humanidad.

Por otra parte, muchas organizaciones ecologistas ya han levantado la voz sobre la falacia de la inagotabilidad del combustible. Si la fusión del combustible mezcla Deuterio-Tritio ha sido inviable hasta hoy, más difícil será conseguir la fusión mediante la mezcla Deuterio-Deuterio. Como el Tritio es radiactivo y de corta vida media, no se encuentra en abundancia suficiente en la Naturaleza y hay que obtenerlo por bombardeo neutrónico del Litio6, por consiguiente, es el Litio el elemento que debe proveer de combustible a una planta termonuclear y su abundancia, aunque es 15 veces mayor que la del Uranio, no es ilimitada, sobre todo la del isótopo Litio6, el cual representa solo un 7 % del Litio natural. A ello se añade el problema del uso del radiactivo Tritio, susceptible de pasar al ciclo biológico del agua, y de los materiales, también radiactivos, que saldrán de las estructuras desechadas.

La fusión, por lo tanto, podría ser una gran mentira, como algunos la califican.

Supongamos que estamos en 2050 y los prototipos como el ITER han demostrado que la fusión es viable a un coste de, pongamos por caso, 8000 millones de euros por planta energética. Además, la Física del Plasma no ha proporcionado ninguna sorpresa nueva con relación a las inestabilidades, disrupciones, etc., y los reactores se han mostrado estables. El problema seguiría siendo el mismo que el actual en relación a las plantas de fisión. Una central de este estilo siempre será un generador de base, es decir, debe proporcionar energía eléctrica a la red a un ritmo constante y sin interrupciones imprevistas, pues su coste inicial hace que solamente sea rentable si está siempre operativa. Por otra parte, es muy probable que siempre se necesiten enormes cantidades de energía para reiniciar la ignición tras una parada, por consiguiente, desde el punto de vista del coste energético, una parada en fusión supone un problema mucho mayor que en fisión.

Hablemos del coste del combustible en el confinamiento magnético. Sin lugar a dudas es prácticamente despreciable frente a la inversión inicial en infraestructuras, pero esta es tan elevada, al nivel actual de conocimiento, que supera con creces los costes de otras fuentes de energía. Por esta razón muchos opinan que el tiempo y el dinero dedicado a la investigación de fusión deberían dedicarse a otras tecnologías energéticas que ya hubieran mostrado su viabilidad.

¿Es viable económicamente la fusión por láser? La respuesta, de momento, es negativa y, esta vez, aunque parezca mentira, por cuestiones de coste del combustible. Efectivamente la fabricación de los “perdigones” de combustible es hoy un proceso carísimo (véase la figura 2). El presupuesto de la Universidad de Rochester es de varios millones de dólares por 6 cápsulas de Deuterio-Tritio que se introducen en la cámara de irradiación para quemar en un año. Una máquina comercial necesitaría unas 90 000 de esas cápsulas por día. La pregunta es obvia: ¿es posible abaratar hasta extremos rentables la producción de esas cápsulas de D-T?



Figura 2: Proyecto NIF (National Ignition Facility) del Lawrence Livermore National Laboratory, California. 
Izquierda: Microcápsula de combustible (“perdigón” mezcla Deuterio-Tritio). 
Derecha: Cámara de irradiación en cuyo centro debe implotar la microcápsula al ser iluminada simultáneamente por los haces de un láser de 500 TW. En el centro de la parte superior puede verse a un operario en labores de mantenimiento.


Debemos pues concluir que el enfoque actual de un mundo basado únicamente en la energía de fusión no solo es poco realista, sino que en ningún caso es la panacea, ni energética, ni económica, ni política, ni social.

Rebecca Harme, del grupo de “Los Verdes” del Parlamento Europeo, solicitando en la Comisión de Industria que el esfuerzo se desvíe en otra dirección, ha asegurado: “En los próximos cincuenta años la fusión nuclear no va a luchar contra el cambio climático ni a garantizar la seguridad de nuestro suministro energético”. Hoy, en plena crisis económica, la opinión generalizada es que invertir 13 000 millones de euros en un proyecto a cincuenta años, del cual no tenemos asegurada la viabilidad, es descabellado. Claro que cabe preguntarse: ¿cuánto ha costado el rescate bancario, solo en España?; ¿cuál va a ser el resultado del mismo? Evidentemente se pueden hacer críticas a la fusión pero deben ser más serias y quizás provenir de ambientes más cualificados. Sin embargo, la respuesta desde el sector científico a estas críticas es siempre la misma, y siempre igual de tibia, se limita a afirmar que la seguridad intrínseca de esta forma de producir energía es suficiente pretexto como para intentar ganar la partida.

Afortunadamente hay voces discordantes más cualificadas que piensan, no que la fusión termonuclear controlada es un imposible, sino que el camino elegido, el ITER (iter es “camino” en latín), no es el correcto. Estas críticas provenientes de la comunidad científica del plasma son las más demoledoras, y no son recientes sino que incluso se remontan a los comienzos de la puesta en marcha de tokamaks como el TFTR americano y el JET europeo. El problema sobrevino cuando los demás dispositivos de confinamiento magnético fueron abandonados a favor de los tokamak, sin haber sido estudiados con la profundidad requerida ante una decisión de tal envergadura. Los primeros en caer en el olvido, pese a su simplicidad, fueron los espejos magnéticos y el laboratorio de Livermore, a comienzos de la década de los ochenta del pasado siglo, estaba a punto de inaugurar uno de esos dispositivos, también de un tamaño considerable, cuando pocas semanas antes recibió de la administración Reagan la orden de abandonar el proyecto en favor de la fusión por láser, con connotaciones más belicistas, relacionadas con el famoso proyecto conocido popularmente como “guerra de las galaxias”.

En definitiva, no se han dejado madurar las ideas, no se han hecho suficientes experimentos de laboratorio a pequeña escala. Se ha cercenado la investigación básica. Algunos países como España se han lanzado a gastar dinero en construir máquinas inservibles, cuando hubiera costado mucho menos tener a los científicos y técnicos preparados con estancias en los centros donde se cocían de verdad las grandes soluciones. El propio Bob Hirsch, defensor a ultranza de las grandes máquinas tokamak a comienzos de su carrera, “cuando era un joven con prisas”, –como dijo alguien–, en un discurso ante la Sociedad Nuclear Americana en 1985, atacó la idea del tokamak como inservible para los objetivos de la energía comercial de fusión. ¿Llevaría razón? Sus argumentos científicos terminaban con la idea de la inviabilidad a nivel comercial de un sistema que consistía en una complicada geometría, con anillos y más anillos abrazando una cámara de vacío a la que apenas se podía llegar ni con radiación electromagnética; “la industria preferirá una geometría sencilla”, afirmaba. Hirsch abogaba entonces por dispositivos más pequeños y manejables.

También hay voces que opinan que el problema reside en la falta de presupuesto. ¿Si se hubiera hecho el mismo esfuerzo por desarrollar la Física del Plasma como se ha hecho para encontrar “el color” de los quarks, sería hoy la fusión una realidad?  Es más, bastaría haber dedicado el mismo presupuesto a otros diseños que el dedicado al desarrollo del tokamak, quizás con eso hubiera sido suficiente para encontrar la solución.

Don Grove, antiguo colaborador de Spitzer, padre de los “stellarator” –otro diseño de confinamiento magnético para la fusión–, y a la sazón responsable del grupo de fusión de la Universidad de Princeton, se quejaba de lo que parecía evidente: cuánto menos práctico era un proyecto mayor apoyo recibía de los políticos, con tal de ganarle la carrera a algún “enemigo”. Erik Storm, líder de la fusión por láser, compartía el mismo pesimismo: “Creo que las soluciones a los problemas de la Humanidad pasan por descubrir el verdadero color de los quarks”, decía. Claro que, al fin y al cabo, la comunidad de fusión se pasaba la vida diciendo que ya estaba a punto de encontrar la energía más segura, inagotable y barata, pero sus proyectos eran tan caros, que era más rentable escurrir las últimas gotas de petróleo de los sitios más inaccesibles.

La última crítica conocida es más feroz, si cabe, y proviene de Jean Pierre Petit, exdirector de investigación del CNRS francés y gran especialista en Física del Plasma. Petit afirma que el problema fundamental reside en el propio comportamiento del plasma de un tokamak; las disrupciones no permitirán jamás que un dispositivo comercial llegue a funcionar. Estos “apagones” del gas ionizado, de consecuencias desastrosas, están muy lejos de evitarse y pueden aparecer en cualquier momento, basta una ligera inestabilidad desencadenada por unos cuantos átomos de impurezas mezclados con el combustible.

Es posible que el problema mayor del ITER provenga del empeño de los socios en no hacer un fondo común y designar un equipo de realización del proyecto. Cada país participante quiere hacer revertir su inversión en la industria propia. En palabras de Brumfiel periodista de la revista “Nature” que sigue el proceso de su construcción desde hace más de 10 años: “es como si uno pidiera bajo catálogo una serie de chapas y cientos de miles de tuercas y tornillos para construir en el jardín de su casa un Boeing 747”. Pero hay un par de detalles que todos olvidan: 1) en plena crisis no es difícil que alguna de las empresas adjudicatarias de parte del proyecto quiebre a la mitad o casi al final del camino, con el dinero gastado y la pieza a medio hacer; y 2) tras los muchos ajustes, hay piezas que nunca han sido especificadas en los catálogos, posiblemente hasta la hora de ensamblar el conjunto no se sepa cuáles son. Efectivamente, algunos países, como la India, empiezan a tener problemas para cumplir sus compromisos o para repartir los contratos entre las empresas subcontratantes.

En resumen, podemos afirmar que, por mucho tiempo, la fusión no será la protagonista del futuro energético de la Humanidad.


Julio Gutiérrez Muñoz
Doctor en Física
Catedrático de Universidad de Física Atómica, Molecular y Nuclear, jubilado.

domingo, 24 de noviembre de 2019

La fisión nuclear - Ignacio Durán Escribano

La fisión nuclear ¿sigue avanzando o tiene fecha de caducidad?
(Por Ignacio Durán Escribano)

(Noviembre 2016)


La respuesta rápida a esta cuestión no puede ser otra que la de constatar su avance y pronosticarle una centenaria trayectoria futura. Pero es cierto que se trata de un tema controvertido y merece pues un análisis más detallado.

No es este el lugar de discutir acerca de los motivos que puedan tener – que tienen – los detractores de la energía nuclear y merecería un artículo separado discutir acerca del riesgo real y de la percepción que de ese riesgo tiene la población de cada país. Voy a asumir que la controversia existe, pero partiendo del hecho constatable de que a día de hoy hay 448 reactores operativos, 58 en construcción, 167 programados y 345 en fase de estudio, según los datos del Nuclear Fuel Report de la World Nuclear Association. De estos números hay que deducir los 40 reactores japoneses que permanecen parados desde el accidente de Fukushima. Desde 1996, 70 reactores han sido definitivamente cerrados y solo 76 nuevos han sido puestos en funcionamiento, pero la energía eléctrica generada se ha prácticamente duplicado, debido a que muchos de los reactores en operación se han renovado, alargando su vida útil y aumentando su eficiencia energética, además de que la mayor parte de los retirados tenían una potencia nominal entorno a los 600 MWe mientras que los nuevamente construidos tienen una potencia media cercana a los 1000 MWe y ciclos de funcionamiento más extendidos. Es decir, una visión objetiva del estado actual es la de un sector en crecimiento, con la previsión de que para 2035 se cierren 132 reactores mientras que se estima que se pondrán en funcionamiento 290 nuevos.

¿Qué hay de nuevo en la tecnología nuclear de fisión y como se adapta a la evolución social? No veo yo que se pueda hablar de grandes cambios en los diseños básicos, si bien hay un consorcio, establecido al más alto nivel internacional, para el estudio y desarrollo de nuevas tecnologías, que se engloba bajo el título de GEN IV (cuarta generación). En el momento actual la actividad principal se centra, sin embargo, en el desarrollo de la denominada tercera generación, a la que se le añaden términos para reforzar el concepto de avance continuo en los resultados obtenidos. Así se habla de GEN III+ o se antepone el adjetivo de Advanced al mencionar la tecnología empleada y se observa la creciente atención, tanto por la reducción de costes como por el aumento de la seguridad de las instalaciones. Estos reactores tienen mejor eficiencia térmica que los construidos hace veinte años y alargan los tiempos de funcionamiento entre paradas programadas, con el consiguiente aumento de la energía generada año tras año. Hay que decir aquí que estos reactores de nueva generación nacen con tiempos de vida útil de sesenta años, no estando excluido que puedan luego reformarse para duplicar ese valor.

Tres han sido los hitos que han marcado la orientación de los nuevos diseños, el trágico accidente de Chernobil, los acuerdos de Kioto sobre el cambio climático y el accidente de Fukushima tras sufrir el impacto de un extraordinario tsunami. Los dos graves accidentes tendrían, supuestamente, un impacto negativo en el desarrollo de la energía nuclear. Pero no ha sido así y tras cada uno de estos sucesos se observa un parón en la construcción de nuevos reactores, seguido unos años después de un repunte, sobre la base de diseños orientados, tanto hacia la mayor seguridad como hacia el mejor rendimiento energético. Los acuerdos derivados de la toma de conciencia del calentamiento global conducen a un replanteamiento del mercado de la energía y la racionalización que de él se deriva ha dejado clara la necesidad de definir lo que viene llamándose el mix energético, en el que la energía nuclear tendría asignado un porcentaje en torno al 20%, según los distintos escenarios contemplados. El cambio fundamental a lo largo de estos años ha sido el pasar de un planteamiento local y puramente económico a otro basado en la seguridad del suministro eléctrico, con la mínima producción de CO2 y el mínimo riesgo para la población, a escala mundial.

Entre tanto, la incorporación al primer nivel de desarrollo de las grandes potencias orientales aporta, no solo un incremento en la demanda de energía sino también una oferta de su capacidad constructiva en el sector nuclear. Esto ha provocado la formación de grandes consorcios industriales internacionales, liderados por Westinghouse Electric (que pasa, de estar controlada por capital británico a estarlo por Toshiba y participada con otras compañías orientales) y GEH (General Electric + Hitachi), junto con las grandes empresas nacionalizadas de Francia, Rusia o Korea. Este movimiento industrial y financiero ha propiciado que el diseño de los nuevos reactores se haga de forma modular, es decir, que su construcción sea hecha por partes, en distintas empresas e incluso en distintos países y, de esta forma, un número creciente de empresas de muy distintos lugares pueden licitar a la hora de formarse cada uno de los consorcios adaptado a cada planta concreta. El resultado de esta dinámica industrial es una reducción de los costes y de los tiempos de construcción y, al mismo tiempo, desaparece la total dependencia que antes existía de las tres grandes potencias del sector, USA, Rusia y Francia.

El planteamiento económico de la energía nuclear condujo al diseño de reactores cada vez más grandes, con una repercusión directa sobre el elevado coste financiero que conllevan los macroproyectos. Esto entraña compromisos políticos, no siempre fáciles de asumir en una sociedad cuya percepción del riesgo asociado a las centrales nucleares es muy desfavorable. La nueva conciencia de la necesidad de contribuir al mix energético y el incremento de la seguridad de los nuevos diseños, ha hecho cambiar los planteamientos, lo que se manifiesta más claramente en los países en vías de un fuerte desarrollo socio-económico, obligados a tomar decisiones sin excesivas concesiones a la presión mediática. Vemos así que, frente a la tímida actividad en Europa (4) y USA (4), la mayor parte de los reactores en construcción están en China (20), Rusia (7), India (5), Pakistan (2), los Emiratos Àrabes (4) y Korea (3).

A nivel de la seguridad, los accidentes de Chernobil y Fukushima, pero sobre todo este último, han conducido a una revisión de los procedimientos, con un papel creciente de la Agencia Internacional de Viena (la IAEA). Los distintos agentes involucrados en la construcción de los nuevos reactores tienen ahora especificaciones y controles más rigurosos, no solo por las agencias de seguridad nacionales sino también por la propia IAEA, lo que ha llevado a una mayor racionalización del proceso. Todos los nuevos diseños incluyen la redundancia de los sistemas críticos, la extrema protección frente a catástrofes naturales y ataques terroristas y, por encima, lo que se denomina seguridad pasiva. Es decir, la tecnología empleada tiene que ser tal, que el eventual fallo de los sistemas de refrigeración no conduzca a la fusión del núcleo del reactor, permitiendo plazos de intervención razonables y suficientes, como para proceder a una parada segura. Todos los diseños actuales de GEN III que llevan la etiqueta Advanced cumplen con estos requisitos.

Dentro de las críticas que suelen hacerse a la tecnología nuclear están las dudas acerca de las reservas de uranio y torio, primero por su eventual escasez y segundo por la dependencia que se crea de los países consumidores respecto a los países productores. El análisis de la seguridad del suministro del combustible juega un papel muy importante a la hora de asumir el esfuerzo financiero que conlleva la construcción de una nueva planta de energía nuclear. Conduce también a un estado de ansiedad social, al pensar en el efecto negativo que sobre la economía de un país puedan tener los incrementos de los precios del combustible en el mercado internacional. Esta duda llegó a ser muy razonable y las respuestas no fueron muy favorables durante las pasadas décadas, al estimarse que las reservas de uranio y torio solo podrían garantizar precios estables durante apenas medio siglo. A corto plazo, esta dinámica cambió con el fin de la guerra fría y la introducción en el mercado de las reservas de plutonio y uranio procedentes de la actividad militar, por parte, fundamentalmente, de Rusia y USA. Por otra parte, a medio y largo plazo, resultará rentable el reprocesado del combustible usado, lo que conduce a pensar que las reservas disponibles permitan desbordar, al menos, el horizonte de varios siglos. Para entender esta afirmación hay que considerar que en la generalidad de los reactores funcionando actualmente, se aprovecha menos del 1% del potencial combustible, debido al aumento progresivo de la proporción de isótopos no fisibles, que capturan los neutrones y reducen la eficiencia de la reacción en cadena. En el ciclo actualmente normal del combustible, el aumento del stock de los actínidos de vida media larga (miles de años) plantea un grave problema, puesto que los residuos así generados tienen que ser almacenados en silos seguros y a la larga determinan el límite de la utilización de este tipo de reactores nucleares. No obstante, en los llamados reactores rápidos los neutrones no son moderados y alcanzan energía suficiente como para hacer fisionar todos los actínidos, produciéndose así la transmutación de estos isótopos que no son fisibles por los neutrones lentos. Estos reactores se construyen hoy en día de forma que son económicamente rentables, lo que permite afirmar que el coste total del combustible de fisión nuclear, incluyendo los reprocesamientos y la quema de los actínidos, seguirá siendo competitivo con las fuentes de energía renovables durante mucho tiempo.

En un resumen de lo aquí expuesto, se podría decir que la presión social contra los reactores nucleares de fisión hace que su uso se desplace hacia los países con fuerte crecimiento de la demanda energética, principalmente los orientales; que el alto grado de seguridad y la fiabilidad de los diseños hace previsible su funcionamiento por más de sesenta años; que los costes y tiempos de construcción disminuyen y su mayor eficiencia y vida útil reducen el coste de mantenimiento; que el reprocesamiento del combustible hace que se aprovechen unas veinte veces mejor los recursos actuales y que, finalmente, la construcción de reactores rápidos permite quemar los residuos de larga vida media, de forma rentable. Todo ello hace pensar que estamos hablando de una tecnología que va a convivir con las renovables durante, al menos, lo que queda de siglo.

En lo que respecta al mix energético ideal, no podría yo decir, a partir de lo que he leído, que el peso de la energía nuclear sea necesariamente el 20%. Hay un argumento en favor de que nunca dejase de ser mucho menor de ese valor, basado en la intermitencia de la mayor parte de las energías renovables y en el encarecimiento de la red eléctrica si hubiese que recurrir a un almacenamiento de la electricidad en grandes proporciones. Hay también consideraciones de orden económico, pero están basadas en diferentes escenarios del desarrollo social a nivel global y esto hace que las horquillas de las previsiones no conduzcan a estimaciones demasiado precisas. Si reducimos pues las previsiones a tiempos inferiores al medio siglo, vemos que la creciente implantación de las energías renovables – aun proyectando una tasa de crecimiento mayor que la actual – apenas cubrirá el aumento de la demanda de electrificación a nivel global. Es decir, si los componentes limpios (los que no producen CO2) del mix energético no crecen a una tasa mucho mayor que la demanda, la deseada reducción del efecto invernadero no se producirá en estos cincuenta años, porque se mantendrán prácticamente constantes las componentes sucias (las basadas en los combustibles orgánicos).

Permítaseme terminar con una consideración acerca de la necesidad de fomentar el desarrollo en las regiones más desfavorecidas. Dentro de la tecnología actual están desarrollándose proyectos de reactores englobados bajos las siglas SMR (Small Modular Reactors) basados en la experiencia acumulada en los submarinos nucleares, cuya seguridad y fiabilidad está fuera de toda duda. Estos SMR se construyen en origen, destinándose a su utilización “llave en mano” en lugares remotos, sin necesidad de intervención a nivel local. Están previstos para su instalación allá donde se requiera un aporte de energía, sea electrificación o producción de agua desalinizada, de forma rápida, adaptando el número de módulos a las necesidades coyunturales, o en lugares de difícil acceso, como islas o desiertos. Pues bien, este tipo de reactores está llamado a ser una herramienta fundamental en la ayuda al desarrollo del tercer mundo.


Ignacio Durán Escribano
Doctor en Física
Catedrático, Universidad de Santiago de Compostela.