martes, 18 de abril de 2023

What is randomness? - Lance Fortnow

What is randomness?
(By Lance Fortnow)

We deal with chance every day. The weatherman says there is a 30% chance of rain today. I flip a coin with a friend to decide which movie to see. The cost of my automobile insurance depends on the insurance company’s beliefs in the probability that I will have an accident.

It rains today. The coin lands on heads. I don’t have an accident. Who chose these outcomes or were they predetermined? If they were predetermined, why do we think of these as random events? This isn’t an article about probabilities but about how randomness occurs, or seems to occur in our everyday lives.


1          Coin Flips

Let’s looks at a coin flip. Our thumb pushes against the coin into the air causing it to turn over and over. The amount of effort of the thumb, the trajectory of the coin and to lesser extent the pressure and resistance of the air itself control how this coin flips. Eventually the coin hits the ground and depending on the angle will settle into one of two low-energy states, either with the “heads” side of top or the “tails” side.

There is nothing particularly random about this process. Every aspect could be controlled and simulated. Whether the coin lands on “heads” or “tails” is basically determined as soon as the coin leaves the thumb. Nevertheless, we allow or often require that one player call “heads” or “tails” while the coin is in the air and still treat whether the coin lands on “heads” or “tails” as a random event.

The weather and my safe driving depend on far more complex chains of events though again they seem predetermined from the base conditions. Two questions stick out:

-Why do we consider this processes random?

-Is there true randomness in nature?

We’ll tackle the second question first.


2          Randomness in Nature

“God does not play dice” famously claimed Albert Einstein, a believer in scientific determinism. Before the 20th century many scientists believed the same, that the world and the universe moves following a path full defined from its current state. In 46 the 20th century we saw the development of quantum mechanics that made us question this philosophy.

Suppose you have a light bulb and put in front of that bulb a piece of cardboard with a thin vertical slit. Then through that slip light will come through only oriented in a vertical direction. We can check that easy enough by putting another cardboard with another slit in front. If that second cardboard has a vertical slit lined up with the first cardboard, then all the light passing through the first cardboard passes through the second. If the second cardboard has its slit oriented horizontally then no light will go through

What if we orient the second cardboard’s slit at a 45-degree angle? About half of the light will go through. As we reduce the light coming from the source, we equally scale down the light that comes through the 45-degree slit.

According to quantum mechanics, light is not made up of a substance that one can make arbitrarily small. Instead light comes in packets, or quanta. Think grains of sand that make up a beach. We can reduce the light source so it emits a single quanta of light, a photon. What happens if that vertically oriented photon hits the 45-degree slit?

You can actually run this experiment and put a photo detector at the other end of the cardboard with a bell that will ring if a photon is detected. Perhaps not surprisingly, half of the time the photon is blocked and the other half of the time it comes out of the slit oriented at the 45-degree angle. Half of the time the bell is rung.

This seems like true randomness, a completely controlled and reproducible experiment that has two distinct outcomes, a bell ringing or a silent bell, each occurring seemingly independent and with probability one half. God does seem to roll dice to choose whether or not to ring the bell.

Or maybe not? Perhaps we are just observing a piece of a larger deterministic system and by measuring the photon we reduce the dimension of the system we see but it is still part of the larger picture. This is a bit confusing so let’s consider what happens if we don’t observe the outcome. Suppose instead of ringing a bell, the detector releases a poisonous gas into a box containing a live cat. If a photon is detected the cat is killed, otherwise that cat continues living unaware of the unreleased gas. Suppose we don’t look inside the box. Thus is the tale of Schrödinger's cat.

Without looking inside the box we don’t know whether the cat is alive or dead, whether or not the photon was detected. We can think of either that the cat is alive or dead and we just don’t know the answer. Or we can view it as a quantum state, where the cat is both possible alive or dead in quantum superposition. Only when we open the box and view the cat does the superposition collapse into one of the states where either the cat is alive or dead. Similarly, someone sitting outside our universe can model out universe with a deterministic transition of quantum states in superposition as long as they never look inside the system.

So do we get true randomness or not in quantum mechanics? There is no true clear answer and is more a philosophical debate than a scientific one. There are other potential sources of randomness, for example black holes that seem to destroy information, that are even harder to reason about.

While physics doesn’t yet give us a clear answer of whether we have true randomness in nature, this question does not address the flipping coin. No single photon knocks this coin off its course. The coin flips in highly controlled experiment will always land the same way. How can randomness happen when events are determined?


3          Randomness from Complexity

When we flip a coin, a very deterministic process, why do we consider whether the coin lands on heads or tails random? With the proper sensors and enough computing power we could determine the coin’s outcome from its movement in the air. Typically, the coin we flip these coins between two humans and we just lack the computation power to compute the answer. The outcome of the coin is unpredictable to us, and being unpredictable we treat the answer as a random event. Our inability to compute the answer makes the outcome for all practical purposes random to us.

We can say the same for the weather. The weather agencies have powerful tools and computers to predict the weather but they have to use limited models because even the most powerful machines cannot take into account all the factors that may drive the weather, even for the next day. A weather forecaster still gives a percentage of rain treating rain like a randomized event.

In a casino, the dice and roulette wheels are simple devices yet rely on a number of complex interactions that they too seem completely random. Random enough that casinos literally put their money on the line on the assumption that the bettors cannot predict the outcome of a dice throw or a roulette wheel better than random chance. In craps many casinos will allow the bettors themselves to throw the dice, knowing that even doing so won’t give them an advantage in predicting the outcome. In blackjack, the dealer will often shuffle the cards directly in front of the bettors, and yet the bettors cannot treat the deck as anything but in a perfectly random order. Even card counters assume the deck is perfectly random, they just use the outcomes of earlier cards to adjust the probabilities of later ones.

In financial markets traders need to assume a probability on future prices in order to properly price securities because these prices depend on a complex way on a series of events and future trading.

In the United Kingdom, you can bet on the outcome of sporting events, elections, winners of award ceremonies. The betting sites don’t take a risk here, they set betting odds so that both sides are equally represented and they make money independent of the outcome. But the bettors must make probability estimates, consciously or unconsciously, in order to decide on which outcome to make the bet.

Even consider the game of chess. There is no obvious randomness in chess. The current board position is fully known to both players and no random devices, such as dice used in backgammon or card shuffling used in poker, are involved in a chess match. Yet we talk about risky moves and how likely we think white will win after a certain move in the game. The complexity of chess turns this game of “perfect information” into a game of “imperfect information” seemingly adding a measure of randomness to a game with no obvious source of randomness.

When you ask a computer for a random number, it doesn’t truly give you a random number. Rather it gives you the result of a complex calculation, to give you a number you can treat as random. Similarly, cryptographic protocols make real messages appear to be truly random to those who don’t have the proper decryption keys. There are a number of theoretical results that show how to convert any sufficiently hard function into a pseudorandom generators and cryptographic protocols that cannot be distinguished from true randomness. In practice we have also developed protocols that no man or machine can distinguish from purely random.


4          Removing randomness by beating complexity

With better and more powerful algorithms and computers we can sometimes beat randomness built from unpredictability and complexity. Our recent ability to access large amounts of data combined with machine learning algorithms now made feasible on current technology can help break through the unpredictability barrier. We cannot usually completely predict with confidence, but we can gain enough information about future probabilities to get an advantage over those who still view the original events as completely unpredictable.

New models, stronger computers and better algorithms have greatly improved weather forecasting though we are still a long way from forecasting with certainty. Hedge funds use deep mathematical techniques to gain an advantage in trading securities. Some sophisticated bettors can find small imperfections in roulette wheels using hidden computation devices and use that to gain a small but real advantage in betting. A chess playing computer, even housed in your smart phone, can beat any human these days by doing a better job of predicting the chances of winning from potential future game boards better than humans can.

5          What is randomness?

Whether we get true randomness from nature depends on the interpretation of what nature does. Truly what we view as randomness is not randomness at all, rather it is simply what we cannot predict given the complex processes that generates the outcomes of events.

Powerful new machine learning and data analytic tools can help us do a stronger job of prediction but for many events we will never be able to fully predict outcomes. Best we can do is to understand the nature of randomness. Making decisions in the face of uncertainly is one of the great challenges that people go through every day. Even the greatest of leaders will make choices they may later regret given how events play themselves out. But understanding what we cannot predict give us the best chances to address the challenges we have in the future.

Lance Fortnow
Ph.D. Applied Math
Professor and Chair
School of Computer Science, Georgia Institute of Technolgy

Lance Fortnow is professor and chair of the School of Computer Science of the College of Computing at the Georgia Institute of Technology. His research focuses on computational complexity and its applications to economic theory.

Fortnow received his Ph.D. in Applied Mathematics at MIT in 1989 under the supervision of Michael Sipser. Before he joined Georgia Tech in 2012, Fortnow was a professor at Northwestern University, the University of Chicago, a senior research scientist at the NEC Research Institute and a one-year visitor at CWI and the University of Amsterdam. Since 2007, Fortnow holds an adjoint professorship at the Toyota Technological Institute at Chicago.

Fortnow's research spans computational complexity and its applications, most recently to microeconomic theory. His work on interactive proof systems and time-space lower bounds for satisfiability have led to his election as a 2007 ACM Fellow. In addition he was an NSF Presidential Faculty Fellow from 1992-1998 and a Fulbright Scholar to the Netherlands in 1996-97.

Among his many activities, Fortnow served as the founding editor-in-chief of the ACM Transaction on Computation Theory, served as chair of ACM SIGACT and on the Computing Research Association board of directors. He served as chair of the IEEE Conference on Computational Complexity from 2000-2006. Fortnow originated and co-authors the Computational Complexity weblog since 2002, the first major theoretical computer science blog. He has thousands of followers on Twitter.

Fortnow's survey The Status of the P versus NP Problem is CACM's most downloaded article. Fortnow has written a popular science book The Golden Ticket: P, NP and the Search for the Impossible loosely based on that article.

lunes, 13 de marzo de 2023

¿Por qué persisten los recuerdos? - José Viosca Ros

¿Por qué persisten los recuerdos?
(Por José Viosca)

(Noviembre 2016)

El primero fue en una playa. Estábamos de pie, en la arena, cuando un contacto de labios lo detuvo todo. Una ola, a punto de romper en la orilla, quedó congelada detrás de nosotros. Paró también el viento, dejando su larga melena ondeando y quieta como aquella bandera ondulada en la luna. En la boca, una lengua cálida y un sabor nuevo, intenso, abrasador. Escuché una melodía de violines y sentí unas mariposas revoloteando en el estómago. Entonces abrí los ojos y respiré. Vi frente a mí una sonrisa, y no supe si habían pasado diez segundos o diez horas.

Así fue el primer beso. Uno de esos momentos que uno recuerda con nitidez, como el nacimiento de los hijos y otros instantes únicos. Evocamos con facilidad dónde nos encontrábamos, con quién, qué ropa llevábamos. Si hacía calor o frío, el olor del lugar, y, por supuesto, la música ambiental (o los violines sonando en mi cabeza). El primer beso, en general cualquier recuerdo duradero, queda grabado en la memoria como si fuera un DVD que podamos luego reproducir a voluntad para recuperarlo (¿intacto?).

El paralelismo entre memoria y música nos puede ayudar mucho a entender cómo se las arregla el cerebro para almacenar los recuerdos. Ambos, memoria y música, tienen una base física. Si bien la música surge por las vibraciones de las moléculas del aire, los recuerdos, por su parte, se deben a cascadas de interacciones moleculares y flujos de átomos que tienen lugar en el interior del cerebro.

De hecho, el cerebro es una especie de orquesta. Una orquesta que utiliza un lenguaje propio y cuyos instrumentos son las neuronas, unas células que, cuando recordamos algo, no solo disparan ráfagas de impulsos nerviosos, sino que lo hacen de forma coordinada, miles de neuronas al mismo tiempo, como virtuosos músicos que ejecutan con precisión una partitura.

De esta forma, cada recuerdo es una especie de melodía. Una melodía única que, como toda sinfonía, tiene su propia partitura. Para cada memoria, el cerebro almacena un registro, a modo de archivo, para su consulta posterior. A cada memoria le corresponde un pentagrama que se guarda de forma dispersa en muchos lugares del cerebro, dentro de miles de neuronas que almacenan un trozo cada una. Cada neurona guarda y representa un matiz único, un aspecto diferente del recuerdo, así como cada instrumento de la orquesta lee una partitura distinta de la sinfonía. Y dentro de las neuronas, un conjunto de moléculas afina sus ráfagas de actividad, como se afinan los instrumentos de la orquesta. Una afinación que no solo sintoniza las neuronas sino que es la base material misma de la memoria.

El cerebro, el órgano donde residen los recuerdos, está hecho de células que a su vez están hechas de moléculas. Por eso mismo, la duración de los recuerdos plantea un auténtico rompecabezas biológico [1]. Por seguridad, para evitar que acumulen errores peligrosos como un coche viejo, casi todas las moléculas son destruidas pocas horas o días después de fabricarse. Sin embargo, los recuerdos duran años o, el del primer beso, toda la vida. ¿Cómo son capaces entonces las moléculas y neuronas del cerebro de almacenar los recuerdos?


1.1      La partitura (la traza de memoria)

Ya en su mitología, los griegos describieron la memoria como un proceso de inscripción. Mnemea, la musa de la memoria (también de la plasmación o la creación), aparece en obras de arte como una muchacha escribiendo. La joven apoya un estilete en su barbilla, intentando recordar lo que piensa para escribirlo en un rollo de papiro.

Inspirándose en esta idea, un zoólogo alemán llamado Richard Wolfgang Semon (1859-1918) conjeturó ya en el siglo XIX que la base cerebral de la memoria debía ser alguna forma de “traza” [2]. Se refería a un “registro permanente, escrito o grabado sobre la sustancia irritable” (el cerebro). 150 años después, sabemos que la traza de memoria está hecha en realidad de una variedad de componentes químicos y físicos.

En el cerebro, como en toda orquesta, hay un director que compone las partituras. Y también un vasto escenario con miles de instrumentos, cada uno con una función determinada. Hay regiones cerebrales dedicadas a codificar en el lenguaje neuronal cada parámetro del mundo sensorial, así como regiones dedicadas a enviar órdenes a los músculos para movernos. Hay neuronas que responden y representan conceptos, lugares en el espacio y formas geométricas; y neuronas cuya activación causa movimientos, miedo, satisfacción, bienestar, y otros procesos neurológicos.

El cerebro es una orquesta muy especial porque, constantemente, escribe y reproduce su música. Una música con la que representa internamente, como una especie de código cerebral, aquello que vivimos. (En realidad, aquello que interpretamos que vivimos). En cierto sentido, el compositor que hay en el cerebro anota en un diario nuestras vivencias (o aquello que interpretamos de nuestras vivencias), pero en vez de textos y fotos, el compositor escribe partituras. La memoria es ese diario que contiene todas las partituras de nuestra vida.

Solo que en el cerebro, no hay papel sino neuronas. Neuronas que son a la vez los instrumentos que ejecutan las sinfonías y el sustrato material del diario donde se escribe la partitura de la memoria.


1.2      El compositor (el hipocampo)

Sabemos por Henry Molaison (1926-2008), seguramente el paciente más conocido en la historia de la investigación de la memoria, que cada componente de la orquesta está situado en una región particular del cerebro. A los 27 años, a partir de una operación quirúrgica en la que quedaron lesionadas varias regiones de su cerebro, especialmente una zona llamada hipocampo, Molaison perdió la capacidad de formar memorias duraderas. Resultó extraordinario que el problema afectara solo a un tipo concreto de memoria: las memorias episódicas (los recuerdos de momentos, lugares, personas). Durante décadas, Molaison vivió atrapado en el pasado y un presente efímero. Todo se desvanecía en su mente en pocos segundos: desconocía qué estaba haciendo, con quién hablaba, o si había almorzado [3]. Pero los recuerdos anteriores a la operación, también el de su primer beso, permanecieron intactos en otras regiones del cerebro. Gracias a Molaison, sabemos que el hipocampo es el compositor que escribe las partituras, pero el papel donde quedan grabadas las memorias son neuronas en otros lugares del cerebro. La biblioteca donde quedan archivados los recuerdos es la capa más externa del cerebro, la corteza cerebral [4].

Dentro de las neuronas, las trazas de memoria se guardan principalmente en las sinapsis (unas regiones con forma de botón abombado por donde las distintas neuronas se comunican entre sí). Así lo pensó por primera vez hace más de 100 años Santiago Ramón y Cajal [5], el primer español en recibir un Premio Nobel en una disciplina científica. Cajal acertó en su intuición, aun sin poder demostrar empíricamente que las sinapsis existían – eso ocurrió décadas más tarde. Hoy sabemos que cada neurona en la corteza cerebral humana conecta 10.000 veces con otras neuronas, configurando una enorme cantidad de redes neuronales susceptibles de almacenar recuerdos. Probablemente, el cerebro es la orquesta más grande del mundo.

Como si afinaran las distintas cuerdas de una guitarra o los distintos engranajes de cada instrumento de una orquesta, las neuronas almacenan memoria ajustando sus conexiones, ya sea potenciándolas o debilitándolas. De esa forma, pensó el psicólogo canadiense Donald Hebb (1904-1985) a mediados del siglo XX, las neuronas podrían establecer lazos de realimentación y mantener una actividad reverberante. Esa sería la base cerebral de la memoria, según Hebb, una idea que también tardarían años los científicos en demostrar empíricamente.

Hebb planteó su idea con un ejemplo concreto de aprendizaje: el condicionamiento de Pávlov (el de los perros que salivan al oír una campana), y un modelo minimalista con dos neuronas [6]. Hebb imaginó lo que debía suceder en el interior del cerebro de Tungus, una especie de pastor alemán y uno de los 50 perros que Pávlov estudió, cuando aprendía el condicionamiento del reflejo de la salivación. Al principio, la neurona S, que representa y desencadena la salivación y por ello dispara (uno o varios impulsos nerviosos) cuando Tungus ve comida, está desconectada de la neurona C, que representa el sonido y dispara cuando el perro oye una campana. Por tanto, la neurona S y la neurona C no pueden inicialmente sincronizarse. Pero si la comida y la campana son mostradas a la vez varias veces, sucede algo crucial: como resultado del disparo simultáneo, ambas neuronas refuerzan sus conexiones. Así, cuando más tarde la neurona C sea activada (porque suene la campana), C activará a S y Tungus salivará. En el cerebro de Tungus, se habrá escrito entonces una partitura en su diario de recuerdos.


1.3      La tinta (moléculas que perduran)

Salvador Dalí pintó su cuadro más famoso, la persistencia de la memoria, inspirándose en su tierra natal. Sobre un paisaje del Alto Ampurdán (Gerona), en el centro del lienzo pintó unos relojes deformados – él los llamó relojes blandos-, para expresar una voluntad de trascendencia, un deseo de perdurar en el tiempo más allá de su propia muerte. Dalí pintó el cuadro en 1931, mucho antes de que los científicos descubrieran que es precisamente la capacidad de perdurar en el tiempo, más allá de los límites temporales convencionales, la característica fundamental de las moléculas que en el cerebro sostienen los recuerdos duraderos.

Es en las sinapsis, las bolsitas donde distintas neuronas se conectan, donde se almacenan las piezas básicas de un recuerdo, las distintas notas de la partitura de una sinfonía. Pero las moléculas que participan en la memoria se localizan por toda la neurona, también fuera de las sinapsis. Cuando una memoria se forma, una cascada de moléculas que se activan sucesivamente recorre el interior de las neuronas. Al principio, ciertas sinapsis se activan durante el aprendizaje, arrancando aquí una onda expansiva de actividades bioquímicas que se desplaza hasta el núcleo (otra bolsa dentro de la célula que contiene el material hereditario). Allí, ciertos genes se activan, dando paso a la fabricación de proteínas que volverán de nuevo a las sinapsis para modular su fuerza o incluso construir o destruir sinapsis enteras. Un verdadero “diálogo entre sinapsis y núcleo”. Así lo describió Eric Kandel (1929- ), quien descubrió muchas de estas moléculas, al recibir el Premio Nobel en el año 2000 [7].

Las moléculas son la tinta de la memoria. Los recuerdos se escriben a fuerza de moléculas que envían, reciben o modulan la transmisión de mensajes entre neuronas. Algunas moléculas empaquetan los mensajes (el neurotransmisor), otras los reciben y convierten en impulsos nerviosos (los receptores), y otras afinan el instrumento para que se ajuste a una determinada tonalidad. Como en una cascada de piezas de dominó, sin embargo, la mayoría de esas moléculas, una vez hecha su actuación, dejan de ser necesarias para que el proceso continúe. ¿De qué forma entonces unas moléculas, que por otra parte duran horas o días, pueden almacenar recuerdos que duran toda la vida?

En 1984, Francis Crick (1916-2004), quien descubriera dos décadas antes la estructura del ADN, propuso una posibilidad para resolver el dilema. Crick pensó que alguna forma de actividad bioquímica que lograra permanecer tanto tiempo como los recuerdos podría ser la base de la persistencia de la memoria. Dos décadas más tarde, otros científicos descubrieron una molécula que no solo cumplía el requisito de perdurar, sino que además su función era esencialmente colocar receptores en la sinapsis y de ese modo potenciar las conexiones neuronales [8]. Todo lo que antes habían apuntado Cajal,  Hebb y Crick cuadraba.

El nombre de esa molécula es PKMζ. No se trata de un extraño Pokémon griego, sino las siglas de una proteína llamada Proteína Kinasa M-Zeta. Una molécula que pertenece a un tipo de proteínas, las kinasas, de las que tenemos más de 500 en el cuerpo. PKMζ es especial entre todas ellas porque abunda en el cerebro y porque es capaz de perdurar durante años en las sinapsis que se activan al aprender.

Todas las kinasas son proteínas capaces de modificar a otras proteínas. Lo hacen añadiéndoles un pequeño trozo de molécula, como si añadieran la pieza que le falta a un puzle. Solo que en este caso, añaden justo la pieza donde está el botón de un interruptor, porque cuando una proteína es modificada, su comportamiento cambia de forma radical.

En algunos casos, las proteínas se activan cuando son modificadas, como le sucede a los receptores de neurotransmisor. Una vez modificados por la acción de PKMζ, los receptores son entonces transportados al lugar donde pueden ejercer su función: al interior de las sinapsis. Y una vez allí en las sinapsis -esas bolsitas que actúan como centrales de telefonía enviando y recibiendo mensajes entre neuronas- los receptores son concretamente colocados en la membrana de la sinapsis. Justo el lugar donde pueden detectar más neurotransmisor procedente de otras neuronas y potenciar la comunicación neuronal.

En otros casos, sin embargo, el significado del interruptor está invertido, de forma que la proteína es inactivada cuando es modificada por acción de PKMζ. Esto le sucede a otra proteína que actúa como una grúa quitando constantemente receptores de la membrana de la sinapsis. Estas grúas son unos verdaderos agentes del olvido que borran los trazos de tinta con los que se escribe la memoria en el cerebro. Pero al ser modificadas por PKMζ, estas grúas se bloquean, como si alguien colocara un obstáculo en las ruedas del sistema de poleas.

De esta forma, PKMζ contribuye a aumentar el número de receptores en las sinapsis de dos formas distintas: por un lado los añade y por otro lado evita que sean retirados. Por eso mismo, PKMζ es necesaria permanentemente para mantener la potenciación sináptica y que la memoria persista en el tiempo.

¿Y cómo logra PKMζ perdurar? Hay una tercera proteína que es su imagen antagónica. Es una proteína que se encarga de inhibir la producción de PKMζ. Y como en el caso anterior, esta proteína es inhibida cuando es modificada por PKMζ. Así que una vez presente, PKMζ elimina el freno a su propia fabricación. Así es como trasciende. Así es como puede preservar la tinta de las trazas de memoria.


1.4      No solo una molécula

Todo parecía cuadrar hasta que en 2013 dos laboratorios distintos realizaron una prueba de peso a la hipótesis de que PKMζ pudiera ser la molécula de la memoria [9]. Estos investigadores crearon ratones sin el gen de PKMζ, eliminando así la posibilidad de producir la proteína durante el aprendizaje. Uno esperaría que estos ratones fueran como la versión extrema de Henry Molaison, el paciente sin memoria, incapaces de formar cualquier recuerdo. Sin embargo, ninguno de los investigadores encontró consecuencias sobre la retención de memorias duraderas. Aquellos ratones tenían una memoria perfectamente normal.

Las hipótesis son barcos que navegan a través de duras tormentas. A veces se hunden como el Titanic, pero a veces aguantan el embiste furioso de gigantes olas e icebergs. En 2016, otro estudio descubrió una segunda molécula, muy parecida a PKMζ, que se produce cuando el gen de esta última es eliminado y que es capaz de sustituir su función. El barco aguantó esta vez, pero los científicos llegaron a una conclusión: PKMζ no es toda la tinta de la memoria. PKMζ no es el solista que protagoniza la sinfonía ni la única molécula que escribe las notas en el pentagrama de la memoria.  PKMζ es parte de un gran sistema de moléculas capaces de retener los cambios en la comunicación neuronal que sostienen los recuerdos duraderos [10].

Hay al menos otras dos moléculas necesarias para formar memoria y que también logran mantener una actividad persistente más allá de lo convencional. Y con todo, ni siquiera estas cuatro moléculas actúan en solitario. Están todas ellas inmersas en una red de decenas de moléculas que rellenan las sinapsis como la tinta que escribe las notas de la partitura, grabando la sinfonía del lejano pero vivo recuerdo del primer beso. Un sistema de moléculas que, dentro de otro sistema de miles de neuronas esparcidas por el cerebro, comienzan a vibrar y embelesarse muy pronto tras el primer contacto de labios. Labios que se funden, se acarician, que se atraen y empujan como las moléculas que en el cerebro interactúan y danzan. Un diálogo amoroso que inspira al hipocampo, un compositor escondido en un lugar recóndito del cerebro, a escribir la música de otro diálogo emocionante, vibrante, vital. Un diálogo hecho de diálogos de lenguas hechas de carne y neuronas hechas de moléculas hechas de átomos que recorren su interior como cascadas de dominó. Un diálogo de chispas que saltan entre centenares de neuronas que se afinan y sincronizan a un mismo tempo y tono, dentro de una orquesta que reproduce y que graba la obra musical que nunca podrán olvidar ninguno de los protagonistas.


1.5      Preguntas abiertas

Queda mucho por conocer sobre las bases biológicas de la memoria, así como de la reparación de la memoria en condiciones subóptimas.

¿De qué forma compone el hipocampo las memorias? ¿Es el único compositor en la orquesta del cerebro? Recientemente, tras la muerte de Henry Molaison, se han hecho estudios detallados de su cerebro, encontrando lesiones en otros lugares además del hipocampo [11]. En cualquier caso, sigue siendo un misterio cómo las memorias episódicas dejan de necesitar esta región cuando se hacen longevas.

También sabemos que hay distintos tipos de memorias. El propio Molaison tenía defectos en memorias episódicas, pero podía aprender tareas motoras. ¿Participan las mismas moléculas en memorias no declarativas?

A nivel molecular, el cuadro es todavía incompleto. ¿Cuántas moléculas hacen falta para construir un recuerdo? ¿Cuántas son suficientes? ¿Qué genes se expresan y qué proteínas deben fabricarse para inscribir una memoria a largo plazo?

Las moléculas persistentes, PKMζ y las demás, deben tener algún freno. De lo contrario las múltiples memorias que vamos adquiriendo con la vida acabarían saturando las sinapsis del cerebro. ¿Cómo se evita que esto ocurra?

¿Qué papel tiene la formación o la eliminación de sinapsis (cambios estructurales) respecto a la potenciación o debilitamiento de las sinapsis existentes (cambios funcionales)? ¿Es este equilibrio igual en todos los tipos de memoria y zonas del cerebro? ¿Qué papel exacto juega la potenciación respecto al debilitamiento de las conexiones sinápticas? ¿Y qué aspectos concretos de una memoria son almacenados por una sinapsis individual?

¿Cuántas redes neuronales codifican un recuerdo? ¿Hay redundancia, o cada red neuronal codifica un recuerdo? ¿Cuántos recuerdos puede una neurona almacenar? ¿Cuántas neuronas hacen falta para codificar un recuerdo?

Sabemos que en el cerebro hay muchos tipos de neuronas, que se distinguen, entre otras características, por el neurotransmisor o combinación de neurotransmisores que emplean (excitadoras, inhibidoras, etc.), por la longitud de sus proyecciones y por la zona del cerebro donde se encuentran. ¿Qué tipos de neuronas son necesarias para formar una memoria? ¿Cómo contribuye y qué almacena cada una de esas clases? ¿Qué papel desempeñan las nuevas neuronas que continuamente se forman en el hipocampo? ¿Y qué funciones tienen otros tipos de células no neuronales, como la glía?

¿Cuánto dura en realidad una memoria? Algunos estudios recientes en ratón sugieren que algunos traumas aprendidos podrían transmitirse de una generación a otra. ¿Sucede esto de forma general, en otros tipos de memorias y en otras especies? Curiosamente, Richard Wolfgang Semon, el primero en hablar de la traza de memoria, fue un acérrimo defensor del Lamarckismo (la herencia de los caracteres adquiridos), e incluso pensaba que las memorias podían heredarse.

¿Cómo envejecen las memorias? ¿Permanecen intactas o van transformándose en el tiempo? La analogía del cerebro como un DVD que graba y reproduce los recuerdos no es del todo precisa: sabemos que la memoria tiene una escasa fidelidad. ¿Qué es entonces lo que persiste y cómo sucede ese proceso de transformación con el tiempo?

¿Cómo funciona el proceso de recordar? ¿Participan en él las mismas moléculas y mecanismos cerebrales que en la adquisición de memorias? Se sabe que durante la reactivación de los recuerdos tiene lugar un proceso llamado reconsolidación que permite modificar el contenido de los recuerdos [12], ¿cómo influye el proceso de recordar en la persistencia de la memoria? ¿Puede intervenirse en el momento de recordar una memoria para eliminar recuerdos traumáticos? ¿O para potenciar la persistencia de recuerdos que desaparecen, como ocurre en enfermedades neurodegenerativas?

Para que una memoria persista, tiene que resistir al olvido. ¿Cómo funciona este proceso? ¿Qué mecanismos cerebrales son responsables? ¿Puede frenarse el olvido para evitar la pérdida de memoria que ocurre con la edad, o acelerarse para borrar traumas? Hay niños y niñas con discapacidades intelectuales congénitas causadas por alteraciones en las moléculas que escriben en el cerebro la memoria a largo plazo. ¿Será posible algún día potenciar la memoria y el aprendizaje en un contexto educativo de una forma socialmente justa y que atienda a la vez a la diversidad de necesidades educativas?

¿Qué papel exacto tiene el sueño? Sabemos que el descanso es importante para formar memorias [13]. Algo que, años antes de que ningún científico lo describiera, el escritor Jorge Luis Borges (1899-1986) plasmó virtuosamente en el cuento “Funes el Memorioso” – una metáfora del insomnio que el autor padecía. El protagonista del cuento, Ireneo Funes, tenía una memoria portentosa. No era capaz de olvidar nada, todo lo recordaba. “Más recuerdos tengo yo solo que los que habrán tenido todos los hombres desde que el mundo es mundo”, así describía el protagonista su capacidad. Pero al contrario de lo que uno pudiera sospechar, lejos de un don aquello se reveló como un auténtico calvario. No dormía bien y los recuerdos dolorosos lo martirizaban. “Mi memoria es como vaciadero de basuras”, decía Funes. Todo detalle insignificante quedaba impregnado en su memoria. Incapaz de desechar detalles superfluos, Ireneo era incapaz de entender el mundo porque no podía generalizar. No podía, por ejemplo, saber si el mismo perro que había visto horas antes de perfil era el mismo perro que ahora veía de frente, porque ambas imágenes no coincidían exactamente. Quizá su calvario tuvo una única recompensa: la de guardar celosamente un recuerdo nítido, cristalino y puro, seguramente el más vívido jamás experimentado, de aquello con lo que todos soñamos de vez en cuando: el primer beso.




[1] E. D. Roberson and J. D. Sweatt, “A biochemical blueprint for long-term memory,” Learn.Mem., vol. 6, no. 1072–0502, pp. 381–388, Jul. 1999.

[2] P. Pietikäinen, Alchemists of human nature : psychological utopianism in Gross, Jung, Reich, and Fromm. Pickering & Chatto, 2007.

[3] Rodrigo Quian Quiroga, Borges y la memoria. EDITORIAL SUDAMERICANA, 2012.

[4] R. G. Morris, “Elements of a neurobiological theory of hippocampal function: the role of synaptic plasticity, synaptic tagging and schemas,” Eur.J.Neurosci., vol. 23, no. 0953–816X, pp. 2829–2846, Jun. 2006.

[5] B. Milner, L. R. Squire, and E. R. Kandel, “Cognitive neuroscience and the study of memory,” Neuron, vol. 20, no. 0896–6273, pp. 445–468, Mar. 1998.

[6] D. O. Hebb, The Organization of Behavior. New York: Wiley, 1949.

[7] E. R. Kandel, “The molecular biology of memory storage: a dialogue between genes and synapses,” Science (80-. )., vol. 294, no. 5544, pp. 1030–1038, Nov. 2001.

[8] T. C. Sacktor, “How does PKMζ maintain long-term memory?,” Nat. Rev. Neurosci., vol. 12, no. 1, pp. 9–15, Jan. 2011.

[9] R. G. Morris, “Forget me not.,” Elife, vol. 5, 2016.

[10] P. W. Frankland and S. A. Josselyn, “Neuroscience: Memory and the single molecule.,” Nature, vol. 493, no. 7432, pp. 312–3, Jan. 2013.

[11] J. Annese, N. M. Schenker-Ahmed, H. Bartsch, P. Maechler, C. Sheh, N. Thomas, J. Kayano, A. Ghatan, N. Bresler, M. P. Frosch, R. Klaming, and S. Corkin, “Postmortem examination of patient H.M.’s brain based on histological sectioning and digital 3D reconstruction.,” Nat. Commun., vol. 5, p. 3122, 2014.

[12] Y. Dudai, “The restless engram: consolidations never end.,” Annu. Rev. Neurosci., vol. 35, pp. 227–47, 2012.

[13] R. Stickgold and M. P. Walker, “Sleep-dependent memory triage: evolving generalization through selective processing,” Nat. Neurosci., vol. 16, no. 2, pp. 139–145, Jan. 2013.



José Viosca Ros

Doctor en Neurociencias

Comunicador Científico

Web jvros


Bioquímico y neurocientífico con especialización en pedagogía y comunicación científica.
Nació en Valencia (1982) y creció en El Puerto de Santa María (Cádiz).
Doctor en Neurociencias por la Universidad Miguel Hernández de Elche, obtuvo la licenciatura en Bioquímica (Universidad de Valencia) y posteriormente la certificación pedagógica (Universidad de Castilla la Mancha) y el Experto Universitario en Divulgación y Cultura Científica (UniOvi-OEI). Hizo su tesis sobre la neurobiología de la memoria y completó una estancia postdoctoral en El Laboratorio Europeo de Biología Molecular.
Actualmente, escribe artículos y libros de divulgación científica.

lunes, 6 de marzo de 2023

Arquímedes y la flotabilidad de los cuerpos sumergidos - Mario Sánchez Sanz

Arquímedes y la flotabilidad de los cuerpos sumergidos.
(Por Mario Sánchez Sanz)

(Noviembre 2016)

El “eureka” de Arquímedes es, con permiso de la manzana de Newton, el falso mito asociado a la ciencia más reconocible por todos nosotros. La imagen del joven matemático corriendo desnudo por la ciudad griega de Siracusa, con la falsa corona de oro del rey Hierón en la mano, es suficientemente sugerente como para dejar que la realidad estropee una buena historia.  Dejando de lado la anécdota, la contribución de Arquímedes fue de tal importancia que cualquier estudiante de secundaria es capaz de recitar de memoria el principio de Arquímedes:

“la fuerza de flotabilidad que aparece en un cuerpo sumergido es igual al peso del volumen de fluido que el cuerpo desaloja”.

Enunciado de esta manera es probable que nos preguntemos a nosotros mismos sí realmente entendemos su significado. Afortunadamente, todos hemos experimentado esa fuerza de flotabilidad de la que habla Arquímedes cuando nos bañamos en una piscina o en el mar.  Si recordamos el esfuerzo que nos requiere levantar un objeto pesado en el agua e intentamos repetir esa acción fuera de ella, nos daremos cuenta rápidamente que la sensación de ligereza del primer ejercicio no se debía a nuestras duras sesiones de gimnasio, sino a la ayuda que el fluido nos estaba prestando. Barcos, submarinos, boyas y un largo etcétera explican su funcionamiento a través del principio de Arquímedes.

A pesar de no ser mencionado, el concepto fundamental que subyace implícitamente en el enunciado del principio de Arquímedes es el de presión hidrostática. La presión se define como una fuerza por unidad de superficie y tiene unidades de Pascales o N/m2. Bajo un campo de presión constante, es posible calcular la fuerza que esa presión ejerce sobre una superficie de área S multiplicando el valor de la presión por S. Para campos de presiones variables, el cálculo de la fuerza implica, generalmente, el uso del cálculo integral y puede llegar a ser complicado en cuerpos con superficies irregulares.

Aunque nos hayamos acostumbrado a ella y no la notemos, la presión forma parte de nuestra vida diaria. Cuando caminamos por la calle y nos dirigimos a nuestros quehaceres diarios, nos olvidamos que nos movemos en el interior de un fluido, el aire. Al nivel del mar, cualquiera de nosotros siente una presión constante, que conocemos como presión atmosférica, generada por el peso de la ancha capa de aire que nos separa del espacio exterior. Si asumimos que el aire está quieto, es posible calcular la magnitud de esa presión multiplicando la densidad del aire (1.1 kg/m3 a 20 ºC) por la aceleración de la gravedad (9.81 m/s2) y por la anchura de la atmósfera (unos 9.5 km, aproximadamente) para obtener un número que se acerca a 101300 N/m2 o 1 atmósfera de presión. Cuanto mayor sea el espesor de la capa de aire o mayor sea la densidad del aire, mayor será la presión que tenemos que soportar. Lo contrario ocurre cuando disminuimos la densidad del aire o disminuye el espesor de la capa de aire que tenemos sobre nosotros, como bien saben los montañeros que sufren de “mal de altura” debido a la disminución de la presión atmosférica al ascender por encima de los 4000 o 5000 metros. La densidad del fluido es fundamental a la hora de determinar cómo cambia la presión. Como acabamos de describir, para encontrar variaciones notables en la presión atmosférica necesitamos variar la anchura de la capa de aire sobre nosotros en cantidades cercanas al kilómetro. Eso no ocurre si estudiamos como cambia la presión en el agua a medida que nos sumergimos en ella. Aunque los principios que explican los cambios de presión son los mismos, el incremento de presión con la profundidad es mucho más rápido en el agua debido a que su densidad r=1000 kg/m3 es casi 1000 veces superior a la densidad del aire r=1.1 kg/m3. Así, cada vez que nos sumergimos 10 metros en el mar, la presión aumenta en aproximadamente una atmósfera [1].

Para entender el principio de Arquímedes vamos a realizar un sencillo experimento mental. Para ello vamos a sumergir, en agua, un cubo de Rubik. Este juguete, en el que muchos hemos invertido muchas más horas de las que deberíamos en épocas de exámenes, no es más que un prisma cuadrado con una longitud de lado “𝐿” conocida. Para estudiar en qué consiste la fuerza de la flotabilidad, sumergimos el cubo en un fluido de tal forma que dos de sus caras permanezcan paralelas a la superficie. Para medir la profundidad a la que colocamos el cubo, situamos nuestro sistema de referencia en la superficie de agua de forma que la profundidad la definimos como la distancia vertical medida desde la superficie del agua hasta la cara superior del cubo. Como ya hemos visto anteriormente, la presión aumenta a medida que sumergimos el cubo a una mayor profundidad, de forma que si la distancia entre la cara superior del cubo y la superficie del agua es “”, la presión a la que se ve sometida esa cara del cubo será 𝑝 = 𝜌𝑔ℎ. Esa presión induce una fuerza vertical 𝐹𝑠 = ― 𝜌𝑔ℎ𝐿², donde el signo negativo indica que la fuerza tiende a desplazar el cubo hacia aguas más profundas. Si repetimos el ejercicio sobre la cara inferior, la presión en esa cara será 𝑝 = 𝜌𝑔(ℎ + 𝐿) y la fuerza asociada 𝐹𝑖=𝜌𝑔(ℎ + 𝐿)𝐿², en este caso con signo positivo porque esa fuerza trata de desplazar al cubo hacia la superficie del fluido. Sumando ambas fuerzas, obtenemos la fuerza vertical neta inducida por el campo de presiones sobre nuestro cubo de Rubik para dar 𝐹 = 𝐹𝑠 + 𝐹𝑖 = 𝜌𝑔𝐿³, magnitud positiva que representa el peso del volumen de agua desalojado por el cubo, cuyo volumen es 𝐿³.

La fuerza neta 𝐹 que acabamos de calcular, conocida también como la fuerza de flotabilidad, es independiente de la profundidad a la que coloquemos nuestro cubo y será siempre la misma si el cubo está completamente sumergido. Obviamente, para saber si eso va a ser así, tenemos que tener en cuenta que el cubo tiene un peso 𝑊. Si consideramos que el material del que está hecho el cubo tiene una densidad 𝜌𝑐, su peso lo podemos expresar como 𝑊 = ―𝜌𝑐𝑔𝐿³   donde el signo negativo indica que la esa fuerza intenta desplazar al cubo hacia profundidades mayores. Teniendo en cuenta que sobre el cubo únicamente actúan estás dos fuerzas, la segunda ley de Newton nos permite determinar la dirección hacia la cual se desplazará nuestro prisma en función del signo del resultado de la suma de nuestras dos fuerzas  𝐹 + 𝑊 =(𝜌―𝜌𝑐)𝑔𝐿³:

1) Si la suma de las dos fuerzas resulta ser idénticamente nula, nuestro cubo se encuentra en equilibrio y se quedará, hasta el final de los tiempos, en la misma posición en la que lo hemos colocado inicialmente. Esto ocurre únicamente si las densidades del fluido y del cuerpo que hemos sumergido son idénticas 𝜌 = 𝜌𝑐.

2) Si la suma es positiva, el resultado indicaría que la fuerza de flotabilidad 𝐹 es mayor que el peso y el cubo se desplazaría hacia la superficie del agua, donde quedaría parcialmente sumergido hasta que la fuerza de flotabilidad igualara al peso. Este caso representa lo que ocurre con los barcos y lo analizaremos con más detalle un poco más abajo.

3) Si la suma es negativa, la fuerza de flotabilidad no es suficiente para compensar al peso del cubo y éste se hundiría irremediablemente hasta llegar al fondo del mar.

El caso número 2, en el que el cubo queda parcialmente sumergido en la superficie del agua, podemos utilizarlo para entender por qué flotan los barcos. Claro, hasta el momento ya sabemos que cuando el cubo se encuentra completamente sumergido, la fuerza de flotabilidad 𝐹 se calcula tal y como hemos indicado más arriba. Si la densidad del material del que está hecho el cubo es más pequeña que la densidad del fluido en el que el cubo está inmerso 𝜌 > 𝜌𝑐, el cubo asciende hasta alcanzar la superficie donde permanece parcialmente sumergido. Para obtener la proporción del cubo que queda bajo el agua solo tenemos que igualar las dos fuerzas y obtener el volumen del cubo que debería estar sumergido para que la fuerza de flotabilidad igual al peso, que resulta ser  (𝜌𝑐 / 𝜌)𝐿³< 𝐿³. Cuanto mayor sea la densidad del fluido respecto a la densidad del cubo, menor será el volumen del cubo que queda sumergido.

El resultado que hemos obtenido anteriormente se puede generalizar para cuerpos con geometrías más complejas que la del cubo de Rubik que hemos usado nosotros. Es posible demostrar, con ayuda del cálculo integral y del teorema de Gauss, que la fuerza de flotabilidad se puede expresar, de forma general, como 𝐹 = 𝜌𝑔𝑉, donde 𝑉 representan el volumen del cuerpo que está sumergido en el fluido que consideremos. La construcción de barcos, desde la antigüedad, se basa en esta idea. El diseño trata de buscar  minimizar el peso del barco, usando para ello materiales lo más ligeros posibles, maximizando la flotabilidad con un diseño apropiado del casco del barco. Obviamente, no es lo mismo el diseño de un barco que se mueve a baja velocidad que uno pensado para desplazamientos rápidos, donde el casco se eleva para disminuir la superficie de contacto con el agua reduciendo, de esta forma, la resistencia que el líquido presenta al desplazamiento del barco. En barcos lentos, como pueden ser los barcos de transporte de mercancías, el buque navegando desplaza prácticamente el mismo volumen de agua sumergida que en parado.

Una de las aplicaciones más espectaculares del principio de Arquímedes es, sin duda, el submarino. Concebido por Isaac Peral en 1884, el primer submarino construido fue botado  en 1888 consiguiendo, tras unos pocos ensayos, simular el ataque a un navío durante la noche volviendo a puerto sin ser detectado. Unos años más tarde, su diseño fue mejorado por John Phillip Holland sustituyendo las baterías que Peral instaló como sistema de propulsión por un motor de combustión interna.

El principio de funcionamiento del submarino es conceptualmente sencillo. Está compuesto por un doble casco que forma una cámara que puede llenarse de aire o agua en función de si se quiere que el submarino descienda o ascienda. Cuando el submarino se encuentra en flotación, se introduce agua dentro de esa cámara aumentando, así, su peso. Puesto que la flotabilidad depende del volumen del casco interior, a medida que se llena de agua la cámara conseguimos un desplazamiento controlado hacia aguas más profundas. Por el contrario, para ascender, se vacía de agua la cámara formada por los dos cascos llenándola de aire comprimido. Con esta sencilla maniobra, se consigue disminuir el peso y aumentar la flotabilidad del  submarino. A medida que el submarino desciende a mayores profundidades, la presión que debe soportar el casco es mayor. En el diseño de submarinos se define la máxima profundidad de operación y la profundidad de colapso. La primera marca la máxima profundidad a la que el submarino podría sumergirse para operación normal mientras la segunda es la profundidad a la que el casco del submarino fallaría por colapso estructural. Los submarinos atómicos modernos de la clase Seawolf son capaces de alcanzar profundidades de operación de 490 metros [2] (47.4 atmósferas de presión) y profundidades de colapso de 730 metros (70 atmósferas de presión).

En el año 2012, el director de cine James Cameron descendió, con la ayuda de un submarino especialmente diseñado para soportar altas presiones, hasta los 11000 metros de profundidad. El batiscafo que le protegía soportó cerca de 1064 atmósferas de presión.

De forma rutinaria, ciertos mamíferos marinos alcanzan 1500 metros de profundidad en busca de alimento. Como hemos aprendido anteriormente, el balance entre la flotabilidad y el peso determina la profundidad a la que un cuerpo sumergido encuentra el equilibrio. Por una razón u otra, peces y mamíferos marinos se ven obligado a modificar la profundidad a la que nadan, acción que, en principio, implicaría un esfuerzo muscular y un consumo de energía. Para entender este hecho, recurro una vez más al ejemplo de la piscina para que el lector experimente en su propio cuerpo el esfuerzo que es necesario realizar para mantener la profundidad de inmersión. Claro, si no podemos cambiar nuestro peso y no podemos modificar nuestra flotabilidad, la única manera de permanece estacionarios a una distancia de la superficie es nadando, es decir, realizando una fuerza que compense el exceso de peso, que nos llevaría al fondo, o de flotabilidad, que nos llevaría a la superficie.

Los peces y mamíferos marinos han desarrollado un órgano extraordinario que permite modificar su densidad e igualarla a la del agua que les rodea para evitar malgastar energía en mantener su profundidad. La vejiga natatoria es un órgano de flotación con paredes flexibles, que se sitúa en la columna vertebral y que permite modificar la densidad del pez introduciendo aire en ella cada vez que acceden a la superficie del agua. Para modificar su densidad, expulsan poco a poco el aire de la vejiga hasta llegar a la profundidad deseada. De esa manera, solo es necesario hacer un esfuerzo muscular para regresar a la superficie del agua,  donde llenaría de nuevo su vejiga para volver a sumergirse.



[1] Claro, como la densidad del agua es  𝜌=1000 kg/m³, para que la presión aumente en una atmósfera, el espesor de la columna de agua sobre nosotros debe ser  𝑧 = 101300/(1000·9.8) = 10.33 𝑚 .

[2] Federation of American Scientists (8 December 1998). "Run Silent, Run Deep"Military Analysis Network. Retrieved 10 May 2010.



Mario Sánchez Sanz

Doctor en Ingeniería Matemática

Profesor Titular, Universidad Carlos III de Madrid


Doctor en Ingeniería Matemática por la Universidad Carlos III de Madrid en 2007. Ese mismo año se incorporó a la ETSI Aeronáuticos de la Universidad Politécnica de Madrid tras recibir una beca Juan de la Cierva.

Tras varias estancias de investigación en la Universidad de East Anglia (Norwich, UK), en la Universidad de Yale (New Haven, USA), en la Universidad de California en Berkeley (Berkeley, USA) y en la Universidad California en San Diego (San Diego, USA) , se incorporó como profesor titular de Mecánica de Fluidos en la Universidad Carlos III en Junio de 2012.

Su investigación se centra en la mejora de la eficiencia de la combustión de biocombustibles y combustibles fósiles, la dinámica de gases reactivos y no reactivos y los sistemas de producción de potencia portátil (MEMS, baterías sin membrana).