Entropía
La entropía, en física, en una magnitud que mide la relación entre la energía calórica y la termperatura, es decir, cuánta energía útil hay en un sistema para realizar trabajos.
La entropía se origina en los estudios de la termodinámica para explicar por qué determinados fenómenos que respetan la conservación de energía no se concretan en la realidad.
Para explicarlo de forma simple, imaginemos un cuarto que está dividido en dos partes separadas por una pared. Ahora, supongamos que una de las dos divisiones de la habitación contiene gas comprimido. Entonces, si la pared fuera derrumbada, el gas se expandiría en toda la habitación.
Entropía en termodinámica
Fue entonces Rudolf Clausius quien planteó la segunda ley de la termodinámica: «Es imposible que una máquina autónoma, sin ayuda de un agente externo, transfiera calor de un cuerpo a otro más caliente».
Es decir, continuando con el ejemplo anterior, podemos ver el gas expandirse por todo el cuarto, pero no podemos verlo comprimirse espontáneamente hacia un solo lado.
Posteriormente al planteamiento de Clausius, Ludwig Boltzmann encontró en 1877 la manera de expresar matemáticamente este concepto y desarrolló la siguiente fórmula:
Entropía en su definición moderna
La entropía, en una definición más moderna, se puede entender como el número de microestados equivalentes para un mismo macroestado de un sistema. Es decir, de cuántas formas posibles se pueden colocar los elementos para que el observador pueda medir macroscópicamente lo mismo.
Visto de otro modo, la entropía mide la probabilidad de encontrar un estado debido a la multiplicidad de combinaciones que dan un mismo resultado.
En otras palabras, un estado con una alta entropía es aquel con gran probabilidad de ocurrencia. Por ejemplo, para dos dados lanzados aleatoriamente, que la sumatoria sea 7 es un estado de mayor entropía a que la sumatoria sea 12.
Pero ¿En qué se relaciona este sistema de probabilidad con la ley de la termodinámica que citamos al principio? En resumen, que lo observado es el estado de mayor entropía.
Volviendo al ejemplo del gas, la probabilidad de que sus partículas se mantengan hacia un lado de la habitación es tan infinitamente pequeña que el observador nunca lo verá.
Entropía y economía
El concepto de entropía puede ser usado como sinónimo de desorden al que un sistema económico tiende cuando no se han establecido las regulaciones necesarias. Es decir, sin una intervención del Estado, el sistema económico, según algunos autores, tendería al caos, derivando en crisis como la que observamos en la Gran Recesión.
Es por esta tendencia a la entropía, aseguran algunos analistas, que frente a crisis como la del 2008 fue necesaria además una política monetaria expansiva por parte de la Reserva Federal. De no haber sido así, se especula que la economía estadounidense se hubiese visto más afectada.