¿que es la entropia y neguentropia ejemplos?

teoría de los sistemas de negentropía

Las investigaciones sobre la relación entre la magnitud termodinámica entropía y la evolución de la vida comenzaron a principios del siglo XX. En 1910, el historiador estadounidense Henry Adams imprimió y distribuyó entre las bibliotecas universitarias y los profesores de historia el pequeño volumen A Letter to American Teachers of History (Carta a los profesores de historia estadounidenses), en el que proponía una teoría de la historia basada en la segunda ley de la termodinámica y en el principio de la entropía[1][2].

Las ideas sobre la relación entre la entropía y los organismos vivos han inspirado hipótesis y especulaciones en muchos contextos, como la psicología, la teoría de la información, el origen de la vida y la posibilidad de vida extraterrestre.

En 1863, Rudolf Clausius publicó su célebre memoria Sobre la concentración de los rayos de calor y luz, y sobre los límites de su acción, en la que esbozaba una relación preliminar, basada en sus propios trabajos y en los de William Thomson (Lord Kelvin), entre los procesos vivos y su recién desarrollado concepto de entropía[cita requerida] A partir de ahí, uno de los primeros en especular sobre una posible perspectiva termodinámica de la evolución orgánica fue el físico austriaco Ludwig Boltzmann. En 1875, basándose en los trabajos de Clausius y Kelvin, Boltzmann razonó:

pronunciación de negentropía

En su sentido estricto, «entropía» es un término termodinámico, utilizado por primera vez por el físico alemán Rudolf Clausius (1822-1888) en 1850 para describir la cantidad de calor que debe introducirse en un sistema cerrado para llevarlo a un estado determinado. La Segunda Ley de la Termodinámica, que a menudo se enuncia en términos de trabajo como «es imposible producir trabajo transfiriendo calor de un cuerpo frío a un cuerpo caliente en cualquier proceso autosostenible», también puede expresarse así: «La entropía siempre aumenta en cualquier sistema cerrado que no esté en equilibrio, y permanece constante para un sistema que esté en equilibrio».

La entropía se ha convertido en una potente metáfora. No se sabe con certeza quién introdujo el término en la literatura de ficción, pero es probable que Philip K Dick, que hace uso del concepto en casi toda su obra, fuera el primero en popularizarlo. Lo explica en ¿Sueñan los androides con ovejas eléctricas? (1968), donde la entropía, o el desorden creciente, se imagina como Kipple: «El kipple son los objetos inútiles, como el correo basura o las carpetas de cerillas después de usar la última cerilla, o los envoltorios de los chicles o el homeopape de ayer. Cuando no hay nadie cerca, el kipple se reproduce a sí mismo… todo el universo avanza hacia un estado final de kippleización total y absoluta».

¿es posible la negentropía?

En realidad, la negentropía es un concepto erróneo derivado de la entropía. La negentropía es la pérdida de entropía en un sistema por tener más entropía que sale que entra. Un ejemplo en termodinámica, donde la entropía es el calor dividido por la temperatura, es el flujo de energía de caliente a frío a través de otro medio. Este medio estará en equilibrio energético, es decir, emitirá tanta energía como reciba. Sin embargo, la emisión se produce a una temperatura menor que la inmisión. Esto significa que se emite MÁS entropía de la que se recibe, lo que resulta en una pérdida neta de entropía en el medio que transita. Sin embargo, la cantidad total neta de entropía aumenta. (Ya que la temperatura por la que se conduce el calor es ahora menor que antes).

«De ahí que la incómoda expresión ‘entropía negativa’ pueda ser sustituida por otra mejor: la entropía, tomada con el signo negativo, es en sí misma una medida de orden. Así, el dispositivo por el que un organismo se mantiene inmóvil en un nivel de orden bastante alto (= bajo nivel de entropía) consiste realmente en chupar continuamente el orden del entorno.» (¿Qué es la vida?, pg 79)

vida de negentropía

: una medida de la energía no disponible en un sistema termodinámico cerrado que también suele considerarse una medida del desorden del sistema, que es una propiedad del estado del sistema, y que varía directamente con cualquier cambio reversible de calor en el sistema e inversamente con la temperatura del sistema

factor o cantidad que es una función del estado físico de un sistema mecánico y que es igual al logaritmo de la probabilidad de que se produzca la disposición molecular particular en ese estado

En el caso de los sistemas de información, se trata de una medida de la eficacia de un sistema (como un código o un lenguaje) en la transmisión de información, que es igual al logaritmo del número de mensajes diferentes que pueden enviarse mediante la selección de un mismo conjunto de símbolos y que, por lo tanto, indica el grado de incertidumbre inicial que puede resolverse con cualquier mensaje.

Con su prefijo griego en-, que significa «dentro», y la raíz trop- que aquí significa «cambio», la entropía significa básicamente «cambio dentro (de un sistema cerrado)». El sistema cerrado en el que solemos pensar cuando hablamos de entropía (especialmente si no somos físicos) es el universo entero. Pero la entropía se aplica a sistemas cerrados de cualquier tamaño. La entropía se observa cuando se derrite el hielo de un vaso de agua en una habitación caliente, es decir, cuando se iguala la temperatura de todo lo que hay en la habitación. En un tipo de entropía ligeramente diferente, una gota de colorante alimentario en ese vaso de agua pronto se extiende de forma uniforme. Sin embargo, cuando una persona que no es física utiliza la palabra, suele tratar de describir un colapso a gran escala.

Esta web utiliza cookies propias para su correcto funcionamiento. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad