¿Qué es la entropía y cómo lidiar con ella? ¿Entropía? ¡Es sencillo! que es entropia

Entropía es una palabra que muchos han escuchado pero pocos entienden. Y vale la pena reconocer que es realmente difícil comprender completamente la esencia completa de este fenómeno. Sin embargo, esto no debe asustarnos. Mucho de lo que nos rodea, de hecho, solo podemos explicarlo superficialmente. Y no estamos hablando de la percepción o el conocimiento de ningún individuo en particular. No. Estamos hablando de la totalidad. el conocimiento científico que tiene la humanidad.

Existen serias lagunas no solo en el conocimiento de las escalas galácticas, por ejemplo, en preguntas sobre agujeros de gusano, sino también en lo que nos rodea todo el tiempo. Por ejemplo, todavía hay debate sobre la naturaleza física de la luz. ¿Y quién puede resolver el concepto de tiempo? Hay muchas preguntas de este tipo. Pero en este artículo nos centraremos en la entropía. Durante muchos años, los científicos han luchado con el concepto de "entropía". La química y la física van de la mano en el estudio de esto. Intentaremos descubrir qué se ha conocido hasta nuestro tiempo.

Introducción del concepto en la comunidad científica

Por primera vez el concepto de entropía fue introducido en el ambiente de los especialistas por el destacado matemático alemán Rudolf Julius Emmanuel Clausius. En términos simples, el científico decidió averiguar a dónde va la energía. ¿En qué sentido? A modo de ilustración, no recurriremos a los numerosos experimentos y conclusiones complejas de un matemático, sino que tomaremos un ejemplo que nos es más familiar de la vida cotidiana.

Debe tener muy en cuenta que cuando carga, por ejemplo, la batería de un teléfono móvil, la cantidad de energía que se acumula en las baterías será menor que la que realmente recibe de la red. Hay ciertas pérdidas. Y en la vida cotidiana estamos acostumbrados. Pero el hecho es que pérdidas similares ocurren en otros sistemas cerrados. Y para los físicos-matemáticos, esto ya es un problema serio. Rudolf Clausius se dedicó al estudio de este tema.

Como resultado, dedujo un hecho de lo más curioso. Si, nuevamente, eliminamos la terminología compleja, se reducirá al hecho de que la entropía es la diferencia entre un proceso ideal y uno real.

Imagina que tienes una tienda. Y recibió 100 kilogramos de pomelos a la venta a un precio de 10 tugriks por kilogramo. Poniendo un margen de beneficio de 2 tugriks por kilo, recibirá 1200 tugriks como resultado de la venta, entregue el monto adeudado al proveedor y obtenga una ganancia de doscientos tugriks.

Ahora, esa era una descripción del proceso ideal. Y cualquier comerciante sabe que para cuando se vendan todos los pomelos, se habrán reducido en un 15 por ciento. Y el 20 por ciento se pudrirá por completo, y simplemente tendrán que cancelarse. Pero este es un proceso real.

Así, el concepto de entropía, que fue introducido en el entorno matemático por Rudolf Clausius, se define como la relación de un sistema en el que el aumento de entropía depende de la relación entre la temperatura del sistema y el valor del cero absoluto. De hecho, muestra el valor de la energía gastada (perdida).

Indicador de medida de caos

Todavía se puede decir con cierto grado de convicción que la entropía es una medida del caos. Es decir, si tomamos la habitación de un estudiante ordinario como modelo de un sistema cerrado, entonces un uniforme escolar que no se ha guardado ya caracterizará cierta entropía. Pero su valor en esta situación será pequeño. Pero si, además de esto, desparrama juguetes, trae palomitas de maíz de la cocina (por supuesto, dejándolas caer un poco) y deja todos los libros de texto desordenados sobre la mesa, entonces la entropía del sistema (y en este caso particular, este habitación) aumentará dramáticamente.

asuntos complejos

La entropía de la materia es un proceso muy difícil de describir. Muchos científicos durante el siglo pasado han contribuido al estudio del mecanismo de su trabajo. Además, el concepto de entropía es utilizado no solo por matemáticos y físicos. También ocupa un lugar bien merecido en la química. Y algunos artesanos con su ayuda incluso explican los procesos psicológicos en las relaciones entre las personas. Rastreemos la diferencia en las formulaciones de los tres físicos. Cada uno de ellos revela la entropía del otro lado, y su combinación nos ayudará a pintar un cuadro más completo para nosotros mismos.

declaración de clausio

El proceso de transferencia de calor de un cuerpo con una temperatura más baja a un cuerpo con una más alta es imposible.

Es fácil verificar este postulado. Nunca podrás calentar, digamos, a una persona congelada con las manos frías. Pequeño perrito no importa cuánto quieras ayudarlo. Por lo tanto, tendrás que ponerlo en tu seno, donde la temperatura es más alta de lo que es en este momento.

La afirmación de Thomson

Un proceso es imposible, cuyo resultado sería la realización del trabajo debido al calor extraído de un cuerpo.

Y si es bastante simple, significa que es físicamente imposible diseñar una máquina de movimiento perpetuo. La entropía de un sistema cerrado no lo permitirá.

declaración de Boltzmann

La entropía no puede disminuir en sistemas cerrados, es decir, en aquellos que no reciben aporte energético externo.

Esta formulación sacudió la fe de muchos seguidores de la teoría de la evolución y les hizo pensar seriamente en la existencia de un Creador inteligente en el Universo. ¿Por qué?

Porque por defecto, en un sistema cerrado, la entropía siempre aumenta. Y así el caos se intensifica. Sólo se puede reducir a través del suministro de energía externo. Y observamos esta ley todos los días. Si no cuida el jardín, la casa, el automóvil, etc., simplemente perderán su valor.

En una megaescala, nuestro universo también es un sistema cerrado. Y los científicos llegaron a la conclusión de que nuestra propia existencia debería indicar que este suministro de energía externo proviene de alguna parte. Por eso, hoy a nadie le extraña que los astrofísicos crean en Dios.

flecha del tiempo

Otra ilustración muy ingeniosa de la entropía puede representarse como una flecha del tiempo. Es decir, la entropía muestra en qué dirección se moverá físicamente el proceso.

Y, de hecho, es poco probable que, al enterarse del despido del jardinero, espere que el territorio del que era responsable se vuelva más limpio y bien cuidado. Todo lo contrario: si no contrata a otro trabajador, después de un tiempo, incluso el más Hermoso jardin llegará a un punto muerto.

Entropía en química

En la disciplina "Química" la entropía es un indicador importante. En algunos casos, su valor afecta el curso de las reacciones químicas.

¿Quién no ha visto fotogramas de largometrajes en los que los personajes portaban con mucho cuidado recipientes de nitroglicerina, temiendo provocar una explosión con un movimiento repentino y descuidado? Era una ayuda visual para el principio de entropía en una sustancia química. Si su indicador alcanzara un nivel crítico, comenzaría una reacción, como resultado de lo cual se produciría una explosión.

orden de desorden

A menudo se argumenta que la entropía es el deseo de caos. En general, la palabra "entropía" significa transformación o rotación. Ya hemos dicho que caracteriza la acción. La entropía de un gas es muy interesante en este contexto. Tratemos de imaginar cómo sucede.

Tomamos un sistema cerrado que consta de dos contenedores conectados, cada uno de los cuales contiene gas. La presión en los recipientes, hasta que se conectaron herméticamente entre sí, era diferente. Imagina lo que sucedió a nivel molecular cuando se juntaron.

La multitud de moléculas, que estaba bajo una presión más fuerte, corrió inmediatamente hacia sus compañeros, que antes habían vivido bastante libremente. Por lo tanto, aumentaron la presión allí. Se puede comparar con la forma en que el agua salpica en una bañera. Corriendo hacia un lado, inmediatamente corre hacia el otro. Así son nuestras moléculas. Y en nuestro sistema, idealmente aislado de influencias externas, empujarán hasta que se establezca un equilibrio impecable en todo el volumen. Y ahora, cuando haya exactamente la misma cantidad de espacio alrededor de cada molécula que la vecina, todo se calmará. Y esta será la entropía más alta en química. Se detendrán los giros y las transformaciones.

entropía estándar

Los científicos no abandonan los intentos de simplificar y clasificar incluso el desorden. Dado que el valor de la entropía depende de muchas condiciones que lo acompañan, se introdujo el concepto de "entropía estándar". Los valores se resumen en tablas especiales para que pueda realizar cálculos fácilmente y resolver varios problemas aplicados.

Por defecto, los valores de entropía estándar se consideran en condiciones de presión de una atmósfera y temperatura de 25 grados centígrados. A medida que aumenta la temperatura, esta cifra también aumenta.

Códigos y cifras

También existe la entropía de la información. Está diseñado para ayudar en el cifrado de mensajes codificados. En relación con la información, la entropía es el valor de la probabilidad de predictibilidad de la información. Y si en términos muy simples, así de fácil será descifrar el cifrado interceptado.

¿Cómo funciona? A primera vista, parece que sin al menos algunos datos iniciales, es imposible entender el mensaje codificado. Pero no es así. Aquí es donde entra en juego la probabilidad.

Imagina una página con un mensaje encriptado. Sabes que se usó el idioma ruso, pero los caracteres son completamente desconocidos. ¿Dónde empezar? Considere: ¿cuál es la probabilidad de que la letra "b" aparezca en esta página? ¿Y la posibilidad de tropezar con la letra "o"? Entiendes el sistema. Los símbolos que aparecen con mayor frecuencia (y con menor frecuencia; este también es un indicador importante) se calculan y comparan con las características del idioma en el que se redactó el mensaje.

Además, hay combinaciones de letras frecuentes y, en algunos idiomas, sin cambios. Este conocimiento también se utiliza para descifrar. Por cierto, fue este método el que utilizó el famoso Sherlock Holmes en la historia "The Dancing Men". De la misma manera, los códigos fueron descifrados en vísperas de la Segunda Guerra Mundial.

Y la entropía de la información está diseñada para aumentar la confiabilidad de la codificación. Gracias a las fórmulas derivadas, los matemáticos pueden analizar y mejorar las opciones que ofrecen las cifras.

Conexión con la materia oscura

Hay muchas teorías que esperan ser confirmadas. Uno de ellos conecta el fenómeno de la entropía con uno descubierto hace relativamente poco tiempo: dice que la energía perdida simplemente se convierte en oscuridad. Los astrónomos admiten que solo el 4 por ciento de nuestro universo es materia conocida por nosotros. Y el 96 por ciento restante está ocupado por lo inexplorado en este momento: el oscuro.

Recibió tal nombre debido a que no interactúa con la radiación electromagnética y no la emite (como todos los objetos conocidos hasta ese momento en el Universo). y por lo tanto en este escenario desarrollo de la ciencia, el estudio de la materia oscura y sus propiedades no es posible.

Entropía. Quizás este es uno de los conceptos más difíciles de entender que puedes encontrar en un curso de física, al menos cuando se trata de física clásica. Pocos licenciados en física pueden explicar de qué se trata. Sin embargo, la mayoría de los problemas relacionados con la comprensión de la entropía pueden resolverse comprendiendo una cosa. La entropía es cualitativamente diferente de otras magnitudes termodinámicas como la presión, el volumen o la energía interna, porque no es una propiedad de un sistema, sino de cómo consideramos este sistema. Desafortunadamente, en el curso de la termodinámica, generalmente se considera a la par con otras funciones termodinámicas, lo que exacerba el malentendido.

Entonces, ¿qué es la entropía?

En pocas palabras, entonces

La entropía es la cantidad de información que no conoces sobre un sistema.

Por ejemplo, si me preguntas dónde vivo y te respondo: en Rusia, entonces mi entropía por ti será alta, después de todo, Rusia es un país grande. Si te doy mi código postal: 603081, mi entropía por ti disminuirá a medida que obtengas más información.


El código postal contiene seis dígitos, así que le di seis caracteres de información. La entropía de tu conocimiento de mí ha disminuido en aproximadamente 6 caracteres. (En realidad, no del todo, porque algunos índices corresponden a más direcciones y otros a menos, pero lo dejaremos de lado).

O considere otro ejemplo. Supongamos que tengo diez dados (hexagonales) y, al tirarlos, les informo que su suma es 30. Sabiendo solo esto, no puede decir qué números específicos hay en cada uno de los dados: no tiene suficiente información. Estos números específicos en los huesos en la física estadística se denominan microestados, y la cantidad total (30 en nuestro caso) se denomina macroestado. Hay 2.930.455 microestados que suman 30. Entonces la entropía de este macroestado es de aproximadamente 6.5 símbolos (la mitad aparece debido a que al numerar los microestados en orden en el séptimo dígito, no todos los dígitos están disponibles para ti, sino solo 0, 1 y 2).


¿Y si te dijera que la suma es 59? Solo hay 10 microestados posibles para este macroestado, por lo que su entropía es solo un símbolo. Como puede ver, diferentes macroestados tienen diferentes entropías.

Ahora déjame decirte que la suma de los primeros cinco dados es 13 y la suma de los otros cinco es 17, por lo que el total es nuevamente 30. Sin embargo, tienes más información en este caso, por lo que la entropía del sistema debería caer por ti. Y, de hecho, 13 en cinco huesos, puedes obtener el 420. diferentes caminos, y 17 - 780, es decir numero total los microestados serán solo 420 x 780 = 327 600. La entropía de tal sistema es aproximadamente un símbolo menos que en el primer ejemplo.

Medimos la entropía como el número de caracteres necesarios para escribir el número de microestados. Matemáticamente, este número se define como un logaritmo, por lo tanto, denotando la entropía con el símbolo S, y el número de microestados con el símbolo Ω, podemos escribir:

Esto no es más que la fórmula de Boltzmann (hasta un factor k, que depende de las unidades de medida elegidas) para la entropía. Si un macroestado corresponde a un microestado, su entropía es igual a cero según esta fórmula. Si tienes dos sistemas, entonces la entropía total es igual a la suma de las entropías de cada uno de estos sistemas, porque log(AB) = log A + log B.

De la descripción anterior, queda claro por qué uno no debe pensar en la entropía como una propiedad intrínseca del sistema. El sistema tiene cierta energía interna, cantidad de movimiento, carga, pero no tiene cierta entropía: la entropía de diez huesos depende de si conoces solo su suma total, o también las sumas parciales de cinco de huesos.

En otras palabras, la entropía es cómo describimos un sistema. Y esto la hace muy diferente a otras magnitudes con las que se acostumbra trabajar en física.

Ejemplo físico: gas debajo de un pistón

El sistema clásico considerado en física es el gas en el recipiente debajo del pistón. El microestado de un gas es la posición y el momento (velocidad) de cada una de sus moléculas. Esto es equivalente a conocer el valor obtenido en cada dado en el ejemplo anterior. El macroestado de un gas se describe mediante cantidades tales como presión, densidad, volumen, composición química. Es como la suma de los valores lanzados en los dados.


Las cantidades que describen un macroestado se pueden relacionar entre sí a través de la llamada "ecuación de estado". Es la presencia de esta conexión la que permite, sin conocer los microestados, predecir qué pasará con nuestro sistema si empezamos a calentarlo o a mover el pistón. Para un gas ideal, la ecuación de estado tiene una forma simple:

aunque probablemente estés más familiarizado con la ecuación de Clapeyron-Mendeleev pV = νRT - es la misma ecuación, solo con un par de constantes añadidas para confundirte. Cuantos más microestados corresponden a un macroestado dado, es decir, cuantas más partículas forman parte de nuestro sistema, mejor lo describe la ecuación de estado. Para un gas, los valores característicos del número de partículas son iguales al número de Avogadro, es decir, son alrededor de 1023.

Los valores como la presión, la temperatura y la densidad se denominan promediados, ya que son la manifestación promediada de microestados en constante cambio correspondientes a un macroestado dado (o, más precisamente, macroestados cercanos a él). Para averiguar en qué microestado se encuentra el sistema, necesitamos mucha información: necesitamos saber la posición y la velocidad de cada partícula. La cantidad de esta información se llama entropía.

¿Cómo cambia la entropía con un cambio en el macroestado? Esto es facil de entender. Por ejemplo, si calentamos un poco el gas, entonces aumentará la velocidad de sus partículas, por lo tanto, también aumentará el grado de nuestra ignorancia sobre esta velocidad, es decir, aumentará la entropía. O bien, si aumentamos el volumen del gas retrayendo rápidamente el pistón, aumentará el grado de nuestra ignorancia de la posición de las partículas y también aumentará la entropía.

Cuerpos Rígidos y Energía Potencial

Si en lugar de gas consideramos algún cuerpo sólido, especialmente con una estructura ordenada, como en los cristales, por ejemplo, una pieza de metal, entonces su entropía será baja. ¿Por qué? Porque conociendo la posición de un átomo en tal estructura, conoces la posición de todos los demás (también están ordenados en una estructura cristalina regular), pero las velocidades de los átomos son pequeñas, porque no pueden volar lejos de su posición y sólo oscilan ligeramente alrededor de la posición de equilibrio.


Si una pieza de metal está en el campo gravitatorio (por ejemplo, se eleva sobre la superficie de la Tierra), entonces energía potencial de cada átomo en un metal es aproximadamente igual a la energía potencial de otros átomos, y la entropía asociada con esta energía es baja. Esto distingue la energía potencial de la energía cinética, que para el movimiento térmico puede variar mucho de un átomo a otro.

Si se suelta una pieza de metal elevada a cierta altura, entonces su energía potencial se convertirá en energía cinética, pero la entropía prácticamente no aumentará, porque todos los átomos se moverán aproximadamente de la misma manera. Pero cuando la pieza golpea el suelo, durante el impacto, los átomos de metal obtendrán una dirección de movimiento aleatoria y la entropía aumentará dramáticamente. La energía cinética del movimiento dirigido se convertirá en la energía cinética del movimiento térmico. Antes del impacto, sabíamos aproximadamente cómo se mueve cada átomo, ahora hemos perdido esta información.

Comprender la segunda ley de la termodinámica.

La segunda ley de la termodinámica establece que la entropía ( sistema cerrado) es siempre creciente. Ahora podemos entender por qué: porque es imposible obtener de repente más información sobre los microestados. Una vez que haya perdido información sobre un microestado (como cuando una pieza de metal golpea el suelo), no podrá recuperarla.


Volvamos a los dados. Recordemos que un macroestado con una suma de 59 tiene una entropía muy baja, pero tampoco es tan fácil de obtener. Si lanzas los dados una y otra vez, entonces las sumas (macroestados) que corresponden a un mayor número de microestados caerán, es decir, se realizarán macroestados con alta entropía. La suma de 35 tiene la entropía más alta, y es esta suma la que caerá con más frecuencia que otras. Esto es lo que dice la segunda ley de la termodinámica. Cualquier interacción aleatoria (no controlada) conduce a un aumento de la entropía, al menos hasta que alcanza su máximo.

mezcla de gases

Y un ejemplo más para reforzar lo dicho. Supongamos que tenemos un contenedor en el que hay dos gases separados por un tabique ubicado en el medio del contenedor. Llamemos a las moléculas de un gas azul y al otro rojo.

Si abre la partición, los gases comenzarán a mezclarse, porque el número de microestados en los que se mezclan los gases es mucho mayor que los microestados en los que se separan, y todos los microestados, por supuesto, son igualmente probables. Cuando abrimos el tabique, para cada molécula perdimos información sobre en qué lado del tabique está ahora. Si hubiera N moléculas, entonces se perderían N bits de información (los bits y los símbolos, en este contexto, son, de hecho, lo mismo, y difieren solo por un cierto factor constante).

Lidiando con el Demonio de Maxwell

Y finalmente, consideremos la solución dentro de nuestro paradigma de la famosa paradoja del demonio de Maxwell. Déjame recordarte que es de la siguiente manera. Supongamos que tenemos gases mixtos de moléculas azules y rojas. Volvamos a colocar el tabique, haciéndole un pequeño agujero, en el que pondremos un demonio imaginario. Su tarea es dejar solo rojos de izquierda a derecha y solo azules de derecha a izquierda. Es obvio que después de un tiempo los gases se separarán nuevamente: todas las moléculas azules estarán a la izquierda de la partición y todas las rojas a la derecha.

Resulta que nuestro demonio bajó la entropía del sistema. Al demonio no le pasó nada, es decir, su entropía no cambió, y nuestro sistema se cerró. ¡Resulta que hemos encontrado un ejemplo cuando la segunda ley de la termodinámica no se cumple! ¿Cómo fue esto posible?

Esta paradoja se resuelve, sin embargo, de manera muy simple. Después de todo, la entropía no es una propiedad de un sistema, sino de nuestro conocimiento sobre este sistema. Usted y yo sabemos poco sobre el sistema, por lo que nos parece que su entropía está disminuyendo. Pero nuestro demonio sabe mucho sobre el sistema: para separar moléculas, debe conocer la posición y la velocidad de cada una de ellas (al menos al acercarse a él). Si sabe todo acerca de las moléculas, entonces, desde su punto de vista, la entropía del sistema es, de hecho, igual a cero: simplemente no tiene la información que falta al respecto. En este caso, la entropía del sistema, como era igual a cero, se mantuvo igual a cero, y la segunda ley de la termodinámica no se violó en ninguna parte.

Pero incluso si el demonio no conoce toda la información sobre el microestado del sistema, al menos necesita saber el color de la molécula que vuela hacia él para saber si saltársela o no. Y si el número total de moléculas es N, entonces el demonio debe tener N bits de información sobre el sistema, pero esa es la cantidad de información que perdimos cuando abrimos la partición. Es decir, la cantidad de información que se pierde es exactamente igual a la cantidad de información que se necesita obtener sobre el sistema para devolverlo a su estado original, y esto suena bastante lógico y, de nuevo, no contradice la segunda ley de la termodinámica. .

Esta publicación es una traducción libre de la respuesta que Mark Eichenlaub dio a la pregunta ¿Cuál es una forma intuitiva de entender la entropía?, preguntada en Quora.

ver también "Portal Físico"

La entropía se puede interpretar como una medida de la incertidumbre (desorden) de un determinado sistema, por ejemplo, algún tipo de experiencia (prueba), que puede tener diferentes resultados y, por lo tanto, la cantidad de información. Así, otra interpretación de la entropía es la capacidad de información del sistema. Esta interpretación está relacionada con el hecho de que el creador del concepto de entropía en la teoría de la información (Claude Shannon) primero quiso llamar a esta cantidad información.

H = Iniciar sesión ⁡ norte ¯ = - ∑ yo = 1 norte pags yo Iniciar sesión ⁡ pags yo . (\displaystyle H=\log (\overline (N))=-\sum _(i=1)^(N)p_(i)\log p_(i).)

Una interpretación similar también es válida para la entropía de Renyi, que es una de las generalizaciones del concepto de entropía de la información, pero en este caso el número efectivo de estados del sistema se determina de manera diferente (se puede demostrar que el número efectivo de estados corresponde a la entropía de Renyi, definida como una potencia media ponderada con el parámetro q ≤ 1 (\displaystyle q\leq 1) de los valores 1 / p yo (\displaystyle 1/p_(i))) .

Cabe señalar que la interpretación de la fórmula de Shannon basada en el promedio ponderado no es su justificación. Una derivación rigurosa de esta fórmula se puede obtener a partir de consideraciones combinatorias utilizando la fórmula asintótica de Stirling y radica en que la distribución combinatoria (es decir, el número de formas en que se puede realizar) después de tomar el logaritmo y normalizar en el límite coincide con la expresión para la entropía en la forma propuesta por Shannon.

En el sentido amplio en el que la palabra se usa a menudo en la vida cotidiana, entropía significa una medida del desorden o caos de un sistema: cuanto menos estén sujetos los elementos del sistema a cualquier orden, mayor será la entropía.

1 . Permita que algún sistema pueda residir en cada uno de N (\ estilo de visualización N) estados disponibles con probabilidad p yo (\displaystyle p_(i)), donde yo = 1 , . . . , N (\displaystyle i=1,...,N). entropía H (\ estilo de visualización H) es una función de sólo probabilidades PAGS = (pags 1 , . . . , pags norte) (\displaystyle P=(p_(1),...,p_(N))): H = H (P) (\displaystyle H=H(P)). 2 . Para cualquier sistema P (\ estilo de visualización P) justo H (P) ≤ H (P tu norte yo f) (\displaystyle H(P)\leq H(P_(unif))), donde PAGS tu norte yo F (\displaystyle P_(unif))- un sistema con una distribución uniforme de probabilidades: pags 1 = pags 2 = . . . = pags norte = 1 / norte (\displaystyle p_(1)=p_(2)=...=p_(N)=1/N). 3 . Si agrega un estado al sistema pag norte + 1 = 0 (\displaystyle p_(N+1)=0), entonces la entropía del sistema no cambiará. 4 . Entropía del conjunto de dos sistemas P (\ estilo de visualización P) y Q (\ estilo de visualización Q) tiene la forma H (P Q) = H (P) + H (Q / P) (\displaystyle H(PQ)=H(P)+H(Q/P)), donde H (Q / P) (\displaystyle H(Q/P))- promedio de conjunto P (\ estilo de visualización P) entropía condicional Q (\ estilo de visualización Q).

Este conjunto de axiomas conduce únicamente a una fórmula para la entropía de Shannon.

Uso en varias disciplinas.

  • La entropía termodinámica es una función termodinámica que caracteriza la medida de la disipación irreversible de energía en ella.
  • En física estadística: caracteriza la probabilidad de un cierto estado macroscópico del sistema.
  • En estadística matemática, una medida de la incertidumbre de una distribución de probabilidad.
  • Entropía de la información: en la teoría de la información, una medida de la incertidumbre de la fuente de los mensajes, determinada por las probabilidades de aparición de ciertos caracteres durante su transmisión.
  • Entropía de un sistema dinámico - en la teoría de sistemas dinámicos, una medida de aleatoriedad en el comportamiento de las trayectorias de un sistema.
  • La entropía diferencial es una generalización formal del concepto de entropía para distribuciones continuas.
  • La entropía de reflexión es una información sobre un sistema discreto que no se reproduce cuando el sistema se refleja a través de la totalidad de sus partes.
  • La entropía en la teoría de control es una medida de la incertidumbre del estado o comportamiento de un sistema bajo condiciones dadas.

en termodinámica

El concepto de entropía fue introducido por primera vez por Clausius en termodinámica en 1865 para definir una medida de la disipación irreversible de energía, una medida de la desviación de un proceso real de uno ideal. Definida como la suma de los calores reducidos, es función de estado y permanece constante en los procesos reversibles cerrados, mientras que en los irreversibles su variación es siempre positiva.

Matemáticamente, la entropía se define como una función del estado de un sistema, definido hasta una constante arbitraria. La diferencia de entropías en dos estados de equilibrio 1 y 2, por definición, es igual a la cantidad reducida de calor ( δ Q / T (\displaystyle \delta Q/T)), que debe informarse al sistema para transferirlo del estado 1 al estado 2 a lo largo de cualquier camino cuasi-estático:

Δ S 1 → 2 = S 2 − S 1 = ∫ 1 → 2 δ Q T (\displaystyle \Delta S_(1\to 2)=S_(2)-S_(1)=\int \limits _(1\to 2)(\frac (\delta Q)(T))). (1)

Dado que la entropía se define hasta una constante arbitraria, podemos condicionalmente tomar el estado 1 como el inicial y poner S 1 = 0 (\displaystyle S_(1)=0). Entonces

S = ∫ δ Q T (\displaystyle S=\int (\frac (\delta Q)(T))), (2.)

Aquí la integral se toma como un proceso cuasiestático arbitrario. Función diferencial S (\ estilo de visualización S) tiene la forma

re S = δ Q T (\displaystyle dS=(\frac (\delta Q)(T))). (3)

La entropía establece una conexión entre macro y microestados. La peculiaridad de esta característica radica en el hecho de que esta es la única función en física que muestra la dirección de los procesos. Dado que la entropía es una función de estado, no depende de cómo se realice la transición de un estado del sistema a otro, sino que está determinada únicamente por los estados inicial y final del sistema.

entropía(de otro griego. ἐντροπία - giro, transformación) es un término muy utilizado en las ciencias naturales y exactas. Se introdujo por primera vez en el marco de la termodinámica como una función del estado de un sistema termodinámico, que determina la medida de la disipación de energía irreversible. En física estadística, la entropía es una medida de la probabilidad de que ocurra algún estado macroscópico. Además de la física, el término se usa ampliamente en matemáticas: teoría de la información y estadística matemática. La entropía se puede interpretar como una medida de la incertidumbre (desorden) de un determinado sistema (por ejemplo, cualquier experiencia (prueba) que puede tener diferentes resultados y, por lo tanto, la cantidad de información). Otra interpretación de este concepto es la capacidad de información del sistema. Esta interpretación está relacionada con el hecho de que el creador del concepto de entropía en la teoría de la información, Claude Shannon, primero quiso llamar información a esta cantidad. En el sentido amplio en que la palabra se usa a menudo en la vida cotidiana, entropía significa una medida del desorden de un sistema; cuanto menos sujetos estén los elementos del sistema a cualquier orden, mayor será la entropía.

Lo opuesto a la entropía se llama negentropía o, menos comúnmente, extropía.

Uso en varias disciplinas.

  • La entropía termodinámica es una función termodinámica que caracteriza la medida de la disipación irreversible de energía en ella.
  • La entropía de la información es una medida de la incertidumbre de la fuente de los mensajes, determinada por las probabilidades de aparición de ciertos caracteres durante su transmisión.
  • Entropía diferencial - entropía para distribuciones continuas.
  • Entropía de un sistema dinámico - en la teoría de sistemas dinámicos, una medida de aleatoriedad en el comportamiento de las trayectorias de un sistema.
  • La entropía de reflexión es una información sobre un sistema discreto que no se reproduce cuando el sistema se refleja a través de la totalidad de sus partes.
  • La entropía en la teoría de control es una medida de la incertidumbre del estado o comportamiento de un sistema bajo condiciones dadas.

en termodinámica

El concepto de entropía fue introducido por primera vez por Clausius en termodinámica en 1865 para definir una medida de la disipación irreversible de energía, una medida de la desviación de un proceso real de uno ideal. Definida como la suma de los calores reducidos, es función de estado y permanece constante en los procesos reversibles cerrados, mientras que en los irreversibles su variación es siempre positiva.

Matemáticamente, la entropía se define como una función del estado del sistema, igual en un proceso de equilibrio a la cantidad de calor comunicado al sistema o extraído del sistema, relacionado con la temperatura termodinámica del sistema:

dS = \frac(\deltaQ)(T),

donde dS- incremento de entropía; \ delta Q- calor mínimo suministrado al sistema; (T) es la temperatura absoluta del proceso.

La entropía establece una conexión entre macro y microestados. La peculiaridad de esta característica radica en el hecho de que esta es la única función en física que muestra la dirección de los procesos. Dado que la entropía es una función de estado, no depende de cómo se realice la transición de un estado del sistema a otro, sino que está determinada únicamente por los estados inicial y final del sistema.

ver también

Escriba una reseña sobre el artículo "Entropía"

notas

  1. D. N. Zubarev, V. G. Morozov.// Enciclopedia física / D. M. Alekseev, A. M. Baldin, A. M. Bonch-Bruevich, A. S. Borovik-Romanov, B. K. Vainshtein, S. V. Vonsovsky, A. V. Gaponov -Grekhov, S. S. Gershtein, I. I. Gurevich, A. A. Gusev, M. A. Elyashevich, M. E. Zhabotinsky, D. N. Zubarev, D. N. Zubarev B. B. Kadomtsev, I. S. Shapiro, D. V. Shirkov; bajo total edición A. M. Prokhorova. - M .: Enciclopedia soviética, 1988-1999.
  2. Entropía // Gran Enciclopedia Soviética: [en 30 volúmenes] / cap. edición AM Prokhorov. - 3ra ed. - m : Enciclopedia soviética, 1969-1978.

Literatura

  • Shambadal P. Desarrollo y aplicación del concepto de entropía. - M.: Nauka, 1967. - 280 p.
  • Martín N., Inglaterra J. teoría matemática entropía - M.: Mir, 1988. - 350 p.
  • Khinchin A. Ya.// Avances en Ciencias Matemáticas. - 1953. - Vol. 8, núm. 3(55) . - S. 3-20.
  • Glensdorf P., Prigogine I. Teoría termodinámica de la estructura, estabilidad y fluctuaciones. - M., 1973.
  • Prigogine I., Stengers I. Orden en el caos. Un nuevo diálogo entre el hombre y la naturaleza. -M., 1986.
  • Brullouin L. Ciencia y teoría de la información. - M., 1960.
  • Viner N. Cibernética y sociedad. - M., 1958.
  • Viner N. Cibernética o control y comunicación en animal y máquina. - M., 1968.
  • De Groot S., Mazur P. Termodinámica del no equilibrio. - M., 1964.
  • Sommerfeld A. Termodinámica y física estadística. - M., 1955.
  • Petrushenko L. A. Automovimiento de la materia a la luz de la cibernética. - M., 1974.
  • Ashby W. R. Introducción a la cibernética. - M., 1965.
  • Yaglom A. M., Yaglom I. M. Probabilidad e información. - M., 1973.
  • Volkenstein MV Entropía e información. - M.: Nauka, 1986. - 192 p.

Un extracto que caracteriza a Entropy

– ¡Ay, nies bravos, ay, mes bons, mes bons amis! Voila des hommes! ¡ay, mes bravos, mes bons amis! [¡Oh bien hecho! ¡Oh mis buenos, buenos amigos! ¡Aquí está la gente! ¡Oh mis buenos amigos!] - y, como un niño, inclinó la cabeza sobre el hombro de un soldado.
Mientras tanto, Morel estaba sentado en El mejor lugar rodeado de soldados.
Morel, un francés bajo y fornido, con los ojos inflamados y llorosos, atado con un pañuelo de mujer sobre la gorra, vestía un abrigo de piel de mujer. Él, aparentemente borracho, pasó su brazo alrededor del soldado que estaba sentado a su lado y cantó una canción francesa con voz ronca y quebrada. Los soldados se mantuvieron de costado, mirándolo.
- Vamos, vamos, ¿me enseñas cómo? Pasaré rápido. ¿Cómo?..- dijo el cantautor bromista, a quien Morel estaba abrazando.
vive henri quatre,
vive ce roi vaillanti -
[¡Larga vida a Enrique IV!
¡Viva este valiente rey!
etc. (canción francesa)]
cantó Morel, guiñando el ojo.
Ce diablo a quatre…
- ¡Vivarika! Con seruvaru! sidblyaka…” repitió el soldado, agitando su mano y captando la melodía.
- ¡Mira, inteligente! ¡Vaya, jo, jo!..- risas ásperas y alegres surgieron de diferentes lados. Morel, haciendo una mueca, también se rió.
- Bueno, ¡adelante, adelante!
Qui eut el triple talento,
De boire, de battre,
Et d'etre un vert galant...
[Teniendo un triple talento,
beber, pelear
y se amable...]
- Pero también es difícil. ¡Bien, bien, Zaletaev! ..
“Kyu…” dijo Zaletaev con esfuerzo. “Kyu yu yu…” pronunció, sacando diligentemente sus labios, “letriptala, de bu de ba y detravagala,” cantó.
- ¡Oh, es importante! ¡Eso es tan guardián! ay... jo jo jo! "Bueno, ¿todavía quieres comer?"
- Dale un poco de papilla; después de todo, no se comerá pronto por hambre.
De nuevo le dieron papilla; y Morel, riéndose entre dientes, se puso a trabajar en el tercer bombín. Sonrisas alegres aparecieron en todos los rostros de los jóvenes soldados que miraban a Morel. Los viejos soldados, que consideraban indecente dedicarse a tales nimiedades, yacían al otro lado del fuego, pero de vez en cuando, incorporándose sobre los codos, miraban a Morel con una sonrisa.
“La gente también”, dijo uno de ellos, esquivando su abrigo. - Y el ajenjo crece en su raíz.
– ¡Ay! ¡Señor, Señor! ¡Qué estelar, pasión! A las heladas... - Y todo se calmó.
Las estrellas, como si supieran que ahora nadie las vería, jugaron en el cielo negro. Ahora parpadeando, ahora desvaneciéndose, ahora estremeciéndose, susurraban entre ellos algo alegre, pero misterioso.

X
Las tropas francesas se estaban desvaneciendo gradualmente en una progresión matemáticamente correcta. Y ese cruce del Berezina, sobre el que tanto se ha escrito, fue sólo uno de los pasos intermedios en la destrucción del ejército francés, y en absoluto el episodio decisivo de la campaña. Si se ha escrito y escrito tanto sobre Berezina, entonces, por parte de los franceses, esto sucedió solo porque en el puente roto de Berezinsky, los desastres que el ejército francés había sufrido anteriormente de manera uniforme, de repente se agruparon aquí en un momento y en uno trágico. espectáculo que todos recordaron. Por parte de los rusos, hablaron y escribieron tanto sobre Berezina solo porque lejos del teatro de guerra, en San Petersburgo, se elaboró ​​​​un plan (por Pfuel) para capturar a Napoleón en una trampa estratégica en el río Berezina. . Todos estaban convencidos de que todo saldría exactamente como estaba planeado y, por lo tanto, insistieron en que fue el cruce de Berezinsky lo que mató a los franceses. En esencia, los resultados del cruce de Berezinsky fueron mucho menos desastrosos para los franceses en la pérdida de armas y prisioneros que para los rojos, como muestran las cifras.
El único significado del cruce de Berezina radica en el hecho de que este cruce obviamente e indudablemente demostró la falsedad de todos los planes de corte y la validez del único curso de acción posible requerido tanto por Kutuzov como por todas las tropas (masa) - solo siguiendo el enemigo. La multitud de franceses corría con una fuerza de velocidad cada vez mayor, con toda su energía dirigida hacia la meta. Corría como un animal herido y le era imposible mantenerse de pie en el camino. Esto se demostró no tanto por la disposición del cruce como por el movimiento en los puentes. Cuando se rompieron los puentes, soldados desarmados, moscovitas, mujeres con niños, que estaban en el convoy francés, todo, bajo la influencia de la inercia, no se rindió, sino que corrió hacia los botes, hacia el agua congelada.
Este esfuerzo era razonable. La posición tanto de los que huían como de los que los perseguían era igualmente mala. Quedándose con los suyos, cada uno en apuros esperaba la ayuda de un compañero, para cierto lugar que ocupaba entre los suyos. Habiéndose entregado a los rusos, estaba en la misma posición de angustia, pero estaba colocado en un nivel inferior en la sección de satisfacción de las necesidades de la vida. Los franceses no necesitaban tener información correcta de que la mitad de los prisioneros, con los que no sabían qué hacer, a pesar de todas las ganas de los rusos por salvarlos, se morían de frío y de hambre; sintieron que no podía ser de otra manera. Los comandantes y cazadores rusos más compasivos de los franceses, los franceses al servicio de Rusia no pudieron hacer nada por los prisioneros. Los franceses quedaron arruinados por el desastre en el que se encontraba el ejército ruso. Era imposible quitarles el pan y la ropa a los soldados hambrientos y necesarios, para dárselos no a los franceses dañinos, odiados, no culpables, sino simplemente innecesarios. Algunos lo hicieron; pero esa fue la única excepción.
Detrás estaba una muerte segura; había esperanza por delante. Los barcos fueron quemados; no había otra salvación que una huida colectiva, y todas las fuerzas de los franceses se dirigieron a esta huida colectiva.
Cuanto más huían los franceses, más miserables eran sus restos, especialmente después de la Berezina, en la que, como resultado del St. Creyendo que se le atribuiría el fracaso del plan Berezinsky Petersburgo, la insatisfacción con él, el desprecio por él y las burlas se expresaron cada vez con más fuerza. Las bromas y el desprecio, por supuesto, se expresaron de forma respetuosa, en una forma en la que Kutuzov ni siquiera pudo preguntar qué y de qué se le acusaba. No se hablaba en serio; informándole y pidiéndole permiso, fingieron hacer una triste ceremonia, ya sus espaldas le guiñaban el ojo y trataban de engañarlo a cada paso.