Entropie (thermodynamique)

L'entropie d'un objet est une mesure de la quantité d'énergie qui n'est pas disponible pour effectuer un travail. L'entropie est également une mesure du nombre d'arrangements possibles que les atomes d'un système peuvent avoir. En ce sens, l'entropie est une mesure de l'incertitude ou du caractère aléatoire. Plus l'entropie d'un objet est élevée, plus nous sommes incertains des états des atomes qui composent cet objet car il y a plus d'états à partir desquels on peut décider. Une loi de la physique dit qu'il faut du travail pour réduire l'entropie d'un objet ou d'un système ; sans travail, l'entropie ne peut jamais devenir plus petite - on pourrait dire que tout se transforme lentement en désordre (entropie plus élevée).

Le mot entropie vient de l'étude de la chaleur et de l'énergie dans la période de 1850 à 1900. Des idées mathématiques très utiles sur les calculs de probabilité ont émergé de l'étude de l'entropie. Ces idées sont maintenant utilisées dans la théorie de l'information, la chimie et d'autres domaines d'étude.

L'entropie est simplement une mesure quantitative de ce que décrit la deuxième loi de la thermodynamique : la répartition de l'énergie jusqu'à ce qu'elle soit uniformément répartie. La signification de l'entropie est différente selon les domaines. Elle peut signifier :

Questions et réponses

Q : Qu'est-ce que l'entropie d'un objet ?



R : L'entropie d'un objet est une mesure de la quantité d'énergie qui n'est pas disponible pour effectuer un travail, ainsi qu'une mesure du nombre d'arrangements possibles entre les atomes d'un système.

Q : Quelle est la relation entre l'entropie et l'incertitude/l'aléatoire ?



R : L'entropie est une mesure de l'incertitude ou du hasard, car plus l'entropie d'un objet est élevée, plus nous sommes incertains des états des atomes qui composent cet objet, car il y a plus d'états possibles.

Q : L'entropie d'un objet ou d'un système peut-elle être réduite sans travail ?



R : Non, une loi de la physique dit qu'il faut du travail pour réduire l'entropie d'un objet ou d'un système ; sans travail, l'entropie ne peut jamais diminuer - tout devient lentement désordonné, ce qui signifie une entropie plus élevée.

Q : D'où vient le mot "entropie" ?



R : Le mot entropie provient de l'étude de la chaleur et de l'énergie entre 1850 et 1900, et a donné lieu à des idées mathématiques très utiles sur les calculs de probabilité, qui sont aujourd'hui utilisées dans la théorie de l'information, la mécanique statistique, la chimie et d'autres domaines d'étude.

Q : Que mesure quantitativement l'entropie ?



R : L'entropie mesure simplement ce que décrit la deuxième loi de la thermodynamique : la diffusion de l'énergie jusqu'à ce qu'elle soit uniformément répartie.

Q : En quoi la signification de l'entropie diffère-t-elle selon les domaines ?



R : La signification de l'entropie varie d'un domaine à l'autre, et elle peut signifier différentes choses, comme le contenu en information, le désordre et la dispersion de l'énergie.

Q : Quel est le rôle de l'entropie dans les calculs de probabilité ?



R : L'entropie est un moyen mathématique de quantifier le degré de désordre ou d'incertitude d'un système, ce qui est utile dans les calculs de probabilité.

AlegsaOnline.com - 2020 / 2023 - License CC3