Was ist Entropie?

Entropie ist ein Kunstwort aus der griechischen Sprache, wobei die Silbe „en“ für „ein“ oder „in“ steht und „Tropie“ für Wendung oder Umwandlung. Das Wort Entropie wird in mehreren wissenschaftlichen Disziplinen mit unterschiedlicher Begriffserklärung genützt.

Dazu zählen:

• Mathematik
• Physik
• Informationstheorie
• Sozialwissenschaften

In der Mathematik wird die Entropiezahl sowie die Entropieschätzung und die bedingte Entropie genutzt. Entropiezahlen sind Kennzahlen von stetigen linearen Operatoren. Die Entropiezahl wird innerhalb der Mathematik bei Funktionsanalysen genutzt, die sich der Untersuchung von topologischen Vektorräumen und deren Abbildungen in unendlichen Dimensionen befassen. Die Funktionsanalyse ist ein Hilfsmittel zur Formulierung der Quantenmechanik sowie partieller Differenzialgleichungen.
Die Entropieschätzung befasst sich mit statistischen Schätzungen zu endlichen Stichproben auf Basis der Shannon-Entropie. Hier greift die Mathematik in die Informationstheorie ein, deren Grundlagen von Claude E. Shannon erarbeitet wurden.
Die bedingte Entropie gibt Auskunft über den Wert einer Zufallsvariablen, X, und wie diese sich zur Zufallsvariablen Y verhält. Die bedingte Entropie kommt in der Stochastik zur Anwendung, die wiederum ein mathematisches Teilgebiet ist, das sich mit Statistik und Wahrscheinlichkeitstheorie beschäftigt.

In der Physik finden die Begriffe Entropie der Thermodynamik, Entropiebilanz und Entropiekraft ihre Anwendung. Des weiteren werden die Begriffe Entropie-Elastizität und Entropie als fehlende Information in der statistischen Physik genutzt.
In der Physik ist die Entropie eine fundamentale thermodynamische Zustandsgröße, die aber nicht direkt messbar ist. Die thermodynamische Entropie verhält sich extensiv.
Die Entropiebilanz oder besser Entropiebilanzgleichung wird zur Beschreibung von thermodynamischen Nicht-Gleichgewichtsprozessen genutzt.
Die Entropiekraft in der Physik ist eine Auswirkung der thermischen Bewegung von Teilchen unter Zwang.

In der Informationstheorie werden die Begriffe Shannon-Entropie, Rényi-Entropie, Entropierate und Entropiekodierung verwendet.
Die Shannon-Entropie befasst sich mit dem Maß der Informationsdichte. In der Rényi-Entropie werden Mannigfaltigkeiten, Zufälligkeiten und Ungewissheiten quantifiziert.
Die Entropierate entspricht der Messung der Entropie innerhalb einer Nachricht unabhängig von deren Länge. Die Entropiekodierung bezeichnet eine verlustfreie Datenkompression.

Die En-Tropie beziehungsweise die Entropiezunahme in den Sozialwissenschaften wird als Informationsverlust definiert. Eine weitere Definition beschreibt den Aufwand im Verhältnis zur Größe, der zur Behebung des Informationsmangels notwendig ist. Daraus folgt, dass En-Tropie oder Informationsmangel eine Umweltbelastung im sozialwissenschaftlichen Sinne darstellt. Der Informationsmangel kann nur in einer offenen Umwelt behoben werden. In der Sozialwissenschaft werden Systeme mit niedriger En-Tropie als flexibler definiert im Verhältnis zu Systemen mit hoher En-Tropie. Informationsmangel verhindert folglich Veränderungen in einem System.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *