Entropie: Unterschied zwischen den Versionen

Aus Zeitwörter

Wechseln zu: Navigation, Suche
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
Zeile 2: Zeile 2:
'''Begriff'''  
'''Begriff'''  
-------------
-------------
Entropie bezeichnet in der Physik eine thermodynamische Zustandsgröße. Die Entropie in einem System ändert sich bei der Abgabe und Aufnahmen von Wärme. Nach dem zweiten Hauptsatz der Thermodynamik kann Entropie in geschlossenen Systemen nicht abnehmen. Entsteht Entropie ist diese ohne äußeres Zutun irreversible. Klassisches Beispiel für das entstehen von Entropie ist Entstehung von Wärme bei Reibung.


In der Informationstheorie ist Entropie das Maß für den mittleren Informationsgehalt einer Nachricht.  Dies ist besonders im Hinblick auf technische Anwendungen bei der Übertragung von Nachrichtenflüssen relevant. Hierdurch werden Probleme der Codierung, Redundanz, Übertragungsgenauigkeit, Kanalkapazität usw. untersucht. In der Informationstheorie von Shanon wird Information auf den Aspekt des „Neuigkeitswertes“  eingeengt. Dieser Wert hängt mit der Eintrittwahrscheinlichkeit zusammen.
Sind Wahrscheinlichkeiten gleich groß ist es hohen Maß an Entropie. Sind Wahrscheinlichkeiten unterschiedlich und gleichzeitig vorhersehbarer, ist die Entropie bzw. der mittlere Informationsgehalt geringere.
Stark vereinfacht: wie ist geringste Anzahl an bits, die ich benötige um eine Nachricht erfolgreich zu übertragen.
'''Medienwissenschaftliche Perspektive'''  
'''Medienwissenschaftliche Perspektive'''  
-------------
-------------

Version vom 15. Oktober 2017, 18:20 Uhr

Begriff


Entropie bezeichnet in der Physik eine thermodynamische Zustandsgröße. Die Entropie in einem System ändert sich bei der Abgabe und Aufnahmen von Wärme. Nach dem zweiten Hauptsatz der Thermodynamik kann Entropie in geschlossenen Systemen nicht abnehmen. Entsteht Entropie ist diese ohne äußeres Zutun irreversible. Klassisches Beispiel für das entstehen von Entropie ist Entstehung von Wärme bei Reibung.

In der Informationstheorie ist Entropie das Maß für den mittleren Informationsgehalt einer Nachricht. Dies ist besonders im Hinblick auf technische Anwendungen bei der Übertragung von Nachrichtenflüssen relevant. Hierdurch werden Probleme der Codierung, Redundanz, Übertragungsgenauigkeit, Kanalkapazität usw. untersucht. In der Informationstheorie von Shanon wird Information auf den Aspekt des „Neuigkeitswertes“ eingeengt. Dieser Wert hängt mit der Eintrittwahrscheinlichkeit zusammen.


Sind Wahrscheinlichkeiten gleich groß ist es hohen Maß an Entropie. Sind Wahrscheinlichkeiten unterschiedlich und gleichzeitig vorhersehbarer, ist die Entropie bzw. der mittlere Informationsgehalt geringere.

Stark vereinfacht: wie ist geringste Anzahl an bits, die ich benötige um eine Nachricht erfolgreich zu übertragen. Medienwissenschaftliche Perspektive


Thermodynamischer Zeitpfeil, Un-Zeit der Information: Boltzmann- vs. Shannon-Entropie

Artefakte


Weiterführendes


Textverweise


(nur einfügen, wenn man Fußnoten im Text hat…. und dann nichts selbst runterschreiben)