|
|
|
|||||||
Strukturelle Information | ||||||||
Sie ist enthalten in einer materiellen Struktur die an einem bestimmten Ort, zu einer bestimmten Zeit existiert. Sie ist verbunden mit der physikalischen Natur eines Zustandes und steht deshalb in enger Beziehung zu der gebundenen Information. Sie repräsentiert die strukturelle Determiniertheit eines Zustandes. Bei Stonier wird die strukturelle Information anders definiert, als Gegensatz zur kinetischen Information. Strukturelle Informationen lassen sich als Strings oder symbolische Sequenzen abbilden: s0 s1 s2 s3 ... si, wobei si generell als ‚Buchstabe’ bezeichnet wird. Beispielsequenzen: Buchstaben (Text), räumlich; Folge von Tönen (Musik), zeitlich; Biopolymere die aus Basenpaare gebildet werden (DNA); Computer-Binärcodes (...1001110010...). Natürliche Sequenzen sind strukturell gerade so aufgebaut, dass sie weder vollkommen chaotisch, noch vollkommen periodisch sind Sie liegen in der Abfolge ihrer ‚Buchstaben’ auf der Grenze zwischen Ordnung und Chaos, oder – mit anderen Worten – zwischen Redundanz und Neuigkeit. |
|
|||||||
Sie liegt grundsätzlich in jedem physikalischen System vor. Ein universelles quantitatives Maß für diese Information ist die Entropie des betrachteten Zustandes. Jeder Datenträger ist physikalischer Natur und unterliegt dem 2. Hauptsatz der Thermodynamik, aus dem folgt, dass abgeschlossene Systeme die keinen Austausch mit der Umwelt haben, dem thermodynamischen Gleichgewicht, als dem Zustand maximaler Entropie zustreben. In diesem Zustand des thermodynamischen Gleichgewichts, also dem Zustand maximaler Unordnung, kann keine Information mehr extrahiert werden. |
||||||||
Potentielle Information | ||||||||
Sie ist die Verminderung der Unbestimmtheit des Zustandes eines Systems. Da die Entropie nach Boltzmann mit dem Logarithmus der Zahl der möglichen Mikrozustände zusammenhängt, besteht auch ein Zusammenhang zwischen Entropie und Information. Allerdings handelt es sich hierbei nicht um Information schlechthin, sondern um eine besondere Art von Information, die man potentielle oder auch virtuelle Information nennt. |
||||||||
Virtuelle Information | ||||||||
Die potentielle gebundene Information entspricht der Entropie-Absenkung zwischen dem aktuellen Wert eines Systems und seinem Maximalwert (im thermodynamischen Gleichgewicht). Manchmal auch virtuelle Information genannt |