Information
Information bezeichnet in der Informationstheorie den quantitativen Gehalt eines Ereignisses, der sich aus seiner Unwahrscheinlichkeit ableitet. Sie wird durch die Formel berechnet, wobei die Wahrscheinlichkeit des Ereignisses darstellt. Dieser Ansatz, entwickelt von Claude Shannon, misst die Überraschung, die ein Ereignis hervorruft, und bildet die Grundlage für Konzepte wie Entropie. Die Einheit ist Bits, und die Information ist additiv für unabhängige Ereignisse. Sie findet breite Anwendung in Bereichen wie Entscheidungsbäumen, Datenkompression und maschinellem Lernen.
Grundformel für Information
Abschnitt betitelt „Grundformel für Information“Die Grundformel zur Berechnung der Information eines Ereignisses lautet:
Dabei gilt:
- : Der Informationsgehalt des Ereignisses .
- : Die Wahrscheinlichkeit des Ereignisses .
Wichtige Eigenschaften
Abschnitt betitelt „Wichtige Eigenschaften“Die Information weist folgende Eigenschaften auf:
- Einheit: Bits.
- Unwahrscheinlichkeit: Je unwahrscheinlicher ein Ereignis, desto höher der Informationsgehalt.
- Sichere Ereignisse: Wenn , dann gilt , da keine neue Information vorliegt.
Interpretation der Bits
Abschnitt betitelt „Interpretation der Bits“Die Anzahl der Bits entspricht der Anzahl der Ja/Nein-Entscheidungen, die zur Identifizierung eines Ereignisses erforderlich sind:
- 1 Bit: Informationsgehalt einer Ja/Nein-Entscheidung.
- 2 Bits: Informationsgehalt einer Entscheidung mit vier gleichwahrscheinlichen Möglichkeiten.
- n Bits: Informationsgehalt einer Entscheidung mit gleichwahrscheinlichen Möglichkeiten.
Beispiele
Abschnitt betitelt „Beispiele“Folgende Beispiele illustrieren die Berechnung des Informationsgehalts:
Wahrscheinlichkeit | Informationsgehalt |
---|---|
0,5 | 1 Bit |
0,25 | 2 Bits |
0,125 | 3 Bits |
Anwendungen
Abschnitt betitelt „Anwendungen“Die Information findet Anwendung in verschiedenen Bereichen:
- Entscheidungsbäume
- Datenkompression
- Kryptographie
- Maschinelles Lernen
Merksätze
Abschnitt betitelt „Merksätze“- Mehr Überraschung entspricht mehr Information.
- Eine perfekte Vorhersage liefert keine Information.
- Der Informationsgehalt ist additiv für unabhängige Ereignisse.