Zum Inhalt springen

Information

Information bezeichnet in der Informationstheorie den quantitativen Gehalt eines Ereignisses, der sich aus seiner Unwahrscheinlichkeit ableitet. Sie wird durch die Formel I(x)=log2(P(x))I(x) = -\log_2(P(x)) berechnet, wobei P(x)P(x) die Wahrscheinlichkeit des Ereignisses xx darstellt. Dieser Ansatz, entwickelt von Claude Shannon, misst die Überraschung, die ein Ereignis hervorruft, und bildet die Grundlage für Konzepte wie Entropie. Die Einheit ist Bits, und die Information ist additiv für unabhängige Ereignisse. Sie findet breite Anwendung in Bereichen wie Entscheidungsbäumen, Datenkompression und maschinellem Lernen.

Die Grundformel zur Berechnung der Information eines Ereignisses xx lautet:

I(x)=log2(P(x))I(x) = -\log_2(P(x))

Dabei gilt:

  • I(x)I(x): Der Informationsgehalt des Ereignisses xx.
  • P(x)P(x): Die Wahrscheinlichkeit des Ereignisses xx.

Die Information weist folgende Eigenschaften auf:

  • Einheit: Bits.
  • Unwahrscheinlichkeit: Je unwahrscheinlicher ein Ereignis, desto höher der Informationsgehalt.
  • Sichere Ereignisse: Wenn P(x)=1P(x) = 1, dann gilt I(x)=0I(x) = 0, da keine neue Information vorliegt.

Die Anzahl der Bits entspricht der Anzahl der Ja/Nein-Entscheidungen, die zur Identifizierung eines Ereignisses erforderlich sind:

  • 1 Bit: Informationsgehalt einer Ja/Nein-Entscheidung.
  • 2 Bits: Informationsgehalt einer Entscheidung mit vier gleichwahrscheinlichen Möglichkeiten.
  • n Bits: Informationsgehalt einer Entscheidung mit 2n2^n gleichwahrscheinlichen Möglichkeiten.

Folgende Beispiele illustrieren die Berechnung des Informationsgehalts:

Wahrscheinlichkeit P(x)P(x)Informationsgehalt I(x)I(x)
0,51 Bit
0,252 Bits
0,1253 Bits

Die Information findet Anwendung in verschiedenen Bereichen:

  • Mehr Überraschung entspricht mehr Information.
  • Eine perfekte Vorhersage liefert keine Information.
  • Der Informationsgehalt ist additiv für unabhängige Ereignisse.