Kategorie

A B C D E
F G H I J
K L M N O
P Q R S T
U V W X Y
Z 0      

digitale information

da db dc dd de df dg dh di dj dk dl dm
dn do dp dq dr ds dt du dv dw dx dy dz

Digitale Information

Digitale Information ist Information, die in einer Abfolge von ja/nein-Symbolen (bzw. 1/0; siehe Binärsystem) codiert ist. Die Verarbeitung digitaler Informationen ist Grundlage der Computertechnik. Durch die Reduzierung auf digitale Information lassen sich einige allgemeine Aussagen der Informationstheorie berechnen.

Nach Einführung der Computer ist bald klar geworden, dass Systeme, die nur mit zwei unterschiedlichen Zuständen arbeiten, wie Nein und Ja, An und Aus oder 0 und 1, für die Bearbeitung durch Computer am besten geeignet sind. Und so hat man bald eine weitere Basisaussage der Informationstheorie formuliert: Es ist der Satz von der Digitalisierbarkeit.

Alles, was man als Folge von 0 und 1 darstellen kann, ist Information.

Auch folgende Einschränkung dieses Satzes kann man für Computer als richtig akzeptieren: Information ist nur das, was man als Folge von Null und Eins darstellen kann. Alles andere kann ein Prozessor nicht verarbeiten. Digitalisierung heißt also Darstellung als Folge von 0 und 1, oder allgemeiner: Darstellung in Form von Zahlenwerten.

Erst mit der massenhaften Einführung von Musik-CDs ist vielen Menschen diese Speicherungsmöglichkeit von Information als einfache Kette von 0 und 1 klar geworden. Dennoch bleibt es vielen Leuten unverständlich, wie man so etwas schönes wie Musik in so eine banale Folge aus Nullen und Einsen bringen kann. Will man es ketzerisch kommentieren, so kann man sagen: Schönheit ist digitalisierbar.

Es gibt ruhende, fixierte Information und es gibt aktive, gerade gelesene oder übertragene Information.
Es gibt potentielle = mögliche Information und aktuelle = tatsächliche Information. So steckt in einer Münze vor dem Werfen potentielle Information. Nach dem Werfen wird sie zu aktueller Information.

Information ist eine austauschbare Größe, die eng mit der Energie und Entropie verknüpft ist. Sie reduziert die Unbestimmtheit des Zustandes eines Systems.
Die Informationsübertragung zwischen zwei Systemen ist immer mit Energie- und Entropieübertragung verknüpft. Dabei kann allerdings mit relativ wenig Energie viel Information übertragen werden (z.B. Telefonnetz). Andererseits kann mit der Übertragung von viel Energie relativ wenig Informationstransport verknüpft sein (z.B. Starkstromnetz der Überlandleitungen). Information und Energie sind nur in Ausnahmefällen direkt proportional.

Impressum

Datenschutzerklärung