Was bedeuten 0 und 1 beim Binärcode?
Die Computersprache mit 0 und 1 ist durchaus ein faszinierendes Thema und gar nicht so kompliziert, wie manch einer vielleicht erwarten würde. Die grundlegende Funktionsweise des Binärcodes lässt sich in wenigen Worten erklären.
- 1 und 0 entsprechen bei der Computersprache dem jeweiligen Spannungszustand: 1 bedeutet "an" bzw. "Strom fließt" und 0 bedeutet "aus" bzw. "Strom fließt nicht".
- Die Computersprache übersetzt die normalen Dezimalzahlen zur Informationsverarbeitung in den Binärcode bzw. in eine bestimmte Folge der beiden Zustände. Die Zahl 13 entspricht etwa der Folge 01101.
- 1 oder 0 ist somit die kleinstmögliche Informationseinheit in der Computersprache. In der Informatik wird diese als "Bit" bezeichnet. 8 Bits werden wiederum zu einem Byte zusammengefasst.
Computersprache ist wie Lichtschalter zu betätigen
Da sich das Zusammenspiel von 0 und 1 in der Computersprache nur schwer theoretisch begreifen lässt, ist ein einfaches Bild sehr hilfreich, um sich die Funktionsweise des binären Codes anschaulich vor Augen zu führen.
- Behelfsweise kann man sich ein Bit wie einen Lichtschalter, ein Byte wie acht Lichtschalter und einen Computer wie ein riesiges Gefüge aus Lichtschaltern vorstellen, die man an- oder ausschalten kann.
- Durch die entsprechende Verschaltung vieler 0/1-Einheiten lassen sich mit der Computersprache äußerst komplexe Informationen darstellen, mit denen eine riesige Vielzahl an Handlungsanweisungen an den Computer ermöglicht wird.
- Je mehr Bytes ein Computer besitzt oder - um bei dem Bild der Lichtschalter zu bleiben - je mehr Schalter man betätigen kann, desto größere Datenmengen können logischerweise gespeichert und/oder verarbeitetet werden.
Weiterlesen:
Wie hilfreich finden Sie diesen Artikel?