Zeichenkodierung

« Zurück zum Profi-Tutorials-Glossar

Zeichenkodierungen ermöglichen die eindeutige Identifizierung und Zuordnung von Zeichen eines Zeichensatzes. Eingesetzt werden Zeichenkodierungen bei der elektronischen Datenverarbeitung, sowie der Speicherung und Übertragung von Daten.

Die Kodierung erfolgt in der Informatik über die Zuordnung eines eindeutigen definierten Zahlenwerts zu jedem Element des betroffenen Zeichensatzes. Ein Beispiel ist hierbei der ISO 8859-1 Zeichensatz, bei dem das Sonderzeichen Stern '*' mit der Dezimalzahl 42 kodiert wird. Andere Zeichenkodierungen ordnen denselben Zahlenwert in vielen Fällen einem anderen Zeichen zu.

Die Speicherung und Übertragung von Zahlenwerten aus Zeichenkodierungen kann auf vielen Wegen stattfinden: So lassen sich beispielsweise Morsezeichen oder auch Spannungen verwenden. Diese Systeme haben jedoch einen entscheidenden Nachteil, wenn es sich um Zeichensätze mit einem sehr großen Zeichenvorrat handelt, da die Gefahr der Verwechslung mit der Anzahl der verfügbaren Zeichen immer weiter steigt. Seit der Entwicklung des Computers werden daher fast ausschließlich binäre Zeichenkodierungen in Bit-Folgen verwendet.

Zeichenkodierungen müssen zur Gewährleistung eines reibungslosen Datenaustauschs, beispielsweise im Internet, international genormt sein. Aus diesem Grund ist die Vielfalt an Zeichenkodierungen heutzutage relativ gering. Beispiel für einen internationalen Standard ist der Unicode, welcher es sich zum Ziel gesetzt hat, die Zeichen aller Sprachen in Code-Form zu definieren.

Synonyme:
Character Encoding
Kategorien: Informatik
« Zurück zum Profi-Tutorials-Glossar

Joel Benseler

>