Unicode

« Zurück zum Profi-Tutorials-Glossar

Der Unicode ist ein internationaler Standard, welcher langfristig alle sinnvollen Schriftzeichen und Textelemente bekannter Kulturen und Zeichensysteme in digital kodierter Form aufnehmen soll. Ziel ist dabei ein globaler Standard, welcher die Verwendung unterschiedlicher und inkompatibler Kodierungen in unterschiedlichen Ländern oder Kulturkreisen beseitigt. Unicode wächst stetig - es werden ständig neue Zeichen hinzugefügt.

Gewöhnliche Zeichensätze besitzen nur einen begrenzten Zeichenvorrat: So haben westliche Zeichenkodierungen, wie der bekannte ASCII-Standard oft 128 Codewörter, sind also in 7-Bit codiert. Ein weiteres Beispiel ist der ISO 8859-1, welcher 256 Codewörter besitzt. Nach Abzug von Steuerzeichen sind bei diesen Zeichensätzen nur sehr begrenzte Mengen verschiedener Schrift- und Sonderzeichen darstellbar. Ohne die Verwendung mehrerer unterschiedlicher Zeichensätze ist auf diesem Weg nur die Darstellung weniger Sprachen in einem Text möglich.

Der internationale Datenaustausch wurde aufgrund dieser Umstände in den 1980er und 1990er Jahren erheblich erschwert. Zu den ersten Versuchen mehrere Sprachen mithilfe einer Zeichenkodierung darstellen zu können gehörte der ISO 2022, welcher sich jedoch nur in Ostasien durchsetzte. 1988 wurde dann von Joseph D. Becker von Xerox der erste Entwurf eines universalen Standards in Form eines 16-Bit Zeichensatzes erstellt.

Die Version 1.0.0 des Unicode-Standards wurde schließlich im Jahr 1991 veröffentlicht - diese codierte zunächst nur europäische, nahöstliche und indische Schriftzeichen. Später, mit Abschluss der Han-Vereinheitlichung und anschließender Veröffentlichung der Version 1.0.1, wurden auch  ostasiatische Zeichen kodiert.

Mit Unicode 2.0, welches im Jahr 1996 erschien, wurde der Standard von 65.536 Codewörtern auf 1.114.112 Codewörter erweitert.

Kategorien: Informatik
« Zurück zum Profi-Tutorials-Glossar

Joel Benseler

>