Codierung

Ein Zeichen bezieht sich auf die Technik in der digitalen Technologie verwendet, um Zeichen von unterschiedlichen Kontexten zu behandeln – typischste Sprache Kontexten.

Einführung

In der digitalen Technik sind Zeichendaten des Menschen. Die Präsentation, in gedruckter Form oder auf einem Bildschirm erfordert eine digitale Schriftart. In der Schrift, jedes Zeichen nummeriert, so dass es einfach ist , … aber es stellt sich heraus , dass es tatsächlich erstaunlich viele Beweise zu prüfen. Hier der Zeichensatz ist die Standardtechnik im Einsatz zwischen dem, was zu unterscheiden in Englisch heißt Zeichensatz – dh eine relativ große Anzahl von verschiedenen Charakteren, zum Beispiel, 256, zusammen gruppiert. Im übrigen ist es die englische Bezeichnung für die Codierverfahren Englisch : Zeichencodierung . Ein digitaler Font einen bestimmten auszuführen ausgelegt Zeichensatz oder gegebenenfalls spezifischer seinen Zeichensatz . Die technischen Richtlinien für die Verwendung eines digitalen Schrift umfassen daher Formalismus – Zeichencodierung oder Zeichensatz – die deutlich zeigt , welche Zeichen Zahlen die Schriftart enthält, und in der Tat einzigartig zeigt , welche Zeichen der Benutzer kann unter dieser Nummer (erwartet im Jahr 1985 von Adobe , p. 91).

Format

Die Buchstaben sind vielleicht die am häufigsten verwendeten Zeichen sie Buchstaben bezeichnet. Außerdem Zahlen , Ziffern bezeichnet. Die Kombination aus Buchstaben und Zahlen genannt alphanumerische Zeichen .

Es war der erste digitale Zeichensatz, der von mindestens sechs bestand aus Bits , so dass 64 Zeichen Möglichkeiten – für Buchstaben, Zahlen und andere Zeichen. Später wurde auf 7 Bit oder 128 – Varianten erhöht, so dass sowohl Groß- und Kleinbuchstaben waren möglich. Schließlich sollte auch Raum für Sonderzeichen und Symbole des jeweiligen Landes sein, wie elektronische Post alltäglich geworden ist , und erhöht sie dann auf 8 Bit oder 256 Zeichen.

Es reicht nicht aus, wenn die allen Sprachen der Welt in ein und derselben internationalen Zeichensätzen (dh integriert werden Zeichencodierung ). In Unicode sind Datenzeichenformate von bis zu den gesamten 32-Bits, während die weit verbreiteten Unicode Transformation Format-8 ( UTF-8 ) , die eine variable Anzahl von Bits hat (8,16,24,32) ( Unicode 2014 ). Unicode ist ein fortøbende und sehr lange Reihe von Zahlen auf diese Weise unter einem bestimmten umfassen Chinesisch , Japanisch , Latein und Kyrillisch Alphabete, Koptisch , Gothic , Keilschrift , Ogham und Runic Alphabet und sogar Anzeichen von einigen künstlichen Sprachen wie einfallsreiche Sprache Klingonisch.

Beispiele für Zeichensätze:

  • 6-Bit – Fieldata von Univac
  • 7-Bit- und 8-Bit – amerikanischer Standard Code for Information Interchange ( ASCII )
  • 8-Bit – EBCDIC IBM der ursprüngliche Zeichensatz
  • Unicode in verschiedenen Formaten einschließlich UTF-8 , die in einem gemeinsam ist GNU / Linux – System (Bit – Nummer: 8,16,24,32) und UTF-16 (Anzahl der Bits: 16,32) auch bekannt von Microsoft Windows .

Mehr über PC ‚einheitlichen Umgang mit digitalen Daten.

Externe Links

  • Unicode FAQ
  • ein: Liste der ISO 15924-Codes von Buchstaben-Code

Quellen

  • Adobe Systems Incorporated (1985), „9.2 – Zeichencodierung“ PostScript- Tutorial und Kochbuch (PDF) , Addison-Wesley
  • „UTF-8, UTF-16, UTF-32 & BOM“ , Unicode FAQ , Unicode inc., 2014