representar-caracteres-en-binario

Cómo representar caracteres en binario

Ya hemos visto como almacenar números enteros positivos y negativos, y números fraccionarios. Pero nuestros programas no solo van a tener números. También tendremos generalmente textos.

La representación de textos es uno de los quebraderos de cabeza de la informática desde sus orígenes. Lo vimos al hablar de Bytes, y Char, la codificación de textos fue un auténtico problema a resolver desde los primeros ordenadores.

Afortunadamente ya lo tenemos muy superado, y casi nunca deberás preocuparte por ello demasiado. Pero, conviene que sepas cómo se codifican y se trabaja con ello, porque seguro que en algún momento lo necesitas.

Los caracteres o “letras” son un conjunto de símbolos que usamos para comunicarnos. Son un conjunto bastante extenso, que incluye letras mayúsculas, minúsculas, signos de puntuación, los propios dígitos del sistema decimal.

Al hablar de números podríamos jugar con forma de representación. Al final, era un cambio de base. Pero al hablar de caracteres no queda otra que usar una tabla de traducción. ESTE número binario, se corresponde con ESTA letra.

Así que este problema se encontraron cuando empezaban a desarrollarse los primeros ordenadores. Dijeron, ¿Cómo de grande necesito que sea esa tabla? ¿Cuántos dígitos en binario necesito?

Y así surge la tabla ASCII

Representación ASCII

El ASCII (American Standard Code for Information Interchange) es un estándar de codificación que data de 1963, que asigna un número entero único a cada carácter en el conjunto básico de caracteres ingleses.

Cada carácter ASCII se representa mediante un valor numérico de 7 bits, lo que permite un total de 128 caracteres diferentes.

Estos valores numéricos se pueden representar en sistema binario, lo que permite que los caracteres ASCII sean procesados por las computadoras de manera eficiente.

Por ejemplo, el caracter ‘A’ tiene un valor ASCII de 65, que se representa en binario como 01000001.

Los primeros 31 caracteres de la tabla ASCII son caracteres de control, que son interpretados por el ordenador.

DecChar
0NUL (null)
1SOH (start of heading)
2STX (start of text)
3ETX (end of text)
4EOT (end of transmission)
5ENQ (enquiry)
6ACK (acknowledge)
7BEL (bell)
8BS (backspace)
9TAB (horizontal tab)
10LF (NL line feed, new line)
11VT (vertical tab)
12FF (NP form feed, new page)
13CR (carriage return)
14SO (shift out)
15SI (shift in)
16DLE (data link escape)
17DC1 (device control 1)
18DC2 (device control 2)
19DC3 (device control 3)
20DC4 (device control 4)
21NAK (negative acknowledge)
22SYN (synchronous idle)
23ETB (end of trans. block)
24CAN (cancel)
25EM (end of medium)
26SUB (substitute)
27ESC (escape)
28FS (file separator)
29GS (group separator)
30RS (record separator)
31US (unit separator)

Los restantes son letras y símbolos, según

DecChar
32SPACE
33!
34
35#
36$
37%
38&
39
40(
41)
42*
43+
44,
45-
46.
47/
480
491
502
513
524
535
546
557
568
579
58:
59;
60<
61=
62>
63?
DecChar
64@
65A
66B
67C
68D
69E
70F
71G
72H
73I
74J
75K
76L
77M
78N
79O
80P
81Q
82R
83S
84T
85U
86V
87W
88X
89Y
90Z
91[
92\
93]
94^
95_
DecChar
96`
97a
98b
99c
100d
101e
102f
103g
104h
105i
106j
107k
108l
109m
110n
111o
112p
113q
114r
115s
116t
117u
118v
119w
120x
121y
122z
123{
124|
125}
126~
127DEL

Extended ASCII table

La tabla ASCII era muy limitada en cuanto a caracteres. Afortunadamente, la informática ya era normal que un Byte fueran 8 bits. De estos, ASCII sólo usaba 7bits, por lo que quedaban otros 128 caracteres para ampliarlo.

La tabla ASCII extendida es una extensión del estándar ASCII que aumenta el número de caracteres a 256 (del 128 al 255). Esto incluye caracteres adicionales como letras acentuadas, símbolos especiales, letras y caracteres utilizados en otros idiomas además del inglés, como el español, francés, alemán, entre otros.

La tabla ASCII extendida no es un estándar oficial único, sino que hay varias variantes que asignan diferentes caracteres a los códigos del 128 al 255. Algunas de las variantes más comunes son ISO 8859-1 (también conocida como Latin-1), ISO 8859-15 (Latin-9), Windows-1252, entre otras.

Unicode

A medida que la informática se volvía más global, el conjunto de caracteres ASCII (ni siquiera la versión extendida) resultaba insuficiente para representar todos los caracteres utilizados en diferentes idiomas y sistemas de escritura.

Para abordar esta limitación, se desarrolló Unicode, un estándar de codificación que asigna un código único a cada carácter utilizado en cualquier idioma del mundo. Por ejemplo, el caracter ’✓’ tiene un valor Unicode de U+2713, que se representa en binario como 0010 0111 0001 0011.

Unicode utiliza una representación de 16 bits (o más) para cada carácter, lo que permite la representación de un conjunto mucho más amplio de caracteres. Por compatibilidad, los primeros 128 caracteres Unicode son idénticos al conjunto de caracteres ASCII.

Progresivamente, el sistema Unicode se ha ido revisando y ampliando para introducir más y más (y más) caracteres.

  1. Unicode 1.0 (1991): La primera versión oficial de Unicode, que incluía 24,000 caracteres.

  2. Unicode 1.1 (1993): Agregó 10,000 caracteres adicionales.

  3. Unicode 2.0 (1996): Una revisión mayor que agregó la capacidad para soportar escrituras bidireccionales (como árabe y hebreo), además de agregar otros 35,000 caracteres.

  4. Unicode 3.0 (1999): Incorporó un gran número de caracteres adicionales para dar soporte a idiomas como el chino, japonés y coreano, junto con muchos otros símbolos y caracteres técnicos.

  5. Unicode 3.1 (2001): Introdujo cambios menores y correcciones de errores.

  6. Unicode 3.2 (2002): Incluyó mejoras en el manejo de escrituras bidireccionales y cambios en la codificación.

  7. Unicode 4.0 (2003): Agregó más de 96,000 caracteres adicionales, incluyendo muchos ideogramas para lenguajes asiáticos.

  8. Unicode 4.1 (2005): Introdujo algunas mejoras técnicas y nuevas normas para la codificación.

  9. Unicode 5.0 (2006): Agregó alrededor de 6,000 caracteres adicionales, incluyendo muchos símbolos matemáticos y técnicos.

  10. Unicode 5.1 (2008): Una versión menor con algunas correcciones y clarificaciones.

  11. Unicode 5.2 (2009): Agregó aproximadamente 800 caracteres nuevos, incluyendo caracteres para matemáticas y lenguajes minoritarios.

  12. Unicode 6.0 (2010): Introdujo soporte para la escritura en caracteres emoji, además de añadir muchos nuevos caracteres.

  13. Unicode 6.1 (2012): Añadió alrededor de 7,000 nuevos caracteres, incluyendo muchos símbolos para matemáticas y música.

  14. Unicode 6.2 (2012): Introdujo soporte para caracteres birmanos y kaithi, además de otros nuevos.

  15. Unicode 6.3 (2013): Agregó soporte para caracteres tibetanos y algunas otras mejoras.

  16. Unicode 7.0 (2014): Introdujo alrededor de 2,834 caracteres nuevos, incluyendo muchos para lenguajes minoritarios y símbolos.

  17. Unicode 8.0 (2015): Añadió aproximadamente 7,716 caracteres nuevos, incluyendo soporte para lenguas como el Cherokee y el Meitei Mayek.

  18. Unicode 9.0 (2016): Introdujo alrededor de 7,500 caracteres adicionales, incluyendo el soporte para el nuevo estándar de emoji.

  19. Unicode 10.0 (2017): Agregó más de 8,500 caracteres nuevos, incluyendo glifos para lenguas del Caúcaso y símbolos emoji.

  20. Unicode 11.0 (2018): Introdujo alrededor de 7,864 nuevos caracteres, incluyendo glifos para el alfabeto sindhi y emoji adicionales.

  21. Unicode 12.0 (2019): Agregó más de 137,000 caracteres nuevos, incluyendo soporte para el alfabeto egipcio antiguo y muchos símbolos nuevos.

  22. Unicode 12.1 (2019): Una versión menor con algunas correcciones y mejoras.

  23. Unicode 13.0 (2020): Añadió alrededor de 5,930 caracteres nuevos, incluyendo nuevos emoji y símbolos.

  24. Unicode 14.0 (2021): Introdujo alrededor de 5,280 caracteres nuevos, incluyendo nuevos emoji y caracteres de lenguas minoritarias.

  25. Unicode 15.0 (2022): Añadió 17,189 caracteres nuevos, incluyendo nuevos emoji, glifos para lenguas africanas y símbolos técnicos.

Actualmente la tabla Unicode tiene unos 150 mil caracteres codificados. Eso significa que también agotamos los 16bits (que llegarían hasta 65.536 caracteres). Y aquí es donde entra en juego UTF.

Codificación UTF

Unicode y UTF (Unicode Transformation Format) están estrechamente relacionados, pero son conceptos diferentes:

  • Unicode: Es un estándar de codificación de caracteres que asigna un número único a cada carácter en casi todos los sistemas de escritura conocidos en el mundo, incluyendo letras, números, símbolos y caracteres especiales. Por ejemplo, la letra “A” tiene un número único en Unicode, así como cualquier otro carácter que puedas imaginar.

  • UTF (Unicode Transformation Format): Es una forma de codificar los puntos de código de Unicode en secuencias de bytes. UTF define cómo estos puntos de código Unicode se almacenan en la memoria de una computadora o se transmiten a través de una red.

Existen varias variantes de UTF, como UTF-8, UTF-16, y UTF-32, que difieren en cómo representan los caracteres Unicode como secuencias de bytes.

Ahora, en cuanto a la cantidad de bytes que utiliza Unicode:

  • UTF-8: Es el más común y ampliamente utilizado. En UTF-8, cada carácter Unicode se representa usando 1, 2, 3 o 4 bytes. Los caracteres ASCII (los primeros 128 caracteres de Unicode) se representan con 1 byte en UTF-8, lo que significa que es compatible con ASCII. Los caracteres adicionales de Unicode utilizan más bytes según su rango.

  • UTF-16: Cada carácter Unicode se representa en UTF-16 usando 2 o 4 bytes. Los caracteres de Unicode que están en el rango “BMP” (Plano Multilingüe Básico) se representan con 2 bytes, mientras que los caracteres fuera del BMP utilizan 4 bytes.

  • UTF-32: Es el formato más simple, ya que asigna cada carácter Unicode exactamente a 4 bytes. Esto significa que cualquier carácter Unicode, sin importar su rango, se representará con 4 bytes en UTF-32.

En resumen, la cantidad de bytes que ocupa un carácter Unicode depende del formato de UTF que se esté utilizando:

  • UTF-8: 1 a 4 bytes por carácter.
  • UTF-16: 2 o 4 bytes por carácter.
  • UTF-32: Siempre 4 bytes por carácter.

Por lo tanto, la respuesta a cuántos bytes tiene Unicode depende del formato de UTF que se esté utilizando para codificarlo.