Comparacion de estándares ASCII y Unicode

Tal vez se esté preguntando por qué existe más de un estándar que se encarga de la correspondencia entre números especificos y los simbolos que representan, esto es porque cada uno tiene unas caracteristicas muy significativas, y la principal diferencia entre estos estándares (Unicode y ASCII) es que Unicode es el estándar de TI que representa letras de inglés, árabe, griego (y muchos más idiomas), símbolos matemáticos, guiones históricos, etc., mientras que ASCII se limita a unos pocos caracteres, como letras mayúsculas y minúsculas. , símbolos y dígitos (0-9).

ASCII salió al mundo antes que Unicode, pero como se mencina anteriormente, cuenta con muchos menos carácteres displibles, además de que Unicode recibe una actualización anual añadiendo nuevos carácteres a los miles que ya hay almacenados. Esto deriva en que puede llegar a haber ocasiones (en especial cuando se trabaja con un idioma diferente al ingles) en que utilicen "carácteres especiales" o no identificados por el estándar ASCII, por lo que este muestra símbolos extraños en su lugar, siendo que cuando se utiliza Unicode esto no sucede.

Por un ejemplo, imagina que tenemos una pregunta: "¿Quién lo propuso?", si se estuviera usando ASCII, se evría así:



Y así se ve normalmente, cuando está usando una de las versiones de Unicode: