EL BIT Y EL BYTE
Bit es el acrónimo de Binary digit
(‘dígito binario’). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan solo dos
dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos
valores: 0 o 1. Se puede
imaginar un bit como una bombilla que puede estar en uno de los siguientes dos
estados:
apagada o encendida
El bit es la unidad mínima de información empleada
en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero
o falso, abierto o cerrado, blanco o negro, norte o sur, positivo o negativo, etc. Basta con asignar uno de esos valores al estado de
"apagado" (0), y el otro al estado de "encendido"
El byte es la unidad de capacidad de almacenamiento estándar. Con esta unidad de medida se mide desde el almacenamiento de datos hasta la capacidad de memoria de un ordenador. Representa un carácter (un número, una letra, un espacio, o cualquier otro signo) y está constituido por 8 bits consecutivos, de modo tal que un byte equivaldría a 8 bits.
Hay 256 combinaciones de 8 bits posibles, por lo que hay 256 caracteres.
El byte es la unidad de capacidad de almacenamiento estándar. Con esta unidad de medida se mide desde el almacenamiento de datos hasta la capacidad de memoria de un ordenador. Representa un carácter (un número, una letra, un espacio, o cualquier otro signo) y está constituido por 8 bits consecutivos, de modo tal que un byte equivaldría a 8 bits.
Hay 256 combinaciones de 8 bits posibles, por lo que hay 256 caracteres.
Debido a que es una medida de capacidad mínima (si bien como hemos dicho la más pequeña es el bit), existen otras magnitudes que se utilizan para capacidades superiores y que son múltiplos del byte.
El código ASCII (siglas en ingles para American Standard Code for Information Interchange, es decir Código Americano Estándar para el intercambio de Información.
Fue creado en 1963 por el Comité Estadounidense de Estándares o "ASA", este organismo cambio su nombre en 1969 por "Instituto Estadounidense de Estándares Nacionales" o "ANSI" como se lo conoce desde entonces.
Este código nació a partir de reordenar y expandir el conjunto de símbolos y caracteres ya utilizados en aquel momento en telegrafía por la compañía Bell. En un primer momento solo incluía letras mayúsculas y números, pero en 1967 se agregaron las letras minúsculas y algunos caracteres de control, formando así lo que se conoce como US-ASCII, es decir los caracteres del 0 al 127.
Así con este conjunto de solo 128 caracteres fue publicado en 1967 como estándar, conteniendo todos lo necesario para escribir en idioma ingles.
En 1981, la empresa IBM desarrolló una extensión de 8 bits del código ASCII, llamada "pagina de código 437", en esta versión se reemplazaron algunos caracteres de control obsoletos, por caracteres gráficos. Además se incorporaron 128 caracteres nuevos, con símbolos, signos, gráficos adicionales y letras latinas, necesarias para la escrituras de textos en otros idiomas, como por ejemplo el español. Así fue como se sumaron los caracteres que van del ASCII 128 al 255.
Casi todos los sistemas informáticos de la actualidad utilizan el código ASCII para representar caracteres, símbolos, signos y textos.
http://www.elcodigoascii.com.ar/codigos-ascii-extendidos/espacio-sin-separacion-non-breaking-space-codigo-ascii-255.html
TABLA DE CODIGOS ASCII