jueves, 14 de septiembre de 2017

BIT Y BYTE


EL  BIT  Y   EL  BYTE

Bit es el acrónimo  de Binary digit (‘dígito binario’). Un bit es un dígito del sistema de numeración binario

Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan solo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores: 0 o 1.   Se puede imaginar un bit como una bombilla que puede estar en uno de los siguientes dos estados:         
                                           apagada             o                  encendida 


El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, positivo o negativo, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" 

El byte es la unidad de capacidad de almacenamiento estándar. Con esta unidad de medida se mide desde el almacenamiento de datos hasta la capacidad de memoria de un ordenador. Representa un carácter (un número, una letra, un espacio, o cualquier otro signo) y está constituido por 8 bits consecutivos, de modo tal que un byte equivaldría a 8 bits.

Hay 256 combinaciones de 8 bits posibles, por lo que hay 256 caracteres.


Debido a que es una medida de capacidad mínima (si bien como hemos dicho la más pequeña es el bit), existen otras magnitudes que se utilizan para capacidades superiores y que son múltiplos del byte.

EL CÓDIGO ASCII
El código ASCII (siglas en ingles para American Standard Code for Information Interchange, es decir Código Americano Estándar para el intercambio de Información.



Fue creado en 1963 por el Comité Estadounidense de Estándares o "ASA", este organismo cambio su nombre en 1969 por "Instituto Estadounidense de Estándares Nacionales" o "ANSI" como se lo conoce desde entonces.



Este código nació a partir de reordenar y expandir el conjunto de símbolos y caracteres ya utilizados en aquel momento en telegrafía por la compañía Bell. En un primer momento solo incluía letras mayúsculas y números, pero en 1967 se agregaron las letras minúsculas y algunos caracteres de control, formando así lo que se conoce como US-ASCII, es decir los caracteres del 0 al 127.



Así con este conjunto de solo 128 caracteres fue publicado en 1967 como estándar, conteniendo todos lo necesario para escribir en idioma ingles.

En 1981, la empresa IBM desarrolló una extensión de 8 bits del código ASCII, llamada "pagina de código 437", en esta versión se reemplazaron algunos caracteres de control obsoletos, por caracteres gráficos. Además se incorporaron 128 caracteres nuevos, con símbolos, signos, gráficos adicionales y letras latinas, necesarias para la escrituras de textos en otros idiomas, como por ejemplo el español. Así fue como se sumaron los caracteres que van del ASCII 128 al 255.

Casi todos los sistemas informáticos de la actualidad utilizan el código ASCII para representar caracteres, símbolos, signos y textos.


http://www.elcodigoascii.com.ar/codigos-ascii-extendidos/espacio-sin-separacion-non-breaking-space-codigo-ascii-255.html
TABLA DE CODIGOS ASCII


Revolución Industrial 7º

LA REVOLUCIÓN INDUSTRIAL   La Revolución Industrial fue un periodo histórico comprendido entre la segunda mitad del siglo XVIII y princip...