Concepto de
Bit

Te explicamos qué es un bit, sus diferentes usos e importancia en la informática. Además, sus características principales y ejemplos.

Bit - Informática
Un bit es la unidad mínima de información que emplea la informática.

¿Qué es un bit?

En informática se denomina bit (acrónimo en inglés de Binary digit, es decir, “dígito binario”) a un valor del sistema de numeración binario. Dicho sistema se llama así porque comprende únicamente dos valores de base: 1 y 0, con los cuales se puede representar una cantidad infinita de condiciones binarias: encendido y apagado, verdadero y falso, presente y ausente, etc.

Un bit es, entonces, la unidad mínima de información que emplea la informática, cuyos sistemas están todos sustentados en dicho código binario. Cada bit de información representa un valor específico: 1 ó 0, pero combinando distintos bits puede llegar a obtenerse muchas más combinaciones, por ejemplo:

Modelo de 2 bits (4 combinaciones):

00 – Ambos apagados

01 – Primero apagado, segundo encendido

10 – Primero encendido, segundo apagado

11 – Ambos encendidos

Con estas dos unidades podemos representar cuatro valores puntuales. Ahora supongamos que tenemos 8 bits (un octeto), equivalentes en algunos sistemas a un byte: se obtiene 256 valores diferentes.

De este modo, el sistema binario opera prestando atención al valor del bit (1 o 0) y a su posición en la cadena representada: si está encendido y aparece en una posición hacia la izquierda su valor se duplica, y si aparece hacia la derecha, se corta a la mitad. Por ejemplo:

Para representar el número 20 en binario

Valor binario neto10100

Valor numérico por posición:168421

Resultado:16  +0  +4  +0    +   0   =  20

Otro ejemplo: para representar el número 2,75 en binario, asumiendo la referencia en el medio de la cifra:

Valor binario neto01011

Valor numérico por posición:4210,50,25

Resultado:0   +2    +0    +0,5   + 0,25    =   2,75

Los bits en valor 0 (apagado) no se cuentan, sólo los de valor 1 (encendido) y su equivalente numérico se da en base a su posición en la cadena, para formar así un mecanismo de representación que luego se aplicará a caracteres alfanuméricos (denominado ASCII).

De este modo se registran las operaciones de los microprocesadores de los computadores: puede haber arquitecturas de 4, 8, 16, 32 y 64 bits. Esto significa que el microprocesador maneja ese número interno de registros, es decir, la capacidad de cálculo que posee la Unidad Aritmético-Lógica.

Por ejemplo, los primeros computadores de la serie x86 (el Intel 8086 y el Intel 8088) poseían procesadores de 16 bits, y la diferencia notoria entre sus velocidades tenía que ver no tanto con su capacidad de procesamiento, como con la ayuda adicional de un bus de 16 y 8 bits respectivamente.

De modo similar, se emplean los bits para medir la capacidad de almacenamiento de una memoria digital.

Cómo citar este contenido:

Citar

Enciclopedia de Conceptos (2018). "Bit". Recuperado de: https://concepto.de/bit/


Citar

Citado APA: (A. 2018,10. Concepto de Bit. Equipo de Redacción de Concepto.de. Obtenido 2018,11, de https://concepto.de/bit/)

Citar

Citado Enciclopédico: Equipo de Redacción de Concepto.de, 2018,10. Concepto de Bit. Editorial Concepto.de (Enciclopedia online). Argentina.