El valor numérico representado en cada caso depende del valor asignado a cada símbolo. En una computadora, los valores numéricos pueden ser representados por dos voltajes diferentes y también se pueden usar polaridades magnéticas sobre un disco magnético. Un "positivo", "sí", o "sobre el estado" no es necesariamente el equivalente al valor numérico de uno; esto depende de la arquitectura usada.
De acuerdo con la representación acostumbrada de cifras que usan números árabes, los números binarios comúnmente son escritos usando los símbolos 0 y 1. Cuando son escritos, los números binarios son a menudo subindicados, prefijados o sufijados para indicar su base, o la raíz. Las notaciones siguientes son equivalentes:
- 100101 binario (declaración explícita de formato)
- 100101b (un sufijo que indica formato binario)
- 100101B (un sufijo que indica formato binario)
- bin 100101 (un prefijo que indica formato binario)
- 1001012 (un subíndice que indica base 2 (binaria) notación)
- %100101 (un prefijo que indica formato binario)
- 0b100101 (un prefijo que indica formato binario, común en lenguajes de programación)
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
Se puede imaginar un bit, como una bombilla que puede estar en uno de los siguientes dos estados:
Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit).
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
Un kilobyte (pronunciado /kilobáit/) es una unidad de almacenamiento de información cuyo símbolo es el kB (a veces se utiliza KB), y equivale a 210 bytes (valor aplicando la definición de prefijo binario, aceptado por todo sistema operativo que se haya creado hasta la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional de Unidades).
Los Ordenadores de 8 bits tienen una capacidad máxima (sin paginación de memoria) de 64 K, o 65536 bytes (o a 216 bytes). El IBM PC original soportaba un máximo de 256 Kilobytes y los compatible IBM PC, tenían una capacidad máxima de 640 KB en el sentido binario, o 655.360 caracteres de datos.
El megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) ó 220 (1.048.576 octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte, ya que los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Se representa por MB y no por Mb (que correspondería a megabit) y coloquialmente se les denomina megas. Es la unidad más típica actualmente, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes. Los múltiplos de byte se convierten, bien en el sentido binario.
Un gigabyte es una unidad de medida informática cuyo símbolo es el GB, y puede equivalerse a 230 bytes o a 109 bytes, según el uso.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binario y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos.
Un Terabyte puede equivalerse a 1024 GB ó 1000 GB.
No hay comentarios:
Publicar un comentario