lunes, 10 de diciembre de 2007

UNIDADES DE INFORMACIÖN.

Bit

Es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario.El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cualesquiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, amarillo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).



Byte

Equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde seis a nueve bits (un caracter codificado estaría adaptado a esta unidad).

Kilobyte:

Es una unidad de medida común para la capacidad de memoria o almacenamiento de las computadoras. Es equivalente a 1024 (o 210) bytes. Generalmente se abrevia como KB, K, kB, Kbyte o k-byte.

Megabyte:

Es una unidad de medida de cantidad de datos informáticos. Es un múltiplo binario del byte, que equivale a 220 (1 048 576) bytes, traducido a efectos prácticos como 106 (1 000 000) bytes.

Gigabyte:

Es el significado exacto, varía según el contexto en el que se aplique. En un sentido estricto, un gigabyte tiene mil millones de bytes. No obstante, y referido a computadoras, los bytes se indican con frecuencia en múltiplos de potencias de dos. Por lo tanto, un gigabyte puede ser bien 1.000 megabytes o 1.024 megabytes, siendo un megabyte 220 o 1.048.576 bytes.

Terabyte:

Una unidad de almacenamiento tan desorbitada que resulta imposible imaginársela, ya que coincide con algo más de un trillón de bytes. Un uno seguido de dieciocho ceros. Su símbolo es el TB y es equivalente a 240 bytes.

Hz:

El hercio es la unidad de frecuencia del Sistema Internacional de Unidades. Proviene del apellido del físico alemán Heinrich Rudolf Hertz, descubridor de la transmisión de las ondas electromagnéticas. Su símbolo es Hz (escrito sin punto como todo símbolo). En inglés se llama hertz (y se pronuncia /jérts/). Un hercio representa un ciclo por cada segundo, entendiendo ciclo como la repetición de un evento. En física, el hercio se aplica a la medición de la cantidad de veces por segundo que se repite una onda (ya sea sonora o electromagnética), magnitud denominada frecuencia y que es, en este sentido, la inversa del período:

Mhz:

Megahertzio, múltiplo del hertzio igual a 1 millón de hertzios. Utilizado para medir la "velocidMegahertzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo.

Nanosegundos:

Es una Milmillonésima parte de un segundo. Es decir, en un segundo hay 1.000.000.000 de nanosegundos. Se trata de una escala de tiempo muy pequeña, pero bastante común en los ordenadores, cuya frecuencia de proceso es de unos cientos de Megahercios.Decir que un procesador es de 500 Mhz, es lo mismo que decir que tiene 500.000.000 ciclos por segundo, o que tiene un ciclo cada 2 ns.

Milisegundos:

Es el período de tiempo que corresponde a la milésima fracción de un segundo (0,001s). Su simbología, al igual que otras milesimas partes de distintas magnitudes como pudieran ser la masa o la longitud, viene especificada mediante una "m" minúscula antepuesta a la magnitud fundamental, que en el caso del segundo es una letra "s", resultando:
1 ms = 0.001 segundo = 1 milisegundo

Microsegundos:

Es la millonésima parte de un segundo, 10-6 s

No hay comentarios: