Информатика

Всё о сервере, форум!
Основы программирования
ИНФОРМАЦИОННО-РАЗВЛЕКАТЕЛЬНЫЙ ПОРТАЛ

ИНФОРМАТИКА: ЕГЭ, ТЕОРИЯ, ПРАКТИКА, ТЕСТЫ

Информатика :: Теория :: Автоматизированная обработка информации
Единицы измерения информации

Знаменитый немецкий ученый Готфрид Вильгельм Лейбниц предложил еще в XVII веке уникальную и простую систему представления чисел. «Вычисление с помощью двоек... является для науки основным и порождает новые открытия... при сведении чисел к простейшим началам, каковы 0 и 1, везде появляется чудесный порядок».
Сегодня такой способ представления информации, с помощью языка содержащего два символа 0 и 1, широко используется в технических устройствах.
Эти два символа 0 и 1 принято называть битами (от англ. binary digit – двоичный знак).
Бит – наименьшая единица измерения информации и обозначается двоичным числом.
Более крупной единицей изменения объема информации принято считать 1 байт, который состоит из 8 бит.
1 байт = 8 битов.
Инженеров такой способ кодирования привлек простотой технической реализации — есть сигнал или нет сигнала. С помощью этих двух цифр можно закодировать любое сообщение.
Название
 Условное обозначение
Соотношение с другими единицами
Килобит
Кбит
 1 Кбит = 1024 бит = 210 бит ≈ 1000 бит
Мегабит
Мбит
1 Мбит = 1024 Кбит = 220 бит ≈ 1 000 000 бит
Гигабит
Гбит
 1 Гбит = 1024 Мбит = 230 бит ≈ 1 000 000 000 бит
Килобайт
Кбайт (Кб)
 1 Кбайт = 1024 байт = 210 байт ≈ 1000 байт
Мегабайт
Мбайт (Мб)
 1 Мбайт = 1024 Кбайт = 220 байт ≈ 1 000 000 байт
Гигабайт
Гбайт (Гб)
 1 Гбайт = 1024 Мбайт = 230 байт ≈ 1 000 000 000 байт


При копировании материала с сайта активная ссылка обязательна!
Сайт управляется SiNG cms © 2010-2015