Единицы измерения информации

Компьютеры Информационные технологии

Единица измерения присутствует в любой области человеческой деятельности как общепринятый эквивалент измерения чего-либо. Объем, длина, вес - самые распространенные из существующих. На разных континентах, на разных языках и, независимо от вероисповедания, мы пользуемся одними и теми же мерами измерения. Для человека это удобно, доступно и понятно, не требует никаких действий с конвертацией, которая зачастую приводит к ошибкам.

С появлением в жизни человека компьютера, возникла также потребность в создании единой единицы измерения количества информации. Да такой, чтобы ее воспринимал и китайский, и американский, и любой другой компьютер мира. Все программисты мира могли ею пользоваться, как единым языком. Так появился двоичный логарифм бит.

Бит – единица измерения информации, равная количеству информации и предполагающая только два значения: «включено» и «выключено» (изображается в виде 1 и 0). Чтобы на компьютере закодировать английский алфавит, достаточно шести битов, но для реализации более сложных процессов программирования потребуются более объемные единицы измерения информации, которые позаимствовали латинские приставки из математики. Бит в ЭВМ - это электрический импульс, подающийся из командного пункта к исполнительному органу и ответный импульс о проделанной работе. 0 и 1 команды подаются в разных диапазонах напряжения. Все это происходит на такой большой скорости, сравнимой с передачей информации между мозгом и нервными окончаниями в человеческом организме.

Все языки программирования завязаны на двоичном коде. Фото, перенесенное в электронный вид, игры и любой программный софт, управление механизированного производства - все использует единые единицы измерения информации - бит.

Собираясь в цепочки импульсов, биты образуют новые единицы измерения информации: байт, килобит, килобайт, мегабит, мегабайт, гигабайт, терабайт, петабайт и так далее.

Байт считается равным восьми битам и имеет второе название - октет, так как в компьютерной истории имеют место решения как 6-ти битовых байтов, так и 32-ух битовых, но это исключительно программное решение некоторых компаний в усовершенствовании единицы измерения информации, что не дало плодотворных результатов. Основным же является восьмибитовый байт, поэтому и названный общепринятым названием «октет».

Для облегчения работы с информацией, единицы измерения количества информации кодируются в специально утвержденные таблицы, типа UNICOD, и другие разновидности кодирования с помощью Windows OS или другой. Каждая из таблиц используется по своему назначению. Для черно-белого изображения используется 8-разрядная двоичная система, а для цветного уже 24-разрядная. Для написания текста любым языком мира достаточно использовать 16-разрядный UNICOD.

На данный момент рядовому пользователю доступна тасамая большая единица измерения информации, как терабайт – это 1024 гигабайта, которые составляют в свою очередь 1024 гигабайта. Если умножить на 1024, то получим количество мегабайт, которые составляют один терабайт. Если такие несложные умножения продолжать до первоначальной единицы измерения, то получится о-го-го число, ни в один калькулятор не поместится. Это и будет количество двоичных кодов, нужных для заполнения такого объема.

Кстати, многие производители при выпуске комплектующих используют буквальное значение приставок кило-, мега- и гига-. Это приводит к значительным погрешностям и завуалированному обману. То есть, жесткий диск на 1 террабайт физически может хранить всего 950 мегабайт информации. Компьютерное сообщество уже давно предложило способ, как этого избежать.

Приставки кило-, мега- и так далее остаются со своими привычными множителями. Кило – тысяча, мега – миллион. Для компьютерной техники правильно использовать множитель не 1000, а 1024. Название ему тоже придумано – киби. То есть, правильными приставками и множителями будут: киби-, миби- и далее.

  • Подписаться
  • Поделиться
  • Рассказать
  • Рекоммендовать

Похожие статьи