Информация, вводимая в компьютер должна быть конкретной и однозначной. Издавна люди пользовались шифрами. Самыми простыми и удобными из них были цифровые шифры. Самая разнообразная информация — цвета, ноты, дни недели — может быть представлена в виде цифр. Для обработки компьютером любая информация кодируется с помощью цифр. Цифры представляются электрическими сигналами, с которыми работает компьютер. Для удобства различения в компьютере используют сигналы двух уровней. Один из них соответствует цифре 1, другой — 0. Цифры 1 и 0 называются двоичными. Они являются символами, из которых состоит язык, понимаемый и используемый компьютером. Т.о., любая информация в компьютере представляется с помощью двоичных цифр.
Наименьшей единицей информации является бит (от англ. binary digit (bit)).
Бит— это количество информации, необходимое для однозначного определения одного из двух равновероятных событий. Один бит информации получает человек, когда он узнает, опаздывает с прибытием нужный ему поезд или нет, был ночью мороз или нет, присутствует на лекции студент Иванов или нет и т.д.
В информатике принято рассматривать последовательности длиной 8 бит. Такая последовательность называется байтом. С помощью одного байта можно записать двоичные коды 256 (28) чисел от 0 до 255.
Единицы измерения информации:
1 байт=8 бит
1 килобайт (Кб) = 1024=210 байт
1 мегабайт (Мб) = 1024 килобайт
1 гигабайт (Гб) = 1024 мегабайт
1 терабайт (Тб) = 1024 гигабайт
Например, если на странице текста помещаются в среднем 2500 знаков, то 1 Мбайт — это примерно 400 страниц, а 1 Гбайт — 400 тыс. страниц.