Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т. е. используется алфавит мощностью два (всего два символа 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц - машинным языком. Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.
Согласно условию, в номере могут быть использованы 10 цифр (0..9) и 19 букв, всего 10 + 19 = 29 символов. Известно, что с бит можно закодировать 2^N различных символов. Поскольку 2^4 < 29 < 2^5, то для записи каждого из 29 символов необходимо 5 бит.
Для хранения всех 6 символов номера нужно 6 * 5 = 30 бит, а т.к. для записи используется целое число байт, то берём ближайшее не меньшее значение, кратное восьми, это число 32 = 4 * 8 бит (4 байта).
160 байт
Объяснение:
Согласно условию, в номере могут быть использованы 10 цифр (0..9) и 19 букв, всего 10 + 19 = 29 символов. Известно, что с бит можно закодировать 2^N различных символов. Поскольку 2^4 < 29 < 2^5, то для записи каждого из 29 символов необходимо 5 бит.
Для хранения всех 6 символов номера нужно 6 * 5 = 30 бит, а т.к. для записи используется целое число байт, то берём ближайшее не меньшее значение, кратное восьми, это число 32 = 4 * 8 бит (4 байта).
Тогда 40 номеров занимают 4 * 40 = 160 байт.