В
Все
М
Математика
О
ОБЖ
У
Українська мова
Д
Другие предметы
Х
Химия
М
Музыка
Н
Немецкий язык
Б
Беларуская мова
Э
Экономика
Ф
Физика
Б
Биология
О
Окружающий мир
Р
Русский язык
У
Українська література
Ф
Французский язык
П
Психология
А
Алгебра
О
Обществознание
М
МХК
В
Видео-ответы
Г
География
П
Право
Г
Геометрия
А
Английский язык
И
Информатика
Қ
Қазақ тiлi
Л
Литература
И
История
DarkWolf11
DarkWolf11
20.04.2020 04:23 •  Информатика

Исследовательская работа на тему: методы измерения информации

Показать ответ
Ответ:
nosanchuk14
nosanchuk14
07.10.2020 17:55

Основные единицы измерения информации должен знать даже информатический дилетант

Бит является наименьшей единицей измерения информации. Один бит представляет собой количество информации, которое содержится в сообщении, позволяющее вдвое уменьшить неопределенность знаний о чём бы то ни было.

Байт является основной единицей измерения информации. В одном байте содержится 8 бит. Байт - достаточно мелкая единица измерения информации. К примеру, при одного байта можно зашифровать только один символ, используя таблицу ASCII.

Производные единицы измерения информации

Название

Обозначение

Взаимосвязь с другими единицами

Килобит

Кбит

1 Кбит = 1024 бит = 210 бит

Мегабит

Мбит

1 Мбит = 1024 Кбит = 220 бит

Гигабит

Гбит

1 Гбит = 1024 Мбит = 230 бит

Килобайт

Кбайт (Кб)

1 Кб = 1024 байт = 210 байт

Мегабайт

Мбайт (Мб)

1 Мб = 1024 Кб = 220 байт

Гигабайт

Гбайт (Гб)

1 Гб = 1024 Мб = 230 байт

Стоит отметить, что прием и передача информации может происходить с различной скоростью. Скоростью передачи информации, либо скоростью информационного потока, является объем информации, переданный за единицу времени. Скорость можно выразить в таких единицах, как бит за секунду (бит/с), байт за секунду (байт/с) и т.п.

Формула Хартли при измерении информации

Как уже было сказано ранее, при одного бита можно вдвое уменьшить неопределенность знаний о чём бы то ни было. При формулы Хартли можно установить связь между количеством возможных событий и объемом информации.

N = 2I, где

N – число возможных событий; I – объем информации.

Вероятностный метод измерения информации

Применение данного метода возможно только тогда, когда вероятность появления в сообщении каждого из символов не является одинаковой. В таком случае объем информации можно определить при использовании формулы Шеннона:

, где

N - число возможных событий; I - объем информации; Pi - вероятность события i

Алфавитный метод измерения информации

Представленный метод предусматривает рассмотрение информации в качестве последовательности знаков в выбранной знаковой системе, при этом не концентрируя внимания на самом смысле информации.

Алфавит, который является множеством символов определенного языка, можно интерпретировать как разные события. Следовательно, если вероятность появления каждого символа в сообщении считать одинаковой, применяя формулу Хартли можно определить объем информации, который содержится в каждом символе:

I = log2N, где

N – число возможных событий; I – объем информации

Использование алфавитного метода измерения информации является наиболее практичным в технических средствах обработки информации.

Алфавитный подход – наиболее объективный измерения информации. Этим он отличается от содержательного подхода, который отличается своей субъективностью. Наиболее удобно измерять информацию в тех случаях, когда число символов в алфавите соответствует целой степени 2. Если N = 64, то в каждом символе будет содержаться 6 бит.

Стоит отметить, что в теории максимальный размер алфавита не может быть ограниченным. В связи с этим употребляется такое понятие, как достаточный алфавит. При работе с вычислительной техникой объем достаточного алфавита составляет 256 символов. В такой алфавит помещаются все необходимые символы.

0,0(0 оценок)
Популярные вопросы: Информатика
Полный доступ
Позволит учиться лучше и быстрее. Неограниченный доступ к базе и ответам от экспертов и ai-bota Оформи подписку
logo
Начни делиться знаниями
Вход Регистрация
Что ты хочешь узнать?
Спроси ai-бота