В
Все
М
Математика
О
ОБЖ
У
Українська мова
Х
Химия
Д
Другие предметы
Н
Немецкий язык
Б
Беларуская мова
М
Музыка
Э
Экономика
Ф
Физика
Б
Биология
О
Окружающий мир
У
Українська література
Р
Русский язык
Ф
Французский язык
П
Психология
О
Обществознание
А
Алгебра
М
МХК
Г
География
И
Информатика
П
Право
А
Английский язык
Г
Геометрия
Қ
Қазақ тiлi
Л
Литература
И
История
ekaterinkavlas1
ekaterinkavlas1
05.08.2021 06:40 •  Информатика

представьте числа 88 ^10 и -36^10 в знаковом 8 разрядном формате

Показать ответ
Ответ:
Панель11
Панель11
13.06.2021 20:55

8^{511} - 4^{511} + 2^{511} - 512 + 1 = 2^{1533} - 2^{1022} + 2^{511} - 2^{9} + 2^{0}

Число 2^{n}_{10}  в двоичной системе счисления выглядит как единица и n нулей за ней.

То есть у числа 2^{1533} ровно 1533 значащих нуля, а у числа 2^{1022} их ровно 1022.

Разница же таких чисел порождает единицы между первыми единицами изначальных чисел. Например, 2^{5} - 2^{3} \rightarrow 100000 - 1000 = 11000. Появилось 5-3 = 2 единицы и осталось 3 (от последнего числа) значащих нуля.

Зная это, мы можем разобраться, сколько значащих нулей в загаданном числе.

2^{1533} - 2^{1022} + 2^{511} - 2^{9} + 2^{0}

2^{1533} - 2^{1022} даёт нам 1022 значащих 0 и 511 единиц перед ними.

2^{511} - 2^{9} даёт нам 9 значащих 0 и 502 единицы перед ними.

2^0 даёт нам 0 значащих 0 и 1 единицу перед ними (просто единица).

Теперь сложение.

Начинаем с самых больших разрядов. Понижаясь, вычитаем количество образовавшихся в середине единиц.

1022 - 502 - 1 = 519 - ответ.

0,0(0 оценок)
Ответ:
nicesasha2017
nicesasha2017
09.12.2020 15:29

Если речь о физическом толковании, то информацию часто связывают с понятием "энтропия" - мера хаоса. Что это такое можно узнать из второго закона термодинамики. Процессы нашего мира протекают с увеличением энтропии. Так задаётся направление движения времени для нас.

Как это связано с информацией? "Что-то" содержит тем больше информации, чем более это "что-то" хаотично. Например, 0100010001000100 можно представить как repeat(0100, 4), а 1001110100010101011 представить таким образом уже сложнее. Чем более "несжимаема" информация, тем больше этой информации. В первом случае, мы выделили паттерн, который описывает всё последовательность. Во втором случае мы этого сделать не смогли. Но паттерн также является частью информации, также несёт информацию. Поэтому для нас ценны не абсолютно информативные сообщения (белый шум), а нечто промежуточное между примитивной информацией и невоспринимаемо сложной.

Понятия энтропия и информация связаны друг с другом. Но энтропия - лишь мера, она не может существовать "сама по себе". Энтропия существует при приложении к веществу и энергии. Вещество и энергия выступают хранилищем и переносчиком информации, взаимодействия - физические представления информации в мире.

Саму информацию можно понимать как абстрактное понятие, а вещество и энергию - как инструменты представления и передачи информации.

0,0(0 оценок)
Популярные вопросы: Информатика
Полный доступ
Позволит учиться лучше и быстрее. Неограниченный доступ к базе и ответам от экспертов и ai-bota Оформи подписку
logo
Начни делиться знаниями
Вход Регистрация
Что ты хочешь узнать?
Спроси ai-бота