Умные вопросы
Войти
Регистрация
Почему в информатике под объемом информацией понимают кол-во уменьшившегося незнания, а не кол-во самой информации?
5 года
назад
от
SheenaGabel2
1 ответ
▲
▼
0
голосов
вобще все это пустая болтовня, попытки авторов учебников объяснить на пальцах вполне конкретное понятие шенноновской инфоромации и энтропии ученикам, не знающим базовых понятий.
"мера неопределенности" - энтропия. E=Сумма по всем возможным исходам (-p*log p) , где p - вероятность этого исхода.
получение информации (например, собщения) меняет значения вероятностей и эту меру неопределенности. Информацией называется изменение энтропии в результате получения собщения. Всего-то.
Но для понимания невредно знать теорию вероятностей, а хорошо бы и формулу Байеса.
Тут еще важный момент: кол-во информации зависит от приемника! Если вы уже знаете, что Волга впадает в Каспийское море, то собщение "Волга впадает в Каспийское море" не содержит для вас ни бита информации.
5 года
назад
от
Madge03D8882
Связанные вопросы
1
ответ
Почему цифры мультиметра при измерении напряжения в розетке не скачут от 0 до 310, а показывают 220В?
4 года
назад
от
Jarrod556023
1
ответ
Вопрос в следующем. Если бы Вас СЛУЧАЙНО поставили куратором отделения хирургии с новым оборудованием.
5 года
назад
от
ChristinaMen
1
ответ
ИИ в скором времени создаст отрасль крупне автомобильной. Авто станет роботом. Что будет если автомобили осознают себя?
5 года
назад
от
Ольга Шмелева