![]()
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Доказательство. Д оказательство. ДоказательствоДоказательство Очевидно,
т. е. Свойство 4. Всякое изменение вероятностей Д оказательство Энтропия исходных вероятностей равна Пусть Нам нужно доказать, что
где
Свойство 5. Энтропия максимальна, когда все исходы опыта равновероятны. Доказательство На Найдем локальный экстремум. Для этого рассмотрим функционал , Где коэффициент по Лагранжу, а – из условия ограничения. Берем первые частные производные по Поскольку правые части всех выражений одинаковые, можно сделать вывод о равновероятных состояниях исходов опыта, то есть:
Тогда Получили выражение для максимальной энтропии, соответствующее формуле Хартли. Иными словами, среди всех опытов, имеющих k исходов, наиболее неопределенным является опыт с распределением вероятностей:
И функция
Для одного же исхода опыта Свойство 6. Функция
Это соотношение означает, что неопределенность
получаемого отождествлением двух первых исходов опыта Свойство 7. Математическое ожидание информации есть энтропия (без доказательства)
Пример 1. Пусть из многолетних наблюдений за погодой известно, что для определенного пункта вероятность того, что 15 июня будет идти дождь, равна 0, 4, а вероятность того, что в указанный день дождя не будет, равна 0, 6. пусть далее для этого же пункта вероятность того, что 15 ноябрябудет идти дождь равна 0, 65, вероятность того, что 15 ноября будет идти снег, равна 0, 15 и вероятность того, что 15 ноября вовсе не будет осадков, равна 0, 2. Если из всех характеристик погоды интересоваться лишь вопросом о наличии и о характере осадков, то в какой из двух перечисленных дней погоду в рассматриваемом пункте следует считать более неопределенной? Решение Согласно тому, как понимается здесь слово «погода», опыта опыт
опыт
Поэтому энтропии наших двух опытов равны
и
Следовательно, погоду 15 ноября в рассматриваемом пункте следует считать более неопределенной, чем 15 июня. Полученный результат, разумеется, существенно зависит от того, как понимать слово «погода»; без точного разъяснения того, что под этим понимается, наша задача вообще не имеет смысла. В частности, если интересоваться только тем, будут ли в рассматриваемый день осадки или нет, то исходы «дождь» и «снег» опыта
Поэтому при таком понимании погоды надо считать, что 15 ноября погода является менее неопределенной, чем 15 июня. Если же интересоваться не только осадками, но и, например, температурой воздуха, то решение задачи становится более сложным и требует привлечения дополнительных данных о распределении значений температуры в рассматриваемом пункте 15 июня и 15 ноября. Соображения, развитые в решении этой задачи, представляют интерес для оценки качества предсказания погоды по тому или иному методу (аналогично обстоит дело и в случае любого другого прогноза). В самом деле, при оценке качества прогноза нельзя учитывать лишь его точность (т. е. процент случаев, в которых прогноз оправдывается); иначе нам пришлось бы высоко оценивать любой прогноз, имеющий большие шансы оказаться правильным. В том числе, например, и предсказание отсутствия снега в Киеве 1 июня, не представляющее, разумеется, никакой ценности. При сравнении качества различных прогнозов следует учитывать не только их точность, но и трудность удачного прогноза, которую можно характеризовать степенью неопределенности соответствующего опыта. Пример 2. Найти энтропию непрерывной случайной величины, распределенной по показательному закону
Решение Применяя одно из свойств плотности распределения, находим [применяя формулу интегрирования по частям, получаем]
Пример 3. Сравнить неопределенность, приходящуюся на каждую букву источника информации русского языка и характеризующуюся ансамблем, представленным в таблице (знаком «–» обозначен промежуток между словами), с неопределенностью того же источника, но при равновероятном использовании букв.
Решение При одинаковых вероятностях появления всех 32 (считая промежутки между словами и буквы е, ё и ъ, ь за одну букву) букв алфавита неопределенность, приходящаяся на одну букву, равна (см. формулу (1. 5)):
Энтропия источника, характеризующегося вышеуказанной таблицей, находится по формуле (1. 3):
Таким образом, неравномерность распределения вероятностей использования букв снижает энтропию источника с 5 до 4, 42 бит. Пример 4. Определить энтропию сообщения, состоящего из 5 букв, если общее число букв в алфавите равно 32 и все пятибуквенные сообщения равновероятны. Решение Общее число пятибуквенных сообщений Используя (1. 5), получаем:
Пример 5. Заданы ансамбли U и V двух дискретных случайных величин
Сравните их энтропии. Решение +Поскольку энтропия не зависит от конкретных значений случайной величины, а вероятности их появления у
1. 5. Энтропия сложных событий. Условная энтропия Мера неопределенности, используемая в решении задач, касающихся работы линий связи, например, должна быть приспособлена, в первую очередь, для оценки степени неопределенности сложных «составных событий», состоящих из целой совокупности следующих друг за другом испытаний. Пусть опыт
опыт
Рассмотрим сложный опыт где, например,
Это правило распространяется и на большее количество независимых величин. Если задана матрица вероятностей объединения двух исходов опытов
где Если опыты
где и
Величину
Таким образом, энтропия объединения двух статистически связанных опытов Для объединения любого числа зависимых опытов:
Укажем некоторые важнейшие свойства величины 1. Очевидно, что это есть неотрицательное число. Кроме того,
Таким образом, случаи, когда исход опыта 2. Если все вероятности
3. Если же опыта
4. Так как сложные опыты
Отсюда следует, в частности, что, зная энтропии
5. Поскольку
при имеет место при Пример 1. Определить энтропии
Решение Вычислим безусловные вероятности исходов каждого опыта как суммы общих вероятностей по строкам и столбцам заданной матрицы:
Находим условные вероятности (чтобы воспользоваться формулой (1. 9))
По формуле (1. 7) получаем:
По формуле (1. 8) можно проверить результаты вычислений:
Пример 2. Известны энтропии двух зависимых источников: Р +При решении удобно использовать графическое представление связи между энтропиями. Из рисунка 3 видим, что максимального значения Также можно определить энтропию случайной величины, введя предварительно понятия распределения случайной величины и собственной информации: Тогда энтропия определяется как: От количества возможных состояний
Энтропия является количеством, определённым в контексте вероятностной модели для источника данных. Например, кидание монеты имеет энтропию:
У источника, который генерирует строку, состоящую только из букв «А», энтропия равна нулю: Так, например, опытным путём можно установить, что энтропия английского текста равна 1, 5 бит на символ, что конечно будет варьироваться для разных текстов. Степень энтропии источника данных означает среднее число битов на элемент данных, требуемых для её зашифровки без потери информации, при оптимальном кодировании. 1. Некоторые биты данных могут не нести информации. Например, структуры данных часто хранят избыточную информацию, или имеют идентичные секции независимо от информации в структуре данных. 2. Количество энтропии не всегда выражается целым числом битов.
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|