![]()
|
||||||||||||||||||||||||||||||||||||||||||||||
ДоказательствоСтр 1 из 5Следующая ⇒
Энтропия 1. 1. Комбинаторный подход к вычислению количества информации. Формула Хартли Обозначим через Iколичество информации, n – число состояний физической системы, тогда I = I(n) – функция количества информации. И повторим рассуждения Р. Хартли, позволившие ему получить меру количества информации. Предварительно примем, что информация – это устраненная неопределенность. Предположим, что какое-то событие имеет m равновероятных исходов. Таким событием может быть, например, появление любого символа из алфавита, содержащего m таких символов. Как измерить количество информации, которое может быть передано при помощи такого алфавита? Это можно сделать, определив число N возможных комбинаций букв алфавита, то есть число возможных сообщений, которые могут быть переданы при помощи этого алфавита. Если сообщение формируется из одного символа, то N = m, если из двух, то N = m2. Если сообщение содержит n символов (n – длина сообщения), то N = mn. Казалось бы, искомая мера количества информации найдена. Ее можно понимать как меру неопределенности исхода опыта, если под событием подразумевать случайный выбор какого-либо сообщения из некоторого числа возможных. Однако эта мера не совсем удобна. При наличии алфавита, состоящего из одного символа, т. е. когда m = 1, возможно появление только этого символа. Следовательно, неопределенности в этом случае не существует, и появление этого символа не несет никакой информации. Между тем, значение N при m = 1 не обращается в нуль. Для двух независимых источников сообщений (или алфавита) с N1 и N2 числом возможных сообщений общее число возможных сообщений Выход из положения Р. Хартли увидел том, чтобы информацию I, приходящуюся на одно сообщение, определять логарифмом общего числа возможных сообщений N:
Формула Хартли позволяет определить количество информации в сообщении только для случая, когда появление символов равновероятно и они статистически независимы. +На практике же условия позволяющие определить количество информации по (1. 1) выполняются редко. При определении количества информации необходимо учитывать не только количество разнообразных сообщений, которые можно получить от источника, но и вероятность их получения. Вывод формулы Шеннона Рассмотрим ряд чисел Для кодового слова длиной mi меру неопределенности закодированного состояния можно представить в виде: Для примера, приведенного в таблице, мера неопределенности будет равна: – среднее количество знаков в кодовом слове (математическое ожидание). Если взять не двоичную систему счисления, а систему счисления с основанием a, то для ряда чисел Если опять обратимся к таблице, то увидим, что Поэтому, выражение для неопределенности (1. 1) Шеннон записал, объединив формулу для любой системы счисления и получил:
назвав это выражение энтропией. На самом деле впервые функция энтропии была введена в термодинамику Р. Клаузиусом (термин «энтропия» был введен тоже Клаузиусом, образовавшим его от корня греческого слова «тропе», означающего «превращение» с добавлением заимствованной из слова «энергия» приставки «эн-»), усовершенствована Л. Больцманом и наконец М. Планком. Уже в этом виде ее применил Клод Шеннон. То есть, в самом общем случае, на вероятностном языке дляопыта
меранеопределенностиравна
Итак, энтропия – это среднее количество информации, приходящееся на один исход опыта (для дискретных систем). Аналогичная (1. 3) формула имеет место и при Наряду с энтропией дискретного распределения рассматривается также и энтропия непрерывной случайной величины, которая определяется формулой
где 1. 3. Единицы измерения энтропии и информации Итак, исторически первые шаги к введению понятия энтропии были сделаны еще в 1928 г. американским инженером-связистом Р. Хартли, предложившим характеризовать степень неопределенности опыта с k различными исходами числом log k. Замерунеопределенностиопыта, имеющего k равновероятныхисходов, приняли число +Кроме того, используется дит – это энтропия системы с десятью равновероятными состояниями, вычисленная с помощью логарифма с основанием десять. Иногда бурт физическую систему с е состояниями, тогда натуральную единицу количества информации называют нитом, при этом основание логарифма в формуле Шеннона равно е. Взаимосвязь между единицами количества информации: С точки зрения теории кодирования существует объяснение, почему используется двоичная система (основание логарифма).
Как видим, оптимальное количество букв в алфавите находится между 3 и 4. То есть, лучшей была бы троичная система, но ее труднее реализовать. Двоичная система, так же как и четверичная – почти оптимальные. Но легче реализовать двоичную систему. 1. 4. Свойства функции энтропии Свойство 1. Энтропия не может принимать отрицательных значений. Доказательство Так как всегда Свойство 2. Функция К Д Свойство 3. Энтропия равна нулю:
если вероятность одного из исходов опыта равна 1, а остальные равны нулю. Т. е. энтропия равна нулю, если возможен только один исход опыта (с вероятностью равной единице).
|
||||||||||||||||||||||||||||||||||||||||||||||
|