Понятие энтропии с необходимостью вытекает из простейших требований, которые есте-ственно наложить на величину, служащую количественной характеристикой степени неопределённости. Энтропия (мера степени неопределённости опыта ) определяется с помощью таблицы вероятностей.
Исходы опыта
A1
…
Ak
Вероятности
p(A1)
…
p(Ak)
H( ) = H(p1; : : : ; pk)
p(A1) = p1; : : : ; pk
Сформулируем те условия. выполнение которых надо требовать от функции энтропии:
1. H(p1; : : : ; pk)не меняется при любой перестановке чисел p1 : : : pk
2. H(p1; : : : ; pk)непрерывна,т.е она мало изменяется при малых изменениях вероят-ностей pk. В самом деле, при малых изменениях вероятностей и степень неопреде-лённости опыта должна мало изменяться
получаемая отождествлением первых двух исходов опыта меньше неопределённо-сти последнего опыта, умноженную на меру неопределённости опыта p1 + p2, состо-ящую в выяснении того, какой именно из первых исходов опыта имел место.
Можно
доказать,
что
условия
1; 2; 3
полностью определяют вид функции
H(p1; p2; : : : ; pk):единственная функция,удовлетворяющая этим
условиям имеет
вид
H(p
; p
; : : : ; p
) =
−
p
1 log
p
1 −
:::
−
p
k log
p
k Следуя Шеннону,1
условия 1; 2; 3 до-
k
1
полняют ещё одним условием : вводят в рассмотрение функцию H( k
; : : : ; k) = H(0)
(опыт 0 имеет K равновероятных исходов).
Очевидно, что в силу равновероятности исходов, функция зависит лишь от числа K. Так-же ясно, что степень неопределённости опыта 0 должна быть тем больше, чем больше число K его исходов. Тогда можно утверждать, что