Исторически первые шаги к введению понятия энтропии были сделаны в 1928 году американским инженером-связистом Хартли, предложившим характеризовать степень неопределённости опыта c К различными исходами числом log k. Предложенная им мера степени неопределённости иногда бывает удобна в некоторых практических задачах, но часто оказывается малопоказательной, поскольку полностью игнорирует различие меж-ду характером имеющихся исходов. Поэтому почти невероятному исходу у Хартли при-даётся такое-же значение, как и исходу весьма вероятному. Однако, он считал, что раз-личия между отдельными исходами определяются в первую очередь "психологическими факторами" и должны учитываться лишь психологами, но не инженерами или математи-ками.
Ошибочность точки зрения Хартли была показана другим американским инженером - математиком К. Шенноном. Он предложил принять в качестве меры неопределённости опыта с K различными исходами A1; : : : ; Ak величину
H( ) = −p(A1)log p(A1) − : : : − p(Aklog p(Ak).
Иначе говоря, исходу Ai следует приписать неопределённость, равную − log p(Ai). В качестве неопределённости всего опыта H( ) принимается среднее значение случай-ной величины (математическое ожидание), равное H( ) ,где принимают значения − log p(Ai) с вероятностями p(Ai).
Таким образом, загадочные "психологические факторы" учитываются с помощью исполь-зования понятия вероятности, имеющего чисто математический, а точнее статистический характер.
Использование величины H( ) в качестве меры неопределённости опыта A оказалось полезным во многих областях, а особенно в теории передачи сообщений по линиям свя-зи.
Условная энтропия. Пусть имеются два независимых опыта A; B с таблицей вероятностей
Рассмотрим сложный опыт , когда осуществляются оба опыта одновременно, имею-щий k ∗ l исходов (A × B - декартово произведение).
A1B1: = A1; = B1
Очевидно, что неопределённость опыта больше неопределённости каждого из опы-тов, из-за осуществления обоих опытов. Поэтому имеет место соотношение H( ) = H( ) + H( ).Написанное равенство называется правилом сложения энтропии для опы-тов и .
Для доказательства этого равенства рассмотрим выражение
Предположим далее, что и - зависимые опыты (пример: , - последовательные из-влечения двух шаров из одной урны.) Постараемся выяснить, чему равна энтропия слож-ного опыта в этом случае.
Здесь уже нельзя заменить p(A1B1); p(A1B2); : : : произведением вероятностей, а необ-ходимо использовать условную вероятность p(A1B1) = p(A1) ∗ p(B1|A1)
Это выражение представляет собой энтропию опыта при условии, что имеет место со-бытие Ai.
H( ; ) = H( ) + H( )
( для независимых ; )
{ H( ; ) = H( ) + [ : : : ](
) ( для зависимых ; )
∗
Первый член последнего выражения (∗) - энтропия опыта . Что же касается второго - он есть математическое ожидание случайной величины, принимающей с вероятностя-ми p(A1); : : : ; p(Ak) значения H( |A1); : : : ; H( |Ak), то есть значения, равные услов-ной энтропии опыта , при условии, что опыт имеет исходы : A1; : : : ; Ak. Это сред-нее значение естественно назвать условной энтропией выполнения опыта при условии выполнения опыта ,
Тогда соотношение (∗) переписывается как H( ) = H( ) + H( | )(∗); ; - зависимы.
Это и есть общее правило для определения энтропии сложного опыта . Его также мож-но назвать правилом сложения энтропии, для зависимых опытов .
Укажем основные свойства условной энтропии:
1. H( | )>0.
2. p(A1); : : : ; p(Ak) ≠ 0(опыт имеет к штук исходов).
Тогда H( | ) = 0 ⇐⇒ H( |A1) = : : : = H( |Ak) = 0, т.е. при любом исходе опыта результат опыта полностью определён, и при этом имеем H( ) = H( ).
Если и независимы, то тогда H( | ) = H( ), и H( ) = H( ) + H( ).
3. Во всех случаях условная энтропия H( | ) заключается между 0 и H( ):
0 6 H( | ) 6 H( ).
Таким образом случаи, когда исход полостью предопределяется исходом и когда опыты и независимы, являются в определённом смысле крайними.
4. Условная энтропия.
H( ) = H( ) ⇒ H( ) + H( | ) = H( ) + H( | ) ⇒
⇒ H( | ) = H( | )(:) + H( ) − H( )
H( | ) = 0(исход опыта полностью определяет опыта
H( | ) = H( ) − H( )
Задача:Задача о болезненной реакции.
Известно, что некоторой болезнью в среднем болеют 2 человека из 100. Для выявления больных используется определённая реакция, которая всегда оказывается положитель-ной в том случае, когда человек болен. Если же человек здоров, то она столь же часто бывает положительной, как и отрицательной. Пусть опыт состоит в определении то-го болен или здоров человек, а опыт - в определении результата указанной реакции. Спрашивается, какова будет энтропия H( ) =? опыта и условная энтропия H( | ) =?.