русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Энтропия сложных событий. Условная энтропия


Дата добавления: 2014-03-21; просмотров: 2980; Нарушение авторских прав


Историческая справка

 

Исторически первые шаги к введению понятия энтропии были сделаны в 1928 году американским инженером-связистом Хартли, предложившим характеризовать степень неопределённости опыта c К различными исходами числом log k. Предложенная им мера степени неопределённости иногда бывает удобна в некоторых практических задачах, но часто оказывается малопоказательной, поскольку полностью игнорирует различие меж-ду характером имеющихся исходов. Поэтому почти невероятному исходу у Хартли при-даётся такое-же значение, как и исходу весьма вероятному. Однако, он считал, что раз-личия между отдельными исходами определяются в первую очередь "психологическими факторами" и должны учитываться лишь психологами, но не инженерами или математи-ками.


 


Ошибочность точки зрения Хартли была показана другим американским инженером - математиком К. Шенноном. Он предложил принять в качестве меры неопределённости опыта с K различными исходами A1; : : : ; Ak величину

 

H( ) = −p(A1)log p(A1) − : : : − p(Ak log p(Ak).

 

Иначе говоря, исходу Ai следует приписать неопределённость, равную log p(Ai). В качестве неопределённости всего опыта H( ) принимается среднее значение случай-ной величины (математическое ожидание), равное H( ) ,где принимают значения log p(Ai) с вероятностями p(Ai).

 

Таким образом, загадочные "психологические факторы" учитываются с помощью исполь-зования понятия вероятности, имеющего чисто математический, а точнее статистический характер.

 

Использование величины H( ) в качестве меры неопределённости опыта A оказалось полезным во многих областях, а особенно в теории передачи сообщений по линиям свя-зи.

 

 

 

Условная энтропия. Пусть имеются два независимых опыта A; B с таблицей вероятностей



A1; p(A1); : : : ; Ak; p(Ak); B1; p(B1); : : : ; Bl; p(Bl).

 

Рассмотрим сложный опыт , когда осуществляются оба опыта одновременно, имею-щий k ∗ l исходов (A × B - декартово произведение).

 

A1B1: = A1; = B1

 

Очевидно, что неопределённость опыта больше неопределённости каждого из опы-тов, из-за осуществления обоих опытов. Поэтому имеет место соотношение H( ) = H( ) + H( ).Написанное равенство называется правилом сложения энтропии для опы-тов и .

 

 

Для доказательства этого равенства рассмотрим выражение

 

 

H( ) = −p(A1B1)log p(A1B1) − : : : − p(AkBl)log p(AkBl)

 

 

; -независимы,следовательно p(AiBj) = p(Ai) ∗ p(Bj)

 

 

log p(AiBj) = log p(Ai)p(Bj) = log p(Ai) + log p(Bj):

 

Предположим далее, что и - зависимые опыты (пример: , - последовательные из-влечения двух шаров из одной урны.) Постараемся выяснить, чему равна энтропия слож-ного опыта в этом случае.

 

Здесь уже нельзя заменить p(A1B1); p(A1B2); : : : произведением вероятностей, а необ-ходимо использовать условную вероятность p(A1B1) = p(A1) ∗ p(B1|A1)

 

В этом случае можно доказать следующую формулу:


 


H( ) = H( ) + [p(A1) ∗ H( |A1) + p(A2) ∗ H( |A2) + : : : + p(Ak) ∗ H( |Ak)] (),где

 

H( |Ai)-условная энтропия опыта при условии,что значение опыта равно Ai.

 

H( |Ai) = −p(B1|Ai)log p(B1|Ai) − p(B2|Ai)log p(B2|Ai) − : : : − p(Be|Ai)log p(Be|Ai)(∗∗)

 

 

Это выражение представляет собой энтропию опыта при условии, что имеет место со-бытие Ai.

 

 

H( ; ) = H( ) + H( ) ( для независимых ; )
{ H( ; ) = H( ) + [ : : : ]( ) ( для зависимых ; )
 

 

Первый член последнего выражения () - энтропия опыта . Что же касается второго - он есть математическое ожидание случайной величины, принимающей с вероятностя-ми p(A1); : : : ; p(Ak) значения H( |A1); : : : ; H( |Ak), то есть значения, равные услов-ной энтропии опыта , при условии, что опыт имеет исходы : A1; : : : ; Ak. Это сред-нее значение естественно назвать условной энтропией выполнения опыта при условии выполнения опыта ,

 

 

H( | ) = [ : : : ]() = p(A1)H( |A1) + p(A2)H( |A2) + : : : + p(Ak)H( |Ak)

 

Тогда соотношение () переписывается как H( ) = H( ) + H( | )(); ; - зависимы.

 

Это и есть общее правило для определения энтропии сложного опыта . Его также мож-но назвать правилом сложения энтропии, для зависимых опытов .

 

Укажем основные свойства условной энтропии:

 

1. H( | )>0.

 

2. p(A1); : : : ; p(Ak) ≠ 0(опыт имеет к штук исходов).

 

Тогда H( | ) = 0 ⇐⇒ H( |A1) = : : : = H( |Ak) = 0, т.е. при любом исходе опыта результат опыта полностью определён, и при этом имеем H( ) = H( ).

 

Если и независимы, то тогда H( | ) = H( ), и H( ) = H( ) + H( ).

 

3. Во всех случаях условная энтропия H( | ) заключается между 0 и H( ):

 

0 6 H( | ) 6 H( ).

 

Таким образом случаи, когда исход полостью предопределяется исходом и когда опыты и независимы, являются в определённом смысле крайними.

 

4. Условная энтропия.

 

H( ) = H( ) ⇒ H( ) + H( | ) = H( ) + H( | )

 

⇒ H( | ) = H( | )(:) + H( ) − H( )

 

H( | ) = 0(исход опыта полностью определяет опыта

 

H( | ) = H( ) − H( )


 

 


Задача:Задача о болезненной реакции.

 

Известно, что некоторой болезнью в среднем болеют 2 человека из 100. Для выявления больных используется определённая реакция, которая всегда оказывается положитель-ной в том случае, когда человек болен. Если же человек здоров, то она столь же часто бывает положительной, как и отрицательной. Пусть опыт состоит в определении то-го болен или здоров человек, а опыт - в определении результата указанной реакции. Спрашивается, какова будет энтропия H( ) =? опыта и условная энтропия H( | ) =?.

 

Решение:Очевидно,что имеет2исхода::{B1-здоров;B2-болен}.

 

p(B1) = 0:98; p(B2) = 0:02.

 

H( ) =0:98log0:980:02log0:020:14бит:

 

H( )0:14:

 

Рассмотрим опыт : : A1 положительная реакция; A2 отрицательная реакция

 

p(A1) = p( B21+ B2) = p( B21) + p(B2) = 0:49 + 0:02 = 0:51.

p(A2) = p( B21) = 0:49.

= A1 : p(B1|A1) = p(B1A1) = 0:49 = 49 :  
p(A1) 0:51  
= A2 : p(B2|A1) = p(B2A1) = 0:02 = :  
p(A1) 0:51  

 

Пользуясь этими данными мы можем найти условную энтропию H( ) при выполнении события A1

 

 

H( |A1) = log log   0:24бит.  
             
 
                       

 

При = A2 = B1; H( |A2) = 0, т.е. мы с уверенностью можем утверждать, что человек здоров, и опыт имеет исход B1.

 

Таким образом, условная энтропия при условии осуществления будет равна

 

 

H( ) = 0:14|sysH( |A1)0:045H( |A2) = 0 ∼∼

 

 

H( | ) = p(A1)H( |A1) + p(A2)H( |A2)0:510:24 + 0:490 = 0:12бит.

 

Иначе говоря, выполнение опыта уменьшает неопределённость опыта на 0:002 бита.


 

 




<== предыдущая лекция | следующая лекция ==>
Энтропия как мера неопределённости | Понятие об информации.


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.009 сек.