русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Понятие об информации.


Дата добавления: 2014-03-21; просмотров: 841; Нарушение авторских прав


 

Вернёмся вновь к величине H( ), характеризующей степень неопределённости опыта . Равенство этой величины 0 означает, что исход опыта заранее известен. Большее или меньшее значение числа H( ) отвечает большей или меньшей проблематичности определения результата опыта . Какое-либо измерение или наблюдение в виде опыта , предшествующее может ограничить количество возможных исходов опыта , и тем самым уменьшить степень его неопределённости: так, к примеру степень неопределён-ности опыта, состоящего в нахождении самого тяжёлого из 3 грузов уменьшается после сравнения на весах двух из них.

 

Для того, чтобы результат измерения(наблюдения) мог сказаться на последующем опы-те необходимо, чтобы не был известен заранее. Поэтому, можно рассматривать как вспомогательный опыт, также имеющий несколько допустимых исходов.

 

Тот факт, что осуществление уменьшает степень неопределённости отражается в неравенстве, где условная энтропия H( | ) 6 H( ) первоначальной энтропии опыта

.

 

При этом, если опыт не зависит от , то осуществление не уменьшает энтропии . Это значит, что H( | ) = H( ). Если же результат полностью предопределяет ис-ход опыта , то энтропия уменьшается до 0: H( | ) = 0. Таким образом, разность

I( ; ) = H( ) − H( | )().

Таким образом написанная разность указывает, насколько осуществление уменьшает неопределённость , т.е. как много мы узнаём об исходе опыта , произведя измере-ние(наблюдение) в виде опыта . Эта разность () называют количеством информации относительно опыта , содержащейся в опыте . Таким образом, мы получаем возмож-ность численного измерения информации. К примеру, в условиях задачи о болезненной реакции можно сказать, что используемая реакция в виде опыта даёт информацию о заболевании в виде опыта , равное 0:14 0:12 = 0:02 бита. Эта цифра и оценивает пользу реакции.



 

Соотношение между понятиями энтропии и информации напоминает соотношение меж-ду физическими понятиями потенциала и разности потенциалов. Энтропия есть абстракт-ная мера неопределённости. Ценность этого понятия в значительной мере заключается в том, что оно позволяет оценить влияние на опыт какого-либо другого опыта как разность энтропий по формуле ().

 

Подчеркнём также, что информация относительно опыта , содержащаяся в опыте представляет собой среднее значение (математическое ожидание) случайной величины H( ) − H( |Ai),связанной с отдельными исходами Ai опыта.

 

Пример:Задача о шарах и предварительной информации.

 

Пусть опыт состоит в извлечении одного шара из урны:

 

: 1 шар из 5 чёрных и 10 белых.

 

А опыт k состоит в предварительном извлечении (без возвращения обратно) K шаров:

 

k : K шаров извлечено.

 

H( ) = ?


 


I( ; 1) = ?

 

I( ; 2) = ?

 

I( ; 13) = ?

 

I( ; 14) = ?

 

Чему равна энтропия H( ) и информация, содержащаяся в опыте 1?

 

 

Решение:

 

H( ) =13log1323log230:92бита:

 

I( ; 1) = H( ) − H( | 1)                                    
H( | 1) =[p(A1чёр) ∗ H( |A1чёр)]+[p(A1бел) ∗ H( |A1бел)]=        
= p(Bчёр A1чёр) log   + p(Bбел A1чёр) log        
       
    4/14|         5/7|          
                                               
  p(Bчёр A1бел) log   + p(Bбел A1бел) log     0:004бит:  
   
    5/11|       9/14|            
                                                   

 

I( | 2) = H( ) − H( | 2)

 

H( | 2) = p(Aч1Aч2) ∗ H( |Aч1Aч2) + p(Aч1Aб2) ∗ H( |Aч1Aб2) + p(Aб1Aб2) ∗ H( |Aб1Aб2) =

 

        C52 p(Bчёр     чёр   чёр         log       + p(Bбел |   чёр   чёр         log            
=         A1 A2 )             A1 A1 )           +      
                                 
  C15   |                                                                        
  3/13                       10/13                        
                                                                             
                                                                                                             
    1 p(Bчёр     чёр   бел                         бел       чёр   бел                          
    C10C5             log                               log            
  +         A1 A2 )           + p(B         A1 A2 )             +      
                             
    C15   |4/13                           |9/13                            
                                                                                                               
        C2 p(Bчёр     бел бел     log                 бел     бел бел         log         0:008бит:  
                                    |                    
    +       A1   A2     )             + p(B     A1   A2   )                
                                                 
        C15     |                                                                
        5/13                           8/13                      
                                                                                   
                                                                                                               
   

 

I( ; 13) = H( ) − H( | 13)

 

H( | 13)-здесь неопределённость только в оставшихся двух шарах:они должны бытьдвух цветов, значит, мы взяли 4 чёрных и 9 белых шаров.

 

 

  C54C109                   5!     10!     2 5 10        
H(13) = ( ) log   + log ) =   4!(54)! 9!(109)! =     0:44  
                     
|   (                   )     15!     14 15    
C15                
      13!(1513)!(1)    


 


I( ; 14) = [H( | 14) = 0]0:92:

 

Вообще, надо сказать, что количество информации об опыте : I( ), которая заключает-ся в опыте является объективной характеристикой ценности прогноза. H( | ) = H( ), если , независимы, или если H( ) = 0 (исход известен заранее и не нуждается в прогнозе). Во всех остальных случаях имеем 0 < I( | ) ≤ H( )

 

Рассмотрим ситуацию, когда опыт имеет бесконечное число исходов (непрерывное множество исходов). В этом случае H( ) = , однако вместо неё часто можно рассмат-ривать конечную энтропию H" , которая получается при объединении исходов , отли-чающихся не более, чем на малое число ", в один исход. В практических задачах обычно H" (" -энтропия)и имеет смысл,так как мы вообще не можем различить исходы,от-личающиеся меньше, чем на ". (" определяется точностью используемых измерительных приборов)

 

Информация I( ; ) = I( ; ). Проверим: Очевидно равенство

 

H( ) = H( ) ⇒ H( ) + H( | ) = H( ) + H( | ) ⇒ H( ) + H( | ) = H( ) +

 

H( | ) ⇒ I( |beta) = I( | )

 

Таким образом, информацию I( ; ) можно назвать взаимной информацией опытов и друг относительно друга.

 

Пусть ; ; - 3 произвольных опыта. В таком случае всегда I( ; ) > I( ; )

 

Иначе говоря, опыт содержит не меньше информации, чем простой опыт

 

Про последовательной передаче информации об опыте , осуществляемой посредством цепочки опытов ; ; : : : , где только опыт непосредственно связан с ,а всю содер-жащуюся информацию об получает из связи с опытом (так, что не содержит до-полнительной информации по сравнению с опытом ); всю информацию получает из связи с опытом : : :

 

Информация об опыте в этом случае может только уменьшаться.

 

H( ) = I( ; )> I( ; )> I( ; )> I( ; )> : : :

 

Наглядной иллюстрацией этого положения может служить игра "испорченный телефон".

 

Величина I ( ; ) = H( | ) − H( | ) называется условной информацией двух опытов и друг от друга при выполнении опыта .

 

Свойства условной информации:

 

1. I ( ; )>0

 

2. I ( ; ) = I ( ; )(симметричность).

 

3. I( ; ) = I( ; ) + I ( ; )

 

Получается из формул

 

I ( ; ) = H( | ) − H( | ) I( ; ) = H( ) − H( | ) I( ; ) = H( ) − H( | )





<== предыдущая лекция | следующая лекция ==>
Энтропия сложных событий. Условная энтропия | Определение энтропии перечислением её свойств


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.011 сек.