русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Аксиомы Фадеева


Дата добавления: 2013-12-23; просмотров: 2580; Нарушение авторских прав


Аксиомы Хинчена

1.Энтропия конечной вероятностной схемы ненулевая, непрерывная по вероятностям pi при условиях:

1.;

2. .

 

2.Энтропия, заданная конечной вероятностной схемой, симметрична по pi.

 

3. Энтропия, заданная конечной вероятностной схемой, при наличии пустого сообщения равна энтропии, заданная конечной вероятностной схемой без этого сообщения.

 

4.Энтропия объединенной вероятностной схемы:

, где ,

5. Энтропия конечной вероятностной схемы при равновероятных событиях:

1. – непрерывна при условиях: и положительна хотя в одной точке.

2. - симметрична по .

3. При где .

В дальнейшем все эти подходы Шеннона, Хинчена, Фадеева позволяют характеризовать производительность источника, оценивать возможности сжатия информации и анализировать пропускную способность канала.

 

 

2.3. Взаимная информация и её свойства.

Условная энтропия.

Для непрерывных величин .

Рассмотрим два связанных источника:

 

 
 

 


B
С=

A=

B=.

 

Если два источника считать связанными друг с другом, то следует ожидать, что событие одного источника позволяют делать некоторые предположения о событиях другого. В терминах теории информации это означает, что неопределенность второго источника снижается, т.е. источники обмениваются взаимной информацией. Известно, что для совместных событий между собственной, условной и совместной вероятностями существует зависимость, имеющая вид:

Прологарифмируем данное выражение:

=.

Из полученных выражений видно, что собственная информация пары событий определяется суммой собственных информаций каждого из событий за вычетом некоторой неотрицательной величины, которая снижает неопределенность, т.е. она сама в свою очередь является информацией. Эту величину называют взаимной информацией пары событий:



.

 

Если взять , тогда для этой случайной величины можно использовать понятие математического ожидания.

I(A;B)=

Свойства взаимной информации.

1. Взаимная информация положительна.

2. Взаимная информация симметрична относительно пары вероятностных схем.

I(А;B)=I(B;A)

 

3. Если сообщение A и B – независимы, т.е. не совместны, то взаимная информация I(А;B)=0.

Если сообщения A и B полностью зависимы, а именно совпадают, т.е. A и B содержат одну и ту же информацию, то взаимная информация:

 

I(А;B)=I(A)+I(B)

 



<== предыдущая лекция | следующая лекция ==>
Энтропия аддитивна. | Пример.


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.007 сек.