русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Вывод формулы Шеннона


Дата добавления: 2013-12-23; просмотров: 1797; Нарушение авторских прав


I=1

где Ptвероятность того, что система находится в i-ом состоянии.

Нам необходимо научиться оценивать степень неопределенности различных ситуаций, опытов. Для самых простых опытов, имеющих к равновероятных исходов, степень неопределенности измеряется с помощью самого числа «к»: при к = 1 никакой неопределенности нет, так как исход предопределен, но не случаен. При росте числа возможных исходов предсказание результата опыта становится все более затруднительным, так что естественно предположить, что мера степени неопределенности является функцией к f(к), причем f(1) = 0 и f(k) монотонно растет с ростом «к».

Кроме того, надо научиться оценивать неопределенность нескольких опытов. Рассмотрим два независимых опыта «а» и «в» (т.е. таких два опыта, что любые сведения об исходе первого никак не меняют вероятностей исходов второго). Если опыт «а» имеет р равновероятных исходов, а опыт «в» — q равновероятных исходов, то сложный опыт ав, состоящий в одновременном выполнении опытов «а» и «в», очевидно, обладает большей неопределенностью, чем каждый опыт «а» или «в» в отдельности.

Пример сложного опыта. Пусть в одной урне находится 32 таблички с буквами русского алфавита (е и ё будем считать неразличимыми), а в другой — таблички с арабскими цифрами 0, 1, ..., 9. Опыт «а» состоит в извлечении из первой урны одной буквы, а опыт «в» — в извлечении из второй урны одной цифры. В первом случае у нас 32 равновероятных исхода, а во втором — 10. При этом извлечение какой бы то ни было буквы из первой урны никак не влияет на то, какая будет извлечена цифра. В сложном опыте «а» х «в» = 320 исходов, и степень неопределенности этого опыта больше, чем двух исходных.

Очевидно, что в сложном опыте степень неопределенности опыта «а» дополняется степенью неопределенности «в». Можно считать, что степень неопределенности опыта «а» х «в» равна сумме неопределенностей опытов «а» и «в». Так как опыт «а» х «в» имеет « х «q» равновероятных исходов, то мы можем формировать условие, которому должна удовлетворять функция f(k): f(pq) = f(p) + f(q).



Последнее условие вместе с требованием f(1) = 0 и условием монотонного роста наталкивает на мысль, что в качестве меры неопределенности опыта, имеющего к равновероятных исходов, можно взять число logk:. Формально доказывается, что логарифмическая функция является единственной функцией аргумента к, удовлетворяющей условиям f(pq) = f(p) + f(q), f(1) = 0 и f(p) > f(q) при р > q.

При определении конкретной оценки меры неопределенности обычно используют логарифм по основанию два, т.е. f(k) =log2k. Это означает, что за единицу измерения степени неопределенности здесь принимается неопределенность, содержащаяся в опыте, имеющем два равновероятных исхода (как в опыте подбрасывания монеты). Такая единица измерения неопределенности называется бит (bit — binary digit — двоичный разряд). В немецкой литературе ее название очень выразительно — Ja-Nein Einheit (единица «Да-Нет»). В случае использования десятичных логарифмов в качестве единицы степени неопределенности принималась бы неопределенность опыта с десятью равновероятными исходами — дит. Чаще всего именно бит принимается в качестве единицы измерения: мы соглашаемся оценивать неопределенность системы в самых мелких возможных единицах. Неопределенность десятичного набора — гораздо крупнее: дит почти в 3,3 раза больше бита (так как log210 = 3,32).

Клод Шеннон в 1950 г. предложил в качестве меры неопределенности системы «а» с «к» состояниями энтропии Н(а)

 

k

Н(a) = - Σ Pt log Pt



<== предыдущая лекция | следующая лекция ==>
Энтропия системы | Семантическая мера информации


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.004 сек.