русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Количественная оценка информации


Дата добавления: 2015-09-15; просмотров: 1170; Нарушение авторских прав


Получение информации всегда приводит к уменьшению неопределенности. Рассмотрим дискретный источник информации, характери-

зуемый дискретным набором (ансамблем) состояний с заданной вероятностью их появления:

Меру неопределенности выбора состояния источника можно рассматривать как меру количества информации, получаемой при полном устранении неопределенности (т. е. содержащейся в источнике). Эта мера должна удовлетворять ряду естественных условий.

1. Монотонное возрастание с увеличением возможности выбора(оценка по пятибалльной системе более полная, чем по двухбалльной).

2. Аддитивность количества информации - неопределенность объединенного источника информации должна равняться сумме неопределенностей (а следовательно, и количества информации) исходных источников. Так, два независимых источника с числомравновероятных состояний n и m можно рассматривать как один источник, реализуемый пары состояний nimj с общим числом состояний N=mn, тогда Это соотношение выполняется, если в качестве меры неопределенности источника с равновероятными состояниями принять логарифм числа состояний Для другого примера аналогично: если каждое сообщение состоит из n символов, выбираемых из объема m, то число всех возможных сообщений и, следовательно, , т. е. информация, полученная при выборке каждого из n символов, складывается.

Основание логарифма определяет только масштаб или единицу количества информации, т. к. при N = 1 (одно состояние не имеет неопределенности), то минимальное количество информации будет при N = 2. Чтобы получить при этом единицу информации, основание логарифма приравнивают к 2 и такую единицу информации называют «бит» - информацию получаем при осуществлении одного из двух возможных состояний H = 1 бит при N = 2 (Хартли, 1928). Предложенная мера количества информации применима только для равновероятных состояний: тогда информация, полученная при осуществлении i-го состояния.



При неравновероятных состояниях свобода выбора источника ограничена, что должно привести к уменьшению неопределенности (и количества информации). Так, если источник информации имеет два состояния с вероятностями 0,99 и 0,01, то неопределенность здесь значительно меньше, чем при равновероятных состояниях с вероятностями 0,5 и 0,5. Значит мера неопределенности должна зависеть от функции распределения вероятности случайной величины. Еще одно условие состоит в том, что мера неопределенности не должна зависеть от пути выбора состояния в ансамбле, в том числе и многоступенчатом по группам состояний. К. Шенноном высказано утверждение, а Л. Я. Хинчиным математически доказано, что единственный функционал, удовлетворяющий сформулированным условиям, есть (Шеннон, 1946 г). Сравнивая это выражение с выражением Хартли для равновероятных состояний, видим, что при разных вероятностях происходит усреднение количества информации по всем возможным состояниям.

Выражение Шеннона совпадает с выражением Больцмана для энтропии физической системы. В частности, по второму закону термодинамики энтропия замкнутой системы молекул , где mN - общее число молекул, mi - количество молекул со скоростями в интервале , т. к. - вероятность такого состояния. В обоих случаях величина H характеризует степень разнообразия состояний системы. Максимальное значение энтропии при равновероятных состояниях растет с ростом числа этих состояний. Энтропия объединения нескольких статистически независимых источников равна сумме энтропии исходных источников:

т. к.

Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля.

Для статистически зависимых ансамблей UV, описываемых совместной вероятностью, где - условная вероятность.

где

,

- условная энтропия.

Энтропия объединения двух статистически связанных ансамблей U и V равна безусловной энтропии одного ансамбля плюс условная энтропия другого относительно первого.

Энтропия непрерывного источника информации бесконечна, т. к. неопределенность выбора из бесконечно большого числа возможных состояний бесконечно велика.

Производя предельный переход в формуле Шеннона

, получим

Вторая часть бесконечна, но она не зависит от плотности вероятности. Первая часть называется дифференциальной энтропией Ее можно трактовать как среднюю неопределенность выбора случайной величины U по сравнению со средней неопределенностью выбора случайной величины, изменяющейся в диапазоне, равном единице, и имеющей равномерное распределение.

При статистически связанных непрерывных источниках, дифференциальная условная энтропия

Дифференциальная энтропия зависит от масштаба (единицы измерения). Для непрерывного источника информации, ввиду бесконечности его меры неопределенности, понятие количества информации имеет несколько подходов. Наиболее простой из них - замена непрерывного сообщения дискретным с интервалом дискретизации по Котельникову что позволяет полностью восстановить непрерывное сообщение, а следовательно, не потерять информацию.

Прямой же подход определяет количество информации как разность априорной и апостериорной дифференциальной энтропии, последняя не равна нулю из-за некоторой неопределенности, оставшейся после регистрации события вследствие помех и конечной величины точности регистрации. При таком определении количества информации исчезает бесконечность после вычитания постоянного бесконечного члена.



<== предыдущая лекция | следующая лекция ==>
Быстрое преобразование Фурье | Сигналов


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.004 сек.