русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Количество и объем информации


Дата добавления: 2013-12-23; просмотров: 3735; Нарушение авторских прав


Рассмотрим схему обращения информации:

Отправитель передал сообщение, состоящее из букв алфавита , обладающего энтропией . Количество информации в сообщении равно

. (3.3)

 

Кодирующее устройство кодирует исходное сообщение символами алфавита с энтропией . Если код равномерный, то количество информации в закодированном сообщении легко подсчитать:

,

где r – разрядность равномерного кода.

Сравним полученные значения I и Ik .Ясно, что в общем случае . Это следует из формулы расчета минимальной разрядности кода (3 .1). Равенство имеет место лишь в весьма редких случаях. Например, при двоичном кодировании равновероятного алфавита А, если при этом , и H ( B ) = 1.

Однако, в соответствии с определением, кодирование есть переход от одной формы записи к другой, содержащей ту же самую информацию. И с этой точки зрения неравенство является противоречием. Чтобы его снять, было введено понятие объёма информации .

Объёмом информации называется количество переданной информации, рассчитанное относительно кодового (вторичного) алфавита

. (3.4)

 

Поэтому в дальнейшем, при рассмотрении процесса обращения информации, будем употреблять термин количество информации, если информация рассматривается относительно первичного алфавита, и объём информации – если имеется в виду закодированная информация.

Используя введенное обозначение, запишем соотношение между этими величинами:

. (3.5)

 

При неравномерном кодировании объём информации выражается по формуле

. (3.6)

 

Соотношение (3.5) справедливо и для неравномерного кодирования, хотя это не столь очевидно, как в предыдущем случае. Используя это неравество, получим некоторые полезные для понимания вопроса соотношения.

Для этого распишем (3.5) в явном виде и приведем подобные члены:



отсюда

.

Последнее неравенство позволяет сделать вывод, что минимально возможная средняя длина кодового слова равна

Кроме того, если мы имеем дело с двоичным кодом и , то неравенство принимает вид

Из этого следует, что средняя длина кодового слова при кодировании произвольного алфавита A любым двоичным кодом не может быть меньше энтропии исходного алфавита.

Избыточностью коданазывается превышение средней длины кода над минимально возможной:

. (3.7)

В случае равномерного кода равна его разрядности .

Избыточность кода является следствием как процедуры кодирования (природы кода), так и свойств алфавитов, в этом процессе участвующих. Рассмотрим их влияние.

Так, при равномерном кодировании в большинстве случаев разрядность кода является результатом округления числа до ближайшего целого (см. (3.1)). Исключением являются лишь случаи, когда , где k – целое. Вклад процедуры округления в избыточность кода может быть выражен следующей формулой:

.

Обращаясь к влиянию свойств алфавитов, рассмотрим два случая. Если символы вторичного алфавита одинаково распределены по кодовым словам, но символы первичного не равновероятны, то влияние первичного алфавита на избыточность оценивается как

.

Если символы кодового алфавита не являются таковыми, то его вклад в избыточность будет равен

.

В некоторых случаях с целью повышения помехоустойчивости кода вводят корректирующую избыточность

.

Общая информационная избыточность равна сумме

 



<== предыдущая лекция | следующая лекция ==>
Основы кодирования | ПОТОКИ ИНФОРМАЦИИ, ЭНЕРГИИ И ВЕЩЕСТВ В КЛЕТКЕ. ПОТОК ИНФОРМАЦИИ.


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.004 сек.