русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Меры синтаксической информации. Энтропия и информация


Дата добавления: 2013-12-23; просмотров: 1236; Нарушение авторских прав


Рис. 3.2. Схема движения информации в системе

Вопрос 11.2. Процесс передачи информации. Информационные шумы

Общая схема движения информации в системе такова (рис. 3.2):

1) в системе происходит одно из возможных событий, которое фиксируется наблюдателем;

2) наблюдатель формулирует сведения о происшедшем событии, определяет язык, т. е. осуществляет отображение события в понятие;

3) в соответствии с правилами понятие кодируется, т. е. заменяется определенным знаком;

4) отправитель информации передает закодированное сообщение по каналу связи получателю;

5) получатель расшифровывает полученное сообщение, т. е. восстанавливает его содержание путем формулировки понятия;

6) получатель информации оценивает и отбирает необходимые сведения для использования.

 

Событие (m),(a)
Знак (z)
Понятие s
1 2 3 3. 4

               
       


Отображение кодирование передача

 

Использование cообщения m1
Понятие s1
Знак z1
4 5 6 6

           
     


сообщения расшифровка оценка

 

 

На этой схеме отчетливо видны три типа проблем, возникающих при передаче сообщений в человеко-машинных системах, в соответствии с которыми выделяются три аспекта исследования информации:

· проблема точности передачи символов (знаков), применяемых для передачи сообщений – техническая проблема;

· проблема точности выражения содержания символами – проблема смысла;

· проблема влияния принятого сообщения на выбор поведения получателя – проблема ценности сообщения.

В процессе передачи или восприятия сообщения часть информации может быть потеряна в силу различных причин. Наглядно этот процесс проиллюстрирован на рис. 3.3. Прокомментируем кратко данную схему.



Вначале сообщение, представленное определенной последовательностью знаков, переданное по физическому каналу связи принимается получателем. Качество приема зависит от физического шума в канале и приемнике (электрические помехи, описки, оговорки и тому подобные технические ошибки), от пропускной способности последнего. В этом смысле можно говорить, что при восприятии сообщение проходит физический фильтр. То, что прошло через него, можно считать синтаксической информацией.

Далее сообщение должно быть понято, усвоено получателем. Для этого оно должно пройти тезаурус. Тезаурус (лат. – сокровище) – словарь понятий, в котором фиксируются сами понятия и постоянные, независимые от контекста отношения между ними (правила, классификации и т.д.). Тезаурус играет роль семантического фильтра, отсеивающего семантический шум: отсутствие однозначного соответствия между знаком и объектом, между знаком и понятием, что не позволяет точно истолковать полученное сообщение; отсутствие в сообщении сведений, не содержащихся в тезаурусе получателя; отсутствие в тезаурусе получателя кода для расшифровки полученного сообщения и т. п. Сообщение, прошедшее семантический фильтр, т. е. принятое и включенное в тезаурус получателя – есть семантическая информация.

 

Физический Семантический Прагматический

шум шум шум

Получатель

       
 
   
Использова- ние информации
 

 

 


 

Физический Семантический Прагматический

фильтр фильтр фильтр

 

Рис. 3.3. Процесс восприятия информации в системе

Содержание сообщения может быть принято, понято, но если он не настроен на его использование, то оно не доставит ему информации. Следовательно, содержание сообщения должно быть еще и оценено. Механизм оценки сообщений играет роль прагматического фильтра. Сведения, бесполезные для решения актуальных задач, отсеиваются как прагматический шум. Сообщение, прошедшее прагматический фильтр, т.е. сообщение, содержащее полезные сведения, – прагматическая информация.

Итак, под информацией следует понимать новые знания, принятые, понятые, и оцененные как полезные для решения тех или иных задач. Информация – это то, что доведено до получателя через тройной механизм восприятия.

Пример. Сигналы светофора для человека, не знакомого с правилами дорожного движения, несут синтаксическую информацию: он видит желтый, зеленый или красный цвет и только. Для знающего эти правила светофор несет семантическую информацию: он знает, что означает каждый сигнал. Для человека, собирающегося перейти улицу, светофор несет прагматическую информацию: человек строит свое поведение в зависимости от полученного сообщения (цвета сигнала).

 


Информацию можно измерить. Три аспекта рассмотрения информации – синтаксический, семантический, прагматический, – предопределяют три направления количественных исследований информации.

В качестве меры состояния неопределенности выбора была предложена энтропия источника сообщений (Н). Энтропия обладает необходимыми свойствами неопределенности: неотрицательна; равна 0, если исход испытания предопределен, т.е. вероятность одного из исходов равна 1, а остальных – 0; энтропия достигает максимума при равных вероятностях всех исходов и становится равной логарифму числа исходов:

H (A) = logm, (1)

где А – испытание, имеющее m возможных исходов.

К. Шеннон предложил измерять количество информации, содержащейся в данном сообщении, как логарифм его вероятности, взятый с обратным знаком:

I (ai) = - logp(ai), (2)

где I(ai) – количество собственной информации (относительно самого себя) события (сообщения) ai;

р(ai) – вероятность получения сообщения ai.

Пример: многолетние наблюдения за погодой (А) показывают, что вероятность дождя 15 мая равна 0,4 (соответственно, вероятность его отсутствия = 0,6). Количество собственной информации, содержащейся в сообщении о том, что 15 мая идет дождь, I(a1) = - log 0,4 =1,32. В сообщении о том, что дождя нет - I(a2) = - log 0,6 =0,74. Чем более неожиданным (менее вероятным) является сообщение, тем больше информации оно содержит.

Понятие энтропии (от греч entropia — поворот, превращение) ввел немецкий физик-теоретик Р. Клаузиус в 1865 г. Энтропия обозначает меру деградации какой-либо системы.

Чтобы система не деградировала, необходимо внести в нее дополнительную информацию (негэнтропию).

Отсюда энтропия системы есть мера дезорганизации, а информация есть мера организованности. Всякий раз, когда в результате наблюдения система получает какую-либо информацию, энтропия этой системы уменьшается.

В приведенной выше формуле абсолютной негэнтропии Шеннона информация рассматривается как снятая, устраняемая неопределенность. Появление информации устраняет, уменьшает любую неопределенность. Однако информацию можно рассматривать не только как снятую неопределенность, а несколько шире. Например, в биологии информация – это, прежде всего совокупность реальных сигналов, отображающих качественное или количественное различие между какими-либо явлениями, предметами, процессами, структурами, свойствами. При таком подходе считают, что понятие информации неотделимо от понятия разнообразия. Природа информации заключается в разнообразии, а количество информации выражает количество разнообразия. Любой процесс, объект, явление при разных обстоятельствах может содержать различное количество информации. Это зависит от разнообразия, которое наблюдается в системе.

Множество, у которого все элементы различны, имеет максимальное количество разнообразия. Чем больше в системе разнообразия, тем больше неопределенность в поведении такой системы. Уменьшение разнообразия уменьшает неопределенность системы. Вероятность выбрать наугад данный элемент из множества с максимальным разнообразием равна единице, деленной на количество всех элементов множества 1/N. Количество информации в этом случае имеет максимальное значение.

Множество, у которого все элементы одинаковы, содержит минимальное количество разнообразия – всего один элемент. Количество информации в такой совокупности равно нулю. В множестве информация появляется только тогда, когда один элемент отличается от другого. Между минимальным и максимальным количеством разнообразия в множестве существует ряд промежуточных состояний, которые появляются в результате ограничения разнообразия.

Сообщение, уменьшающее неопределенность, содержит информацию, количество которой связывается с изменением возможных состояний (исходов):

I = log m – log n,

где I – количество информации в сообщении;

m - количество возможных событий (исходов испытания) до получения сообщения;

n - количество возможных событий (исходов испытания) после получения сообщения.

Пример: следствие располагает данными о 9 подозреваемых, среди которых 3 женщины и 6 мужчин. Проведение экспертизы позволило заключить, что подозреваемый – мужчина. Количество информации, доставленной экспертизой:

I = log 9 – log 6 = 0,59.



<== предыдущая лекция | следующая лекция ==>
Вопрос 11.1. Понятие информации. Управление как информационный процесс | Вопрос 11.5. Меры прагматической информации


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.004 сек.