русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Методы сжатия без потери информации


Дата добавления: 2015-07-23; просмотров: 739; Нарушение авторских прав


 

Как указывалось ранее, эти методы носят универсальный характер и используются в самых разных приложениях. Используется две основных идеи:

- одинаковые повторяющиеся данные можно заменить на короткую последовательность, состоящую из одного общего элемента и счетчика повторений;

- часто используемые значения кодируются короткими кодами, а редко используемые – более длинными кодами.

Первая идея довольно тривиальна, а вторая требует теоретического обоснования.

Точная связь между вероятностями и кодами установлена в теореме Шеннона [5]. Согласно этой теореме элемент , вероятность которого составляет , выгоднее всего представлять битами. Если при кодировании размер получаемых кодов всегда точно равен битам, то в этом случае длина закодированной последовательности будет минимально возможной. Если распределение вероятностей неизменно и вероятность появления элементов незовисимы, то можно найти среднюю длину кодов как среднее взвешенное

.

Это значение также называется энтропией распределения вероятностей F или энтропией источника в заданный момент времени. Если известно распределение вероятностей элементов, генерируемых источником, то можно представить данные наиболее компактным образом, при этом средняя длина кодов может быть вычислена по формуле

,

где - вероятность того, что F примет k-е значение, т.е. , а энтропия примет значение .

 



<== предыдущая лекция | следующая лекция ==>
Основные методы компрессии цифрового видеосигнала | Алгоритм сжатия RLE


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.004 сек.