русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Фильтр Винера-Хопфа.


Дата добавления: 2014-11-27; просмотров: 3625; Нарушение авторских прав


Концепции оптимального линейного оценивания являются фундаментальными при любом рассмотрении адаптивных фильтров. Процесс адаптивной фильтрации включает два этапа проведения оценивания: 1) оценивание искомого выхода фильтра и 2) оценивание весов фильтра, необходимых для достижения вышеупомянутой цели. Второй из этих двух этапов необходим вследствие того, что в случае адаптивной фильтрации характеристики входного сигнала априорно не известны.

Наиболее широко распространенным типом структуры адаптивного фильтра является структура, в которой используется архитектура с конечной импульсной характеристикой (КИХ). Эти фильтры должны сходится к решению с помощью оптимального нерекурсивного устройства оценки, причем решение задается уравнением Винера – Хопфа.

Синтез КИХ и БИХ устройств оценки существенно зависит от определения стоимостной функции, в соответствии с которым качество оценивания характеризуется разностью между выходным сигналом устройства оценки и истинным параметром, подлежащим оцениванию:

. (5.24)

Здесь e(n) – ошибка оценивания; x(n) – случайная величина, которую необходимо оценить и которая может быть детерминированной, а – оценка , выполненная с помощью нашей системы оценивания, причем

, (5.25)

т.е. x(n) – линейная функция последовательности входных сигналов y(n) и набора весов фильтра h(n). Наблюдаемую последовательность сигналов y(n) в общем виде можно представить как исходную последовательность x(n), искаженную адаптивным белым шумом v(n )с дисперсией σv2:

. (5.26)

Наиболее употребительным при проведении оптимального оценивания является метод наименьших квадратов (МНК). Среднеквадратическая ошибка определяется как

. (5.27)

Она минимизируется относительно весовых коэффициентов устройства оценки для получения оптимального оценивания по критерию МНК. Следует отметить, что можно применять не только описанную функцию стоимости. Альтернативными будут такие функции, как абсолютная величина ошибки и нелинейная пороговая функция. Такая функция ошибки используется в том случае, когда имеется приемлемый интервал ошибок (т.е. существует заданная допустимая ошибка). При использовании критерия наименьшего среднеквадратичного малые ошибки вносят меньший вклад, чем большие ошибки (в противоположность критерию абсолютной величины ошибки, который дает одинаковый вес для всех ошибок).



Рис. 5.9. Обобщенный нерекурсивный фильтр или устройство оценки.

 

В нерекурсивном устройстве оценки оценка x(n) определяется в виде конечного линейного полинома y(n):

, (5.28)

где hk – отдельные веса в структуре нерекурсивного фильтра КИХ-типа, показанного на рис. 5.9. Выражение (5.28) можно переписать в матрично-векторной системе обозначений:

, (5.29)

где

и ,

а верхний индекс Т обозначает транспонирование матрицы. Тогда функция среднеквадратичной ошибки принимает вид

. (5.30)

Это выражение описывает стандартную поверхность квадратичной ошибки с одним единственным минимумом. Дифференцирование (5.30) по дает

. (5.31)

а допуская, что (5.31) равно нулю, имеем

(5.32)

Полагая, что весовой вектор и вектор сигнала Y(n) не коррелированы, получаем

(5.33)

Члены математического ожидания, входящие в (5.33), можно определить следующим образом:

P=E{x(n)Y(n)} – взаимная корреляция между входным сигналом и оцениваемым параметром;

R=E{Y(n)YT(n)} – автокорреляционая матрица входной сигнальной последовательности.

Тогда (5.33) можно переписать в виде

PT=HTopt R. (5.34)

Уравнение (5.34) является общеизвестным уравнением Винера – Хопфа, которое дает оптимальное (по методу наименьших квадратов) винеровское решение для H:

Hopt=R-1P. (5.35)



<== предыдущая лекция | следующая лекция ==>
Адаптивные фильтры. | Фильтр Калмана.


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.004 сек.