Читать онлайн «Рекуррентное оценивание и адаптивная фильтрация»

Автор Фомин В.Н.

В. Н. ФОМИН Рекуррентное оценивание и адаптивная фильтрация МОСКВА "НАУКА" ГЛАВНАЯ РЕДАКЦИЯ ФИЗИКО-МАТПМАТИЧЕСКОЙ ЛИТЬРАТУРЫ Фомин В. Н. Рекуррентное оценивание и адаптивная фильтрация. - М. : Наука. Главная редакция физико-математической литературы, 1984. - 288 с. Книга посвящена последовательному изложению ряда разделов адаптивной фильтрации в условиях параметрической неопределенности о помехоч;иг- нальной обстановке. Материал книги группируется вокруг вопросов рекуррентного оценивания, при этом обсуждаются как хорошо известные схемы оценивания (метод стохастической аппроксимации, метод наименьших квадратов, метод максимума правдоподобия), так и относительно новые схемы (минимаксное оценивание, метод рекуррентных целевых неравенств, робастное оценивание). Значительное внимание уделено методам синтеза оптимальных фильтров (фильтр Винера-Колмогорова, фильтр Калмана-Бьюси). Принятый в книге подход применим к многочисленным задачам оптимального обнаружения, обучения распозиаванню образов, идентификации динамических объектов. Книга предназначена для инженеров и научных работников в области теоретической и прикладной кибернетики. Она может быть полезна студентам старших курсов и аспирантам, специализирующимся по математической и технической кибернетике. Библ. 243. © Издательство"Наука". Главная редакция физико-математической литературы, 1984 Предисловие . Введение . . . ОГЛАВЛЕНИЕ ГЛАВА 1 ЗАДАЧИ И МЕТОДЫ ТЕОРИИ ОЦЕНИВАНИЯ. § 1. 1. Hpimepbi задач оценивания 1. 1. Г. Оценивание величины постоянною сигнала, наблюдаемого иа фоне помехи (14). 1. 1. 2°. Запача оптимального оценивания параметров сигнала (15). 1. 1. 3°. Задача обнаружения сигнала (15). 1. 1. 4°. Задача о разладке (16). 1. 1. 5°. Аппроксимация функции с помощью линейных комбинаций известных функций (16). 1. 1. 6°. Модель обучаемой системы (17). 11. 7°. Задача самообучения (21). 1. 1. 8°. Идентификация динамического объекта (24) 1. 1. 9°. Синтез адаптивного у правления динамическим объектом (25). 1. 1. 10°. Отслеживание дрейфа экстремума нестационарного функционала (25). § 1. 2. Байесовские критерии 1. 2. 1°.
Функционал среднего риска (26) 1. 2. 2°. Автоматическая классификация изображений (27). 1. 2. 3°. Автоматическая классификация при неизвестных апостериорных вероятностях (29). 1. 2. 4°. Оптимальное обнаружение сигнала (31). § 1. 3. Элементы регрессионного анализа 1. 3. 1°. Наилучшая аппроксимация одной случайной величины с помощью другой (36). 1. 3. 2°. Линейная регрессионная модель (38). 1,3. 3°. Регрессия в случае гауссовских случайных величин (41). 1. 3. 4°. Оценивание по конечному числу наблюдений (42). § 1. 4. Элементы теории оценившия 1. 4. 1°. Байесовские оценки (45). 1. 4. 2°. Оптимальные оценки в симметричном случае (48). 1. 4. 3°. Метод максимума правдоподобия (48). 1. 4. 4°. Достижимая точность оценивания (50). 1. 4. 5°. Метод эмпирического функционала (53). 1. 4. ,6°. Метод стохастической аппроксимации (55). t; 1. П. Приложение: некоторые сведения о сходимости случайных величии . . . 1. П. Г. Последовательности случайных величин, близкие к супермартингалам (66). 1. 112°.