В. Н. ФОМИН
Рекуррентное
оценивание
и адаптивная
фильтрация
МОСКВА "НАУКА"
ГЛАВНАЯ РЕДАКЦИЯ
ФИЗИКО-МАТПМАТИЧЕСКОЙ ЛИТЬРАТУРЫ
Фомин В. Н. Рекуррентное оценивание и адаптивная фильтрация. - М. :
Наука. Главная редакция физико-математической литературы, 1984. - 288 с. Книга посвящена последовательному изложению ряда разделов
адаптивной фильтрации в условиях параметрической неопределенности о помехоч;иг-
нальной обстановке. Материал книги группируется вокруг вопросов
рекуррентного оценивания, при этом обсуждаются как хорошо известные схемы
оценивания (метод стохастической аппроксимации, метод наименьших
квадратов, метод максимума правдоподобия), так и относительно новые схемы
(минимаксное оценивание, метод рекуррентных целевых неравенств,
робастное оценивание). Значительное внимание уделено методам синтеза
оптимальных фильтров (фильтр Винера-Колмогорова, фильтр Калмана-Бьюси). Принятый в книге подход применим к многочисленным задачам оптимального
обнаружения, обучения распозиаванню образов, идентификации динамических
объектов. Книга предназначена для инженеров и научных работников в области
теоретической и прикладной кибернетики. Она может быть полезна студентам
старших курсов и аспирантам, специализирующимся по математической и
технической кибернетике. Библ. 243. © Издательство"Наука". Главная редакция
физико-математической
литературы, 1984
Предисловие . Введение . . . ОГЛАВЛЕНИЕ
ГЛАВА 1
ЗАДАЧИ И МЕТОДЫ ТЕОРИИ ОЦЕНИВАНИЯ. § 1. 1. Hpimepbi задач оценивания
1. 1. Г. Оценивание величины постоянною сигнала, наблюдаемого иа фоне
помехи (14). 1. 1. 2°. Запача оптимального оценивания параметров сигнала
(15). 1. 1. 3°. Задача обнаружения сигнала (15). 1. 1. 4°. Задача о разладке
(16). 1. 1. 5°. Аппроксимация функции с помощью линейных комбинаций
известных функций (16). 1. 1. 6°. Модель обучаемой системы (17). 11. 7°. Задача самообучения (21). 1. 1. 8°. Идентификация динамического объекта
(24) 1. 1. 9°. Синтез адаптивного у правления динамическим объектом (25).
1. 1. 10°. Отслеживание дрейфа экстремума нестационарного функционала
(25). § 1. 2. Байесовские критерии
1. 2. 1°.
Функционал среднего риска (26) 1. 2. 2°. Автоматическая
классификация изображений (27). 1. 2. 3°. Автоматическая классификация при
неизвестных апостериорных вероятностях (29). 1. 2. 4°. Оптимальное
обнаружение сигнала (31). § 1. 3. Элементы регрессионного анализа
1. 3. 1°. Наилучшая аппроксимация одной случайной величины с помощью
другой (36). 1. 3. 2°. Линейная регрессионная модель (38). 1,3. 3°. Регрессия в случае гауссовских случайных величин (41). 1. 3. 4°. Оценивание по
конечному числу наблюдений (42). § 1. 4. Элементы теории оценившия
1. 4. 1°. Байесовские оценки (45). 1. 4. 2°. Оптимальные оценки в
симметричном случае (48). 1. 4. 3°. Метод максимума правдоподобия (48). 1. 4. 4°. Достижимая точность оценивания (50). 1. 4. 5°. Метод эмпирического
функционала (53). 1. 4. ,6°. Метод стохастической аппроксимации (55). t; 1. П. Приложение: некоторые сведения о сходимости случайных величии . . .
1. П. Г. Последовательности случайных величин, близкие к супермартингалам
(66). 1. 112°.