02
апр
2019

Классификация сигналов в условиях неопределенности (1975)

Год издания: 1975
Автор: Миленький А.В.
Жанр или тематика: Математика, кибернетика
Издательство: Советское радио
Язык: Русский
Формат: DjVu
Качество: Отсканированные страницы
Количество страниц: 328


Описание: Рассматриваются вопросы распознавания образов применительно к условиям, когда исходные сведения об образах недостаточны для непосредственного применения методов теории статистических решений. В этом случае возникает необходимость обучения или самообучения распознающих систем. Основное внимание уделено разработке методов и алгоритмов распознавания в режиме самообучения, когда поведение распознающей системы вырабатывается под влиянием самих распознаваемых сигналов без участия человека. В книге содержатся как общие постановки и решения безотносительно к физической природе сигналов, так и решения некоторых практически важных задач.
Книга может быть полезна инженерам, аспирантам, научным работникам, занимающимся проблемой распознавания и разработкой распознающих систем.




Текстовое оглавление

Предисловие
Глава I. Распознавание образов. Обучение и самообучение
1.1. Основные понятия и определения
Класс
1.1.2. Сигнал. Признак
1.2. Вероятностная модель сигналов
1.2.1. Статистические характеристики класса
1.2.2. Смесь сигналов
1.3. Условия и режимы распознавания
1.3.1. Пересечение классов. Недостаточность априорных сведении
1.3.2. Обучение и самообучение
1.3.3. Общий подход к решению задач распознавания в условиях неполной априорной информации
о классах
Глава 2. Определение неизвестных статистических характеристик классов
Предварительные замечания
Свойства точечных оценок параметров
2.2.1. Критерий оптимальности оценки
есмещенность ффективность
2.2.3. Асимптотические свойства оценок
2.2.4. Случаи многомерных параметров и сигналов
Методы нахождения точечных оценок
2.3.1. Метод моментов
2.3.2. Метод минимума хиквадрат
2.3.3. Метод максимума правдоподобия
2.3.4. Точность оценивания. Оценивание случайных параметров
2.4.1. Случайная последовательность параметров и сигналов
2.4.2. Оценивание параметров, изменяющихся с поступлением каждого сигнала
2.4.3. Оценивание параметров, постоянных для серии сигналов
2.4.4. Случай, когда априорное распределение параметров неизвестно
2.4.5. Эмпирический байесовский подход
2.5. Оценивание распределений вероятностей сигналов
2.5.1. Состоятельные непараметрические оценки функ цпп распределения и плотности вероятностей
2.5.2. Меры п критерии качества аппроксимации рас предслений вероятностей
2.5.3. Выбор аппроксимирующих функций
Глава 3. Решающие правила и критерии оптимальности
3.1. Случай полностью известной априорной информации о классах
3.1.1. Байесовское решающее правило
3.1.2. Рандомизированное решающее правило
3.2. Случай неизвестных вероятностей появления спгиалоз каждого класса
3.2.1. Минимаксное решающее правило
3.2.2. Субмпнимаксное решающее правило
3.2.3. Комбинированное решающее правило
3.3. Случай неизвестной информации о классах
3.3.1. Неоднозначность определения оптимальности
3.3.2. Критерии среднего ожидаемого качества классификации
3.3.3. О замене в критерии R(A; A) истинных параметров оценками
3.3.4. Анализ критерия R(A; А)
Глава 4. Особенности самообучения
4.1. Сходство и различие режимов обучения и самообучения
4.1.1. Особенности обучения
4.1.2. Разделение сигналов
4.1.3. Отождествление классов
4.2. Два подхода к самообучению
4.2.1. Прямые методы самообучения
4.2.2. Методы самообучения с обратной связью
4.2.3. Особенности учета матрицы потерь
4.2.4. Требование к процедуре классификации
4.3. Разделимость смеси сигналов
4.3.1. Понятие разделимости
4.3.2. Определение смеси
4.3.3. Общее условие разделимости
4.3.4. Условия разделимости бесконечных смесей
4.3.5. Условия разделимости конечных смесей
4.3.6. Примеры семейств, образующих разделимые конечные смеси
4.3.7. О разделимости смеси смесей
4.4. Асимптотическая эффективность оценок, получаемых в режиме самообучения
4.4.1. Исходные допущения
4.4.2. Условия регулярности
4.4.3. Регулярность распределения вероятностен смеси
4.5. Условия, при которых возможно решение задач самообучения
Глава 5. Прямые параметрические методы (I)
5.1. Метод моментов
5.1.1. Смесь двух нормальных одномерных распределений с одинаковой дисперсией
5.1.2. Экспериментальная проверка
5.1.3. Смесь двух нормальных многомерных распределении с одинаковой ковариационной матрицей
5.1.4. Несколько замечаний
5.1.5. Пример классификации сигналов
5.2. Метод минимума хиквадрат
5.2.1. Основные соотношения
5.2.2. Градиентная минимизация критерия хиквадрат
5.2.3. Итерационный алгоритм минимизации критерия хиквадрат
5.2.4. Связь итерационного алгоритма с рандомизированным решающим правилом
5.2.5. Нормальные частные распределения вероятностен. Одномерные сигналы
5.2.6. Экспериментальная проверка
5.2.7. 11ормальпые частные распределения вероятностей. Многомерные сигналы
5.3. Метод максимума правдоподобия
5.3.1. Предварительные замечания
5.3.2. Итерационный алгоритм определения оценок
5.3.3. Свойства итерационного алгоритма
5.3.4. Нормальные частные распределения вероятностей
5.3.5. Экспериментальная проверка
5.4. Некоторые вопросы практического применения
5.4.1. Сопоставление методов с вычислительной точки зрения
5.4.2. Обнаружение сигналов
5.4.3. Повышение разрешающей способности измерении
Глава 6. Прямые параметрические методы (II)
6.1. Байесовский подход к самообучению
6.1.1. Постановка задачи
6.1.2. Классификация сигналов
6.1.3. Оценивание параметров
6.1.4. Асимптотическая сходимость байесовских оценок
6.1.5. Случай зависимых сигналов
6.1.6. Об оптимальности и реализуемости байесовских методов
6.2. Оценивание смешивающего распределения
6.2.1. Постановка задачи
6.2.2. Основное условие состоятельности оценки
6.2.3. Общий подход к оцениванию смешивающего распределения
6.2.4. О реализуемости общего подхода
6.2.5. Оценивание с помощью критерия омегаквадрат
6.2.6. Экспериментальная проверка
6.3. Стохастическая аппроксимация
6.3.1. Основные методы стохастической аппроксимации
6.3.2. Выбор функции регрессии
6.3.3. Нормальные частные распределения вероятностей
Глава 7. Методы самообучения с обратной связью. Непараметрические методы
7.1. Общий подход
7.2. Псевдорандомизированная классификация
7.2.1. Предварительные замечания
7.2.2. Две разновидности псевдорандомизированной классификации
7.2.3. Сходимость оценок
7.2.4. Экспериментальная проверка
7.3. Наиболее правдоподобная классификация
7.3.1. Определение степени пересечения классов
7.3.2. Критерий разделения и классифицирующая функция
7.3.3. Алгоритм последовательного разделения
7.3.4. Сокращение объема вычислений
7.4. Классификация с помощью критериев компактности
7.4.1. Простейший критерий компактности
7.4.2. Некоторые другие критерии взаимной компактности, использующие евклидову метрику
7.4.3. Критерии, использующие неевклидову метрику
7.4.4. О рекуррентных алгоритмах разделения
Глава 8. Определение неизвестного числа классов
8.1. Определение неизвестного числа классов с помощью прямых параметрических методов
8.1.1. Использование метода минимума хиквадрат
8.1.2. Использование метода максимума правдоподобия
8.1.3. Возможности других параметрических методов
8.1.4. Обнаружение сигналов как задача определения числа классов
8.2. Определение неизвестного числа классов методами самообучения с обратной связью
8.2.1. Выбор функции, имеющей экстремум при Q=Q
8.2.2. Некоторые другие подходы к определению числа классов
Список литературы
Предметный указатель
Книги / Книги / Техническая литература
СКАЧАТЬ БЕСПЛАТНО  [6.5 MB]