Реферат: Основные определения курса Распознавание Образов
x1[N]
x2
x2[1]
x2[2]
…
x2[N]
…
…
xS
xS[1]
xS[2]
…
xS[N]
wS*N
Соответственно, количество параметров классификатора (размерность вектора w ) для метода построения эталона = S*N.
Для метода ближайшего соседа:
Ф(x,w) = D*(arg min [ |x-x1| , |x-x2|, …, |x-xK| ]), где K – количество примеров в обучающей последовательности. x1…xK – вектора признаков примеров, D*(1)…D*(K) – указания учителя. Очевидно структура вектора w состояния классификатора аналогична для случая метода построения эталонов и размерность вектора w равна N*K+K (К параметров прибавляется за счет необходимости хранить К значений указаний учителя). То есть вектор w хранит ВСЮ обучающую последовательность, которая может оказаться очень большой.
Среднеквадратичная ошибка обучения. Функция вида
E(w) =
[Ф(x1,w)-D*(1)]^2 +
[Ф(х2,w)-D*(2)]^2 +
…
[Ф(хK,w)-D*(K)]^2,
где x1…xK, D*(1)…D*(K) – обучающая последовательность.
Задача обучения классфикатора .
Дано: постановка задачи распознавания.
Найти: arg min E(w), т.е. такое значение вектора w, при котором значение ошибки будет минимальным.
Способ обучения классификатора . Определенный математически, метод (алгоритм) решения задачи обучения классфикатора.
Применение обученного (настроенного) классификатора . Описание работы формулы Ф(x,w).
Неитеративные методы обучения . Методы для которых можно определить формулу
w = F(x1..xK,D*(1)…D*(K)),
такую, что найденное значение соответствует некоторму локальному минимуму функции ошибки.
Итеративные методы обучения . Методы для которых задается итеративная формула
w(n+1) = F(w(n)), которая служит поиску минимума функции ошибки.
Обобщающее свойство классификатора . Способность классификатора выдавать истинные значения классов для объектов, не входивших в обучающую выборку.