Реферат: Классификация сейсмических сигналов на основе нейросетевых технологий

На первом шаге процедуры отбора значения функционала D(1) вычисляются для каждого из p признаков. Максимум из этих p значений достигается на каком то из признаков, который таким образом отбирается как первый информативный. На втором шаге значения функционала D(2) вычисляются уже для векторов, состоящих из пар признаков. Первый элемент в каждой паре - это признак, отобранный на предыдущем шаге, второй элемент пары - один их оставшихся признаков. Таким образом получаются p-1 значения функционала D(2). Второй информативный признак отбирается из условия, что на нем достигается максимум функционала D(2). Далее процедура продолжается аналогично, и на k -м шаге процедуры отбора вычисляются значения функционала D(k) по обучающим векторам, состоящим из k признаков. Первые k-1 компонент этих векторов есть информативные признаки, отобранные на предыдущих k-1 шагах, последняя компонента - один из оставшихся признаков. В качестве k -го информативного признака отбирается тот признак, для которого функционал D(k) -максимален.

Описанная процедура ранжирует порядок следования признаков в обучающих векторах так, чтобы обеспечить максимально возможную скорость возрастания расстояния Махаланобиса (6) с ростом номера признака. Для селекции множества наиболее информативных признаков на каждом шаге k=1,2,...,p описанной выше итерационной процедуры ранжирования признаков по информативности сохраняются номер j(k) в исходной таблице признаков и имя выбранного признака, также вычисляется теоретическое значение полной вероятности ошибки классификации P(k) по формуле Колмогорова-Деева [12].

P(k) = (1/2)[1 - Tk (D(k)/ s (k)) + Tk (-D(k)/ s (k))],

где k - число используемых признаков

s 2 (k) = [(t+1)/t][r1 +r2 +D(k)]; t = [(r1 +r2 )/r1 r2 ]-1; r1 =k/n1 ; r2 =k/n2 (7)

Tk (z) = F(z) + (1/(k-1) ) (a1 - a2 H1 (z) + a3 H2 (z) - a4 H3 (z)) f(z),

F(z) - функция стандартного Гауссовского распределения вероятностей; f(z) - плотность этого распределения; Hi (z) - полином Эрмита степени i , i=1,2,3; aj , j=1,...,4 - некоторые коэффициенты, зависящие от k, n1 , n2 и D(k) [12]. Эта формула, как было показано в различных исследованиях, имеет хорошую точность при размерах выборок порядка сотни и rs <0.3, s=1,2.

Функция D(k), получаемая в результате процедуры ранжирования признаков, возрастает с ростом k , однако, на практике ее рост, как правило, существенно замедляется при k ® p. В этом случае функция P(k) на каком то шаге k0 между 1 и p имеет минимум. В качестве набора наиболее информативных признаков и принимается совокупность признаков, отобранных на шагах 1 ,...,k0 описанной выше процедуры. Именно они обеспечивают минимальную полную вероятность ошибочной классификации, которая может быть получена при данных обучающих наблюдениях.

3.3 Процедура статистической идентификации.

В качестве решающего правила используются алгоритмы идентификации, основанные на классических статистических дискриминаторах, таких как линейный и квадратичный дискриминаторы. Данные алгоритмы применяются наиболее часто в виду простоты их использования, удобства обучения применительно к конкретному региону и легкости оценивания вероятности ошибочной идентификации взрывов и землетрясений для каждого конкретного региона Их роль как эффективных правил выбора решения при идентификации особенно возрастает, если применять эти алгоритмы к множествам обучающих и идентифицируемых векторов, составленных из наиболее информативных для данного региона дискриминантных признаков, отобранных в соответствии с описанной выше методикой.

Линейная дискриминантная функция описывается следующей формулой

. (8)

где k - число отобранных наиболее информативных признаков, x (k) - классифицируемый вектор, m (k,1), m (k,2) - k - мерные векторы выборочных средних, вычисленные по k -мерным векторам x 1j (k) j Î 1,n1 и x 2j (k) j Î 1,n2 1го и 2-го классов, S- 1 n1+n2 (k) - (k ´ k) - мерная обратная выборочная матрица ковариаций, вычисленная с использованием всего набора k - мерных векторов x 1j (k) j Î 1,n1 и x 2j (k) j Î 1,n2 . Если LDF > 0, то принимается, что вектор x (k) принадлежит первому классу - (землетрясение); в противоположном случае он принадлежит второму класс (взрыв).

Квадратичная дискриминационная функция описывается следующей формулой

(9)

где , s=1,2 - обратные матрицы ковариаций обучающих выборок 1 -го и 2 -го классов, вычисленные по обучающим векторам x 1j (k) j Î 1,n1 и x 2j (k) j Î 1,n2 , соответственно.

3.4 Оценка вероятности ошибочной классификации методом скользящего экзамена.

Оценивание вероятности ошибочной идентификации типа событий (землетрясение-взрыв), в каждом конкретном регионе представляет собой одну из основных практических задач мониторинга. Эту задачу приходится решать на основании накопления региональных сейсмограмм событий, о которых доподлинно известно, что они порождены землетрясениями или взрывами. Эти же сейсмограммы представляют собой "обучающие данные" для

К-во Просмотров: 1910
Бесплатно скачать Реферат: Классификация сейсмических сигналов на основе нейросетевых технологий