Лабораторная работа: Аппроксимация функции с использованием нейронных сетей
PR – Rx 2 матрица минимальных и максимальных значений для Rвходных элементов,
S — число нейронов,
KLR — коэффициент обучения Кохонена (по умолчанию 0.01)
CLR – коэффициент «справедливости» (по умолчанию 0.001).
* newcf - создание каскадной направленной сети
net = newcf ( PR , [ SI S 2... SNI ], { TF 1 TF 2... TFNI }, BTF , BLF , PF ) – функция создания разновидности многослойной нейронной сети с обратным распространением ошибки – так называемой каскадной нейронной сети. Такая сеть содержит скрытых NIслоев, использует входные функции типа dotprod и netsum , инициализация сети осуществляется функциейinitnw .
Аргументы функции:
PR - Rx2 матрица минимальных и максимальных значений для R входных элементов,
Si – размер i – го скрытого слоя, для N1 слоев,
TFi – функция активации нейронов i – го слоя, по умолчанию ' tansig ',
BTF – функция обучения сети, по умолчанию' trained ',
BLF – функция настройки весов и смещения, по умолчанию ' learngdm ',
PF – функция ошибки, по умолчанию ' mse '.
* newclm – создания сети обратного распространения Элмана (Elman)
net = neweIm ( PR , [ SI S 2... SNI ], { TFI TF 2... TFN 1}, BTF , BLF , PF ) – функция создания сети Элмана. Аргументы такие же, как и у предыдущей функции.
* newff – создание однонаправленной сети
net = newff ( PR , [ SI S 2... SNI ], { TFI TF 2... TFNI }, BTF , BLF , PF ) – функция создания «классической» многослойной нейронной сети с обучением по методу обратного распространения ошибки.
* newfftd – создание однонаправленной сети с входными задержками
net = newfftd ( PR , ID , [ SI S 2... SNI ], { TFI TF 2... TFNI }, BTF , BLF , PF ) – то же, что и предыдущая функция, но с наличием задержек по входам. Дополнительный аргумент ID – вектор входных задержек.
Заключение
В ходе выполнения данной лабораторной работы я построила и обучила нейронную сеть для аппроксимации таблично заданной функции , i=1,20 в среде Matlab. Разработала программу, которая реализует нейросетевой алгоритм аппроксимации и выводит результаты аппроксимации в виде графиков.
Для решения использовала функцию newff(.) – создание «классической» многослойной НС с обучением по методу обратного распространения ошибки.
Список использованных источников
1. О.С. Амосов
2. О.С. Амосов «Интеллектуальные информационные системы. Нейронные сети и нечеткие системы»: Учеб. Пособие. - Комсомольск-на-Амуре: ГОУВПО «КнАГТУ», 2004. -104 с.