Лабораторная работа: Аппроксимация функции с использованием нейронных сетей

PR – Rx 2 матрица минимальных и максимальных значений для Rвходных элементов,

S число нейронов,

KLR коэффициент обучения Кохонена (по умолчанию 0.01)

CLR коэффициент «справедливости» (по умолчанию 0.001).

* newcf - создание каскадной направленной сети

net = newcf ( PR , [ SI S 2... SNI ], { TF 1 TF 2... TFNI }, BTF , BLF , PF ) – функция создания разновидности многослойной нейронной сети с обратным распространением ошибки – так называемой каскадной нейронной сети. Такая сеть содержит скрытых NIслоев, использует входные функции типа dotprod и netsum , инициализация сети осуществляется функциейinitnw .

Аргументы функции:

PR - Rx2 матрица минимальных и максимальных значений для R входных элементов,

Si – размер i – го скрытого слоя, для N1 слоев,

TFi – функция активации нейронов i – го слоя, по умолчанию ' tansig ',

BTF – функция обучения сети, по умолчанию' trained ',

BLF – функция настройки весов и смещения, по умолчанию ' learngdm ',

PF – функция ошибки, по умолчанию ' mse '.

* newclm – создания сети обратного распространения Элмана (Elman)

net = neweIm ( PR , [ SI S 2... SNI ], { TFI TF 2... TFN 1}, BTF , BLF , PF ) – функция создания сети Элмана. Аргументы такие же, как и у предыдущей функции.

* newff – создание однонаправленной сети

net = newff ( PR , [ SI S 2... SNI ], { TFI TF 2... TFNI }, BTF , BLF , PF ) – функция создания «классической» многослойной нейронной сети с обучением по методу обратного распространения ошибки.

* newfftd – создание однонаправленной сети с входными задержками

net = newfftd ( PR , ID , [ SI S 2... SNI ], { TFI TF 2... TFNI }, BTF , BLF , PF ) – то же, что и предыдущая функция, но с наличием задержек по входам. Дополнительный аргумент ID – вектор входных задержек.


Заключение

В ходе выполнения данной лабораторной работы я построила и обучила нейронную сеть для аппроксимации таблично заданной функции , i=1,20 в среде Matlab. Разработала программу, которая реализует нейросетевой алгоритм аппроксимации и выводит результаты аппроксимации в виде графиков.

Для решения использовала функцию newff(.) – создание «классической» многослойной НС с обучением по методу обратного распространения ошибки.


Список использованных источников

1. О.С. Амосов

2. О.С. Амосов «Интеллектуальные информационные системы. Нейронные сети и нечеткие системы»: Учеб. Пособие. - Комсомольск-на-Амуре: ГОУВПО «КнАГТУ», 2004. -104 с.

К-во Просмотров: 343
Бесплатно скачать Лабораторная работа: Аппроксимация функции с использованием нейронных сетей