Реферат: Штучні нейронні мережі
; , де
Шар 2:
; , де
Шар 3:
; , де
В результаті прямого розповсюдження можна обчислити помилки навчання мережі:
- лінійна помилка для вектора n
- лінійна помилка для всіх векторів навчальної множини
- сумарна квадратична помилка (для всіх векторів)
- середня відносна помилка (0 – 100%)
Якщо значення сумарної квадратичної помилки εk менше заданого, то процес навчання мережі завершується.
4. Зворотнє розповсюдження помилки (backpropagation) полягає у корекції вагових коефіцієнтів через сигнал різниці D.
3 шар
, ,
де , e - номер епохи; оскільки в якості активіаційної функції використовується сигмоїдна, тому різниця векторів (YT -Y) множиться на похідну від сигмоїдної функції: Y(1 – Y) .
2 шар
, ,де
1 шар
, , де ,
ηY , ηL 2 , ηL 1 - норми навчання (значення норми навчання, наприклад, 0,5).
З метою контролю процесу навчання мережі для матриці W визначаються:
Min – мінімальне значення;
Max – максимальне;
Ms – математичне сподівання;
Sigma – середньоквадратичне відхилення
Дані для нейронної мережі можна поділити наступним чином:
1. Навчання (відомі вхідні і вихідні дані, визначити вагові коефіцієнти)
2. Тестування (відомі вхідні і вихідні дані, порівняти розраховані вихідні дані з істинними)
3. Діагностика (реальне визначення результатів за вхідними даними)
9. Мережі зустрічного розповсюдження. Шари Кохонена і Гроссберга