Дипломная работа: Классификация римских цифр на основе нейронных сетей
По умолчанию для предсказания рекомендуется использовать сеть Ворда, содержащую два скрытых блока с разными передаточными функциями.
Стандартные сети.
Попробуем провести обучение с помощью модели 4-хслойной сети , в которой каждый слой соединён только с предыдущим слоем.
Структура НС:
1. количество слоев: 4
2. количество нейронов:
а) во входном слое: 63
б) в выходном слое: 9
3. вид функций активации:
а) входной слой – линейная [0;1]
б) выходной слой – логистическая
В таблице отражена зависимость минимальной средней ошибки на тренировочном и тестовом наборах от количества нейронов в скрытом слое.
Скорость обучения = 0,1; момент = 0,1; скрытые слои – слой 1 – 24 нейрона, слой 2 – 24 нейрона.
Таблица данных
Время обучения | Функции активации | Min средняя ошибка | ||
1слой | 2слой | на тренировочном наборе | на тестовом наборе | |
03:18 | логистическая | логистическая | 0,0000036 | 0,0002548 |
08:03 | Гауссова | Гауссова | 0,0000006 | 0,0003652 |
00:05 | линейная | линейная | 0,5047548 | 0,7126971 |
01:01 | компГауссова | компГауссова | 0,0000059 | 0,0004709 |
Исходя из таблицы, оптимальной структурой для данной сети являестся сесть с Гауссовыми активационными функциями.
Вых1 | Вых2 | Вых3 | Вых4 | Вых5 | Вых6 | Вых7 | Вых8 | Вых9 | |
R квадрат | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 1,0000 | 0,9995 | 1,0000 | 0,9999 |
СКО | 0,002 | 0,002 | 0,001 | 0,001 | 0,001 | 0,002 | 0,007 | 0,001 | 0,004 |
Относ СКО % | 0,155 | 0,195 | 0,073 | 0,057 | 0,082 | 0,166 | 0,722 | 0,084 | 0,351 |
НС после обучения показывает не очень хорошие обобщающие данные. Неплохие обобщающие данные сеть в середине интервала.
Скорость обучения и начальный момент на качество обобщения не влияют.
Сеть Ворда с двумя блоками в скрытом слое .
Структура НС:
1. количество слоев: 4
2. количество нейронов:
а) во входном слое: 63
б) в выходном слое: 9
В таблице отражена зависимость минимальной средней ошибки на тренировочном и тестовом наборах и времени обучения от вида функций активации.
Скорость обучения = 0,1; момент = 0,1
Таблица данных
1 скрытый слой | 2 скрытый слой | Min средняя ошибка | Время обучения | |||
Функция активации | Кол-во нейронов | Функция активации | Кол-во нейронов | на тренировочном наборе | на тестовом наборе | |
Комп.Гауссова | 24 | Комп. Гауссова | 24 | 0,0000016 | 0,0005358 | 04:42 |
Гауссова | 24 | Гауссова | 24 | 0,0000017 | 0,0019529 | 03:58 |
логистическая | 24 | логистическая | 24 | 0,0000058 | 0,0003688 | 02:18 |
логистическая | 24 | Комп.Гауссова | 24 | 0,0000043 | 0,0006007 | 01:35 |
Исходя из таблицы дла данной сети оптимальными будут гауссовы функции активации.
Вых1 | Вых2 | Вых3 | Вых4 | Вых5 | Вых6 | Вых7 | Вых8 | Вых9 | |
R квадрат | 1.0000 | 0.9992 | 0.9999 | 1.0000 | 0.9999 | 1.0000 | 0.9995 | 1.0000 | 1.0000 |
СКО | 0.002 | 0.009 | 0.003 | 0.001 | 0.003 | 0.001 | 0.021 | 0.001 | 0.002 |
Относ СКО % | 0.152 | 0.910 | 0.275 | 0.107 | 0.320 | 0.133 | 2.112 | 0.128 | 0.153 |
Данная сеть после обучения показывает хорошие обобщающие данные.
Скорость обучения и начальный момент на качество обобщения не влияют.