Курсовая работа: Исследование магнитного поля рассеяния при вихретоковом контроле

Корреляционный анализ произведен в среде Statistica.

Statistica - это современный пакет статистического анализа, в котором реализованы все новейшие компьютерные и математические методы анализа данных. Программа предназначена для всех отраслей промышленности (бизнес, наука, обучение). В ней реализовано все возможные функции для статистической обработки данных, плюс к этому возможность построения графиков, базы данных и т.д. В программу встроен STATISTICA Visual Basic, что добавляет еще около 10000 новых функций. Синтаксис этого Basic'а полностью совместим с Microsoft Visual Basic. STATISTICA - это система статистического анализа данных, включающая широкий набор аналитических процедур и методов: - более 100 различных типов графиков, - описательные и внутригрупповые статистики, - быстрые основные статистики и блоковые статистики, - множественная регрессия, - непараметрические статистики, - разведочный анализ данных, корреляции, - общая модель дисперсионного и ковариационного анализа, - интерактивный вероятностный калькулятор, - T-критерии (и другие критерии групповых различий), - таблицы частот, сопряженности, флагов и заголовков, - анализ многомерных откликов, - подгонка распределений и многое другое.

В табл. 2 приведены результаты корреляций, интересующих нас параметров с искомыми признаками

frequency 25
F1 F2 F3 F4 F5 F6 F7 F8 F9 F10 F11
width 0,49 -0,26 0,65 -0,23 0,63 -0,22 0,03 0,01 -0,04 0,81 0,63
depth 0,58 -0,69 0,54 -0,85 0,54 -0,84 -0,42 0,33 0,57 0,34 0,55
frequency 100
F1 F2 F3 F4 F5 F6 F7 F8 F9 F10 F11
width 0,72 -0,20 0,46 -0,25 0,59 -0,14 0,05 0,07 0,05 0,70 0,59
depth 0,49 -0,89 0,59 -0,83 0,54 -0,90 -0,35 0,46 -0,56 0,50 0,56
frequency 200
F1 F2 F3 F4 F5 F6 F7 F8 F9 F10 F11
width 0,57 -0,13 0,47 -0,10 0,54 -0,13 0,04 0,08 -0,06 0,63 0,54
depth 0,57 -0,92 0,43 -0,76 0,54 -0,93 -0,33 0,48 -0,70 0,55 0,56
frequency 400
F1 F2 F3 F4 F5 F6 F7 F8 F9 F10 F11
width 0,38 -0,07 0,51 -0,08 0,44 -0,07 0,03 0,08 -0,09 0,51 0,44
depth 0,54 -0,92 0,48 -0,90 0,53 -0,94 -0,33 0,47 0,57 0,55 0,56

Из табл. 2 определяем наиболее коррелирующие признаки, на основе которых будет обучаться интеллектуальная нейронная сеть.

Классификация раскрытий дефектов будет производиться по признакам F1, F5, F10 и F11. Классификация глубин – F2, F4, F6 и F9.

5.2 Построение искусственных нейронных сетей

Нейронные сети привлекательны с интуитивной точки зрения, ибо они основаны на примитивной биологической модели нервных систем. В будущем развитие таких нейро-биологических моделей может привести к созданию действительно мыслящих компьютеров. Основными преимуществами использования нейронных сетей являются богатые возможности и простота в использовании.

Нейронные сети - исключительно мощный метод моделирования, позволяющий воспроизводить чрезвычайно сложные зависимости. В частности, нейронные сети нелинейны по своей природе. На протяжении многих лет линейное моделирование было основным методом моделирования в большинстве областей, поскольку для него хорошо разработаны процедуры оптимизации. В задачах, где линейная аппроксимация неудовлетворительна (а таких достаточно много), линейные модели работают плохо. Кроме того, нейронные сети справляются с "проклятием размерности", которое не позволяет моделировать линейные зависимости в случае большого числа переменных. В этом заключаются богатые возможности нейронных сетей.

Простота в использовании состоит в том, что нейронные сети учатся на примерах. Пользователь нейронной сети подбирает представительные данные, а затем запускает алгоритм обучения, который автоматически воспринимает структуру данных. При этом от пользователя, конечно, требуется какой-то набор эвристических знаний о том, как следует отбирать и подготавливать данные, выбирать нужную архитектуру сети и интерпретировать результаты, однако уровень знаний, необходимый для успешного применения нейронных сетей, гораздо скромнее, чем, например, при использовании традиционных методов статистики.

Основными этапами решения задачи являются:

1. Сбор данных для обучения

2. Подготовка и нормализация данных

3. Выбор топологии сети

4. Экспериментальный подбор характеристик сети

5. Экспериментальный подбор параметров обучения

6. Собственно обучение

7. Проверка адекватности обучения

8. Корректировка параметров, окончательное обучение

9. Вербализация сети с целью дальнейшего использования

На данном этапе уже решены первые два пункта. Рассмотрим подробнее остальные этапы.

Выбирать тип сети следует исходя из постановки задачи и имеющихся данных для обучения. Для обучения с учителем требуется наличие для каждого элемента выборки «экспертной» оценки. Иногда получение такой оценки для большого массива данных просто невозможно. В этих случаях естественным выбором является сеть, обучающаяся без учителя, например, самоорганизующаяся карта Кохонена или нейронная сеть Хопфилда. При решении других задач, таких как прогнозирование временных рядов, экспертная оценка уже содержится в исходных данных и может быть выделена при их обработке. В этом случае можно использовать многослойный персептрон. В нашем случае стоит задача регрессии и нам подходят несколько типов сетей: многослойный персептрон, сеть радиальных базисных функций или вероятностная нейронная сеть.

После выбора общей структуры нужно экспериментально подобрать параметры сети. Для сетей, подобных персептрону, это будет число слоев, число блоков в скрытых слоях, наличие или отсутствие обходных соединений, передаточные функции нейронов. При выборе количества слоев и нейронов в них следует исходить из того, что способности сети к обобщению тем выше, чем больше суммарное число связей между нейронами. С другой стороны, число связей ограничено сверху количеством записей в обучающих данных.

После выбора конкретной топологии, необходимо выбрать параметры обучения нейронной сети. От правильного выбора параметров зависит не только то, насколько быстро ответы сети будут сходиться к правильным ответам. Например, выбор низкой скорости обучения увеличит время схождения, однако иногда позволяет избежать паралича сети. Увеличение момента обучения может привести как к увеличению, так и к уменьшению времени сходимости, в зависимости от формы поверхности ошибки. Исходя из такого противоречивого влияния параметров, можно сделать вывод, что их значения нужно выбирать экспериментально, руководствуясь при этом критерием завершения обучения, например, минимизация ошибки или ограничение по времени обучения).

В процессе обучения сеть в определенном порядке просматривает обучающую выборку. Порядок просмотра может быть последовательным, случайным и т. д. Некоторые сети, обучающиеся без учителя, например, сети Хопфилда просматривают выборку только один раз. Другие, например сети, обучающиеся с учителем, просматривают выборку множество раз, при этом один полный проход по выборке называется эпохой обучения. При обучении с учителем набор исходных данных делят на две части — обучающую выборку и тестовые данные; принцип разделения может быть произвольным. Обучающие данные подаются сети для обучения, а проверочные используются для расчета ошибки сети (проверочные данные никогда для обучения сети не применяются). Таким образом, если на проверочных данных ошибка уменьшается, то сеть действительно выполняет обобщение. Если ошибка на обучающих данных продолжает уменьшаться, а ошибка на тестовых данных увеличивается, значит, сеть перестала выполнять обобщение и просто «запоминает» обучающие данные. Это явление называется переобучением сети или оверфиттингом. В таких случаях обучение обычно прекращают.

Даже в случае успешного, на первый взгляд, обучения сеть не всегда обучается именно тому, чего от неё хотел создатель. Таким образом, сеть «понимает» не то, что от неё требовалось, а то, что проще всего обобщить.

В ходе анализа результатов сетей мной было отдано предпочтение структуре трехслойного персептрона, так как он обладает наименьшей погрешностью обучения, его архитектура достаточно проста, а так же вероятность оверфиттинга сведена к минимуму. Далее будут приведены выбранные архитектуры сетей и их основные параметры.

5.3 Архитектуры выбранных сетей и их основные параметры

Искусственная нейронная сеть для определения глубины дефекта

Архитектура сети МП 6:6-9-1:1

К-во Просмотров: 353
Бесплатно скачать Курсовая работа: Исследование магнитного поля рассеяния при вихретоковом контроле