Дипломная работа: Волновая резонансная теория
Если бы внести разряжение в каком-либо участке по длине аксона, то возбуждение пошло бы в обе стороны. Однако, если импульс возникает на одном конце аксона (обычно на холмике), то он может распространяться лишь в одном направлении, так как возбужденный конец становится рефракторным и остается в таком состоянии довольно долго. Передвигаясь по аксону, он вызывает новые импульсы в каждом из ответвлений (или коллатералий), а те, в свою очередь, вызывают новые импульсы в каждой из более тонких веточек. Когда же импульс доходит до концевой пуговки, то после небольшой задержки на мембране клетки, с которой аксон образует синапс, возникает разность потенциалов. Мембрана концевой пуговки называется пресинаптической мембраной , а мембрана той, клетки, на которую передается импульс, - постсинаптической. В большинстве случаев непосредственная причина изменения потенциала постсинаптической мембраны имеет не электрическую, а химическую природу. В некоторых синапсах изменение поляризации происходит без химических медиаторов. Но, как правило, электрический импульс, достигнув концевой пуговки, вызывает выделение из так называемых синаптических пузырьков вещества, называемого медиатором , которое диффундирует через небольшую синаптическую щель к постсинаптической мембране. Попав на эту мембрану, медиатор вызывает изменение ее поляризации. Медиатор по своему действию может быть двух основных типов: возбуждающим , если он изменяет разность потенциалов на постсинаптической мембране в направлении к пороговому значению, или тормозным, то есть изменяет разность потенциалов в обратную сторону. Здесь действует закон Дейла: если проследить за всеми ветвлениями одного и того же аксона, то все синапсы, образуемые этим аксоном с другими клетками, окажутся либо только возбуждающими, либо только тормозными. Но закон Дейла выведен для беспозвоночных, и может оказаться неверным даже для млекопитающих.
Импульс, достигший концевой пуговки аксона, обычно вызывает лишь предпороговое возбуждение постсинаптической мембраны. Но синапсов обычно много и от одного, и от многих нейронов, и поэтому, накапливаясь, потенциалы, передаваясь пассивным методом, подойдут к аксонному холмику, и суммарное возбуждение может превзойти пороговое, то есть получаем, так называемый, резонанс. Когда согласованный эффект многих таких подпороговых изменений в аксоном холмике превысит порог, и, если это происходит в момент, когда рефрактерный период после предыдущего возбуждения уже закончился, то вдоль аксона начнет распространяться следующий импульс. Если же кумулятивный эффект окажется гораздо больше нормального, то он может превысить и текущее значение порога, прежде чем тот вернется к своему нормальному значению. Период, в течение которого никакое повторное раздражение, не зависимо от его силы, не может вызвать второй импульс, называется абсолютным рефракторным периодом. Когда же очень сильное входное возбуждение может привести к возникновению в аксоне второго импульса, то говорят об относительном рефракторном периоде.
Таким образом, нейрон воспринимает химический сигнал, и реагирует на него повышением или понижением ответов. В этих процессах восприятия химических сигналов и генерации импульсов нейроном важную роль играют перестройки надмолекулярных структур в различных частях данной нервной клетки, а также волны структурных перестроек, сопровождающие передачу информации в пределах данного нейрона и от одного нейрона к другому. Процессы метаболизма (обеспечивающие, в частности, клетку энергией) восстанавливают эти надмолекулярные структуры перестраивающиеся в процессе передачи информации.
2. Основная часть
2.1 Введение
От процесса мышления можно провести аналогию к процессу распознавания. Процесс распознавания образа в нейрокомпьютерах обладает почти всеми свойствами мышления. Действительно:
— он происходит в нейросетях, у человека — в реальных, в компьютере — в искусственных. Основные принципы функционирования тех и других можно считать одинаковыми;
— в нем происходит обработка информации;
— принятие решения в данном случае сводится к выбору класса (из числа обученных), к которому принадлежит данный объект;
—при недостатке информации принятие решения — акт творчества. Для этого в нейрокомпьютере есть все необходимое, включая аппарат рецепции информации, перемешивающий слой (больцмановский шум) и запоминание результата. Момент принятия решения нейро-процессор умеет выбирать сам. В нейрокомпьютере решение принимается интуитивно;
—каждый нейрокомпьютер индивидуален. Это проявляется на разных стадиях обучения. Так, локализация образа в процессоре Гроссберга происходит в элементе, выбранном случайно. В исходно одинаковых процессорах эти элементы, как правило, не совпадают. Это немешает работе процессора, но определяет его индивидуальность.
Нейронная сеть представляет собой систему динамически взаимодействующих элементов с набором входных и выходных сигналов. Простейший вариант такого дискретного элемента показан на рис. 7а, где j 1 входные функции, Ф ( j 1, j 2, j 3,… j n ) — семейство входных функций, {а j 1 , а j 2 , а j 3 , .. ., а j n } — набор чисел (весовых коэффициентов), q— пороговая функция, y— выходная функция. Пусть X — набор признаков внешних стимулов, воздействующих на рецепторы, генерирующие входные функции ji . В дискретном пороговом варианте y(Х) = 1 тогда и только тогда, когда Saj i ji (Х) > q . На интуитивном уровне ясно, что каждое ji из семейства Ф содержит определенные сведения о том, будет ли истинной или ложной выходная функция yдля каждой внешней ситуации X . Если в целом y(Х) имеет положительную корреляцию с семейством j(Х), то можно ожидать, что и веса будут положительными, тогда как при отрицательной корреляции отрицательными будут и веса aj . Однако идею корреляции в данном случае следует воспринимать не буквально, а лишь как аналогию. В нейронных сетях, как будет ясно из дальнейшего изложения, возможны более сложные зависимости, нежели просто корреляционные соотношения. В зависимости от решаемой задачи элементы нейронной сети могут с различной степенью детализации имитировать принципы функционирования отдельных нейронов, нейронных популяций (например, тормозных и возбуждающих) или нейронных структур. В классических нейрофизиологических экспериментах этим уровням детализации соответствуют импульсная активность одиночных нейронов, локальный полевой потенциал нейронных ансамблей и электроэнцефалограммы (ЭЭГ), получаемые методом многоэлектродного отведения от мозга в целом.
Рис7а, б. Простейший вариант нейронной сети (а) и его механическая аналогия (б)
Простейшей механической аналогией вычислений в нейронных сетях являются в одномерном случае "качели с распределенным расположением груза", в двумерном — "скатывание шарика по поверхности, испещренной оврагами". На рисунке 76 в качестве примера показаны "качели". Допустим, что внешняя ситуация X отображена в виде расположения грузов в некоторых зонах { p 1 , p 2 , … , рп }- Пусть ji ( X ) = 1, когда груз находится в i-й точке. Для случая, изображенного на рис. 76, имеем ai = ( i — 4), q = 0, результат вычисления будет: S( i — 4) jI ( X ) > 0, а логическое заключение о ситуации — "доска наклонится вправо", т.е. при распознавании двух ситуаций, будет выбрана одна.
Мозг человека выполняет трудную задачу обработки непрерывного потока сенсорной информации, получаемой из окружающего мира. Из потока тривиальной информации он должен выделить жизненно важную информацию, обработать ее и, возможно, зарегистрировать в долговременной памяти. Понимание процесса человеческой памяти представляет собой серьезную проблему; новые образы запоминаются в такой форме, что ранее запомненные не модифицируются и не забываются. Это создает дилемму: каким образом память остается пластичной, способной к восприятию новых образов, и в то же время сохраняет стабильность, гарантирующую, что образы не уничтожатся и не разрушатся в процессе функционирования?
Традиционные искусственные нейронные сети оказались не в состоянии решить проблему стабильности-пластичности. Очень часто обучение новому образу уничтожает или изменяет результаты предшествующего обучения. В некоторых случаях это не существенно. Если имеется только фиксированный набор обучающих векторов, они могут предъявляться при обучении циклически. В сетях с обратным распространением, например, обучающие векторы подаются на вход сети последовательно до тех пор, пока сеть не обучится всему входному набору. Если, однако, полностью обученная сеть должна запомнить новый обучающий вектор, он может изменить веса настолько, что потребуется полное переобучение сети.
Итак, основной целью данной работы является создание нейронной сети, являющейся одним из способов решения проблемы стабильности-пластичности.
Одним из результатов исследования этой проблемы является Адаптивная резонансная теория (APT) Гроссберга.
2.2 Постановка задачи
2.2.1 Неформальная постановка задачи
Создание нейронной сети, которая:
- распознает входной сигнал, если была ему ранее обучена;
- в случае не распознавания входного сигнала, запоминает его;
- совершает эти действия с учетом проблемы стабильности-пластичности. Т.е. при подаче на вход сигнала схожего с одним из запомненных ранее, классифицирует его, как узнанный. Если входной сигнал сильно отличается от запомненных ранее, не уничтожая результаты предыдущего обучения, запоминает его.
Программную реализацию осуществить в среде Matlab.
2.2.2 Формальная постановка задачи
Введем обозначения:
X – множество входных векторов
X – входной вектор
X = (x1 ,..,xr )
Ai – нейронный ансамбль
aij – j-й нейрон в i-ом ансамбле
M – множество обученных ансамблей нейронов