Импульс, достигший концевой пуговки аксона, обычно вызывает лишь предпороговое возбуждение постсинаптической мембраны. Но синапсов обычно много и от одного, и от многих нейронов, и поэтому, накапливаясь, потенциалы, передаваясь пассивным методом, подойдут к аксонному холмику, и суммарное возбуждение может превзойти пороговое, то есть получаем, так называемый, резонанс. Когда согласованный эффект многих таких подпороговых изменений в аксоном холмике превысит порог, и, если это происходит в момент, когда рефрактерный период после предыдущего возбуждения уже закончился, то вдоль аксона начнет распространяться следующий импульс. Если же кумулятивный эффект окажется гораздо больше нормального, то он может превысить и текущее значение порога, прежде чем тот вернется к своему нормальному значению. Период, в течение которого никакое повторное раздражение, не зависимо от его силы, не может вызвать второй импульс, называется абсолютным рефракторным периодом. Когда же очень сильное входное возбуждение может привести к возникновению в аксоне второго импульса, то говорят об относительном рефракторном периоде.
Таким образом, нейрон воспринимает химический сигнал, и реагирует на него повышением или понижением ответов. В этих процессах восприятия химических сигналов и генерации импульсов нейроном важную роль играют перестройки надмолекулярных структур в различных частях данной нервной клетки, а также волны структурных перестроек, сопровождающие передачу информации в пределах данного нейрона и от одного нейрона к другому. Процессы метаболизма (обеспечивающие, в частности, клетку энергией) восстанавливают эти надмолекулярные структуры перестраивающиеся в процессе передачи информации.
Рис7а, б. Простейший вариант нейронной сети (а) и его механическая аналогия (б)
Простейшей механической аналогией вычислений в нейронных сетях являются в одномерном случае "качели с распределенным расположением груза", в двумерном -- "скатывание шарика по поверхности, испещренной оврагами". На рисунке 76 в качестве примера показаны "качели". Допустим, что внешняя ситуация X отображена в виде расположения грузов в некоторых зонах {p1, p2 , … , рп}- Пусть i(X) = 1, когда груз находится в i-й точке. Для случая, изображенного на рис. 76, имеем i = (i -- 4), = 0, результат вычисления будет: (i -- 4) I(X) > 0, а логическое заключение о ситуации -- "доска наклонится вправо", т.е. при распознавании двух ситуаций, будет выбрана одна.
Мозг человека выполняет трудную задачу обработки непрерывного потока сенсорной информации, получаемой из окружающего мира. Из потока тривиальной информации он должен выделить жизненно важную информацию, обработать ее и, возможно, зарегистрировать в долговременной памяти. Понимание процесса человеческой памяти представляет собой серьезную проблему; новые образы запоминаются в такой форме, что ранее запомненные не модифицируются и не забываются. Это создает дилемму: каким образом память остается пластичной, способной к восприятию новых образов, и в то же время сохраняет стабильность, гарантирующую, что образы не уничтожатся и не разрушатся в процессе функционирования?
Традиционные искусственные нейронные сети оказались не в состоянии решить проблему стабильности-пластичности. Очень часто обучение новому образу уничтожает или изменяет результаты предшествующего обучения. В некоторых случаях это не существенно. Если имеется только фиксированный набор обучающих векторов, они могут предъявляться при обучении циклически. В сетях с обратным распространением, например, обучающие векторы подаются на вход сети последовательно до тех пор, пока сеть не обучится всему входному набору. Если, однако, полностью обученная сеть должна запомнить новый обучающий вектор, он может изменить веса настолько, что потребуется полное переобучение сети.
Итак, основной целью данной работы является создание нейронной сети, являющейся одним из способов решения проблемы стабильности-пластичности.
Одним из результатов исследования этой проблемы является Адаптивная резонансная теория (APT) Гроссберга.
X - множество входных векторов
X - входной вектор
X = (x1,..,xr )
Ai - нейронный ансамбль
aij - j-й нейрон в i-ом ансамбле
M - множество обученных ансамблей нейронов
B - множество порогов
B - вектор порогов, соответствующий одному нейронному ансамблю
Bi = [b1,..br]
bi - порог одного нейрона
n - номер первого необученного ансамбля
Ii - выходной импульс i-го нейронного ансамбля
I = {0;1}
Ii = 1 , когда входной сигнал соответствует запомненному в i-м ансамбле образу, или обучен ему
c - командная переменная
c = {0;1}
T - время полного цикла, Т = Т1 + Т2
T1 - время процесса распознавания
T2 - время процесса обучения
Постановка задачи:
Создать нейронную сеть удовлетворяющую теореме:
T: X :
Рис.9. Не резонанс.
Страницы: 1, 2, 3, 4, 5, 6, 7, 8