Рассмотрим теперь регулярную двумерную решетку


Рассмотрим теперь регулярную двумерную решетку плоскости выходных параметров, состоящую из вычислительных элементов, именуемых нейронами. Для улучшения визуального восприятия удобнее представить данную решетку гексагональной. С каждым нейроном, таким образом, связывается модельный вектор k m , т.е. координаты узла в пространстве сигналов представляются теперь в виде соответствующего нейрону множества вещественных чисел. В обычных нейросетевых моделях модельный вектор соответствовал бы синаптическим весам, которые будут рассматриваться ниже, однако в АНС конкретизировать природу k m нет необходимости.

Представим, что последовательность примеров наблюдений r (t)  каким-то образом передается каждому нейрону, по одному примеру поочередно. Вычислительный алгоритм сети (в простейшем случае это запрограммированное последовательное сравнение r (t)  с k m по всем элементам входного множества) сначала будет выбирать нейрон-победитель, чей вектор k m наилучшим образом соответствует r (t)  . Этот нейрон будет иметь индекс k=П .

Если задать положение нейрона k в этой сети с помощью двумерного вектора локализации k l , то функция соседства может быть приведена к виду:

В общем случае для этого можно воспользоваться и более простой формой функции соседства.

Как было отмечено выше, что алгоритм АНС определяет, каким образом m (t) k  подстраиваются под значения r (t)  . Предположим, что имеется достаточно примеров r (t)  , а если это не так, то следует выполнить несколько итераций с имеющимися примерами повторно, с тем чтобы число «этапов обучения» оказалось достаточным для обеспечения сходимости m (t) k  к приемлемым стационарным значениям * k m . Таким образом, любой вектор r (t)  выбирает один нейрон, а именно тот, модельный вектор которого имеет наибольшее сходство с r (t)  .

Содержание раздела