Принципы функционирования АНС 17


Нейронная сеть позволяет получить изображение всего пространства наблюдений, т.е. различные нейроны оказываются чувствительными к различным областям плоскости выходных параметров. Еще раз конкретизируем: процесс создания АНС требует двух слоев нейронов:

первый . входной слой, содержащий нейроны для каждого элемента входного вектора, второй . выходной слой, или решетка нейронов, связанных со всеми нейронами входного слоя. Число нейронов в выходном слое определяется исследователем на основании изначальной формы или размера плоскости выходных параметров, которую он хочет получить. В отличие от других нейронных сетей здесь нет ни одного скрытого слоя или скрытых нейронов.

Когда каждый новый образ входных данных подается на вход нейронной сети, нейроны выходного слоя соревнуются друг с другом за право быть победителем.

Победителем становится тот выходной нейрон, веса связей которого оказываются ближайшими к входному образу в смысле евклидова расстояния. Итак, когда образ предъявлен на вход нейронной сети, каждый нейрон стремится достичь наибольшего соответствия с входным образом. Выходной нейрон, ближайший к входному образу, признается победителем. Веса связей нейронапобедителя затем корректируются, т.е. сдвигаются в направлении входного образа с помощью множителя, определяемого темпом обучения. В этом состоит сущность соревновательногоалгоритма нейронных сетей, в том числе и АНС.

Когда АНС осуществляет топологическое отображение входного образа на плоскость выходных параметров, происходит регулирование не только веса нейронапобедителя, но также весов смежных выходных нейронов, ближайших соседей победителя. Таким образом, подвижка весов происходит не только у нейронапобедителя: целая окрестность выходных нейронов становится сдвинутой ближе к входному образу. Когда процесс начинается с рандомизированных (случайных) значений весов, выходные нейроны медленно выравниваются, поскольку при предъявлении входного образа на него реагирует не только отдельный нейрон, но также и очень широкая окрестность этого нейрона. По мере того как обучение продолжается, размер этой окрестности вокруг нейрона-победителя постепенно уменьшается. Сначала одновременно корректируются веса многих нейронов в окрестности победителя, но по мере обучения на входные сигналы реагирует все меньшее и меньшее число нейронов. В конце обучения корректируются только веса нейрона-победителя непосредственно примыкающих к нему нейронов. Аналогично темп обучения (интенсивность коррекции) уменьшается по мере обучения, а в некоторых алгоритмах АНС темп обучения снижается по мере уменьшения расстояния от нейрона-победителя.

Результатом вычислений являются веса связей между входными векторами и выходными нейронами, каждому из которых соответствует типичный входной образ для некоторого подмножества входных данных, которое попадает в отдельный кластер. Кластеры образуются из нейронов плоскости выходных параметров со сходными реакциями на входные сигналы. Процесс сжатия данных большой размерности до некоторого набора кластеров называется сегментацией. Исходное пространство большой размерности сжимается в двумерную плоскость, состоящую из нейронов. Индекс выходного нейронапобедителя, по существу, разделяет также и входные образы на множество категорий или кластеров.

После обучения каждый нейрон плоскостивыходных параметров соответствует группе входных объектов, обладающих сходными признаками. Соответствие между объектами и нейронами, в большей или меньшей степени, сохраняет топологию пространства входных данных: объекты со сходными признаками соответствуют либо одному и тому же нейрону, либо соседствующим нейронам выходного слоя. Окончательный результат самоорганизации АНС представляет собой плоскость выходных параметров, сохраняющую топологию пространства входных данных.