Особый интерес представляет свойство аппроксимации


Особый интерес представляет свойство аппроксимации плотности, которым обладает АНС. Оно показывает, что алгоритм АНС, завершающийся полным отсутствием соседей у нейрона-победителя в конце обучения, сходится, что соответствует сходимости классического метода многопараметрического квантования или, иными словами, соревновательного обучения. После квантования нейроны представляют собой дискретный каркас для реконструкции начальной плотности при условии, что каждый нейрон взвешивается вероятностью, оцениваемой по частоте его области Вороного. При условии адекватного взвешивания нейронов полученный результат показывает, что начальные данные могут быть восстановлены, причем сам результат является точным, если число нейронов стремится к бесконечности.

Для того чтобы создать хорошую модель АНС, необходимо уделить внимание следующим наиболее важным аспектам: инициализации модельных векторов, выбору функции соседства и скорости обучения, выбору размерности и формы плоскости выходных параметров, а также масштабированию входных переменных. Помимо этого необходимо учесть процедуры автоматического цветового кодирования АНС. Рассмотрим подробнее эти и другие аспекты алгоритма АНС, на которые выше делались многочисленные ссылки.

При инициализации алгоритма АНС следует иметь в виду, что процесс самоорганизации будет протекать на несколько порядков быстрее, а окончательные результаты получатся гораздо более устойчивыми, если перед запуском алгоритма модельные векторы будут упорядочены, хотя бы очень приблизительно. Например, можно выбрать две главные компоненты данных, после чего можно построить регулярную решетку из точек, расположенных вдоль гиперплоскости, задаваемой исходными данными.

Если взять в качестве значений модельных векторов в такой решетке главные компоненты, это позволит сузить функцию соседства и уменьшить значение коэффициента скорости обучения.

Многочисленные расчеты показали, что алгоритм АНС допускает различные варианты выбора функции соседства и фактора скорости обучения. Тем не менее, всегда необходимо учитывать следующее:

 функция соседства должна быть шире в начале процесса обучения, и ее ширина должна уменьшаться со временем таким образом, чтобы к концу этого процесса осуществлялась подгонка только непосредственных соседей нейрона-победителя;  процесс самоорганизации должен включать достаточно большое число шагов обучения.

Поскольку использовать наиболее приемлемую для большинства случаев гауссову функцию соседства иногда может оказаться затруднительно, в некоторых случаях можно прибегнуть и к более простой функции, которая также достаточно хорошо работает, особенно если модельные вектора инициализированы таким образом, как описано выше.

Более простые уравнения обучения АНС имеют следующий вид:

Если начать вычисления с предварительно упорядоченных начальных значений k m , то выбор точных значений (t) и (t) не является критическим. Можно, например, уменьшать (t) линейно (дискретными шагами) в промежутке от 5 до 1, уменьшая одновременно скорость обучения (t) от 0,05 до 0.

Чтобы добиться лучшей сходимости, исходя из теоретических соображений, можно выбрать закон вида:

где: G . параметр, значение которого должно превышать число нейронов в 100 или более раз.

Содержание раздела