Принципы функционирования АНС 27


Часто для изучения компонент используются также дополнительные математические инструменты, например, ортогональной матрицы и проекции Сэммона.

Они дают грубое визуальное представление о расстояниях между отдельными компонентами входных данных попарно. Это особенно полезно для предварительного анализа, так как дает возможность получить приблизительное визуальное представление распределения классов и степени их перекрытия.

Ортогональная матрица представляет собой двумерную диаграмму, на которой геометрические отношения данных в пределах выборки представляются цветом разной насыщенности: чем больше расстояние между векторами, тем интенсивнее окрашивается соответствующий элемент на ортогональной матрице. Представление с помощью ортогональной матрицы позволяет судить об относительных расстояниях между элементами плоскости выходных параметров: векторы весовых коэффициентов элементов плоскости отстоят друг от друга тем дальше, чем интенсивнее окраска соответствующих элементов. Таким образом, отдельные кластеры данных будут выглядеть в виде светлых пятен, разделенных более темными областями.

Отображение Сэммона визуализирует ту же информацию, что ортогональная матрица, но только в форме образованной из прямых отрезков сети, построенной в трехмерном пространстве. Дополнительное третье измерение служит для визуального отображения расстояний между векторами.

После завершения процесса самоорганизации сети целесообразно расставить индикативные метки для нейронов плоскости выходных параметров. При этом за основу принимается то, что узлы «интеллектуальной» сети тяготеют в пространстве данных к областям концентрации примеров данных. Иными словами, плоскость выходных параметров или «нейросетевой дисплей», отображает координаты узлов (т.е. модельных векторов), соответствующих различным нейронам. Это дает право пометить все или некоторые нейроны, для того чтобы стало непосредственно ясно, что они означают.

Обычно в статистических таблицах каждая запись, соответствующая, например, одной компании, описывается единственным множеством данных. Названия этих записей можно, таким образом, использовать в качестве меток.

Предположим, что модельные векторы сходятся к приемлемым * k m . Если r (t)  . вектор входных данных, имеющих символьное обозначение s(t) , и если выполняется условие:

то на нейроне-победителе можно поставить метку s(t) .

С другой стороны, если данные в записи стохастические, как, например, данные, описывающие исторические состояния производственного процесса, то различные измерения данных в одной и той же записи дадут в целом разные векторы данных r (t)  . Как правило, существует возможность давать названия некоторым, четко определенным состояниям процесса (например, состояние банкротства).