Принципы функционирования АНС 2


Возвращаясь к взятому практическому примеру, среднеквадратическую регрессию целесообразно использовать, чтобы оценить, каким образом любой выбранный параметр, например прибыль предприятия, зависит от времени (независимой в данной случае величины). Она позволяет получить математически определенную функцию, параметры которой, даже не глядя на график исторических данных, дают возможность судить: растет эта прибыль или падает. Например, если оптимальная функция аппроксимации . степенная y  f(t)  ta, то показатель дает полную информацию о тенденции. Если a  1, прибыль растет (тем в большей степени, чем больше a ).

Если a  1, прибыль падает.

Среднеквадратическая ортогональная регрессия, как уже было показано выше, дает возможность представить зависимость случайных значений выборки сумм активов и балансовой прибыли по группе предприятий в виде математической функции y  f (x) . Иначе говоря, от хаотического набора точек на плоскости XY можно перейти к сглаженной линии.

Метод АНС можно рассматривать как некую специальную разновидность регрессии, причем более близкую к ее ортогональной разновидности. Строго математически его можно определить как анализ главных кривых при непараметрической регрессии, который является обобщением среднеквадратической ортогональной регрессии. Он реализуется с помощью нелинейной двумерной регрессионной модели. Регрессия в данном случае относится к классу непараметрических методов, так как не требует априорных предположений о форме распределения данных (в рассмотренном примере . не требуется задавать явным образом законы распределения случайных величин . суммы активов и балансовой прибыли компаний). Понятие главных кривых будет рассмотрено ниже, оно тесно связано со специфической разновидностью аппроксимации . «интеллектуальной» криволинейной аппроксимацией.

Рассмотрим простейшую операцию, которая напоминает регрессию и хорошо иллюстрирует принципы простейшей . одномерной АНС. При обычном регрессионном анализе аналитический вид функциональной зависимости должен быть заранее выбран исследователем из фиксированного набора функций аппроксимации. В ходе вычислений с помощью известных алгоритмов подбираются лишь значения входящих в функцию аппроксимации параметров. Например, если выбрана степенная функция аппроксимации y  f(x)  xa, то в ходе вычислений исследователем задается начальное значение единственного параметра 0 a , далее оно последовательно меняется на величину некоторого приращения a . На каждом шаге вычисляется сумма квадратов расстояний от каждой точки наблюдения до функции аппроксимации и заносится в память машины. После достижения определенного исследователем конечного значения a a n a k     0 , где n . число шагов вычислений анализируется ряд занесенных в память данных и определяется наименьшая сумма квадратов. Значение параметра j a , которое соответствует наименьшей сумме квадратов, принимается в качестве оптимального значения параметра функции аппроксимации: a j

опт y  f (x)  x. Если функция аппроксимации полиномиальная, например y  b  cx2 , то последовательными шагами b и c определяются оптимальные значения двух параметров ij b и ij c , которые соответствую ячейке матрицы значений параметров, в которой записана минимальная для этой матрицы сумма квадратов. Строки такой матрицы формируются изменением параметра b , т.е. ( b b i b i     0 ), а столбцы . параметра c , т.е. ( c c j c j     0 ). Оптимальная функция аппроксимации в данном случае имеет вид: y f (x) b c x2 опт ij ij    . Подобным образом вычисляются параметры любой функции аппроксимации. Матрица параметров при этом имеет размерность, равную числу независимых параметров функции аппроксимации. Очевидно, что при сложных многопараметрических функциях и большом числе точек наблюдения объемы вычислений оказываются очень велики.

Дополнительная проблема связана с тем, что наилучший вид функциональной зависимости, которую следует использовать при аппроксимации, исследователь не всегда может легко определить заранее. Поэтому ему приходится каждый раз визуально оценивать распределение точек на плоскости XY и экспериментировать с несколькими функциями. Если же входные данные не двумерны, как это принято в рассмотренном выше примере, а многомерны, то простая визуальная оценка распределения входных данных вообще невозможна. В этом случае вид аппроксимирующей функции исследователь вынужден определять простым перебором, что дополнительно усложняет анализ и многократно увеличивает время вычислений.