Принципы функционирования АНС


Раскроем основные положения и подходы метода АНС, отталкиваясь от общеизвестных математических понятий.

В основе алгоритма АНС лежат принципы регрессии. Существует два типа регрессии, использующие различные подходы: среднеквадратическая регрессия и среднеквадратическая ортогональная регрессия. Поясним их на примере простой аппроксимации.

При обычной среднеквадратической регрессии одна из переменных, например x , является независимой, и ее значения известны или могут быть точно выбраны.

Предполагается, что другая переменная y зависит от x .

Данные наблюдений переменных x и y можно представить в виде совокупности точек на плоскости с координатами X и Y . Каждая такая точка будет иметь координаты ( , )i i x y , где i 1, 2, ... N . В данном случае N . Общее число наблюдений. Для привязки к практической ситуации можно представить, что наблюдается группа предприятий. Каждое из этих предприятий характеризуется двумя основными балансовыми показателями: суммой активов ( x ) и размерами полученной прибыли ( y ). Очевидно, что абсолютный размер полученной прибыли в определенной степени зависит от суммы активов. Чем больше активов имеет предприятие, тем больше прибыли оно может получить. Но эта зависимость в обще случае нелинейна, так как она зависит от эффективности работы каждого предприятия. В математическом понимании свойство нелинейности (nonlinearity) относится к отображению (связи между переменными x и y ), которое нелинейно или при котором выходной сигнал ( y ) не пропорционален входному ( x ). Иначе говоря, график зависимости y  f (x) нельзя представить на плоскости XY в виде прямой линии.

Чтобы все же получить эмпирическую формулу зависимости y  f (x) можно попытаться аппроксимировать группу точек, полученных в результате наблюдения, с помощью простой функциональной зависимости (например, полиномиальной, экспоненциальной, логарифмической, гауссовой и т.д.), подбирая значения небольшого числа параметров, входящих в эту зависимость. В результате будет определенынесколько функций аппроксимации, каждая из которых описывается своей функциональной зависимостью y  f (x) . Считается, что при заданных ограничениях (которые в данном случае представлены ограниченным набором функций аппроксимации) функция аппроксимации при среднеквадратической регрессии оптимальна в том случае, если сумма квадратов вертикальных расстояний до точек исходных данных является минимальной. Иначе говоря, необходимо найти каждую функцию аппроксимации, нанести ее на плоскость XY , провести от каждой точки наблюдений ( , )i i x y вертикальную линию до пересечения с функцией аппроксимации, измерить полученные отрезки и сложить квадраты их длины по всей совокупности наблюдений i 1, 2, ... N . Далее необходимо сравнить полученные суммы для всех линий аппроксимации между собой и найти минимальную по величине. Соответствующая этой минимальной сумме кривая аппроксимации и будет считаться оптимальной при среднеквадратической регрессии.

Предположим теперь, что ни x , ни y не известны точно, а представляют собой случайные величины. Это как раз соответствует описанному выше практическому примеру, так как при наблюдении (в процессе выборки значений сумм активов и балансовой прибыли предприятий из базы данных по произвольной группе компаний) конкретные значения этих показателей заранее не известны. В этом случае оптимальная кривая аппроксимации проводится таким образом, чтобы сумма квадратов ортогональных расстояний от этой линии до точек, изображающих исходные данные, была минимальной. В отличие от рассмотренной выше среднеквадратической регрессии эти расстояния соответствуют длине перпендикуляра, проведенного к аппроксимирующей линии из соответствующей точки. Данный метод носит название среднеквадратической ортогональной регрессии.

Как правило, среднеквадратическая регрессия применяется при оценке параметров, а среднеквадратическая ортогональная регрессия чаще используется для сглаживания, особенно графического.