В построении АНС используется нечеткая


В построении АНС используется нечеткая логика (fuzzy logic), которая также часто называется многозначной или «неясной» логикой. В соответствии с постулатами этой логики, все имеет градации, включая истину и факт принадлежности некоторому множеству. Она позволяет делать умозаключения с использованием нечетких множеств или множеств нечетких правил. Нечеткое правило (fuzzy rule) в простейшем случае выглядит как условное высказывание вида «если X есть A , то Y есть B », где A и B . нечеткие множества, а X и Y . определенные входные и выходные множества (например, в рассматриваемых выше случаях . входные наборы данных и ячейки плоскости выходных параметров соответственно).

На математическом языке правило представляется связью (relation) между нечеткими множествами. Каждое правило определяет «нечеткое» пятно (произведение A B ) в «пространстве состояний» системы. Чем обширнее нечеткие множества A и B , тем обширнее и более неопределенное нечеткое «пятно». Нечеткие правила нечетких систем являются блоками для построения знаний в алгоритме АНС. Выражаясь математическим языком, можно сказать, что каждое нечеткое правило действует как ассоциативная память, которая связывает нечеткий отклик B с нечетким стимулом A .

В структуре АНС используется так называемая автоассоциативная память (autoassociative memory), которая сконструированная таким образом, чтобы, кроме прочего, преобразовывать входные примеры в самих себя. Если входной пример содержит шум, разрушен и неполон, такая память способна восстановить оригинал или изученный пример.

В терминах нечеткой логики АНС является частным случаем нечеткой системы (fuzzy system), объединяющей множество нечетких правил, преобразующих входные данные в выходные. В наиболее простых системах такого вида исследователь сам устанавливает эти правила словами или символами. В модели АНС нейросетевая система самостоятельно обучается правилам по входным наблюдениям. На каждый пример входных данных в некоторой степени откликаются все правила в массивной ассоциативнойпамяти. Чем ближе сходство входного примера с частью «если» нечеткого правила, тем сильнее получается отклик в части «то». Далее в нечеткой системе все эти отклики или множества «то» складываются, и вычисляется их среднее или центроидное значение. Этот центроид является выходным результатом нечеткой системы. Каждое отображение входа на выход определяет одно нечетко-логическое заключение (fuzzy logical inferences). Теорема о нечеткой аппроксимации (fuzzy approximation theorem, FAT) утверждает, что нечеткая система может моделировать любую непрерывную систему. Каждое правило нечеткой системы действует как нечеткое «пятно», которое система ставит таким образом, чтобы имитировать отклик непрерывной системы на все возможные стимулы.

Обучение (learning) адаптивной сети в простейшей форме означает самонастройку на уровне процессорных элементов. Взвешенные связи между процессорными элементами или веса подстраиваются таким образом, чтобы получить конкретные результаты, исключая необходимость написания специального алгоритма для каждой задачи. В алгоритме АНС используется и другая трактовка термина обучение (training), которая означает предъявление нейросетевой вычислительной системе множества примеров-стимулов с целью достижения конкретной цели, определяемой исследователем. В исследовательских целях допускается также изменение правил или поведения системы с определенной целью.

Под термином «процессорный элемент» (processing element) здесь понимается вычислительная абстракция нейрона, т.е. нейроноподобная ячейка, которая совместно со многими другими процессорными элементами образует нейронную вычислительную сеть. Все вычислительные операции в АНС выполняются большим числом сравнительно простых адаптивных процессорных элементов.

Часть процессорного элемента, через которую проходит сумма входных сигналов для получения суммарного отклика, называется функцией передачи (transfer function).

Обычно это нелинейная функция. Другой компонент процессорного элемента, в котором складываются получаемые элементом сигналы, называется функцией суммирования (summation function). Суммарный сигнал в нейроне сравнивается с порогом (threshold), который представляет собой константу, которая используется в качестве уровня сравнения. Если значение суммы превышает порог, выполняется некоторое действие (например, нейрон возбуждается). В том случае, когда значение суммы ниже порога, никаких действий не происходит.