Адаптивные нейронные сети 2


Нейронные сети, обучаемые с учителем, представляют собой средства для извлечения из набора данных информации о взаимосвязях между входами и выходами нейросети. Эти взаимосвязи могут быть переведены в математические уравнения, которые можно использовать для прогнозирования или выработки управленческих решений. «Учителем» в данном случае является набор параметров, который исследователь помещает на выходе сети. На вход сети при этом подается соответствующий данному выходу входной набор данных. Сеть обучается устанавливать взаимоотношения между заданной исходной информацией и результатами в ходе адаптивного итерационного процесса. Иначе говоря, структура сети по определенным алгоритмам подстраивается таким образом, чтобы минимизировать критерии расхождения входных и выходных параметров. Данный процесс повторяется многократно с использованием новых пар наборов входных и выходных данных. В результате структура сети «запоминает» сходные признаки всех этих наборов.

Сеть, которую однажды уже обучили таким образом, может быть использована для обработки входных данных, которые ей ранее никогда не предъявлялись. Когда такие данные подаются на вход обученной сети, на ее выходе появляются параметры, сформированные с использованием всех сходных признаков обработанных ранее сетью данных. Таким образом, в нейросетевых методиках, предполагающих обучение с учителем, для нахождения образа или соотношения между данными требуется, чтобы один или более выходов были точно заданы вместе с одним или более входами.

Алгоритм работы сети, обучаемые без учителя, основывается на соревновательном обучении. В этом случае тестовые выходные данные не используются. Алгоритм предполагает такое поведение нейронов сети, что при каждой подаче очередного набора данных на вход они как бы «соревнуются» друг с другом на наилучшее соответствие входному набору по выбранным критериям. В результате соревнования определяется нейрон-победитель, после чего структура сети подвергается коррекции. Коррекция начинается с нейрона-победителя и производится в направлении увеличения его соответствия входному сигналу. После этого коррекция переходит на нейроны, непосредственно примыкающие к нейрону-победителю и далее. При этом по мере удаления от нейрона-победителя интенсивность коррекции постепенно снижается до нуля.

Нейроны сети, обучаемой без учителя, как правило, образуют двумерную решетку. Алгоритм обеспечивает сохранение топологии отображения из пространства большой размерности (представленного совокупностью наборов входных данных) в элементы данной двумерной решетки.

Таким образом, это отображение является отображением пространства большой размерности на плоскость. Свойство сохранения топологии означает, что алгоритм распределяет сходные векторы входных данных по одним и тем же нейронам, т.е. точки, расположенные в пространстве входов близко друг к другу, будут отображаться на близко расположенные выходные элементы-нейроны.

Данный алгоритм анализирует входные данные и показывает выходную информацию как бы на плоской индикаторной панели с помощью активизируемых нейронов.

Это позволяет обучить нейронную сеть узнавать или находить взаимосвязи между входами и выходами, либо организовывать входные данные таким образом, чтобы выявлять в них ранее неизвестные образы или структуры.

Обозначим класс самоорганизующихся нейронных сетей, обучаемых без учителя, термином адаптивные нейронные сети (АНС). Рассмотрим подробнее основные свойства таких сетей и покажем, что они наилучшим образом позволяют решать задачи, сформулированные в соответствующем разделе монографии.

Важным достоинством метода АНС является то, что он представляет собой численный, а не символьный метод обработки данных. В процессе вычислений многие расчеты обрабатываются соревновательно. Это дает возможность широко использовать параллельную обработку данных в компьютерах (parallel processing). Одной из уникальных особенностей АНС является то, что она предоставляет внутренне присущие ей точные и простые механизмы для разделения вычислительной задачи на субъединицы. Такая внутренне присущая параллельность позволяет проводить вычисления с помощью высокопроизводительной архитектуры с высокой степенью параллельности.