Технологии интеллектуального анализа данных : учебное пособие

184 всех переменных весовых коэффициентов w . Данный этап называ- ется обучением нейронной сети. От того, насколько качественно он будет выполнен, зависит способность НС решать поставленные перед ней задачи во время функционирования. Задача обучения нейронной сети с выбранной архитектурой может быть сформулирована следующим образом: 1) пусть решение задачи представляет собой отображение : r X Y  , где X – n -мерное, Y – m -мерное векторное пространство; 2) отображение r известно исследователю только в виде со- вокупности пар входных и соответствующих им выходных данных     , i i X Y , называемых обучающей выборкой, где   1 ,..., i i i n X x x  ,   1 ,..., i i i m Y y y  , 1, i N  ; 3) объем обучающей выборки N существенно меньше обще- го числа возможных сочетаний значений входных и выходных сиг- налов для решаемой задачи; 4) необходимо найти оптимальные значения величин синап- тических связей между нейронами, при которых для реализуемого НС отображения : g X Y  функционал качества ( , ) E r g (функция ошибки) обращается в оптимум для всех элементов     , i i X Y обу- чающей выборки. Большинство алгоритмов обучения нейронных сетей являют- ся итеративными. Исторически первые алгоритмы обучения были разработаны для однослойных нейронных сетей. 1. Правило обучения Хэбба формально записывается как ( 1) ( ) ij ij i j w t w t x y     , где ij w – величина синаптической связи между нейронами с номерами i и j ; i x и j y – выходные значения i -го и j -го нейронов; t – шаг. Согласно данному правилу, обучение происходит в результате усиления силы связи между одновременно

RkJQdWJsaXNoZXIy MTY0OTYy