Гибридный алгоритм обучения может применяться как для сетей Ванга- Менделя, так и для сетей TSK. Сеть Ванга- Менделя может при этом трактоваться как сеть TSK, у которой все параметры , кроме , равны нулю.
В гибридном алгоритме подлежащие адаптации параметры разделяются на две группы: линейных параметров третьего слоя и параметров нелинейной функции принадлежности первого слоя. Уточнение параметров проводится в два этапа:
На первом этапе при фиксации определенных значений параметров функции принадлежности путем решения системы линейных уравнений рассчитываются линейные параметры (в первом цикле – это значения, полученные в результате инициализации). При известных значениях функции принадлежности зависимость (8.44) можно представить в линейной форме [6]
, (8.45)
где
(8.46)
для i=1, 2, ..., М. При р обучающих выборках (х(t), d(t)) (t= 1, 2, ..., р) и замене выходного сигнала сети ожидаемым значением d(t) получим систему из р линейных уравнений вида
, (8.47)
где обозначает уровень активации (вес) условия i-го правила при предъявлении t-го входного вектора x. Это выражение можно записать в сокращенной матричной форме
, (8.48)
Размерность матрицы А равна , при этом количество строк значительно больше количества столбцов .
При помощи псевдоинверсии матрицы А решение можно получить за один шаг:
, (8.49)
где псевдоинверсия матрицы А. Псевдоинверсия матрицы А заключается в проведении декомпозиции SVD с последующим сокращением её размерности.
На втором этапе после фиксации значений линейных параметров рассчитываются фактические выходные сигналы y(t) сети для t=1,2, ..., р, для чего используется линейная зависимость
, (8.50)
и следом за ними – вектор ошибки ε=y-d. Сигналы ошибок направляются через подключенную сеть по направлению ко входу сети (обратное распространение) вплоть до первого слоя, где могут быть рассчитаны компоненты градиента целевой функции относительно конкретных параметров . После формирования вектора градиента параметры уточняются с использованием одного из градиентных методов обучения, например, метода наискорейшего спуска.
(8.51)
(8.52)
(8.53)
После уточнения нелинейных параметров вновь запускается процесс адаптации линейных параметров функции TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл повторяется вплоть до стабилизации всех параметров процесса. Формулы (8.51) – (8.53) требуют расчёта градиента целевой функции принадлежности и для одной пары обучающих данных (x,d) принимают значения:
(8.54)
(8.55)
(8.56)
(8.57)
(8.58)
, (8.59)
для k=1,2,..,M, где обозначает дельту Кронекера, , .
При практической реализации гибридного метода обучения нечетких сетей доминирующим фактором их адаптации считается первый этап, на котором веса подбираются с использованием псевдоинверсии за один шаг. Для уравновешивания его влияния второй этап (подбор нелинейных параметров градиентным методом) многократно повторяется в каждом цикле.