Отдельный тип нейронных нечётких продукционных сетей, обучаемых при помощи градиентных алгоритмов составляют сети типа ANFIS (адаптивная сетевая нечёткая система вывода), предложенные Чангом в 1992 году.
Рассмотрим нечёткую сеть типа ANFIS, реализующую алгоритм вывода Цукамото и имеющую следующую базу продукционных правил [4]:
П1: если x1 есть Н1 и x2 есть Н2 и x3 есть Н3 , то y есть Б,
П2: если x1 есть В1 и x2 есть В2 и x3 есть Н3 , то y есть С,
П3: если x1 есть В1 и x2 есть В2 и x3 есть В3 , то y есть М,
где x1, x2, x3 – входные переменные, y – выходная переменная, а Н1, Н2, Н3, В1, В2, В3, Б, С, М – некоторые нечёткие множества с функциями принадлежности сигмоидного типа:
, , (8.73)
, , . (8.74)
Для определения выходной переменной будем использовать алгоритм Цукамото:
1. Подсчитаем значения истинности предпосылок для каждого правила: , (8.75) где логическое И (T-норма) обычно используется в форме минимума, а - текущие значения входов системы;
2. Для каждого правила определим выходы как обратные функции: (8.76)
3. Находим общий выход всей системы: (8.77)
Нейронная сеть, реализующая данный алгоритм нечёткого вывода, приведена на рисунке 8.6 и относится к сетям типа ANFIS.
T
N
∑
T
T
N
N
Рисунок 8.6. Структура сети типа ANFIS.
Данная сеть может быть описана следующим образом:
1. Слой 1. Выходы нейронов этого слоя представляют собой значения функций принадлежности при заданных значениях входов. Это параметрический слой. В процессе обучения подбираются параметры функций принадлежности для множеств Н1, Н2, Н3, В1, В2, В3.
2. Слой 2. Выходами нейронов этого слоя, реализующим операцию T-нормы, являются результаты агрегации условий (предпосылок) каждого нечёткого продукционного правила, вычисляемые по формулам (8.91). Это непараметрический слой.
3. Слой 3. Это непараметрический слой. Нейроны данного слоя, обозначенные буквой N, вычисляют следующие величины: (8.78)
4. Слой 4. Нейроны данного слоя вычисляют значения выходов нейронов по формулам (8.79): (8.80)
Затем приводят результаты к удобному виду:
Это параметрический слой. В процессе обучения подбираются параметры функций принадлежности для множеств Б, С и М.
5. Слой 5. Единственный нейрон этого слоя вычисляет выход сети: (8.81)
Это непараметрический слой.
Настройка параметров сети производится в соответствии с градиентным алгоритмом наискорейшего спуска по следующим формулам:
(8.82)
(8.83)
(8.84)
Где - ожидаемое значение выхода на t- ом шаге обучения.