Структура нечёткой сети TSK основана на системе нечёткого вывода Такаги- Сугэно- Канга. При этом в качестве функции фуззификации для каждой переменной используется обобщённая функция Гаусса:
(8.40)
Для агрегации условия -го правила в системе вывода TSK используется операция алгебраического произведения:
. (8.41)
При правилах вывода агрегирование выходного результата сети производится по формуле (8.37), которую можно представить в виде:
, (8.42)
где , агрегация импликации. Присутствующие в этом выражении веса интерпретируются как компоненты , определённые формулой (8.41). При этом формуле (8.42) можно сопоставить многослойную структуру сети, изображённую на рисунке 8.2. В такой сети выделяется пять слоёв:
· Первый слой выполняет раздельную фуззификацию каждой переменной , определяя для каждого -го правили вывода значение коэффициента принадлежности в соответствии с применяемой функцией фуззификации. Это параметрический слой с параметрами , подлежащими адаптации в процессе обучения.
· Второй слой выполняет агрегирование отдельных переменных , определяя результирующее значение коэффициента принадлежности для вектора в соответствии с формулой (8.41). Этот слой непараметрический.
Рисунок 8.2 Структура нечёткой нейронной сети TSK.
· Третий слой представляет собой генератор функции TSK, рассчитывающий значения . В этом слое также происходит умножение сигналов на значения , сформированные в предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные веса для и , определяющие функцию следствия модели TSK.
· Четвёртый слой составляют два нейрона- сумматора, один из которых рассчитывает взвешенную сумму сигналов , а второй определяет сумму весов . Это непараметрический слой.
· Пятый слой состоит из одного выходного нейрона- это нормализующий слой, в котором веса подвергаются нормализации в соответствии с формулой (8.42). Выходной сигнал определяется выражением, соответствующим зависимости (8.37),
. (8.43)
Это также непараметрический слой.
При уточнении функциональной зависимости (8.42) для сети TSK получаем:
. (8.44)
Если принять, что в конкретный момент времени параметры условия зафиксированы, то функция является линейной относительно переменных .
При наличии входных переменных каждое правило формирует переменных линейной зависимости TSK. При правилах вывода это даёт линейных параметров сети. В свою очередь каждая функция принадлежности использует три параметра, подлежащих адаптации. Так как каждая переменная характеризуется собственной функцией принадлежности, то мы получим нелинейных параметров. В сумме это даёт линейных и нелинейных параметров, значения которых должны подбираться в процессе обучения сети.