При наличии входных переменных каждое правило формирует переменных линейной зависимости TSK. При правилах вывода это даёт линейных параметров сети. В свою очередь каждая функция принадлежности использует три параметра, подлежащих адаптации. Так как, каждая переменная характеризуется собственной функцией принадлежности, то мы получим нелинейных параметров. В сумме это даёт линейных и нелинейных параметров, значения которых должны подбираться в процессе обучения сети.
На практике для уменьшения количества адаптируемых параметров оперируют меньшим количеством независимых функций принадлежности для отдельных переменных, руководствуясь правилами, в которых комбинируются функции принадлежности различных переменных. Если принять, что каждая переменная имеет различных функций принадлежности к классам, то максимальное количество правил, которое можно создать при их комбинировании, составит (при трёх функциях принадлежности, распространяющихся на две переменные, это правил вывода). Таким образом, суммарное количество нелинейных параметров сети при правилах вывода уменьшается с в общем случае до . Количество линейных параметров при подобной модификации остаётся без изменений.
Рассматриваемые до сих пор структуры нейронных сетей содержали столько правил, сколько и классов принадлежности. Покажем, как можно уменьшить число классов принадлежности для нейронной сети Ванга-Менделя с двумя входами, тремя правилами вывода и одним выходом, до двух, оставив число правил неизменным и равным трём (рисунок 8.5):
×
×
×
+
/
+
Рисунок 8.5 Структура нейронной сети Ванга-Менделя с числом правил, большим числа классов принадлежности
Как и в случае с несколькими выходами, данная модификация применима как к сети Ванга-Менделя, так и к сети TSK.