Для обучения нейронечёткого классификатора можно использовать алгоритмы наискорейшего спуска и алгоритм обратного распространения ошибки. В этом случае в качестве операции T-нормы следует использовать алгебраическое произведение, иначе возникнут сложности при вычислении производной функции активации.
Пусть задана обучающая выборка, состоящая из множества примеров
где
, значения входных переменных,
- эталонные значения выходных переменных в t-ом примере.
Настраиваемыми параметрами для данной сети являются параметры
функции принадлежности входных переменных нечётким множествам и параметры
функций принадлежности
нечетких множеств заключений (i=1,2,..,m; j=1,2,…,n).
Шаг 1. Для каждого примера из обучающей выборки по значениям входных переменных
(t=1,2,…,P) нечёткая сеть рассчитывает значения выходных переменных
.
Шаг 2. Вычисляется функция ошибки для всех примеров обучающей выборки:
. (8.114)
В данном случае функция ошибки может быть представлена как функция, зависящая от следующих аргументов:
(8.115)
Шаг 3. Корректируются значения
и
по каждому примеру обучающей выборки по следующим формулам:
,
, (8.116)
,
,

где t – номер итерации обучения,
- коэффициент обучения.
Шаги 1-3 повторяются довыполнения условий завершения:
· либо значение функции ошибки по каждому примеру обучающей выборки не превышает некоторого установленного порога:
; (8.117)
· либо оценка средней суммарной погрешности по всем примерам обучения не превышает некоторого установленного порога:
(8.118)