Сети RBF и MLP являются примерами нелинейных многослойных сетей прямого распространения. И те и другие являются универсальными аппроксиматорами, однако эти два типа сетей отличаются по некоторым важным аспектам.
1. Сети RBF (в своей основной форме) имеют один скрытый слой, в то время как многослойный персептрон может иметь большее число скрытых слоев.
2. Обычно скрытые и выходные нейроны сети MLP используют одну и ту же модель нейрона. Нейроны скрытого слоя сети RBF могут отличаться друг от друга и от нейронов выходного слоя.
3. Скрытый слой сети RBF является нелинейным, а выходной – как правило, линейным. В то же время скрытые и выходной слой сети MLP являются нелинейными. Если сеть MLP используется для решения задач нелинейной регрессии, в качестве выходных нейронов выбираются линейные нейроны.
4. Аргумент функции активации каждого скрытого нейрона сети RBF представляет собой эвклидову меру между входным вектором и центром радиальной функции. Аргументом функции активации каждого скрытого нейрона сети MLP является скалярное произведение входного вектора и вектора синаптических весов данного нейрона.
5. Сеть MLP обеспечивает глобальную аппроксимацию нелинейного отображения. Сеть RBF создает локальную аппроксимацию нелинейного отображения.