Для исследования вида и формы зависимостей вида Y(X) широко применяется регрессионный анализ, который является методическим инструментарием при решении разнообразных задач управления (прогнозирования, планирования, анализа результатов и т.д.). В большинстве случаев функция Y или аргумент X - случайные величины, подверженные действию многочисленных факторов. Если на случайную величину X действуют факторы Z1,Z2,…,V1,V2,..., а на Y действуют Z0,Z1, V1, V3,…, то наличие двух общих факторов Z2 и V1 позволяет говорить об определенной зависимости (регрессии) между X и Y.
Различают следующие виды регрессий:
1. Регрессия относительно числа переменных:
· простая регрессия - регрессия между двумя переменными;
· множественная регрессия между зависимой переменной y и несколькими объясняющими переменными x1,x2,…,xm. В общем случае множественная регрессия (модель) имеет вид:
3. В зависимости от характера регрессии различают:
· положительную регрессию. Она имеет место, если с увеличением (уменьшением) объясняющей переменной значения зависимой переменной также соответственно увеличиваются (уменьшаются);
· отрицательную регрессию. В этом случае с увеличением или уменьшением объясняющей переменной зависимая переменная уменьшается или увеличивается.
4. Относительно типа явлений различают:
· непосредственную регрессию - когда зависимая и объясняющая переменные непосредственно связаны друг с другом;
· ложную регрессию. Она возникает при формальном подходе к исследуемым явлениям без уяснения того, какие причины обусловливают данную связь.
Регрессия тесно связана с корреляцией, однако, если в корреляционном анализе оценивается сила связи, то в регрессионном - форма связи.
Задачами регрессионного анализа являются:
· установление формы зависимости (линейная, нелинейная, положительная, отрицательная);
· определение функции регрессии;
· определение влияния на функцию регрессии отдельных факторов;
· решение задач экстраполяции и интерполяции (определение значений функций в неисследованных участках, например, - при решении задач прогнозирования).
Рассмотрим простейший вариант регрессии - линейной регрессии.
Линейная регрессия. Пусть задана система случайных величин X и Y и они зависимы. Представим одну из случайных величин Y как линейную функцию другой случайной величины X:
Y=y*(x) =α+β∙x, (3.1)
где α,β- параметры регрессии, которые подлежат определению. В общем случае эти параметры могут быть определены различными способами, например,методом наименьших квадратов (МНК).
Функцию g(x) называют наилучшим приближением, если математическое ожидание квадрата разности M[Y-y*(x)]2 принимает наименьшее возможное значение. Для отыскания такой функции (называемой "средней квадратической регрессией Y на X"), помимо инструментария МНК, необходим двумерный массив данных - с координатами точек, полученным в ходе наблюдений: (x1,y1),(x2,y2),…,(xn,yn). Тогда поставленная задача сводится к задаче оптимальной аппроксимации "облака" точек кривой (3.1). Данная ситуация представлена на рис. 3.1.
Рис. 3.1. Схема отыскания линейной регрессии
Опустив достаточно громоздкие выкладки, укажем окончательные выражения для расчета коэффициентов α и βуравнения (3.1):