Рассмотрим вначале задачу оценивания параметров производственной функции
(7.17)
Пусть, в нашем распоряжении имеются результаты наблюдений относительно факторов Ltи Кt, а также целевой переменной Yt, полученные в дискретные моменты времени t = 1, 2, …, N (годы, кварталы, месяцы и т.д.). Набор чисел {Yt, Lt, Кt}, t = 1, 2, …, N, будем называть выборкой объема N. По существу метод наименьших квадратов позволяет, используя данную выборку, построить МНК-оценки для величин а0, а1, и а2. Для этой цели прологарифмируем обе части (7.17) и представим ее в виде
ln Yt = ln a0 + a1ln Lt + a2ln Kt . (7.18)
Предположим далее, что величины Ltи Кt являются результатами точных измерений, тогда как величина Ytизмеряется с ошибкой. Тогда, обозначая yt= ln Yt, хt1 = ln Lt, xt2 = ln Kt, β0 = ln a0, β1 = a1, β2 = a2,уравнение (2.2) можно представить в виде стандартной формы линейной статистической модели с двумя факторами (независимыми переменными) хt1и xt2
yt= β0+ β1хt1 + β2 xt2 +εt, (7.19)
t = 1, 2, …, N
Линейная статистическая связь (7.19) является частным случаем линейной многомерной регрессионной модели
yt= β0+ β1 хt1 +…+ βn xtn +εt, (7.20)
t = 1,…, N
которая описывает предполагаемую связь между n независимыми (экзогенными) факторами х1,…, xnи зависимой переменной величиной (эндогенной) ytв моменты времени t = 1,…, N. В (7.20) считается, что значения хt1,…, xtn, t = 1,…, N, являются фиксированными (не случайными) величинами, а ytизмеряется с ошибкой. Величина εt как раз представляет это случайное отклонение от значения ytна линии (точнее гиперплоскости)
yt= β0 + β1хt1 +…+ βn xtn, (7.21)
t = 1,…, N
Предполагается также, что различные значения εtне коррелированны между собой, имеют нулевое математическое ожидание и заданную дисперсию, то есть,
М {εt} = 0, t = 1,…, N, (7.22)
0, если t ≠ q
М {εt εq} = (7.23)
σε2, если t = q
где М – знак математического ожидания.
Приведем общую схему построения так называемых МНК - оценок (МНК - метод наименьших квадратов) неизвестных параметров β0, β1,…, βn модели (2.4), а также проверки значимости каждого из них и построенной зависимости в целом с помощью статистических критериев. Для этой цели весьма удобно ввести в рассмотрение векторы и матрицы, в частности, (N×1) – вектор ошибок ε = (ε1,…, εN)Т , (N×1) – вектор наблюдений зависимой переменной У = (У1,…, УN)Т, (n + 1)×1 – вектор неизвестных параметров β = (β0, β1,…, βn)Т, N×(n+1) – матрицу наблюдений независимых факторов
(7.24)
и представить связь (7.20) в виде матричного уравнения
У = Хβ + ε (7.25)
Согласно методу наименьших квадратов вектор β необходимо оценить путем решения задачи
ε Т ε = (У – Хβ)Т (У – Хβ) → min, (7.26)
где Т - знак транспонирования. Условие означает, что оптимизируемый вектор β имеет размерность (n+1)×1, является вещественнозначным и принадлежит евклидовому пространству Еn+1. Если же вектор β удовлетворяет дополнительным условиям, например, типа Аβ = С, где А – некоторая m×(n+1) – матрица, С – (m×1) – вектор с вещественнозначными элементами, тогда задача (7.30) приобретает вид
εТ ε = (У – Хβ)Т (У – Хβ) → min. (7.27)
Аβ = С
Если (7.26) является задачей безусловной оптимизации, то (7.27) уже содержит линейное условие Аβ = С, что существенно осложняет процедуру корректного оценивания из-за не всегда «хороших» свойств матрицы (7.24), но об этом речь пойдет чуть позже, а пока займемся решением задачи (7.26). Представляя ее целевую функцию в виде
εТ ε = (У – Хβ)Т (У – Хβ) = УТ У – УТ Хβ – (Хβ)Т У + (Хβ)ТХβ =
= УТУ - 2(Хβ)Т У + (Хβ)ТХβ, (7.28)
можно заметить, что она является квадратичной формой относительно β, обладает свойствами непрерывности и выпуклости.* При выводе (7.28) использовано тождество УТХβ = (Хβ)ТУ. Тогда решение задачи (7.26) можно найти, приравнивая к нулю производную целевой функции по β, т.е., решая нормальную систему
(7.29)
Из (7.28) имеем
[УТ У - 2(Хβ)Т У + (Хβ)ТХβ]= -2 ХТ У + 2 ХТ Хβ, (7.30)
так как (УТ У) = 0,
[2(Хβ)Т У] = 2 (βТ ХТУ) = 2 ХТУ,
[(Хβ)Т Хβ] = (βТ ХТ Хβ) = 2 ХТ Хβ
(Хβ)Т = βТ ХТ.
Приравнивая правую часть (7.30) к нулю и обозначая искомое решение системы (7.29) через b, получим
2 ХТУ + 2 ХТХ b = 0. (7.31)
В предположении, что обратная матрица (ХТ Х)-1 существует, из (7.31) следует решение
b = (ХТХ)-1 ХТУ. (7.32)
Это и есть МНК - оценка вектора β в модели (7.25).
Легко проверить на основе анализа размерности, что вектор b имеет такую же размерность, (n+1)×1, что и оцениваемый вектор β. Действительно, так как матрица Х имеет размерность N×(n+1), а ХТ – размерность (n+1)×N, то матрица ХТХ и ее обратная матрица (ХТХ)-1 имеют размерность (n+1)×(n+1). И, поскольку вектор ХТУ имеет размерность (n+1)×1, размерность вектора (ХТХ)-1ХТУ будет равна (n+1)×1. Другими словами, вектор b имеет структуру b =(b0, b1,…, bn)Tи каждый его компонент bjявляется МНК - оценкой βj, j = 0, 1,…, n.
Таким образом, вычисление вектора b с помощью результатов эксперимента в виде вектора У и матрицы Х можно осуществить на основе следующего простого алгоритма.
Начальный этап: формировать вектор У и матрицу Х.
Основной этап:
шаг 1. Вычислить матрицы ХТ и ХТХ;
шаг 2. Вычислить обратную матрицу (ХТХ)-1;
шаг 3. Построить вектор ХТУ;
шаг 4. Построить вектор b = (ХТХ)-1 ∙ ХТУ;
шаг 5. Вывести результаты b и (ХТХ)-1 и остановиться.
Пятый шаг этого алгоритма, который легко можно программировать на компьютере, предполагает, кроме вектора b, вывод матрицы (ХТХ)-1, так как диагональные элементы этой матрицы характеризуют дисперсию компонентов вектора b =(b0, b1,…, bn)T.
После того как МНК - оценка b найдена, построенное регрессионное уравнение
(7.33)
представляющее из себя условное математическое ожидание М{у/х} при фиксированном значении х, может быть проверено на адекватность экспериментальным данным и в случае подтверждения адекватности использовано для целей прогнозирования соответствующих значений
(7.34)
Величины t = 1, …, N, называются остатками. Они являются случайной величиной, характеризующей разность между прогнозирующим00 и экспериментальным значениями зависимой переменной Yt. Исследование закона распределения вектора остатков е = (е1,…, еN)T позволяет получить ценную информацию о параметрах уравнения (7.14) и степени его близости к результатам наблюдений (Yt, Хt1,…, Хtn), t = 1, …, N.
Прежде чем приступить к проверке значимости b-параметров и регрессионного уравнения в целом, приведем еще один, не менее эффективный путь получения (или построения) МНК - оценок исследуемой модели (7.20) или (7.25). Этот путь связан с использованием выборочной корреляционной матрицы для факторов Хtк, к = 1,…, n, и целевой переменной уt, t = 1, …, N.
Введем обозначения
(7.35)
к = 1, …, n; (7.36)
(7.37)
(7.38)
(7.39)
(7.40)
Величины , характеризуют соответствующие выборочные средние; , к = 1,…, п, и - выборочные дисперсии; rок = rко и rкq = rqк, к, q = 1,…, п, - выборочные коэффициенты корреляции между целевой переменной и факторами и между самими факторами, причем rкк= 1, к = 1,…, п, -1 ≤ rок≤ +1, -1 ≤ rкq ≤ +1, к, q = 1,…, п.
Матрица
(7.41)
носит название выборочной корреляционной матрицы для независимых факторов х1,…, хn.
Можно показать, что решение матричного уравнения
(7.42)
связано покомпонентно с МНК - оценкой b равенством
(7.43)
где - компоненты вектора как решения уравнения (7.42), - матрица, обратная матрице Rx, а rо = (r1o, …, rПо)Т. Если bк, к = 1,…, п, уже вычислены, значение b0 можно найти из равенства
(7.44)
Следует отметить, что все оценки b0, b1,…, bпявляются случайными величинами. Каждый из коэффициентов bк, к = 1,…, п, характеризует роль фактора хк в регрессионном уравнении (7.34). Большой научный и практический интерес представляют свойства этих параметров. В теории оценивания наибольшую роль играют следующие из них […]:
а) несмещенность, означающая, что для каждого конкретного значения N (объем выборки) имеют место
М {bк} = βк, к = 1,…, п, (7.45)
б) состоятельность, когда с ростом N имеет место
lim Pr {|b – β| > ε} = 0, (7.46)
N → ∞
где Pr означает вероятность условия, записанного в фигурных скобках (от английского слова Probability – вероятность), ε – сколь угодно малое положительное число;
в) эффективность, когда для любой другой несмещенной оценки d оценка b имеет наименьшую дисперсию, что математически можно записать в виде
М{(b-β)T(b-β)} ≤ М{(d-β)T(d-β)}. (7.47)
Если условия а) и в) выполняются лишь при N → ∞, говорят, что несмещенность и эффективность обеспечиваются асимптотически.
Покажем, что при М {εt} = 0, t = 1,…, N, оценка (7.32) является несмещенной, действительно,
М{b} = М{(ХТ Х)-1ХТУ} = (ХТ Х)-1ХТМ{У} =
= (ХТ Х)-1ХТМ {Хβ + ε} =
= (ХТ Х)-1ХТ Хβ = β. (7.48)
При доказательстве (7.48) использовались очевидные связи
Предположение относительно независимости εt и εq (т.е. М{εt · εq} = 0, t ≠ q) позволяет оценить дисперсию величин bк, к = 1,…, п. Используя D для обозначения дисперсии вектора b, из (7.32) получим
в котором D{Хβ} = 0, так как Хβ не является случайной величиной, I – единичная матрица размерности вектора ε.
Матрица F = (ХТХ)-1 известна как информационная матрица Фишера. Ее диагональные элементы fii, i = 1,2,…, п + 1, умноженные на величину σε2, равны дисперсии оценок bк, к = 0, 1,…, п, то есть
D{bк} = fк+1, к+1 · σε2, к = 0, 1,…, п. (7.51)
Дисперсия оценки b0обычно не представляет интереса и не вычисляется, тогда как дисперсия других коэффициентов принимает непосредственное участие в оценке значимости модели и в построении доверительных интервалов для самих оценок bк, к = 1,…, п.
В регрессионном анализе величина
(7.52)
носит название остаточной дисперсии и служит несмежной оценкой для величины σε2.
Теперь, имея значения D{bк}, к = 1,…, п, можно приступить к оценке значимости bк, к = 1,…, п, и уравнения (7.34) в целом.
Значимость коэффициентов bк, к = 1,…, п, проверяется с помощью известной t – статистики (критерия) Стьюдента [9], имеющей вид
и вычисляется расчетное значение t – статистики из (2.37):
к = 1,…, п. (7.55)
При условии гипотезы (7.54) эта величина подчиняется t–распределению Стьюдента с числом степеней свободы υ = N – n –1 и параметром α/2, где α – уровень значимости, который обычно в практических расчетах принимается равным 0.05. Табличное значение этой статистики tα/2 (υ)сравнивается с расчетным значением tc. При выполнении условия
| tc| > tα/2 (υ) (7.56)
гипотеза (7.54) отвергается. Это означает, что значение оценки bк, к = 1,…, п, значимо отличается от нуля. Для значимых оценок устанавливаются доверительные интервалы, имеющие вид
(7.57)
к = 1,…, n.
Смысл доверительных интервалов таков: истинные значения оцениваемого параметра βк с доверительной вероятностью р = 1- α/2 попадают в интервал
, ], (7.58)
изображенный на рис. 7.2.
βк
bк-Δ bк bк+Δ
рис. 7.2. Доверительный интервал для параметра βк,
Δ = , к = 1,…, п.
Оценка значимости построенного регрессионного уравнения в целом, то есть с учетом вклада всех факторов в изменении значения целевой переменной, основана на известной формуле дисперсионного анализа
(7.59)
В левой части этого равенства стоит общая сумма квадратов относительно среднего значения. Она имеет число степеней свободы N–1. Первое слагаемое справа есть сумма квадратов относительно регрессии
и, как следует из (7.52), имеет число степеней свободы N – n –1.
Второе слагаемое правой части есть сумма квадратов, обусловленная регрессией и, согласно условию равенства степеней свободы левой и правой частей, имеет число степеней свободы (N – 1) – (N – n –1) = n. Для оценки значимости регрессии применяется F-статистика Фишера, которая определяется как отношение двух дисперсий, одна из которых усредненная сумма квадратов, обусловленная регрессией
При выполнении условия гипотезы (7.62) величина Fp подчиняется известному F-распределению Фишера с параметром (доверительной вероятностью) р = 1 – α и двумя числами степеней свободы: υ1 = п – числителя и υ2 = N – n – 1 – знаменателя. Табличные значения F1–α (υ1, υ2) находятся из известных таблиц F-распределения. При выполнении условия
Fp > F1–α (υ1, υ2) (7.64)
гипотеза (7.62) опровергается. Это означает, что построенное уравнение (7.34) хорошо согласовывается с экспериментальными данными (yt, хt1, xt2), t = 1,…, N, другими словами, построенное уравнение адекватно результатам наблюдений и правильно описывает изменения yt, обусловленные совместным влиянием факторов х1,…, хП.
В различных приложениях для целей комплексной оценки уравнения регрессии используется коэффициент множественной корреляции, отражающей степень совместного влияния переменных х1,…, хn на выход yt. Квадрат этого коэффициента известен под названием коэффициента детерминации и выражается в виде
(7.65)
Числитель и знаменатель R2 присутствуют в разложении (7.58).
Можно показать, что имеют место соотношения
(7.66)
(7.67)
Как следует из этих формул, чем ближе R2 к единице, тем меньше S2 и больше F, следовательно, тем значимее уравнение регрессии
Возвращаясь к соотношениям (7.17) – (7.19), мы видим, что в них число независимых факторов равно двум, т. е. п = 2, вектор У содержит значения lnYt, t = 1, …, N, а матрица Х имеет размерность (N×3), причем ее второй столбец содержит значения хt1 = lnLt, а третий столбец – значения хt2 = lnКt, t = 1, …, N. Из (7.32) получаем вектор b = (b0, b1, b2)T с координатами b0 = lnа0, b1 = а1 и b2 = а2, так что построенное уравнение имеет вид
lnYt = b0 + b1 lnLt + b2 lnКt, (7.68)
аискомая производственная функция равна
(7.69)
С помощью t-и F-статистики можно проверить значимость параметров b1 и b2, а также уравнения (7.68) в целом, как это было показано выше (см. процедуры проверки гипотез (7.54) и (7.62)). Если уравнение (7.68) удовлетворяет критерию Фишера, или R2 – статистике, то функция (7.69) пригодна для практических целей, в противном случае ее использование будет связано с определенным риском.
В следующем разделе мы расширим производственную функцию Кобба-Дугласа, учитывая в ней роль научно-технического прогресса.
Учет роли научного прогресса.
Как выше уже отмечалось, при учете роли научно-технического прогресса производственная функция Кобба-Дугласа приобретает вид
(7.70)
После логарифмирования, из этой функции получим
lnYt= lnа0 + а1lnLt + а2 lnКt + а3t. (7.71)
Этому уравнению будет соответствовать регрессионная модель
yt = β0+ β1хt1 + β2хt2 + β3хt3 + εt. (7.72)
В ней новым слагаемым является β3хt3, причем фактор х3 представляет само время t и, следовательно, принимает значения хt3 = t = 1, 2,…, N. Так что теперь матрица Х имеет вид
поэтому вектор b = (ХТХ)-1 ∙ ХТУ будет состоять из четырех координат, т.е. b = (b0, b1, b2, b3)T, причем b3 является оценкой а3. Весь изложенный выше подход к оцениванию значимости компонентов b - оценок и модели
(7.73)
в целом остается без изменения, только везде нужно положить п = 3, т.к. теперь в модели присутствуют три фактора. В случае значимых коэффициентов b1, b2 и b3 после потенцирования из (3.4) получим функцию
(7.74)
с численными значениями bк, к = 0, 1, 2, 3.
Предположение относительно условия
а1 + а2 = 1 (7.75)
в выражении производственной функции можно рассматривать как первоначальную гипотезу относительно характера взаимосвязи факторов Lt, Кtи Yt.
После получения оценок b1 и b2 для производственных функций (7.69) и (7.74) можно проверить, насколько удовлетворяют этому исходному предположению имеющиеся данные (Lt, Кt, Yt), t = 1, …, N, и выбранная процедура получения МНК - оценок.
В случае, когда условие а1 + а2 = 1 для производственной функции Кобба - Дугласа принимается как заданное ограничение, следует изменить стратегию МНК - оценивания и, вместо задачи безусловной оптимизации (7.26), решить задачу (7.27), т.е. задачу
εТε = (У – Хβ)Т (У – Хβ) → min, (7.76)
(β0, β1, …, βп)
Аβ = С
в которой матричное условие Аβ = С изображает всевозможные априорные линейные требования относительно коэффициентов многомерной линейной регрессионной модели
yt = β0+ β1хt1 +…+ βпхtп + εt.(7.77)
t = 1,…, N
В нашем случае уравнение Аβ = С соответствует связи β1 + β2 = 1, т.е. А есть (1×2) – матрица с единицами в качестве элементов, т. е. А = [1, 1], С = 1.
Известно [см., например, …], что решение задачи условной оптимизации (7.76) получается в виде
(7.78)
где b = (ХТХ)-1 ∙ ХТУ – прежнее безусловное решение.
Следует отметить, что успех построения оценок (7.78) зависит от свойства матрицы ХТХ. Так, если она плохо обусловлена, условная оценка оказывается неустойчивой и будет непригодна для практических целей. Известные и часто применяемые в практике процедуры регуляризации оценок хотя и приводят к устойчивым, но не несмещенным оценкам, однако весьма сложны и требуют большой изобретательности […]. Автором данной работы предложен более конструктивный подход, позволяющий избежать нежелательных эффектов при построении условных оценок для рассмотренных регрессионных схем. Этот подход по существу позволяет аппроксимировать задачу (7.76) эквивалентной ей двухкритериальной задачей безусловной оптимизации […]
(7.79)
в которой Еп+1 – евклидово пространство векторов типа β = (β0, β1,…βп)Т, а вторая целевая функция f2 (β) = (C – Aβ)T (C – Aβ) изображает ограничение Аβ = С. Решение и интерпретация этой задачи, однако, не входит в задачи настоящей работы.
В заключение этого раздела отметим, что при выполнении условия а1 + а2 = 1, построение и исследование производственной функции Кобба-Дугласа можно вести уже в терминах производительности труда и капиталовооруженности. Действительно, пусть, по прежнему,
и а1 + а2 = 1. Тогда получаем
Yt/Lt = a0 (Kt/Lt)a2. (7.80)
Величина Zt = Yt/Ltхарактеризует производительность труда, а Xt = Kt/Lt– капиталовооруженность труда. В этих терминах (7.80) приобретает вид
(7.81)
Этой функции соответствует регрессионная модель
yt = β0+ β1хt + εt,(7.82)
существенно простая, чем аналогичные модели (7.19) и (7.72). В случае учета научно-технического прогресса (7.81) приобретает вид
(7.83)
Этой функции уже соответствует модель
yt = β0+ β1хt1 + β2хt2 + εt,(7.84)
в которой β0 заменяет lnа0, β1 представляет а2, а β2 представляет а3. Как и раньше, хt2 = t, t = 1, 2,…, N.