русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

Нахождение уравнений регрессии


Дата добавления: 2013-12-23; просмотров: 10601; Нарушение авторских прав


Вопрос III

Найти уравнение регрессии – значит по эмпирическим (фактическим) данным математически описать изменения взаимно коррелируемых величин.

Уравнение регрессии должно определить, каким будет среднее значение результативного признака У при том или ином значении факторного признака Х, если остальные факторы, влияющие на У и не связанные с Х, не учитывать, т. е абстрагироваться от них.

Уравнение регрессии называют также теоретической линией регрессии. Рассчитанные по уравнению регрессии значения результативного признака называются теоретическими, обычно обозначаются (читается: «игрек, выровненный по Х»).

Для аналитической связи между Х и У могут использоваться следующие уравнения:

- прямая : ;

- парабола второго порядка:

-гипербола: ;

-показательная функция:

-логарифмическая функция: ;

-логистическая функция: и другие.

Обычно зависимость, выражаемую уравнением прямой, называют линейной (или прямолинейной), а все остальные – криволинейными.

Выбрав тип функции, по эмпирическим данным определяют параметры уравнения. При этом отыскиваемые параметры должны быть такими, при которых рассчитываемые по уравнению теоретические значения результативного признака были бы максимально близки к эмпирическим данным.

Основным методом решения задачи нахождения параметров уравнения связи является метод наименьших квадратов (МНК), разработанный К.Ф. Гауссом (1777 – 1855). Его суть заключается в следующем, искомые теоретические значения результативного признака должны быть такими, при которых бы обеспечивалась минимальная сумма квадратов их отклонений от эмпирических значений, т.е.:

(минимизируются квадраты отклонений, поскольку ).

Данному условию удовлетворяет система нормальных уравнений. Порядок получения нормальных уравнений достаточно прост. Для этого надо записать исходное уравнение, выражающее связь между изучаемыми признаками, а затем:



1) Перемножить каждый член уравнения на коэффициент при первом неизвестном (а) и перед всеми членами уравнения поставить знаки суммы.

2) Перемножить каждый член исходного уравнения на коэффициент при втором неизвестном (b) и также просуммировать.

Парная линейная регрессия.

Линейная зависимость – наиболее часто используемая форма связи между двумя коррелируемыми признаками, и выражается она, как указывалось выше, при парной корреляции уравнением прямой:

В приведенном уравнении: а0 – свободный член уравнения;

а1 – коэффициент полной регрессии.

Коэффициент полной регрессии показывает, на сколько (в абсолютном выражении) изменяется значение результативного признака при изменении факторного признака на единицу.

Например, если по данным о стоимости оборудования, тыс. руб.( Х) и производительности труда , тыс.руб. (У) получено уравнение У=12,14 + 0,208 Х, то а1 означает, что увеличение стоимости оборудования на 1 тыс. руб. ведет в среднем к росту производительности труда на 0,208 тыс. руб.

Гипотеза именно о линейной зависимости между Х и У выдвигается в том случае, если результативный и факторный признаки возрастают (или убывают) одинаково, примерно в арифметической прогрессии.

Система нормальных уравнений МНК для линейного уравнения регрессии имеет вид:

Параболическая регрессия.

Если при равномерном возрастании Х значения У возрастают или убывают ускоренно, то чаще всего в этом случае зависимость между коррелируемыми величинами может быть выражена в виде параболы второго порядка параметры которой находят по МНК путем решения системы нормальных уравнений:

Гиперболическая регрессия.

Обратная зависимость между двумя признаками может выражаться либо уравнением прямой (т.е. линейной регрессии) с отрицательным коэффициентом регрессии, либо уравнением гиперболы: .

Уравнение гиперболы предпочтительнее использовать в тех случаях, когда значение результативного признака, равное нулю, лишено смысла, что теоретически возможно при обратной линейной зависимости.

Согласно МНК система для нахождения параметров гиперболы а0 и а1 будет иметь вид:

Множественная регрессия.

При решении практических задач исследователи сталкиваются с тем, что корреляционные связи не ограничиваются связями между двумя признаками: результативным У и факторным Х. В действительности результативный признак зависит о нескольких факторов. Например, инфляция тесно связана с динамикой потребительских цен, розничным товарооборотом, численностью безработных, объемами экспорта и импорта, курсом доллара, количеством денег в обращении, объемом промышленного производства и другими факторами.

В условиях действия множества факторов показатели парной корреляции оказываются условными и неточными. Количественно оценить влияние различных факторов на результат, определить форму и тесноту связи между результативным признаком У и факторными признаками Х1, Х2,…, Хn можно методами множественной (многофакторной) регрессии.

При построении многофакторной регрессионной модели особое значение имеет отбор факторных признаков. Важно не только выбрать факторы, влияющие на результативный признак, но и раскрыть структуру взаимосвязей между ними, установить, какие из них непосредственно влияют на результативный признак, а какие – через посредство других факторных признаков. Факторные признаки не должны находиться в тесной связи между собой. Наличие связи между факторными признаками, близкой к функциональной, называется мультиколлинеарностью. В этом случае оценки параметров уравнения регрессии оказываются ненадежными и зачастую не имеют экономического смысла. Для выявления мультиколлинеарности обычно используют коэффициент корреляции между факторными признаками. Если обнаруживается, что два факторных признака мультиколлинеарны (коэффициент корреляции близок к единице), то один из них следует исключить.

При отборе факторных признаков также необходимо учитывать следующие требования:

-признаки должны оказывать непосредственное влияние на результативный показатель;

-на один выбранный признак, должно приходиться не менее 10 единиц изучаемой совокупности;

-изучаемая совокупность по выбранным признакам должна иметь нормальное распределение;

-нежелательно выбирать признаки, выраженные в долях и процентах.

Среди многофакторных регрессионных моделей выделяют линейные (относительно независимых переменных) и нелинейные. Наиболее простыми для построения, анализа и экономической интерпретации являются многофакторные линейные модели, которые содержат независимые переменные только в первой степени:

 

Где Х1, Х2, ……., Хnфакторные признаки;

а0 – свободный член уравнения;

а1, а2,......., аn – коэффициенты чистой регрессии.

При многофакторном корреляционном анализе коэффициенты чистой регрессииопределяют степень среднего изменения результативного признака при изменении соответствующего фактора на единицу, но при условии, что остальные факторы, включенные в уравнение, остаются постоянными, т.е. их вариация исключается.

Коэффициенты регрессии имеют единицы измерения, соответствующие переменным, между которыми они характеризуют связь. Разные единицы измерения делают несопоставимыми коэффициенты регрессии, когда возникает вопрос о сравнительной силе воздействия на результативный показатель каждого из факторов. Для сравнения коэффициентов регрессии их следует выразить в стандартизированной форме: в виде бета – коэффициентов (β) или коэффициентов эластичности (э).

Бета – коэффициентпоказывает, что, если величина фактора (например, Х2) изменяется на одно среднее квадратическое отклонение, результативный признак увеличивается (уменьшается при отрицательном значении коэффициента) соответственно на β2 своего квадратического отклонения, при постоянстве остальных факторов. Бета – коэффициенты и коэффициенты чистой регрессии связаны следующим отношением:

Где σ1; σ2; …….; σn – среднее квадратическое отклонение по 1-му (2-му и т.д.) фактору и σу - результативному признаку.

Коэффициент эластичностипоказывает, на сколько процентов в среднем изменяется результативный признак с изменением факторного на 1% при фиксированном значении других факторов.

Коэффициенты эластичности и коэффициенты чистой регрессии связаны следующим отношением:

Где - среднее значение 1-го (2-го и др.) факторов и результативного признака.

 



<== предыдущая лекция | следующая лекция ==>
Методы выявления корреляционной связи | Показатели тесноты корреляционной связи между признаками.


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.005 сек.