Меню
Главная
Авторизация/Регистрация
 
Главная arrow Бухучет и аудит arrow Прогнозирование и планирование в условиях рынка

ПРИМЕНЕНИЕ ЛИНЕЙНЫХ РЕГРЕССИОННЫХ МОДЕЛЕЙ В ПРОГНОЗИРОВАНИИ

Практика регрессионного анализа свидетельствует о том, что уравнение линейной регрессии часто достаточно адекватно выражает зависимость между показателями даже тогда, когда на самом деле они оказываются более сложными. Это объясняется тем, что в пределах исследуемых величин самые сложные зависимости могут носить приближенно линейный характер. В обшей форме уравнение линейной регрессии имеет вид

у = аг+Ь-х+Ь-х^ +... + Ь - х , (5.1)

где у — результативный признак, исследуемая переменная; х — обозначение фактора (независимая переменная); т — общее число факторов; а() постоянный (свободный) член уравнения; Ъ. — коэффициент регрессии при факторе.

Увеличение результативного признака у при изменении фактора х на единицу равно коэффициенту регрессии Ъ со знаком плюс, уменьшение — этому коэффициенту со знаком минус. Уравнение регрессии можно представить графически (рис. 5.1).

График простой парной линейной регрессии у - з + Ьх

Рис. 5.1. График простой парной линейной регрессии у - з0 + Ьх: отрезок Ь показывает приращение у при увеличении значения х на единицу

Очевидная экономическая интерпретация результатов линейной регрессии — одна из основных причин ее применения в исследовании и прогнозировании экономических процессов. В зависимости от числа факторов, влияющих на результативный показатель, различают парную и множественную регрессии. Кратко изложим основные положения по разработке и использованию в прогнозировании множественных линейных регрессионных моделей (парная регрессия может быть рассмотрена как частный случай множественной).

Экономические явления определяются, как правило, большим числом совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости одной переменной У от нескольких объясняющих переменных X, Х2,..., X. Эта задача решается с помощью множественного регрессионного анализа. Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели, включающего отбор факторов и выбор вида уравнения регрессии. Факторы, включаемые во множественную регрессию, должны отвечать следующим требованиям: они должны быть количественно измеримы (качественным факторам необходимо придать количественную определенность); между факторами не должно быть тесной корреляционной, а тем более функциональной зависимости, т.е. не должно быть мулътиколлинеарности. Включение в модель мультиколлинеарных факторов может привести к следующим последствиям: затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом виде», поскольку факторы связаны между собой; параметры линейной регрессии теряют экономический смысл; оценки параметров ненадежны, имеют большие стандартные ошибки и меняются с изменением объема наблюдений.

Пусть У= (у , у , ..., у у матрица-столбец значений зависимой переменной размера п (значок «Т» означает транспонирование); X — матрица объясняющих переменных; Ь = (Ь , Ь , ..., Ь У' — матрица-столбец (вектор) параметров размера т + 1; е = ? ,..., ? )г — матрица-столбец (вектор) остатков размера п. Причем

? 1

*11

*12

*1 т

х =

  • 1
  • • • •
  • *21
  • • • •
  • *22
  • • • •
  • • • • *2 т
  • • • • • • •

1

X л п 2

V

Тогда в матричной форме модель множественной линейной регрессии можно записать следующим образом:

У = ХЬ + ?. (5.2)

При оценке параметров уравнения регрессии (вектора Ь) применяется метод наименьших квадратов (МНК). При этом принимаются определенные предпосылки:

  • 1) в модели (5.2) е — случайный вектор, X — неслучайная (детерминированная) матрица;
  • 2) математическое ожидание величины остатков равно нулю, т.е. М(е) = 0;
  • 3) дисперсия остатков е. постоянна для любого / (условие гомо-скедастичности), остатки ? и е при / Фу не коррелированны:

М(гТ) = с2Еп',

  • 4) е — нормально распределенный случайный вектор;
  • 5) г(Х) = т + 1 < п. Столбцы матрицы X должны быть линейно независимыми (ранг матрицы X максимальный, а число наблюдений п превосходит ранг матрицы).

Модель (5.2), в которой зависимая переменная, остатки и объясняющие переменные удовлетворяют вышеперечисленным предпосылкам 1—5, называется классической нормальной линейной моделью множественной регрессии (КНЛММР). Если не выполняется только предпосылка 4, то модель называется классической линейной моделью множественной регрессии (КЛММР). Согласно методу наименьших квадратов неизвестные параметры выбираются таким образом, чтобы сумма квадратов отклонений фактических значений от значений, найденных по уравнению регрессии, была минимальной:

  • (5.3)
  • ?У = Х(у, - Л/)2 =(У- хь)(г - ХЬ)Т -> шт.
  • 1 = 1

Решением этой задачи является вектор Ь = (А'ТА'^'ЛТК Оценка качества регрессионного уравнения осуществляется по совокупности критериев, проверяющих адекватность модели фактическим условиям и статистической достоверности регрессии. Одной из наиболее эффективных оценок адекватности модели является коэффициент детерминации Я2, определяемый по формуле

Ъ(У'-Ул)2 Ц{у*-у)2

1(у,-у)г

X(У-У)2

ЯЯЯ

ТЯЯ’

(5.4)

где у — фактическое значение результирующего признака; Уж — значение результирующего признака, рассчитанное по полученной модели регрессии; у — среднее значение признака; — объясненная сумма квадратов; ТЯБ — общая сумма квадратов.

Я2 характеризует долю вариации зависимой переменной, обусловленной регрессией или изменчивостью объясняющих переменных. Чем ближе Я2 к единице, тем лучше построенная регрессионная модель описывает зависимость между объясняющими и зависимой переменной. В случае Я2 = 1 изучаемую связь можно трактовать как функциональную (а не статистическую), что требует дополнительных качественных и количественных сведений и изменений в процессе исследования. Отметим, что при включении в модель новой объясняющей переменной, коэффициент детерминации увеличивается, хотя это и необязательно означает улучшение качества регрессионной модели. В этой связи лучше использовать скорректированный (поправленный) коэффициент детерминации Я2, пересчитываемый по формуле

/7-1

п-т-

(5.5)

где п — число наблюдений; т — число параметров при переменных х. Таким образом, скорректированный коэффициент детерминации может уменьшаться при добавлении в модель новой объясняющей переменной, не оказывающей существенного влияния на результативный признак. Средняя относительная ошибка аппроксимации рассчитывается по формуле

Большинство авторов рекомендуют считать модель регрессии адекватной, если средняя относительная ошибка аппроксимации не превышает 12%.

Проверку значимости вида регрессионной зависимости можно осуществлять с применением дисперсионного анализа. Основной идеей этого анализа является разложение общей суммы квадратов отклонений результативной переменной у от среднего значения у на «объясненную» и «остаточную»:

+ I (у-У.

Остаточная сумма квадратов отклонений

(5.7)

Уі-Ухі

Уі

  • •100%.
  • (5.6)

= Х(л-р)2

Общая сумма Сумма квадратов квадратов отклонений,

отклонений объясненная

регрессией

Для приведения дисперсий к сопоставимому виду, определяют дисперсии на одну степень свободы. Результаты вычислений заносят в специальную таблицу дисперсионного анализа (табл. 5.1). В данной таблице п — число наблюдений, т — число параметров при переменных х. Сравнивая полученные оценки объясненной и остаточной дисперсии на одну степень свободы, определяют значение Р-крите-рия Фишера, используемого для оценки значимости уравнения регрессии:

/? = % (5.8)

о;

С помощью /^критерия проверяется нулевая гипотеза о равенстве дисперсий Н(): о2к =а]. Если нулевая гипотеза справедлива, то объясненная и остаточная дисперсии не отличаются друг от друга.

Таблица 5.1

Результаты дисперсионного анализа

Компоненты

дисперсии

Сумма квадратов

Число степеней свободы

Оценка дисперсии на одну степень свободы

Общая

1(у-у)2

п — 1

о2 = Х(-У-т)2/«-1

Объясненная

ж-у)2

п

ст« = Х(^-т)2

Остаточная

Ж-у.)1

п — т — 1

ъ2х=^{У-Уг)2 К"-™-')

Для того чтобы уравнение регрессии было значимо в целом (гипотеза Н0 была опровергнута), необходимо, чтобы объясненная дисперсия превышала остаточную в несколько раз. Критическое значение /’-критерия определяется по таблице Фишера — Снедекора (Приложение 1). Г — максимально возможное значение критерия под влиянием случайных факторов при степенях свободы к{ = т к2 = = п—т— 1 (для линейной регрессии т = 1) и уровне значимости а. Уровень значимости а — вероятность отвергнуть правильную гипотезу при условии, что она верна. Обычно величина а принимается равной 0,05 или 0,01. Расчетное значение сравнивается с табличным: если оно превышает табличное (Р > Р с), то гипотеза НА отверга-ется, и уравнение регрессии признается значимым. Если /* <

< Р , то уравнение регрессии считается статистически незначимым. Нулевая гипотеза Н{) не может быть отклонена. Расчетное значение /’-критерия связано с коэффициентом детерминации Д2 следующим соотношением:

(5.9)

Д2 п-т-1 1-Д2 т

где т — число параметров при переменных х; п — число наблюдений.

Для оценки статистической значимости коэффициентов регрессии и коэффициента корреляции г(г = л/д2") применяется /-критерий Стъюдента. Оценка значимости коэффициентов регрессии сводится к проверке гипотезы о равенстве нулю коэффициента регрессии при соответствующем факторном признаке, т.е. гипотезы

Н0:Ь. = 0. (5.10)

Проверка нулевой статистической гипотезы проводится с помощью /-критерия Стьюдента:

ты

(5.11)

где Ь. — коэффициент регрессии при х ; ты средняя квадратическая ошибка для коэффициента регрессии Ъ.. Средняя квадратическая ошибка для коэффициента регрессии может быть определена по формуле

о.., 1-Д

ть =

О

  • 1-Д2 у/п-т-1 ’
  • (5.12)
  • •*/*1 • • -Хт

где о — среднее квадратическое отклонение для признака у; аЛ — среднее квадратическое отклонение для признака х.;

коэффициент детерминации для уравнения множественной регрессии; Я1 Л — коэффициент детерминации для зависимости фактора х. со всеми другими факторами уравнения множественной регрессии; п — т — 1 — число степеней свободы для остаточной суммы квадратов отклонений. Использование формулы (5.12) для расчета средней квадратической ошибки для коэффициента регрессии предполагает расчет по матрице межфакторной корреляции соответствующих коэффициентов детерминации. Поэтому иногда рекомендуется использовать для определения средней квадратической ошибки для коэффициента регрессии ть частные критерии Фишера.

Расчетное значение /-критерия Стьюдента сравнивается с табличным /табл при заданном уровне значимости а = 0,05 (для экономических процессов и явлений) и числе степеней свободы, равном п — 2. Если расчетное значение превышает табличное, то гипотезу о несущественности коэффициента регрессии Ь можно отклонить. В линейной модели множественной регрессии ух = Ь0 + Ьххх +... + Ьт ? Хт коэффициенты регрессии Ь. характеризуют среднее изменение результата с изменением соответствующего фактора на единицу при неизменном значении других факторов, закрепленных на среднем уровне. Значимость коэффициента корреляции /-проверяется также на основе /-критерия Стьюдента (Приложение 2). При этом выдвигается и проверяется гипотеза о равенстве коэффициента корреляции нулю (//(): г = 0). При проверке этой гипотезы используется /-статистика:

(5.13)

При выполнении гипотезы Н0 /-статистика имеет распределение Стьюдента с входными параметрами: а = 0,05; к = п — 2. Если расчетное значение больше табличного, то гипотеза Н0 отвергается.

На практике часто бывает необходимо сравнить влияние на зависимую переменную различных объясняющих переменных, когда последние выражаются разными единицами измерения. В этом случае используют стандартизованные коэффициенты регрессии (3. и коэффициенты эластичности Э. (/ = 1,2,..., т). Уравнение регрессии в стандартизованной форме обычно представляют в виде

-Мх1+Р2’^2 + "-+Р,И’С/я+Є> (5.14)

где / и /. — стандартизованные переменные, которые соответственно равны {у = (у-у)/су; /х = (х, -х,)/ал|. Заменив значения у на їу, а значения л: на /х. получаем нормированные или стандартизованные переменные. В результате такого нормирования средние значения всех стандартизованных переменных равны нулю, а дисперсии равны единице, т.е. 1У = 1Х = ... = ?ЛТО = 0; а, = ол., =... = схт = 1. Коэффициенты обычной («чистой») регрессии связаны со стандартизованными коэффициентами следующим соотношением:

(5.15)

Стандартизованные коэффициенты могут принимать значения от —1 до +1 и показывают, на сколько стандартных отклонений (сигм) изменится в среднем результат, если соответствующий фактор х. изменится на одно стандартное отклонение (одну сигму) при неизменном среднем уровне других факторов. Данные коэффициенты сохраняют свою величину при изменении масштаба шкалы. Сравнивая стандартизованные коэффициенты друг с другом, можно ранжировать факторы по силе их воздействия на результат.

В экономических исследованиях широкое применение находит такой показатель, как коэффициент эластичности, вычисляемый по формуле

(5.16)

где /х) — производная, характеризующая соотношение приростов результата и фактора для соответствующей формы связи. Средние коэффициенты эластичности для линейной регрессии вычисляются по формуле

ЭЩГУ-. (5.17)

у*

Коэффициент эластичности показывает, на сколько процентов (от средней) изменится в среднем Упри увеличении только фактора X. на 1%.

При эконометрическом моделировании реальных экономических процессов предпосылки МНК нередко оказываются нарушенными: дисперсии остатков модели неодинаковы (гетероскедастичность остатков) или наблюдается корреляция между остатками в разные моменты времени (автокоррелированные остатки). Проверить модель на гетероскедастичность можно с помощью следующих тестов: ранговой корреляции Спирмена, тестов Голдфельда — Квандта, Уайта, Глейзера. В случае выявления гетероскедастичности остатков для оценки параметров регрессии используется обобщенный метод наименьших квадратов (ОМНК). Технология ОМНК подробно описана во многих учебниках по эконометрике.

Влияние результатов предыдущих наблюдений на результаты последующих приводит к тому, что случайные величины (ошибки) ? в регрессионной модели становятся зависимыми. Такие модели называются моделями с наличием автокорреляции. Как правило, если автокорреляция присутствует, то наибольшее влияние на последующее наблюдение оказывает результат предыдущего наблюдения. Наличие автокорреляции между соседними уровнями ряда можно определить с помощью теста ДарбинаУотсона. Расчетное значение критерия Дарбина — Уотсона определяется по следующей формуле:

  • 5>,-?м)2
  • (5.18)
  • (5.19)

п

I*,2

/=1

ъ1 = У1-У*>

т.е. величина б есть отношение суммы квадратов разностей последовательных значений остатков к остаточной сумме квадратов по модели регрессии. Значения критерия находятся в интервале от нуля до четырех. По таблицам критических точек распределения Дарбина— Уотсона для заданного уровня значимости а = 0,05, числа наблюдений п и количества объясняющих переменных т находят пороговые значения бн (нижняя граница) и бк (верхняя граница) (Приложение 3). Если расчетное значение бв < б < 4 — бв, то гипотеза об отсутствии автокорреляции не отвергается (принимается). Если б < б < бъ или 4 — бв < б < 4 — б , то вопрос об отвержении или принятии гипотезы остается открытым (расчетное значение попадает в зону неопределенности). Если 0 < б < бн, то принимается альтернативная гипотеза о наличии положительной автокорреляции. Если 4 — бн < б < 4, то принимается альтернативная гипотеза о наличии отрицательной автокорреляции (табл. 5.2).

Таблица 5.2

Промежутки внутри интервала [0-4]

и < с1 < 6

н

<1 < д< с/

Н В

  • 6 < д< 4-с/
  • 8 8

4 - с/ < ?/< 4-с/

В н

4-с( < 6< 4

н

Принимается альтернативная гипотеза о наличии положительной автокорреляции

Вопрос об отвержении или принятии

гипотезы

остается открытым (расчетное значение попадает в зону неопределенности)

Гипотеза об отсутствии автокорреляции не отвергается (принимается)

Вопрос об отвержении или принятии гипотезы остается открытым (расчетное значение попадает в зону неопределенности)

Принимается

альтернативная

гипотеза о наличии отрицательной автокорреляции

Недостаток теста Дарбина — Уотсона заключается прежде всего в том, что он содержит зоны неопределенности. Во-вторых, ОН ПОзволяет выявить наличие автокорреляции только между соседними уровнями, тогда как автокорреляция может существовать и между более отдаленными наблюдениями. Поэтому наряду с тестом Дар-бина — Уотсона для проверки наличия автокорреляции используются тест серий (Бреуша — Годфри), 0-тест Льюинга — Бокса и др. Наиболее распространенным приемом устранения автокорреляции во временных рядах является построение авторегрессионных моделей.

 
Если Вы заметили ошибку в тексте выделите слово и нажмите Shift + Enter
< Пред   СОДЕРЖАНИЕ   След >
 

Популярные страницы