Реферат: Эконометрика 10
Рассмотрим в качестве примера следующее уравнение регрессии:
|
(6.11) |
Пусть необходимо определить коэффициенты уравнения.
В этом случае, как правило, выполняют линеаризующие преобразования переменных .
Введем обозначения:
z1 = x1 ; z2 = |
Тогда исходное уравнение (6.11) примет вид:
|
(6.12) |
Уравнение (6.12) представляет собой уравнение линейной регрессии с четырьмя независимыми переменными. Коэффициенты последнего уравнения находятся по уже известной нам формуле (6.6):
A = (Zт ∙Z)-1 ∙Zт ∙Y. |
После нахождения коэффициентов необходимо выполнить обратные преобразования для возврата к исходным переменным.
9. Индекс корреляции
Индекс корреляции используется для выявления тесноты связи между переменными в случае нелинейной зависимости.
Он показывает тесноту связи между фактором x и зависимой переменной y:
|
(6.13) |
где ei = yi - i - величина ошибки, т.е. отклонение фактических значений зависимой переменной от рассчитанных по уравнению регрессии.
Индекс корреляции есть неотрицательная величина, не превосходящая 1: 0 ≤ Iyx ≤ 1.
Связь тем сильнее, чем ближе Iyx к единице.
В случае линейной зависимости Iyx = | ryx |. Расхождение между Iyx (формула (6.13)) и ryx (формула (6.4)) может быть использовано для проверки линейности корреляционной зависимости.
10. Проблема мультиколлинеарности
При разработке структуры уравнения регрессии сталкиваются с явлением мультиколлинеарности. Под мультиколлинеарностью понимают взаимосвязь независимых переменных уравнения регрессии.
Пусть имеется уравнение регрессии:
|
Переменные x1 и x2 могут находиться в некоторой линейной зависимости между собой. Эта зависимость может быть функциональной, тогда имеет место строгая мультиколлинеарность переменных. Чаще, однако, взаимосвязь между переменными не столь жестка и проявляется лишь приблизительно, в этом случае мультиколлинеарность называется нестрогой .
Одно из основных предположений метода наименьших квадратов заключается в том, что между независимыми переменными нет линейной связи. Нарушение этого условия будет приводить к тому, что получаемое уравнение регрессии будет ненадежным, и незначительное изменение исходных выборочных данных будет приводить к резкому изменению оценок параметров.
Для обнаружения мультиколлинеарности вычисляется матрица парных коэффициентов корреляции, охватывающая все сочетания независимых переменных. Коэффициенты, близкие по значению к ±1, свидетельствуют о наличии мультиколлинеарности между соответствующими переменными.
Устранение проблемы достигается путем пересмотра структуры уравнения регрессии.
Самый простой способ – исключение из модели одной из двух переменных, находящихся во взаимосвязи.
11. Проверка адекватности модели регрессии
Действия, выполняемые в данном случае, представляют собой процесс (этап) верификации модели регрессии , т.е. процесс, в ходе которого подвергается анализу качество полученной модели.
Допустим, имеется уравнение регрессии в линейном или нелинейном виде. Значения определяемые уравнением - i , тогда фактические значения можно представить как:
yi = |
где ei - случайная (остаточная) компонента.