Автокорреляция. Возможные причины автокорреляции

Автор работы: Пользователь скрыл имя, 29 Января 2013 в 13:30, контрольная работа

Описание

В силу ряда причин в регрессионных моделях может иметь место корреляционная зависимость между соседними случайными отклонениями. Это нарушает одну из фундаментальных предпосылок МНК. Вследствие этого оценки, полученные на основе МНК, перестают быть эффективными. Это делает ненадежными выводы по значимости коэффициентов регрессии и по качеству самого уравнения. Поэтому достаточно важным является умение определить наличие автокорреляции и устранить это нежелательное явление. Существует несколько методов определения автокорреляции, среди которых были выделены графический, метод рядов, критерий Дарбина-Уотсона.

Содержание

Введение
1. Суть и причины автокорреляции
2. Обнаружение автокорреляции
2.1 Графический метод
2.2 Метод рядов
2.3 Критерий Дарбина-Уотсона
2.4 Тест серий (тест Бреуша-Годфри)
2.5 Q-тест Льюинга - Бокса
3. Последствия автокорреляции
4. Методы устранения
4.1 Определение на основе статистики Дарбина-Уотсона
4.2 Метод Кохрана-Оркатта
4.3 Метод Хилдрета-Лу
4.4 Метод первых разностей
Заключение
Список использованной литературы

Работа состоит из  1 файл

Автокорреляция. Возможные причины автокорреляции контрольная.doc

— 511.50 Кб (Скачать документ)

Рис.2.4

Очевидно, курс ценной бумаги А имеет тенденцию к росту, что можно проследить на графике.

Оценивая обычным методом  наименьших квадратов зависимость курса наблюдений (т.е. от времени), получим следующие результаты:

   

Имеет место положительная  автокорреляция (т.к. результаты предыдущих торгов оказывают влияние на результаты последующих)

Проверим это с помощью теста Бреуша-Годфри.

Рассмотрим авторегрессионную  зависимость остатков от их предыдущих значений, используя авторегрессионную  модель р-го порядка. Применяя МНК, получим:

   (2.4.2)

      (0,10)    (0,12)   (0,10)

Как видно, значимым оказывается только регрессор ,т.е. существенное влияние на результат наблюдения оказывает только одно предыдущее значение . Положительность оценки соответствующего коэффициента регрессии указывает на положительную корреляцию между ошибками регрессии и .

 

 

2.5.Q-тест Льюинга-Бокса

Тест основан на рассмотрении выборочных автокорреляционной и частной  автокорреляционной функцией временного ряда.

Если ряд стационарный, то,  как можно доказать, выборочный частный коэффициент корреляции совпадает с оценкой обычного метода наименьших квадратов коэффициента в авторегрессионной модели AR(p):

Это утверждение лежит в основе вычисления значений частной автокорреляционной функции.

Очевидно, что в случае отсутствия автокорреляции все значения автокорреляционной функции равны  нулю. Разумеется, ее выборочные значения окажутся отличными от нуля, но в  этом случае отличие не должно быть существенным. На этой идее и основан тест Льюинга-Бокса, проверяющий гипотезу об отсутствии автокорреляции.

Статистика Льюинга-Бокса  имеет вид:

      (2.5)

Можно доказать, что если верна гипотеза о равенстве нулю всех коэффициентов корреляции , где , то статистика имеет распределение с р степенями свободы.

Пример 2.5 Проверить гипотезу об отсутствии автокорреляции в модели зависимости курса ценной бумаги А от времени t (пример 2.4)

Значение d-статистики Дарбина-Уотсона, примерно равное единице, дает оценку коэффициента корреляции между  и , т.е. r(1)=0,5/

Отсюда по формуле 2.5

Так как фактическое  значение статистики больше критического , то гипотеза отвергается

 Заметим, что гипотеза =0 и о равенстве нулю коэффициента в уравнении  2.4.1 представляют собой по сути одно и то же утверждение об отсутствии авторегрессии первого порядка. Результат тестирования этих гипотез должен совпадать с выводом, к которому приводит значение статистики Дарбина- Уотсона.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3. Последствия  автокорреляции

Среди последствий автокорреляции при применении МНК обычно выделяются следующие.

1.Оценки параметров, оставаясь линейными и несмещенными, перестают быть эффективными. Следовательно, они перестают обладать свойствами наилучших линейных несмещенных оценок (ВLUE-оценок).

     2.Дисперсии оценок являются смещенными. Зачастую дисперсии, вычисляемые по           стандартным формулам, являются заниженными, что приводит к увеличению t-статистик. Это может привести к признанию статистически значимыми объясняющие переменные, которые в действительности таковыми могут и не являться.

     3.Оценка дисперсии регрессии

 является смещенной

оценкой истинного значения , во многих случаях занижая его.

4.В силу вышесказанного выводы по t- и F-статистикам, определяющим значимость коэффициентов регрессии и коэффициента детерминации, возможно, будут неверными. Вследствие этого ухудшаются прогнозные качества модели.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4.Методы устранения автокорреляции

        Основной причиной наличия случайного члена в модели являются несовершенные знания о причинах и взаимосвязях, определяющих то или иное значение зависимой переменной. Поэтому свойства случайных отклонений, в том числе и автокорреляция, в первую очередь зависят от выбора формулы зависимости и состава объясняющих переменных. Так как автокорреляция чаще всего вызывается неправильной спецификацией модели, то для ее устранения необходимо, прежде всего, попытаться скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой важной объясняющей переменной. Необходимо попытаться определить данный фактор и учесть его в уравнении регрессии . Также можно попробовать изменить формулу зависимости (например, линейную на лог-линейную, линейную на гиперболическую и т. д.). Однако если все разумные процедуры изменения спецификации модели. на ваш взгляд, исчерпаны, а автокорреляция имеет место, то можно предположить, что она обусловлена какими-то внутренними свойствами ряда {ет}. В этом случае можно воспользоваться авторегрессионным преобразованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1).

        Для простоты изложения AR(1) рассмотрим модель парной линейной регрессии

    (4.1)

Тогда наблюдениям t и (t-1) соответствуют формулы

                      (4.2)

                 (4.3)

Пусть случайные отклонения подвержены воздействию авторегресси первого порядка:

где vt,t=2,3…T- случайные отклонения, удовлетворяющие всем предпосылкам МНК, а коэффициент р известен.

Вычтем из (4.2) соотношение (4.3),умножив на :

(4.4)

Положив , получим:

               

         Так как по предположению коэффициент р известен, то очевидно, вычисляются достаточно просто. В силу того, что случайные отклонения удовлетворяют предпосылкам МНК, то оценки и будут обладать свойствами наилучших линейных несмещенных оценок.

Однако способ вычисления y, х приводит к потере первого наблюдения (если мы не обладаем предшествующим ему наблюдением). Число степеней свободы уменьшится на единицу, что при больших выборках не так существенно, но при малых выборках может привести к потере эффективности. Эта проблема обычно преодолевается с помощью поправки Прайса-Виистена:

                                     (4.5)

 

 

4.1. Определение на основе статистики Дарбина-Уотсона

Статистика Дарбина-Уотсона  тесно связана с коэффициентом  корреляции между соседними отклонениями через соотношение:

                              (4.1.1)

Тогда в качестве оценки коэффициента может быть взят коэффициент . Из (5.1.1) имеем:

                  (4.1.2)

Этот метод оценивания весьма неплох при большом числе  наблюдений. В этом случае оценка r параметра будет достаточно точной.

 

4.2 Метод Кохрана- Оркатта

Другим возможным методом  оценивания является итеративный процесс, называемый методом Кохрана- Оркатта. Опишем данный метод на примере парной регрессии:

                        

И авторегрессионной  схемы первого порядка AR(1)

                        

  1. Оценивается по МНК регрессия и для нее определяются оценки отклонений t=1,2,…n.
  2. Используя схему AR(1), оценивается регрессионная зависимость

                         (4.2.1)

    

  1. На основе данной оценки строится уравнение:

  (4.2.2)

     с помощью  которого оцениваются коэффициенты  и (в этом случае значение известно).

  1. Значения подставляются в уравнение регрессии. Вновь вычисляются оценки отклонений и процесс возвращается к этапу 2.

Чередование этапов осуществляется до тех пор, пока не будет достигнута требуемая точность. То есть пока разность между предыдущей и последующей оценками не станет меньше любого наперед заданного числа.

 

4.3. Метод Хилдрета-Лу

По данному методу регрессия

оценивается для каждого  возможного значения из интервала [-1;1] с любым шагом (например, 0,001;0,01 и т.д.). Величина , дающая наименьшую стандартную ошибку регрессии, принимается в качестве оценки коэффициента  . И значение и оценивается из уравнения регрессии именно с данным значением .

 

 

 

 

4.4. Метод первых разностей

В случае, когда  есть основания считать, что автокорреляция отклонений очень велика, можно использовать метод превых разностей.

Для временных рядов  характерна положительная автокорреляция остатков. Поэтому при высокой автокорреляции полагают ,и, следовательно, уравнение (4.4) принимает вид:

              (4.4.1)

Или 

Обозначив из (4.4.1) получим

                  (4.4.2)

Из уравнения (4.4.2) по МНК оценивается коэффициент .Заметим, что коэффициент в данном случае  не определяется непосредственно. Однако из МНК известно, что

В случае , можно получить следующее уравнение регрессии:

          

Или

           

Однако, метод первых разностей предполагает уж слишком  сильное упрощение  ( ). Поэтому более предпочтительными являются приведенные выше итерационные методы.

 

 

 

 

 

 

 

 

 

 

Вывод

В силу ряда причин в регрессионных моделях может иметь место корреляционная зависимость между соседними случайными отклонениями. Это нарушает одну из фундаментальных предпосылок МНК. Вследствие этого оценки, полученные на основе МНК, перестают быть эффективными. Это делает ненадежными выводы по значимости коэффициентов регрессии и по качеству самого уравнения. Поэтому достаточно важным является умение определить наличие автокорреляции и устранить это нежелательное явление. Существует несколько методов определения автокорреляции, среди которых были выделены графический, метод рядов, критерий Дарбина-Уотсона.

При установлении автокорреляции необходимо в первую очередь проанализировать правильность спецификации модели. Если после ряда возможных усовершенствований регрессии автокорреляция по-прежнему имеет место, то, возможно, это связано с внутренними свойствами ряда отклонений. В этом случае возможны некоторые преобразования, устраняющие автокорреляцию. Среди них выделяется авторегрессионная схема первого порядка AR(1). Для применения указанных схем необходимо оценить коэффициент корреляции между отклонениями. Это может быть сделано различными методами: на основе статистики Дарбина-Уотсона, Кохрана-Оркатта, Хилдрета-Лу и др. В случае наличия среди объясняющих переменных лаговой зависимой переменной наличие автокорреляции устанавливается с помощью h-статистики Дарбина. А для ее устранения в этом случае предпочтителен метод Хилдрета-Лу.

 

 

 

 

 

 

 

 

 

 

 

Список использованной литературы

 

  1. Анатольев С. Эконометрика для продолжающих (Эконометрика-3). Курс лекций, М.: Российская Экономическая Школа, 2002-2003
  2. Давнис В.В., Тинякова В.И., Мокшина С.И., Воищева О.С., Щекунских С.С. Эконометрика сложных экономических процессов, Воронеж: ВГУ, 2004.
  3. Доугерти Кр. Введение в эконометрику, М.: ИНФРА-М, 1997.
  4. Елисеева И. И. Эконометрика, М.: Финансы и статистика, 2001.
  5. Кремер Н. Ш., Путко Б. А. Эконометрика, М.: ЮНИТИ-ДАНА, 2002.
  6. Магнус Я. Р. Эконометрика. Начальный курс, М.: Дело, 1997.
  7. Носко В.П. Эконометрика: Введение в регрессионный анализ временных рядов, Москва, 2002.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Приложение  А

 

Значения статистик  Дарбина – Уотсона dL dU при 5%-ном уровне значимости

 

 

 

 

 

 

 

 

 

 

 

 

 


Информация о работе Автокорреляция. Возможные причины автокорреляции