WWW.REFERATCENTRAL.ORG.UA - Я ТУТ НАВЧАЮСЬ

... відкритий, безкоштовний архів рефератів, курсових, дипломних робіт

ГоловнаЕкономічна теорія → Метод найменших квадратів - Реферат

Метод найменших квадратів - Реферат


Реферат на тему:
Метод найменших квадратів
Основні припущення
Застосування методу найменших квадратів до загальної лінійної багатофакторної моделі (3.1) передбачає наявність таких передумов:
1) кожне значення випадкової складової рівняння щ, і = 1,2,...,п, є випадковою величиною і математичне сподівання залишків щ до-рівнює нулю:
М(и) = 0;
2) компоненти вектора залишків некорельовані (лінійно неза-лежні) між собою і мають сталу дисперсію:
3) пояснюючі змінні (регресори, фактори моделі) некорельовані із залишками;
4) пояснюючі змінні некорельовані між собою.
Порушення першої передумови означає, що існує систематичний вплив на залежну змінну який не враховано в моделі. Таку ситуацію можна трактувати як помилку специфікації, однак наявність вільно-го члена моделі дає змогу скоригувати модель так, щоб забезпечити виконання першої передумови.
Друга передумова означає, що залишки моделі є помилками ви-мірювання. Якщо між компонентами вектора залишків існує кореля-ційна залежність, таке явище називається автокореляцією. Наявність автокореляції в моделі свідчить про існування кореляції між послідовними значеннями деякої незалежної змінної або про неврахо-ваний суттєвий фактор, що впливає на залежну змінну і не може бути усунений за рахунок вільного члена моделі. Загальний вплив пояс-нюючих змінних, не врахованих у моделі, може виявитися також у тому що дисперсія залишків для окремих груп спостережень зміню-ватиметься. Таке явище називається гетероскедастичністю. У будь-якому разі порушення другої передумови впливає на методи оціню-вання параметрів моделі.
Наявність залежності між залишками та незалежними змінними найчастіше пов'язана з тим, що в моделі присутні лагові (затримані в часі) змінні або вона будується на базі одночасних структурних
рівнянь. Для оцінювання параметрів і в цьому разі застосовують інші методи.
Залежність між незалежними змінними може значною мірою впливати на якість оцінок, отриманих за МНК. Якщо між незалежними змінними моделі існують тісні лінійні зв'язки, це явище називають мультиколінеарністю. Моделі, у яких спостерігається мульти-колінеарність, стають надзвичайно чутливими до конкретного набору даних, до специфікації моделі й мають значні відхилення від дійсних значень параметрів узагальненої моделі.
Крім розглянутих чотирьох передумов важливе значення має припущення про нормальний розподіл залишків моделі. Це припущення забезпечує нормальний розподіл коефіцієнтів регресії й дає змогу використовувати відомі критерії для перевірки статистичних гіпотез відносно отриманих оцінок, а також визначати їх довірчі інтервали.
МНК-оцінки параметрів лінійної регресії та їх основні властивості
З теорії ймовірностей відомо (доведено в теоремі Гаусса - Маркова), що коли виконуються перелічені передумови, то отримані за допомогою МНК оцінки параметрів регресійного рівняння є незміще-ними, обгрунтованими, ефективними та інваріантними.
Наявність таких властивостей оцінок гарантує, що останні не мають систематичної похибки (незміщеність), надійність їх підвищується зі збільшенням обсягу вибірки (обгрунтованість), вони є найкращими серед інших оцінок параметрів, лінійних відносно ендогенної змінної (ефективність). Крім того, оцінка перетворених параметрів (оцінка функції від параметра) може бути отримана в результаті аналогічного перетворення оцінки параметра (інваріантність).
Зокрема, якщо порушується друга передумова МНК (за наявності автокореляції чи гетероскедастичності), то отримані за цим методом оцінки втрачають властивість ефективності, хоча залишаються не-зміщеними та обгрунтованими. Якщо порушується четверта передумова, тобто між змінними існують мультиколінеарні зв'язки, це призводить до зміщення МНК-оцінок. Застосування моделей, що мають зміщені чи неефективні оцінки, втрачає сенс.
Оцінювання за методом найменших квадратів та інтерпретація результатів
Нехай відомо n спостережень незалежних змінних x1, x2,..., xm і n спостережень залежної змінної y. Необхідно за МНК оцінити пара-метри a0, a1, a2,..., am лінійної моделі (3.1).
Якщо виконуються зазначені раніше передумови, то оцінки пара-метрів можна отримати за таким алгоритмом.
1. Незалежні змінні записати у вигляді матриці
де x0 - вектор, складений з n одиниць; x1, x2,..., xm - вектори спо-стережень незалежних змінних.
2. Обчислити матрицю XTX і вектор XTy , де XT - транспоно-вана матриця X, y - вектор спостережень залежної змінної.
Зауваження. Транспонована матриця утворюється з вихідної пе-ретворенням рядків у стовпці.
3. Обчислити обернену матрицю (X TX)-1 .
Зауваження. Матриця A -1 називається оберненою до A, якщо ви-конується співвідношення A-1 A = AA -1 = E, де E - одинична мат-риця.
4. Обчислити параметри моделі за формулою
де a - вектор параметрів, a = (a0, a1, a2,..., am) .
Зауваження. Для визначення оцінок параметрів можна скориста-тися будь-яким методом розв'язання системи лінійних рівнянь відносно вектора невідомих змінних:
Приклад. Підприємство, що складається з багатьох філій, дос-ліджує залежність свого річного товарообігу y (млн у о.) від торго-вої площі своїх філій x1 (тис. кв. м) і середньоденної інтенсивності потоку покупців (тис. чол./день). Просторові дані за філіями наве-дено в табл. 3.1.
Для відображення залежності між цими показниками обирають лінійну регресійну модель
У результаті оцінювання параметрів за методом найменших квадратів отримано такі оцінки: а0 = -0,832; а1 =4,743; а2 = 0,175.
Оцінки інтерпретуються таким чином. Коефіцієнт щ = 4,743 озна-чає, що за інших незмінних умов змінна х1 збільшиться (зменшить-ся) на одиницю, залежна змінна у збільшиться (зменшиться) відповідно на 4,743 одиниці. Зокрема, у наведеному прикладі збільшення (зменшення) торгової площі на 1 тис. кв. м збільшить (зменшить) річний товарообіг на 4,743 млн у о. Аналогічно, збільшення (змен-шення) середньоденної інтенсивності покупців на 1 тис. чол./день збільшить (зменшить) річний товарообіг на 0,175 млн у о.
Список використаної літератури
1. Айвазян С. А., Мхитарян В. С. Прикладная статистика и основы эконометрики: Учебник для вузов. - М.: ЮНИТИ, 1998. - 1022 с.
2. Бородин С. А. Эконометрика: Учеб. пособие. - Минск: Новое знание,2001. - 408 с.
3. Грубер Й. Економетрія: Вступ до множинної регресії та економетрії: У 2 т. - К: Нічлава, 1998-1999.
4. Джонстон Дж. Эконометрические методы. - М.: Статистика, 1980. - 444 с.
5. Доугерти К. Введение в эконометрику: Пер. с англ. - М.: ИНФРА-М, 1997. - 402 с.
6. Дрейпер П., Смит Г. Прикладной регрессионный анализ. - М.: Финансы и статистика, 1986. - Т. 1 - 365 с; Т. 2 - 379 с.
7. Емельянов А. С. Эконометрия и прогнозирование. - М.: Экономика, 1985. - С. 82-89.
8. Єлейко В. Основи економетрії. - Львів: "Марка Лтд", 1995. - 191с.
9. Кейн Э. Экономическая статистика и эконометрия. Введение в количественный экономический анализ. - М.:Статистика, 1977. - 254с.
10. Корольов О. А. Економетрія: Навч. посіб. - К: Європейський ун-т,2002. - 660 с.
11. Ланге О. Введение в эконометрию. - М.: Прогресс, 1964. - 360 с.
12. Лук'яненко I. Г., Краснікова Л. І. Економетрика: Підручник. - К.: Т-во "Знання", КОО, 1998. - 494 с
13. Магнус Я. Р., Катышев П. К., Пересецкий А. А. Эконометрика: Навч. курс. - М.: Дело, 1997. - 248 с.
14. Маленво Э. Статистические методы эконометрии. - М.: Статистика, 1975. - 423 с.
загрузка...

 
 

Цікаве

загрузка...