Тема 4 Метод найменших квадратів Лектор: к.е.н., доц., доцент кафедри вищої математики, економетрії і статистики ДЕМЧИШИН М.Я. 1 План 4.1. Суть методу найменших квадратів (МНК). 4.2. Передумови застосування МНК. 4.3. Система нормальних рівнянь. 2 4.1. Суть методу найменших квадратів y 0 y x 0 y x 0 x Рис. 4.1. Способи знаходження прямих регресії 3 y 0 x Рис. 4.2. Геометрична інтерпретація методу найменших квадратів 4 Суть методу найменших квадратів (МНК) полягає у знаходженні такої теоретичної лінії регресії, яка в порівнянні з іншими проходить найближче до емпіричної лінії регресії, тобто дає найменшу суму квадратів відхилень фактичних значень результативної ознаки від розрахункових (теоретичних) значень 5 n 2 ~ y y min i i i 1 • де y – емпіричні (вихідні) дані показника • ỹ– теоретичні (розраховані за рівнянням регресії) 6 4.2. Передумови застосування МНК 1) Існує лінійний зв’язок між результуючою змінною у та факторною змінною x, який описується рівняннями регресії y 0 1x ~ y b0 b1 x 7 i j , 2) Факторна змінна x є детерміністичною (невипадковою) величиною. 3) Математичне сподівання (середнє значення) випадкового вектора дорівнює нулю, а дисперсія є невеликою постійною додатньою величиною, яка не залежить від індексу i, тобто . E i 0 D i E i2 2 4) Компоненти вектора є некорельованими випадковими величинами, тобто для кожного i, j 1,2,..., n . cov i , j 0 5) Часто вважають, що випадкова величина має нормальний закон розподілу з рівним нулю математичним сподіванням і постійною додатньою невеликою дисперсією ~ N 0, 2 У даному випадку модель називається класичною нормальною лінійною регресійною моделлю. • Зауваження. У випадку класичної нормальної лінійної регресійної моделі умова 4 еквівалентна умові статистичної незалежності помилок . 4.3. Система нормальних рівнянь Будемо вважати, що зв’язок між ознаками х та у є лінійним і описується лінійним рівнянням регресії y b0 b1 x (4.3) де у – результуюча змінна; b0, b1– параметри рівняння регресії; х – факторна змінна; ε– випадкова величина. 9 У загальному випадку nарна лінійна регресія є лінійною функцією мiж залежною змінною У i однiєю пояснюючою змінною Х: y b0 b1 x Це спiввiдношення називається теоретичною лінійною регресiйною моделлю b0 i b1 - теоретичні параметри (теоретичні коефіцієнти) peгpeciї. 10 x1 x2 x3 . . . xn-1 xn y1 y2 y3 . . . yn-1 yn 11 n n n i 1 i 1 i 1 ui ( yi yi ) ( yi b0 b1xi ) n n u y i 1 n ui i 1 2 i i 1 n n i yˆ i yi aˆ0 aˆ1 xi метод найменших модулів (МНМ). i 1 n ( yi yˆi ) ( yi b0 b1xi ) i 1 2 i 1 2 метод найменших квадратів (МНК). 2 ~ Q y y min 12 y u1{ . u2{ . . .. . . . . . . ui . . 0 x1 xi x 13 n n n i 1 i 1 2 2 ˆ u Q ( b , b ) ( y y ) ( y b b x ) i i i i 0 1 i min 0 1 2 i 1 Необхідною умовою існування мінімуму неперервно диференційованої функції двох змінних є рівність нулю її частинних похідних. Так як y x; b1 y xi ; b1 i y 1; b0 y 1; b0 i 14 n Q b 2 yi b1xi b0 xi 0 i 1 1 n Q 2 yi b1xi b0 0 i 1 b0 n n n 2 b1 xi b0 xi xi yi ; i 1 i 1 i 1 n n b x b n y 1 i 0 i i 1 i 1 15 Система нормальних рівнянь b0 n b1 x y 2 b0 x b1 x xy 16 n n n 2 xi xi yi ; xi b0 i 1 i 1 b1 i 1 n n n n n x yi ; i i 1 i 1 b b 0 1 n n n Позначимо: xi x n x2 xi i 1 n n y i 1 n y i 1 i n n 2 xy x y i i 1 i n 17 одержимо b1 x 2 b0 x xy b1x b0 y звідки маємо xy x y b1 2 2 x x b y b x 1 0 18 Неважко помітити, що за формулою: b1 можна обчислити n b1 ( xi x )( yi y ) i 1 n ( xi x ) 2 S xy S x2 i 1 S xy 1 n cov( x, y ) ( xi x )( y i y ) -вибірковий кореляційний n i 1 момент випадкових величин X і Y; 19 n n 1 1 2 2 2 S x ( xi x ) xi x 2 x 2 x 2 n i 1 n i 1 вибіркова дисперсія X S x S x2 aˆ1 S xy S 2 x —стандартне відхилення X. S xy Sy Sx S y Sx rxy Sy Sx rxy —вибірковий коефіцієнт кореляції; Sy —стандартне відхилення Y. 20 Коефіцієнт кореляції rxy S xy Sx S y xy x y x x y y 2 2 2 2 0 rxy 1 21