У статистиці та, зокрема, у регресійному аналізі важіль — це міра віддаленості значень незалежної змінної спостереження від значень інших спостережень.
Точки із великими значеннями важелів — крайні спостереження або викиди незалежної змінної, тобто такі точки, що нестача сусідніх спостережень спричинить проходження побудованої регресійної моделі дуже близько до даної точки[1].
Сучасні пакети для статистичного аналізу включають до своїх властивостей різні кількісні міри виявлення впливових спостережень при проведенні регресійного аналізу; серед цих мір є частинний важіль, кількісна характеристика внеску змінної до важелів даних.
Лінійна регресійна модель
Означення
У лінійній регресійній моделі, оцінка важеля i-го спостереження визначається як:
![{\displaystyle h_{ii}=\left[\mathbf {H} \right]_{ii},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/052418054eb93daa4fe5e74807ad89498916077f)
де i-й діагональний елемент проєкційної матриці
,
де
— матриця регресорів із одиничним стовпчиком на початку.
Якщо в матриці тільки 2 стовпці, то:
Оцінка важеля також відома як самочутливість спостереження або самовпливовість[2], як видно з

де
та
— прогноз відгуку та відгук спостереження відповідно.
Межі важеля

Доведення
Відмітимо, що матриця H — ідемпотентна:
, а також симетрична.
Тоді, прирівнюючи елементи ii матриці H до елементів ii матриці
, отримаємо

та

Вплив на дисперсію залишків
Якщо використовувати звичайний метод найменших квадратів із фіксованою матрицею X, регресійними похибками
, та


тоді
де
(i-й залишок регресії).
Іншими словами, якщо похибки моделі є гомоскедастичними, то оцінка важеля спостереження визначає ступінь шуму в помилковому передбаченні моделі.
Зауважимо, що
— ідемпотентна та симетрична матриця. Із цього випливає, що

Таким чином
Відповідні стьюдентизовані залишки — залишки, скореговані спостереженнями — особлива дисперсія залишків має наступний вигляд:

де
— відповідна оцінка дисперсії
Див. також
Примітки