Аннотация
В работе представлен новый метод оценивания параметров регрессионных уравнений – метод усеченного максимального правдоподобия. Данный метод основан на объединении подходов максимального правдоподобия и метода усеченных наименьших квадратов. Сформулирована задача построения линейной модели регрессионного анализа. Для этой задачи подробно описан алгоритм метода усеченного максимального правдоподобия, на простом примере продемонстрированы основные принципы, послужившие основой алгоритма. Обоснована задача анализа устойчивости оценок регрессионных моделей. Анализ работоспособности предлагаемого авторами алгоритма проведен с использованием методов вычислительных экспериментов. При проведении вычислительных экспериментов моделирование случайных ошибок проводилось методами Монте-Карло. Распределение случайных ошибок моделировалось как смесь двух распределений. В роли базового распределения случайных ошибок рассматривалось нормальное распределение. Оценивание параметров регрессионной модели проводилось с использованием метода наименьших квадратов, метода усеченных наименьших квадратов и метода усеченного максимального правдоподобия. В качестве меры точности использовалась относительная погрешность оценивания параметров регрессионной модели. Были рассмотрены различные варианты засорения: несмещенное засорение с нулевым средним, симметричное и асимметричное засорения. Доля выбросов варьировалась от 2,5 до 20 %. Для каждого из вариантов засорения исходных данных проводилась серия из 100 экспериментов, результаты которых усреднялись. Результаты вычислительных экспериментов показали, что метод усеченного максимального правдоподобия обладает хорошей устойчивостью к различного рода засорениям исходных данных. В большинстве случаев он практически не уступает методу усеченных наименьших квадратов, а в ряде случаев значительно превосходит его по точности.
Ключевые слова: регрессионная модель, устойчивость оценок, метод усеченного максимального правдоподобия, метод усеченных наименьших квадратов, метод Монте-Карло, выбросы, смесь распределений, вычислительный эксперимент
Список литературы
1. Тюрин Ю.Н., Макаров А.А. Статистический анализ данных на компьютере. – М.: Инфра-М, 1998. – 528 с. 2. Наследов А.Д. IBM SPSS Statistics 20 и AMOS: профессиональный статистический анализ данных. – СПб.: Питер, 2013. – 416 с. 3. Халафян А.А. Промышленная статистика: контроль качества, анализ процессов, планирование экспериментов в пакете STATISTICA: учебное пособие. – М.: Либроком, 2013. – 384 с. 4. Dalgaard P. Introductory statistics with R. – 2nd ed. – New York: Springer Science Business Media, 2008. – 363 p. 5. Хьюбер П. Робастность в статистике. – М.: Мир, 1984. – 303 с. 6. Тимофеев В.С., Хайленко Е.А. Адаптивное оценивание параметров регрессионных зависимостей при неоднородности случайных ошибок // Доклады Академии наук высшей школы Российской Федерации. – 2014. – № 4 (25). – С. 115–123. 7. Тимофеев В.С. Адаптивное восстановление регрессионных зависимостей на основе полупараметрической оценки плотности случайной компоненты // Научный вестник НГТУ. – 2013. – № 4. – С. 24–30. 8. Тимофеев В.С., Хайленко Е.А. Адаптивное оценивание параметров регрессионных моделей с использованием обобщенного лямбда-распределения // Доклады академии наук высшей школы Российской Федерации. – 2010. – № 2 (15). – С. 25–36. 9. Dovgal S.Yu., Lisitsin D.V. Robust estimation of count response regression models // Applied Methods of Statistical Analysis. Simulations and Statistical Inference, AMSA-2011, Novosibirsk, 20–22 September 2011: proceedings of the international workshop. – Novosibirsk: NSTU Publ., 2011. – P. 318–321. 10. Лисицин Д.В., Гаврилов К.В. Об устойчивом оценивании параметров моделей при асимметричном засорении данных // Научный вестник НГТУ. – 2008. – № 1 (30). – С. 33–40. 11. Денисов В.И., Лисицин Д.В. О свойствах оценок параметров регрессионной модели с эллиптическим распределением и мультипликативной ковариационной структурой ошибок // Сибирский журнал индустриальной математики. – 2003. – № 2. – С. 37–45. 12. Денисов В.И., Лисицин Д.В. Методы построения многофакторных моделей по неоднородным, негауссовским, зависимым наблюдениям: монография. – Новосибирск: Изд-во НГТУ, 2008. – 360 с. 13. Устойчивое оценивание нелинейных структурных зависимостей / В.И. Денисов, А.Ю. Тимофеева, Е.А. Хайленко, О.И. Бузмакова // Сибирский журнал индустриальной математики. – 2013. – № 4. – С. 47–60. 14. Денисов В.И., Тимофеев В.С. Устойчивые распределения и оценивание параметров регрессионных зависимостей // Известия Томского политехнического университета. – 2011. – Т. 318, № 2. – С. 10–15. 15. Мудров В.И, Кушко В.Л. Метод наименьших модулей. – М.: Знание, 1971. – 61 с. 16. Rousseeuw P.J. Least median of squares regression // Journal of the American Statistical Association. – 1984. – N 79. – P. 871–880. 17. Rousseeuw P.J,. Driessen K. van. Computing LTS regression for large data sets. Mimeo / University of Antwerpen, Department of Mathematics and Computer Science. – Antwerpen, Belgium, 1999. – 21 p.