Безопасность цифровых технологий

БЕЗОПАСНОСТЬ ЦИФРОВЫХ ТЕХНОЛОГИЙ

БЕЗОПАСНОСТЬ
ЦИФРОВЫХ ТЕХНОЛОГИЙ

English | Русский

Последний выпуск
№3(114) Июль - Сентябрь 2024

Построение регрессионных зависимостей с использованием квадратичной функции потерь в методе опорных векторов

Выпуск № 3 (81) Июль - Сентябрь 2015
Авторы:

А.А. ПОПОВ,
Ш.А. БОБОЕВ
DOI: http://dx.doi.org/10.17212/2307-6879-2015-3-69-78
Аннотация
Рассматривается один из методов непараметрического оценивания регрессионных зависимостей, принадлежащий к классу ядерных методов, – метод опорных векторов с квадратичной функцией потерь, который является модификацией алгоритма опорных векторов. Приводится исходная задача оптимизации для получения параметров регрес-сионной модели. Получаемое в явном виде решение выписывается в терминах двойственных переменных. То, что решение удается получить в явном виде, выгодно отличает LS SVM от базового SVM, требующего решения квадратичной задачи с ограничениями. В данной работе для LS SVM использовались полиномиальное и гауссово ядро. Проводится исследование возможности использования критерия скользящего контроля и критерия регулярности для настройки внутренних параметров алгоритма опорных векторов с квадратичной функцией потерь. Точность получаемых решений контролируется с использованием среднеквадратичной ошибки. Вычислительный эксперимент проводился на модельных данных. В качестве модели, порождающей данные, была выбрана нелинейная зависимость от входного фактора. Дисперсия помехи (уровень шума) определялась в процентах от мощности незашумленного сигнала. В работе в табличной форме отражены результаты восстановления зависимости с использованием гауссового ядра при фиксированном значении параметра регуляризации. Качество решения иллюстрируется графически. В работе сравнивались также качество восстановления зависимостей при использовании полиномиального или гауссова ядра. В работе делается вывод, что для настройки внутренних параметров алгоритма LS SVM можно использовать критерий скользящего контроля и критерий регулярности.
Ключевые слова: регрессия, метод опорных векторов, квадратичная функция потерь, критерий скользящего контроля, критерий регулярности, коэффициент регуляризации, ядерная функция, среднеквадратичная ошибка, полиномиальное ядро, RBF-ядро

Список литературы
1. Least squares support vector machines / J.A.K. Suykens, T. van Gestel, J. de Brabanter, B. de Moor, J. Vandewalle. – New Jersey; London; Singapore; Hong Kong: World Scientific, 2002. – 290 p.

2. Smola A. Regression estimation with support vector learning machines: master’s thesis. – Munchen: Technische Universitat, 1996. – 78 p.

3. Smola A. Learning with kernels: PhD thesis in computer science. – Berlin: Technische Universitat, 1998. – 210 p.

4. Smola A. A tutorial on support vector regression // Statistics and Compu- ting. – 2004. – N 14. – P. 199–222.

5. Vapnik V.N. Estimation of dependences based on empirical data. – New York: Springer Verlag, 1982. – 399 p.

6. Vapnik V. Statistical learning theory. – New York: John Wiley, 1998. – 736 p.

7. Vapnik V.N. The nature of statistical learning theory. – New York: Springer Verlag, 1995. – 188 p.

8. Cherkassky V., Ma Y.Q. Practical selection of SVM parameters and noise es-timation for SVM regression // Neural Networks. – 2004. – N 17. – P. 113–126.

9. Huang C.M., Lee Y.J. Model selection for support vector machines via uni-form design // Computational Statistics & Data Analysis. – 2007. – N 52. – P. 335–346.

10. Лисицин Д.В., Попов А.А. Конструирование критериев селекции мно-гомерных регрессионных моделей // Сборник научных трудов НГТУ. – 1996. – № 1. – С. 13–20.

11. Попов А.А. Планирование эксперимента в задачах структурного моде-лирования с использованием критерия скользящего прогноза // Заводская ла-боратория. – 1996. – № 10. – С. 42–44.

12. Попов А.А. Разбиение выборки для внешних критериев селекции мо-делей с использованием методов планирования эксперимента // Заводская лаборатория. – 1997. – № 1. – C. 49–53.

13. Попов А.А, Саутин А.С. Определение параметров алгоритма опорных векторов при решении задачи построения регрессии // Сборник научных тру-дов НГТУ. – 2008. – № 2 (52). – С. 35–40.

14. Попов А.А. Оптимальное планирование эксперимента в задачах струк-турной и параметрической идентификации моделей многофакторных систем: монография. – Новосибирск: Изд-во НГТУ, 2013. – 296 с.

15. Popov A.A. Sautin A.S. Selection of support vector machines parameters for regression using nested grids // The third international forum on strategic technolo-gy (IFOST 2008): proceedings, Novosibirsk–Tomsk, Russia, 23–29 June 2008. – Novosibirsk, 2008. – P. 329–331.
Просмотров: 3359