В работе представлена разработка и исследование нейронной нечеткой сети (ННС) для решения задач классификации биологических объектов и их состояний. Рассмотрен общий подход к задачам автоматической классификация объектов. Постановка задач классификации объектов представлена на типовом наборе данных ирисы Фишера, а оценка эмоционального состояния объектов – на наборе данных шкалы баланса. ННС является комбинацией систем нечеткого вывода и нейронной сети. Структура ННС представляет собой многослойную однонаправленную сеть, состоящую из следующих слоев: входной слой, слой нечетких функций активации (ФА), слой фаззификации, слой дефаззификации, слой нормализации и выходной слой. В слое нечетких ФА используются нечеткие ФА, разработанные и исследованные с участием авторов. Представлены четыре вида нечетких ФА, поэтому разрабатываются и исследуются четыре вида ННС. Обучение ННС – определение антецедентных параметров сети – осуществляется с помощью метода кластеризации К-средних. В обучении ННС используется алгоритм масштабированного сопряженного градиента (SCG), который позволяет снизить трудоемкость поиска линий на каждую итерацию обучения, что повышает его быстродействие. Тестирование ННС выполнено на наборах данных ирисы Фишера и шкалы баланса. Эти наборы данных являются классическими и часто используются на практике для иллюстрации работы различных статистических алгоритмов классификации. Эксперименты с разными видами нечетких ФА подтверждают эффективность применения ННС для решения задач классификации. Выполнен сравнительный анализ ННС предлагаемых четырех видов и известной ННС с гауссовой ФА по эффективности и точности классификации.
1. Галушкин А.И. Нейронные сети: основы теории. – М.: Горячая линия-Телеком, 2010. – 496 с.
2. Рассел С., Норвиг П. Искусственный интеллект: современный подход. – М.: Вильямс, 2006. – 1408 с.
3. Кориков А.М., Павлов С.Н. Теория систем и системный анализ: учебное пособие. – М.: Инфра-М, 2014. – 288 с.
4. Рыбина Г.В. Основы построения интеллектуальных систем: учебное пособие. – М.: Финансы и статистика: Инфра-М, 2010. – 432 с.
5. Браверман Э.М., Мучник И.Б. Структурные методы обработки эмпирических данных. – М.: Наука, 1983. – 464 с.
6. Nguyen A.T., Korikov A.M. Models of neural networks with fuzzy activation functions [Electronic resource] // IOP Conference Series: Materials Science and Engineering. – 2017. – Vol. 177. – URL: http://iopscience.iop.org/article/10.1088/1757-899X/177/1/012031 (accessed: 13.09.2018).
7. Nguyen A.T., Korikov A.M. Neural network model with fuzzy activation functions for time series predictions // Доклады ТУСУР. – 2016. – Т. 19, № 4. – С. 50–52.
8. Moller M.F. A scaled conjugate gradient algorithm for fast supervised learning // Neural Networks. – 1993. – Vol. 6, N 4. – P. 525–533.
9. Jang J.S.R., Sun C.T., Mizutani Е. Neuro-fuzzy and soft computing. – Upper Saddle River, NJ: Prentice Hall, 1997. – P. 110–123.
10. Ata R., Kocyigit Y. An adaptive neuro-fuzzy inference system approach for prediction of tip speed ratio in wind turbines // Expert Systems with Applications. – 2010. – Vol. 37, N 7. – P. 5454–5460.
11. Fisher R.A. The use of multiple measurements in taxonomic problems // Annals of Eugenics. – 1936. – Vol. 7. – P. 179–188.
12. Siegler R.S. Three aspects of cognitive development // Cognitive Psychology. – 1976. – Vol. 8, N 4. – P. 481–520.
13. Attaway S. MATLAB: a practical introduction to programming and problem solving. – 3rd ed. – Burlington, MA: Elsevier, 2013. – 539 p.
14. Chakraborty D., Pal N.R. A neuro-fuzzy scheme for simultaneous feature selection and fuzzy rule-based classification // IEEE Transactions on Neural Networks. – 2004. – Vol. 15, N 1. – P. 110–123.
15. Sun C.T., Jang J.S.A neuro-fuzzy classifier and its applications // Proceedings of the IEEE International Conference on Fuzzy System. – San Francisco, 1993. – P. 94–98.
16. Методы решения задачи минимизации квадратичной функции. Проблемы сходимости: методические указания / сост.: К.В. Григорьева; С.-Петерб. гос. архит.-строит. ун-т. – СПб., 2009. – 36 с.
17. Abe S. Support vector machines for pattern classification. –NewYork, NY: Springer, 2010. – 473 p.
18. Senning J.R. Computing and estimating the rate of convergence [Electronic resource] / Gordon College, Department of Mathematics and Computer Science. – URL: http://www.math-cs.gordon.edu/courses/ma342/handouts/rate.pdf (accessed: 13.09.2018).
19. Siegler R.S. Balance scale weight & distance database [Electronic resource] // UCI Machine Learning Repository. – URL: http://archive.ics.uci.edu/ml/datasets/balance+scale (accessed: 13.09.2018).
20. Using radial basis function networks for function approximation and classification / Y. Wu, H. Wang, B. Zhang, K.L. Du // ISRN Applied Mathematics. – 2012. – Vol. 2012. – Art. 324194. – 34 p.
21. Игумнов И.В., Куцый Н.Н. Метод Нелдера – Мида в обучении искусственной нейронной сети, входящей в состав ШИМ-элемента // Научный вестник НГТУ. – 2017. – № 3. – С. 22–30.
Кориков А.М., Нгуен А.Т. Нейро-нечеткая классификация объектов и их состояний // Научный вестник НГТУ. – 2018. – № 3 (72). – С. 73–86. – doi: 10.17212/1814-1196-2018-3-73-86.
Korikov A.M., Nguyen A.T. Neiro-nechetkaya klassifikatsiya ob"ektov i ikh sostoyanii [A neuro-fuzzy classification of objects and their states]. Nauchnyi vestnik Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta – Science bulletin of the Novosibirsk state technical university,
2018, no. 3 (72), pp. 73–86. doi: 10.17212/1814-1196-2018-3-73-86.