СБОРНИК
НАУЧНЫХ ТРУДОВ НГТУ

ISSN: 2307-6879
English | Русский

Последний выпуск
№2(92) Апрель - Июнь 2018

Тезисы о нейронных сетях

Выпуск № 1 (87) Январь - Март 2017
Авторы:

Романников Д.О.
DOI: http://dx.doi.org/10.17212/2307-6879-2017-1-98-108
Аннотация
При разработке моделей, основанных на искусственных нейронных сетях, выбор модели нейронной сети основывается на эмпирических знаниях исследователя, что крайне негативно сказывается на пороге вхождения, обоснованности и корректности работы модели, времени обучения и других аспектах. Таким образом, задача обоснования выбора модели нейронной сети является актуальной задачей. В статье рассматривается подход к формированию структуры нейронной сети на основе предварительно рассчитанной структуры сети Петри. Приведены реализации данного подхода на примерах построения нейронных сетей для логических функций «и», «или», «исключающего или», выбора максимального числа и другие. По результатам экспериментов сделаны выводы о неоднозначности обучения в нейронных сетях, а именно, что при различных начальных условиях могут получиться различные веса параметров. Также в статье исследуется влияние крутизны сигмоидальной функции на обучение нейронных сетей. По результатам экспериментов сделаны выводы о том, что незначительное увеличение крутизны (в пределах от 1 до 20 в степени) дает ускорение скорости обучения. Дальнейшее увеличение крутизны сигмоидальной функции приводит к деградации скорости обучения, а при дальнейшем увеличении – практически к полному останову. Статья заканчивается примером построения нейронной сети для задачи выбора максимального числа среди трех чисел, представленных в бинарном виде тремя разрядами. Эксперимент показал, что полученная структура сети позволяет выполнить обучение примерно в три раза быстрее без потери точности. Такое различие в скорости обучения может быть объяснено меньшем количеством параметров в нейронной сети: 102 вместо 127.
Ключевые слова: нейронные сети, сети Петри, искусственный интеллект, преобразования, функция активации, keras, регуляризация, обучение

Список литературы
1. Bishop C. Pattern recognition and machine learning. – New York: Springer, 2007. – 738 p. – (Information science and statistics). 2. Richert W., Coelho L. Building machine learning systems with Python. – Birmingham: Packt Publ., 2013. – 290 p. 3. Hastie T., Tibshirani R., Friedman J. The elements of statistical learning: data mining, inference, and prediction. – 2nd ed. – New York: Springer, 2013. – 745 p. – (Springer series in statistics). 4. Lantz B. Machine learning with R. – Birmingham: Packt Publ., 2013. – 396 p. 5. Mohri M., Rostamizadeh A., Talwalkar A. Foundations of machine learning. – Cambridge, MA: MIT Press, 2012. – 432 p. – (Adaptive computation and machine learning series). 6. Conway D., White J.M. Machine learning for hackers. – Sebastopol, CA: O'Reilly, 2012. – 324 p. 7. Welcome to the Deep Learning tutorial [Electronic resource]. – URL: http://deeplearning.stanford.edu/tutorial/ (accessed: 31.05.2017). 8. Haykin S. Neural networks: a comprehensive foundation. – New York: MacMillan Publ., 1994. – 1104 p. 9. Романников Д.О. О преобразовании сети Петри в нейронную сеть // Сборник научных трудов НГТУ. – 2016. – № 4 (86). – С. 98–103.
Просмотров: 333