СБОРНИК
НАУЧНЫХ ТРУДОВ НГТУ

ISSN: 2307-6879
English | Русский

Последний выпуск
№2(92) Апрель - Июнь 2018

Пример реализации выбора минимального числа в бинарном виде на нейронных сетях

Выпуск № 1 (87) Январь - Март 2017
Авторы:

Воевода А.А.,
Романников Д.О.
DOI: http://dx.doi.org/10.17212/2307-6879-2017-1-64-71
Аннотация
В статье сравниваются два способа построения нейронных сетей. Первый способ является классическим способом построения нейронной сети в виде многослойного персептрона. Второй основывается на предварительно рассчитанной структуре нейронной сети. В статье рассматривается пример нейронной сети, которая выбирает максимальное число из трех чисел, представленных в бинарном виде двумя разрядами. При первом варианте построения нейронной сети она будет представлена как виде последовательно соединенных слоев, где во входном слое содержится 6 нейронов, во втором – 5 нейронов, в третьем – 4 и в последнем (выходном) – 2 нейрона. Общее количество обучаемых параметров в такой сети – 69. При построении сети исходя из предварительно рассчитанного варианта сеть будет иметь более сложную структуру, но общее количество обучаемых параметров уменьшается до 44. В статье сравниваются скорости обучения двух полученных нейронных сетей. При использовании предварительно рассчитанных коэффициентов скорость обучения нейронной сети возрастает примерно в два раза., но при использовании одинаковых начальных условий, полученных путем выбора случайных значений из диапазона от 0 до 1 с равномерным распределением, скорость обучения многослойной нейронной сети выше, чем у предварительно рассчитанного варианта.
Ключевые слова: нейронные сети, сети Петри, искусственный интеллект, преобразования, функция активации, keras, регуляризация, обучение

Список литературы
1. Bishop C. Pattern recognition and machine learning. Information science and statistics. New York, Springer, 2007. 738 p. 2. Richert W., Coelho L. Building machine learning systems with Python. Birmingham, Packt Publ., 2013. 290 p. 3. Hastie T., Tibshirani R., Friedman J. The elements of statistical learning: data mining, inference, and prediction. 2nd ed. Springer series in statistics. New York, Springer, 2013. 745 p. 4. Lantz B. Machine learning with R. Birmingham, Packt Publ., 2013. 396 p. 5. Mohri M., Rostamizadeh A., Talwalkar A. Foundations of machine learning. Adaptive computation and machine learning series. Cambridge, MA, MIT Press, 2012. 432 p. 6. Conway D., White J.M. Machine learning for hackers. Sebastopol, CA, O'Reilly, 2012. 324 p. 7. Welcome to the Deep Learning tutorial. Available at: http://deeplearning.stanford.edu/tutorial/ (accessed 31.05.2017). 8. Haykin S. Neural networks: a comprehensive foundation. New York, MacMillan Publ., 1994. 1104 p.
Просмотров: 355