В статье рассматривается пример решения задачи сложения чисел в двоичном представлении при помощи нейросети. Рассматриваемая задача является задачей классификации. Она решается при помощи многослойного персептрона. Задача классификации имеет множество объектов (ситуаций), разделенных некоторым образом на классы. Задано конечное множество объектов, для которых известно, к каким классам они относятся. Это множество называется обучающей выборкой. Классовая принадлежность остальных объектов не известна. Требуется построить алгоритм, способный классифицировать произвольный объект из исходного множества. Искусственная нейронная сеть – это математическая модель в совокупности с программной или машинной реализацией, построенная подобно биологическим нейронным сетям и сетям нервных клеток биологических живых организмов. Нейронные сети не могут быть «запрограммированы» в общепринятом понимании этого слова, но они способны обучаться. Возможность обучения – важнейшее преимущество нейронных сетей перед классическими алгоритмами. Обучение нейросети – это процесс, заключающийся в поиске необходимых коэффициентов связей между нейронами. При обучении нейронной сети используются методы оптимизации. В данном случае целью оптимизации будет минимизация ошибки. Метод наименьших квадратов – математический метод, применяемый для решения различных задач, основанный на минимизации суммы квадратов отклонений некоторых функций от искомых переменных. МНК является одним из базовых методов регрессионного анализа для оценки неизвестных параметров регрессионных моделей по выборочным данным.
1. Розенблатт Ф. Принципы нейродинамики: перцептроны и теория механизмов мозга. – М.: Мир, 1965. – 480 с.
2. Минский М., Пейперт С. Персептроны. – М.: Мир, 1971. – 261 с.
3. Rumelhart D.E., Hinton G.E., Williams R.J. Learning internal representations by error propagation // Parallel Distributed Processing. – Cambridge, MA: MIT Press, 1986. – Vol. 1. – P. 318–362.
4. Воевода А.А., Романников Д.О. Синтез нейронной сети для решения логико-арифметических задач // Труды СПИИРАН. – 2017. – Вып. 5 (54). – C. 205–223.
5. Хайкин С. Нейронные сети. Полный курс. – 2-е изд. – М.: Вильямс, 2006. – 1104 с.
6. Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. – Новосибирск: Наука, 1996. – 276 с. – ISBN 5-02-031196-0.
7. Wasserman P.D. Experiments in translating Chinese characters using backpropagation // Proceedings of the Thirty-Third IEEE Computer Society International Conference. – Washington, D.C.: Computer Society Press of the IEEE, 1988. – P. 399–402.
8. Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. – М.: Мир, 1985. – 509 с.
9. Максимов Ю.А., Филлиповская Е.А. Алгоритмы решения задач нелинейного программирования. – М.: МИФИ, 1982. – 52 с.
10. Максимов Ю.А. Алгоритмы линейного и дискретного программирования. – М.: МИФИ, 1980. – 72 с.
11. Городецкий С.Ю., Гришагин В.А. Нелинейное программирование и многоэкстремальная оптимизация. – Н. Новгород: Изд-во Нижегор. ун-та, 2007. – С. 357–363.
12. Воевода А.А., Романников Д.О. Aсинхронный алгоритм сортировки массива чисел с использованием ингибиторных сетей Петри // Труды СПИИРАН. – 2016. – № 5 (28). – С. 198–213.
13. Воевода А.А., Полубинский В.Л., Романников Д.О. Сортировка массива целых чисел с использованием нейронной сети // Научный вестник НГТУ. – 2016. – № 2 (63). – С. 151–157.
Иванов Н.О., Тингайкин Д.О., Комиссаров В.В. Пример сложения чисел в бинарном представлении с использованием нейронной сети // Сборник научных трудов НГТУ. – 2017. – № 4 (90). – С. 49–64.
Ivanov N.O., Tingajkin D.O., Komissarov V.V. Primer slozheniya chisel v binarnom predstavlenii s ispol'zovaniem neironnoi seti [Example of adding numbers in a binary representation using neural networks]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta – Transaction of scientific papers of the Novosibirsk state technical university, 2017, no. 4 (90), pp. 49–64.