OBRABOTKAMETALLOV Vol. 27 No. 2 2025 127 EQUIPMENT. INSTRUMENTS а применение искусственных нейронных сетей (ИНС) рассматривается авторами для прогнозирования шероховатости поверхности, износа инструмента и других параметров при механообработке [6]. Для эффективного функционирования нейронные модели используют обширную сеть простых вычислительных процессоров – «нейронов». Нейронные сети часто служат для решения сложных задач, в которых поведение переменных недостаточно известно. Одной из их фундаментальных характеристик является способность обучаться на примерах и применять эти знания обобщенным образом, что позволяет создавать нелинейные модели. Эта способность делает использование ИНС в многокритериальном анализе весьма эффективным [7, 8]. Конфигурация нейронной сети требует определения нескольких важных параметров: количества узлов во входном слое, количества скрытых слоев, количества нейронов в каждом из них, а также количества нейронов в выходном слое. Состояние нейрона k определяется по формуле 1 ( ) , k i ki k = S = x w b + ∑ n i где xi – выходной сигнал, рассчитанный нейроном i; wki – синаптический вес между нейронами i и bk; k – вес, связанный с постоянным нену левым значением, известным как смещение нейрона. Для использования ИНС необходимо вычислить синаптические веса и смещения. Процесс определения этих параметров называется обучением и происходит итеративно, где начальные параметры актуальны до тех пор, пока процесс не достигнет достаточной сходимости. Функция активации f описывает, как внутренний вход и текущее состояние активации влияют на определение следующего состояния блока. Можно выделить основные наиболее используемые типы функций активации. – Пороговая функция: åñëè ; ( ) åñëè . S ⎧ ≥ ⎪ = ⎨ ⎪ < ⎩ 1, 0 0, 0 k k k f S S Функция единичного скачка, или пороговая функция, представляет собой математическую функцию, которая принимает значение 1, если ее аргумент больше или равен некоторому порогу, и значение 0 в противном случае. – Пример кусочно-линейной функции можно представить в виде åñëè ; ( ) åñëè , k k k k k aS d S c f S eS g S c + ≤ ⎧⎪ = ⎨ + > ⎪⎩ , , где a, c, d, e, g – некоторые константы. Кусочно-линейная функция состоит из нескольких линейных участков, каждый из которых определен на своем интервале. Линейные участки соединяются так, чтобы образовать непрерывную функцию, хотя производная такой функции может быть разрывной на стыках линейных участков. – Сигмоидальная функция: 1 ( ) , 1 exp( ) k f S a ⎛ ⎞ = ⎜ ⎟ + μ ⎝ ⎠ где a – параметр наклона сигмоидальной функции. Данная функция используется чаще всего и характеризуется тем, что она возрастающая и надлежащим образом уравновешивает линейное и нелинейное поведение, сохраняя свой диапазон изменений между 0 и 1. Выбор функции активации может существенно повлиять на производительность сетей. Выпрямленный линейный блок (ReLU (X) = max {X, 0}) является наиболее часто используемой функцией активации и широко применяется в нейронных сетях из-за своей ненасыщаемости и нелинейности [9]. По сравнению с функциями активации, которые демонстрируют насыщение, такими как сигмоидальная функция, ReLU в сочетании с градиентным спуском имеет более высокую производительность. Градиентный спуск – метод, применяемый для минимизации функции потерь путем коррекции весов. В случае обучения нейронных сетей целевой функцией является функция выходной ошибки сети. Минимумы функции образуют впадины, а максимумы – холмы [10, 11]. Многослойные персептроны (MLP) признаны наиболее распространенными моделями ИНС. MLP включает в себя несколько слоев: входной слой, принимающий исходные данные; один или более скрытых слоев, которые обрабатывают данные с применением весовых коэффициентов и функций активации; выходной
RkJQdWJsaXNoZXIy MTk0ODM1