Obrabotka Metallov 2025 Vol. 27 No. 2

ОБРАБОТКА МЕТАЛЛОВ Том 27 № 2 2025 130 ОБОРУДОВАНИЕ. ИНСТРУМЕНТЫ щения (nmax) 8000 мин –1. Деталь, подлежащая обработке, изготовлена из нержавеющей стали аустенитного класса. Химический состав стали 12Х18Н10Т, % по массе: C ≤ 0,12; Si ≤ 0,8; Mn ≤ 2,0; P ≤ 0,035; S ≤ 0,02; Ni 9…11; Cr 17…19; Ti < 0,8; Fe – остальное. В качестве материала режущего инструмента при резании использовался твердый сплав с мультислойным (TiN и TiNAl) PVD-покрытием и мелкозернистой основой диаметром 6, 8, 10 и 12 мм фирмы Sandvik Coromant. В ходе проведения экспериментов данные измерения износа радиуса инструмента (r, мм) по уровням были получены с применением контактного датчика ТТ140 фирмы Heidenhain. Измерения шероховатости после фрезерования поверхности проводились при помощи профилометра SURFCOM 1800D, для данного прибора погрешность по эталону составляет 3 %. Фильтр – 50%-й гауссов. Параметр базовой длины (отсечки шага) выбран равным 0,8 мм (ИСО 4288:1996) для всех измерений, так как предположительный диапазон должен составить 0,5 < Rz ≤10. Трассировка выполнялась три раза в направлении подачи инструмента. Экспериментальные исследования проводились по плану эксперимента, который включает в себя как контролируемые, так и неконтролируемые факторы. Контролируемыми факторами являются ap, fz, γ, D и V, неконтролируемыми – W и r. Параметр отклика – шероховатость поверхности Rz. После проведения экспериментов следующим этапом стало построение моделей ИНС. Все модели были построены с использованием языка Python и библиотек TensorFlow, Keras (в составе TensorFlow) для создания, обучения нейронных сетей и работы с регуляризацией; NumPy для работы с массивами; Scikit-learn для предобработки данных. Экспериментальные данные были разделены на обучающие и тестовые наборы, которые прошли процесс стандартизации и нормализации, составляющие 70 и 30 % от общего числа проведенных экспериментов, что соответствует 28 попыткам обучения и 12 попыткам тестирования. Алгоритм обучения нейросети – метод обратного распространения ошибки (BP). Метод используется для вычисления градиента функции потерь по отношению к весам нейронной сети. В результате прямого распространения входные данные проходят через сеть и создают выходное предсказание. Затем вычисляется ошибка предсказания. Эта ошибка распространяется обратно через сеть, начиная с выходного слоя и проходя через все скрытые слои до входного слоя. На каждом слое вычисляется градиент ошибки по отношению к весам. Значения гиперпараметров были протестированы, и наилучшие значения, найденные для моделей, представлены в табл. 1. Используемый оптимизатор (в нашем случае Adam) обновляет веса в соответствии с вычисленными градиентами. Эти шаги повторяются для каждой эпохи обучения, что позволяет модели итерационно улучшать свои предсказания. Результаты и их обсуждение Одним из важнейших распределений является нормальное, оно описывает типичное поведение различных явлений и имеет большое значение в статистике. Для определения распределения параметра рассмотрены измеренные данные Rz после механической обработки 512 поверхностей с применением СОЖ. Для всех поверхностей технологические параметры составляли ap = 0,2 мм, ae = 0,4 мм. Результаты распределения параметра шероховатости (Rz) представлены на рис. 2. Проверка гипотезы по критерию согласия Пирсона показала отсутствие оснований для отклонения гипотезы о нормальном законе распределения при выполнении условий f > 100 и p > 0,05. Определено, что данные выборки параметра Rz в среднем отклоняются от математического ожидания 5,357 мкм на 0,389 мкм. Установлено, что данные выборки параметра Rz распределяются по нормальному закону согласно правилу двух сигм с вероятностью 0,9873. Для дальнейшего использования данных в нейросетевом моделировании выбросы удалены, поскольку они могут исказить результаты и снизить способность модели эффективно выявлять закономерности в данных [17]. Кроме того, для последующих экспериментов глубина и боковой шаг были постоянными и составляли ap = 0,2 мм, ae = 0,4 мм [18]. В связи с этим количество варьируемых входных параметров для нейросетевой модели уменьшено до трех.

RkJQdWJsaXNoZXIy MTk0ODM1