Actual Problems in Machine Building 2022 Vol. 9 No. 1-2

Actual Problems in Machine Building. Vol. 9. N 1-2. 2022 Innovative Technologies in Mechanical Engineering ____________________________________________________________________ 10 трудоемок и занимает множество времени, при этом это не всегда является эффективным. В ГО наоборот - проектирование признаков практически отсутствует, а большее время уделяется моделям и нейронным сетям, которые автоматически преобразуют исходные данные в полезные признаки. СНС AlexNet для распознавания изображений, представленная на конкурсе ILSVRCв 2012 году, используя метод ГО значительно превзошла все разработки, основанные на традиционном машинном обучении. А уже в 2015 году нейросети на основе ГО превзошли человека в точности распознавания изображений и далее их точность и скорость только увеличивались [4]. Для обучения НС используются методы градиентного спуска и обратного распространения ошибки [5-8]. Которые основаны на минимизации ошибки J работы НС. Ошибку обычно рассчитывают по формуле среднеквадратичной ошибки или перекрестной энтропии. Другими словами, необходимо подобрать такие значения w и b, при которых ошибка J НС будет минимальна. Чтобы определить в какую сторону необходимо изменить каждый параметр НС вычисляется градиент функции, а изменение параметров НС происходит в обратном ее направлении и с определенным шагом а, который является важным гиперпараметром нейросети, определяющим скорость обучения. Снижение ошибки происходит до тех пор, пока она не станет минимальной. Обучение НС происходит на некоторой обучающей выборке исходных данных и соответствующих правильных ответов. В случае распознавания объектов исходными данными выступают различные изображения. Пройдя обучение на обучающей выборке в несколько эпох, НС сможет сделать правильный прогноз даже на тех исходных данных, на которых она обучение не проходила. Обычно для этого требуется большое количество, порядка десятков тысяч обучающих примеров. Создание такой базы данных довольно трудоемкий процесс, поэтому существует подход автоматической генерации исходных данных с помощью изменения существующих изображений путем сдвига, поворота, изменения цвета, обрезки первоначальных изображений [9]. Еще одной сложностью построения НС остается вопрос о нахождении оптимальной архитектуры НС для решения конкретной задачи, т.е. назначения таких параметров, как количество нейронов, ядер, слоев, функций активации, шага обучения и т.д. Гиперпараметры могут назначаться экспериментальным путем, при этом большое количество нейронов сильно влияет на время обучения, поэтому необходимо стремиться к оптимальному количеству параметров, достаточному для решения той или иной задачи. Экспериментальный подбор довольно трудоемкий процесс, поэтому для построения архитектуры часто привлекаются эксперты по нейронным сетям. Однако, существует подход для автоматического назначения гиперпараметров через специальные нейронные сети и т.д. Результаты таких методик показывают значительное снижение числа параметров от первоначальной архитектуры, что позитивно сказывается на вычислительных ресурсах и времени обучения [10]. К числу основных технологий ИИ также относятся программные агенты. Агент — это программа, которая может работать автономно и решать свою определенную задачу [11]. Ярким примером могут служить «боты» в среде Интернет, которые позволяют находить товары с минимальными ценами или создавать выборки из нужных новостей и прогнозировать курс валют и т.д. Одним из важных свойств агента является его способность к обучению. Когда агент принимает решение, но результат данного решения неудовлетворителен, то критик ставит низкую оценку работы агента, а обучающий компонент модифицирует правило работы агента и в следующий раз он примет более правильное решение [12]. Например, когда беспилотное такси делает слишком резкий поворот или торможение и пассажир пугается, критик поставит низкую оценку решению агента-водителя и в следующий раз такси повернет

RkJQdWJsaXNoZXIy MTk0ODM1