Оптимізація глибоких нейронних мереж для покращення їхньої продуктивності

Autor

  • А. М. Поліщук Донецький національний університет імені Василя Стуса
  • Ю. С. Хмелівський Донецький національний університет імені Василя Стуса

Abstrakt

Останніми роками глибокі нейронні мережі (ГНМ) завоювали значну популярність завдяки своїм вражаючим досягненням у багатьох сферах, зокрема комп’ютерне зорове сприйняття та обробка природних мов. Однак разом зі зростанням їх застосування виникають проблеми, пов’язані з високим рівнем складності та великою кількістю параметрів, що можуть призводити до значних обчислювальних витрат. Глибокі нейронні мережі, особливо глибокі згорткові та рекурентні мережі, мають велику кількість шарів, які потрібно оптимізувати під час тренування. Для цього необхідно на великих обсягах даних ефективне навчання моделі, що може призводити до перетренування на невеликих наборах даних. Також велика кількість параметрів ускладнює роботу з моделями і може вимагати великих обчислювальних ресурсів для їх тренування та використання.

Biogramy autorów

А. М. Поліщук, Донецький національний університет імені Василя Стуса

здобувач 3 курсу спеціальності 122 Комп’ютерні науки

Ю. С. Хмелівський , Донецький національний університет імені Василя Стуса

асистент кафедри інформаційних технологій

Bibliografia

Гудфелоу, Я., Бенжіо, І., Курвіль, А. Глибоке навчання. MIT Press,(2016). 652 с.

Кінгма, Д. Адам: Метод стохастичної оптимізації. Препринт arXiv arXiv. Вип. 1412, п. 6980. (2014). С. 1‒15.

Срівастава, Н., Гінтон, Г., Крижевський, А., Суцкевер, Я., Салахутдінов, Р. (2014). Dropout: Простий спосіб запобігти перенавчанню нейронних мереж. Journal of Machine Learning Research, 15, C. 1929–1958.

##submission.downloads##

Opublikowane

2024-09-22

Numer

Dział

СЕКЦІЯ 2 ІНТЕЛЕКТУАЛЬНІ СИСТЕМИ ТА МЕРЕЖІ