Перенавчання у сфері машинного навчання
DOI:
https://doi.org/10.18372/2073-4751.78.18968Ключові слова:
перенавчання, регуляризація (dropout, L1, L2), компроміс зсуву та дисперсії, поліноміальна регресія, ВЧ-розмірністьАнотація
Проблема перенавчання в машинному навчанні є актуальною та важливою для досягнення високої точності та надійності прогнозування на реальних даних. Ця стаття присвячена розгляду проблеми перенавчання з математичної перспективи. Вона починається з загального огляду проблеми та її важливості для наукових та практичних завдань, таких як розпізнавання образів, прогнозування та діагностика. Починаючи з визначення ключових понять, таких як складність моделі, розмір вибірки, компроміс зсуву та дисперсії, текст розкриває взаємозв'язок між ними та вплив розміру вибірки на процес навчання. Для демонстрації цих концепцій розроблений код на мові програмування Python, який використовує поліноміальну регресію як модель для аналізу. Через створення синтетичних даних та підгонку різних моделей до них, ілюструється явище перенавчання та його вплив на точність прогнозів. Завершальні висновки наголошують на важливості розуміння математичних аспектів перенавчання для розробки надійних та ефективних моделей у машинному навчанні. Подальший аналіз останніх досліджень і публікацій у цій галузі демонструє різноманітні підходи до розв’язання проблеми, включаючи методи регуляризації, використання ансамблевих методів та розвиток нових архітектур нейронних мереж. Виокремлені невирішені аспекти, такі як знаходження оптимального балансу між складністю моделі та загальністю, які потребують подальшого дослідження. Остаточною метою статті є визначення ключових аспектів проблеми перенавчання та формулювання цілей для подальших досліджень в цій області.
Посилання
What is overfitting?. URL: https://www.ibm.com/topics/overfitting?source=post_page-----09af234e9ce4-------------------------------- (дата звернення: 21.04.2024).
Fang C. et al. 4 – The Overfitting Iceberg. URL: https://blog.ml.cmu.edu/2020/08/31/4-overfitting/ (дата звернення: 26.04.2024).
Dijkinga F. J. Explaining L1 and L2 regularization in machine learning. URL: https://medium.com/@fernando.dijkinga/explaining-l1-and-l2-regularization-in-machine-learning-2356ee91c8e3 (дата звернення: 26.04.2024).
Oppermann A. Regularization in Deep Learning – L1, L2, and Dropout. URL: https://towardsdatascience.com/regularization-in-deep-learning-l1-l2-and-dropout-377e75acc036 (дата звернення: 25.04.2024).
Vignesh Sh. The Perfect Fit for a DNN. URL: https://medium.com/analytics-vidhya/the-perfect-fit-for-a-dnn-596954c9ea39 (дата звернення: 26.04.2024).
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Науковий журнал дотримується принципів відкритого доступу (Open Access) та забезпечує вільний, негайний і постійний доступ до всіх опублікованих матеріалів без фінансових, технічних або юридичних обмежень для читачів.
Усі статті публікуються у відкритому доступі відповідно до ліцензії Creative Commons Attribution 4.0 International (CC BY 4.0).
Авторські права
Автори, які публікують свої роботи в журналі:
-
зберігають за собою авторські права на свої публікації;
-
надають журналу право на перше опублікування статті;
-
погоджуються на поширення матеріалів за ліцензією CC BY 4.0;
-
мають право повторно використовувати, архівувати та поширювати свої роботи (у тому числі в інституційних та тематичних репозитаріях) за умови посилання на первинну публікацію в журналі.