Багатоагентне глибоке навчання з підкріпленням в задачі уникнення зіткнень
DOI:
https://doi.org/10.18372/1990-5548.87.20909Ключові слова:
багатоагентне навчання з підкріпленням, рій безпілотних літальних апаратів, уникнення перешкод, нельотні зони, глибоке навчання з підкріпленнямАнотація
Уникнення перешкод має вирішальне значення для успішного виконання місій безпілотних літальних апаратів. Ця стаття присвячена дослідженню багатоагентного глибокого навчання з підкріпленням в задачі уникнення зіткнень. У роботі розглянуто, що рої безпілотних літальних апаратів стикаються з різноманітними перешкодами, які класифікуються на: статичні великомасштабні та дрібномасштабні перешкоди, динамічні великомасштабні та дрібномасштабні перешкоди, складний рельєф місцевості, тонкі/маловидні перешкоди, частково закриті/прозорі перешкоди. Для вирішення цієї проблеми пропонується багатоагентний алгоритм керування траєкторією на основі глибокого навчання з підкріпленням для управління траєкторією кожного безпілотного літального апарата незалежно. Були досліджені різні підходи та кілька середовищ 3D-моделювання за допомогою навчання з підкріпленням для рою безпілотних літальних апаратів.
Посилання
A. Merei, H. Mcheick, A. Ghaddar, and D. A. Rebaine, “Survey on Obstacle Detection and Avoidance Methods for UAVs,” Drones. 2025, 9(3):203. https://doi.org/10.3390/drones9030203
F. Trotti, A. Farinelli, and R. Muradore, “A Markov Decision Process Approach for Decentralized UAV Formation Path Planning,” In Proceedings of the 2024 European Control Conference (ECC), Stockholm, Sweden, 25–28 June 2024; IEEE: Piscataway, NJ, USA, 2024, pp. 436–441. https://doi.org/10.23919/ECC64448.2024.10591307
W. Lee, and K. Lee, “Robust Trajectory and Resource Allocation for UAV Communications in Uncertain Environments With No-Fly Zone: A Deep Learning Approach,” IEEE Trans. Intell. Transp. Syst., 2024, 25, 14233–14244. https://doi.org/10.1109/TITS.2024.3399913
Y. Gao, S. Wang, M. Liu, and Y. Hu, “Multi-agent reinforcement learning for UAVs 3D trajectory designing and mobile ground users scheduling with no-fly zones,” In Proceedings of the 2023 IEEE/CIC International Conference on Communications in China (ICCC), Dalian, China, 10–12 August 2023, IEEE: Piscataway, NJ, USA, 2023; pp. 1–6. https://doi.org/10.1109/ICCC57788.2023.10233375
C. C. Ekechi, T. Elfouly, A. Alouani, & T. Khattab, “A Survey on UAV Control with Multi-Agent Reinforcement Learning,” Drones, 9(7), 484, 2025. https://doi.org/10.3390/drones9070484
Pingping Qu, Huan Liu, Song Xu et al., “Multi-Agent Deep Reinforcement Learning for Cooperative Path Planning of UAV Swarms,” 15 October 2025, PREPRINT (Version 1) available at Research Square. https://doi.org/10.21203/rs.3.rs-6508231/v1
S. Dey and H. Xu, “Intelligent Distributed Swarm Control for Large-Scale Multi-UAV Systems: A Hierarchical Learning Approach,” Electronics, 12(1):89, 2023. https://doi.org/10.3390/electronics12010089
L. Xie, S. Wang, A. Markham, and N. Trigoni, “Towards monocular vision based obstacle avoidance through deep reinforcement learning,” arXiv preprint arXiv:1706.09829 (2017)
Z. Wang, T. Schaul, M. Hessel, H. Hasselt, M. Lanctot, and N. Freitas, “Dueling network architectures for deep reinforcement learning,” Machine Learning, arXiv:1511.06581, pp. 1995–2003, 2016. https://doi.org/10.48550/arXiv.1511.06581
G. Kahn, A. Villaflor, B. Ding, P. and S. Levine, “Self-supervised deep reinforcement learning with generalized computation graphs for robot navigation,” In 2018 IEEE International Conference on Robotics and Automation (ICRA), IEEE 2018, pp. 1–8. https://doi.org/10.1109/ICRA.2018.8460655
P. Long, T. Fanl, X. Liao, W. Liu, H. Zhang, and J. Pan, “Towards optimally decentralized multi-robot collision avoidance via deep reinforcement learning,” In 2018 IEEE International Conference on Robotics and Automation (ICRA), IEEE 2018, pp. 6252–6259. https://doi.org/10.1109/ICRA.2018.8461113
C. Wang, J. Wang, X. Zhang, and X. Zhang, “Autonomous navigation of UAV in large-scale unknown complex environment with deep reinforcement learning,” In 2017 IEEE Global Conference on Signal and Information Processing (GlobalSIP), IEEE 2017, pp. 858–862. https://doi.org/10.1109/GlobalSIP.2017.8309082
R. S. Sutton and A. G. Barto, Reinforcement learning: An introduction. MIT press (2018).
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Науковий журнал "Електроніка та системи управління" дотримується принципів відкритого доступу (Open Access) та забезпечує вільний, негайний і постійний доступ до всіх опублікованих матеріалів без фінансових, технічних або юридичних обмежень для читачів.
Усі статті публікуються у відкритому доступі відповідно до ліцензії Creative Commons Attribution 4.0 International (CC BY 4.0).
Авторські права
Автори, які публікують свої роботи в журналі ""Електроніка та системи управління":
-
зберігають за собою авторські права на свої публікації;
-
надають журналу право на перше опублікування статті;
-
погоджуються на поширення матеріалів за ліцензією CC BY 4.0;
-
мають право повторно використовувати, архівувати та поширювати свої роботи (у тому числі в інституційних та тематичних репозитаріях) за умови посилання на первинну публікацію в журналі.