Семантичний граф сцени як основа безмаркерного просторового прив'язування AR-об'єктів
DOI:
https://doi.org/10.18372/2073-4751.85.21124Ключові слова:
доповнена реальність, семантичний граф сцени, просторове прив'язування, Meta Quest, Graph Neural Network, SLAM, Graph Attention Network, безмаркерне ARАнотація
У статті запропоновано алгоритм SG-Anchor для безмаркерного просторового прив'язування об'єктів доповненої реальності на платформі Meta Quest 3. Метод використовує семантичний граф сцени — орієнтований зважений граф G=(V,E,W,F,P), вершинами якого є семантичні об'єкти фізичного середовища (розпізнані YOLOv8), а ребрами — просторово-семантичні відношення між ними. Атрибути вершин формуються конкатенацією семантичних вкладень, геометричних параметрів та статистичних характеристик стійкості. Для ідентифікації підграфу-якоря використовується Graph Attention Network.
Теоретична оцінка демонструє перевагу методу над SLAM-підходами за показником стійкості до змін сцени (SRI ~= 88-92 %) при очікуваній похибці позиціонування TE ~= 2.1 см.
Посилання
IDC Worldwide Augmented and Virtual Reality Spending Guide, 2024. URL: https://www.idc.com/getdoc.jsp?containerId=IDC_P33199 (дата звернення: 10.01.2025).
Campos C., Elvira R., Rodríguez J. J. G. та ін. ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial, and Multimap SLAM // IEEE Trans. Robotics. 2021. Vol. 37, No. 6. P. 1874-1890.
Engel J., Koltun V., Cremers D. Direct Sparse Odometry // IEEE Trans. Pattern Anal. Mach. Intell. 2018. Vol. 40, No. 3. P. 611-625.
Kato H., Billinghurst M. Marker Tracking and HMD Calibration for a Video-based Augmented Reality Conferencing System // Proc. IWAR. 1999. P. 85-94.
Rosinol A., Gupta A., Abate M. та ін. 3D Dynamic Scene Graphs: Actionable Spatial Perception with Places, Objects, and Humans // RSS XVI. 2020. DOI: 10.15607/RSS.2020.XVI.079.
Wu Y., Wang S., Hu H. SceneGraphNet: Neural Message Passing for 3D Indoor Scene Augmentation // Proc. ICCV. 2019. P. 7384-7393.
Veličković P., Cucurull G., Casanova A. та ін. Graph Attention Networks // Proc. ICLR. 2018. arXiv:1710.10903.
Meta Spatial Anchors API. Meta Developer Documentation. URL: https://developer.oculus.com/documentation/unity/unity-spatial-anchors-persist-content (дата звернення: 15.01.2025).
Jocher G., Chaurasia A., Qiu J. Ultralytics YOLOv8. 2023. URL: https://github.com/ultralytics/ultralytics (дата звернення: 10.01.2025).
Huang S., Chen Z., Gojcic Z. та ін. Incremental 3D Semantic Scene Graph Prediction from RGB Sequences // Proc. CVPR. 2023. P. 5064-5074.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License.
Науковий журнал дотримується принципів відкритого доступу (Open Access) та забезпечує вільний, негайний і постійний доступ до всіх опублікованих матеріалів без фінансових, технічних або юридичних обмежень для читачів.
Усі статті публікуються у відкритому доступі відповідно до ліцензії Creative Commons Attribution 4.0 International (CC BY 4.0).
Авторські права
Автори, які публікують свої роботи в журналі:
-
зберігають за собою авторські права на свої публікації;
-
надають журналу право на перше опублікування статті;
-
погоджуються на поширення матеріалів за ліцензією CC BY 4.0;
-
мають право повторно використовувати, архівувати та поширювати свої роботи (у тому числі в інституційних та тематичних репозитаріях) за умови посилання на первинну публікацію в журналі.