Методологія багатоагентної системи для детекції маніпуляцій та дезінформації
DOI:
https://doi.org/10.18372/2073-4751.84.20898Ключові слова:
штучний інтелект, інформаційні технології, багатоагентні системи, верифікація інформації, детекція маніпуляцій, великі мовні моделіАнотація
Стрімкий розвиток генеративного штучного інтелекту призвів до безпрецедентного зростання обсягів дезінформації, що значно ускладнює традиційні методи моніторингу медіапростору та вимагає впровадження нових автоматизованих інструментів верифікації. Проте ефективність існуючих систем виявлення маніпуляцій та дезінформації часто залежить від використання потужних комерційних великих мовних моделей, що пов’язане з високими експлуатаційними витратами, обмеженою доступністю та ризиками передачі конфіденційних даних на зовнішні сервери. У даній статті оцінюється потенціал використання малих малих мовних моделей як основи для побудови автономних систем протидії інформаційним маніпуляціям. Було запропоновано новий підхід до побудови системи верифікації, який базується на багатоагентній взаємодії, де складне завдання розбивається на підзадачі для спеціалізованих агентів: детектора маніпуляцій, аналітика наративів та фактчекера. Отримані результати експериментального порівняння локальних та хмарних моделей дають змогу зробити висновок, що запропонований підхід є більш безпечним та економічно ефективним, забезпечуючи високу точність аналізу при збереженні повного контролю над даними користувача.
Посилання
Vosoughi S., Roy D., Aral S. The spread of true and false news online. Science. 2018. Vol. 359, no. 6380. P. 1146–1151. DOI: 10.1126/science.aap9559.
Ukrainians Increasingly Rely on Telegram Channels for News and Information During Wartime. USAID-Internews. 2024. URL: https://internews.org/ukrainians-increasingly-rely-on-telegram-channels-for-news-and-information-during-wartime/ (дата звернення: 28.12.2025).
Melnychuk O. Social Media Sybil Detection in the Age of AI-Generated Content: A Literature Review. Кібербезпека: освіта, наука, техніка. 2025. Вип. 1, № 29. DOI: 10.28925/2663-4023.2025.29.885.
Yang K.-C., Menczer F. Anatomy of an AI-powered malicious social botnet. Journal of Quantitative Description: Digital Media. 2024. Vol. 4. DOI: 10.51685/jqd.2024.icwsm.7.
Radivojevic A., Clark J. H., Brenner P. C. LLMs Among Us: Generative AI Participating in Digital Discourse. Proceedings of the AAAI Symposium Series. 2024. DOI: 10.1609/aaaiss.v3i1.31202.
Sharma K., Qian F., Jiang H., Ruchansky N., Zhang M., Liu Y. Combating Fake News: A Survey on Identification and Mitigation Techniques. ACM Transactions on Intelligent Systems and Technology. 2019. Vol. 10, no. 3. P. 1–42. DOI: 10.1145/3305260.
Liu Y. et al. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692. 2019. DOI: 10.48550/arXiv.1907.11692.
Anderson K., Wilson R. Evading Bot Detection in the Age of Large Language Models. IEEE Security & Privacy. 2024. URL: https://ieeexplore.ieee.org/xpl/RecentIssue.jsp?punumber=8013 (дата звернення: 28.12.2025).
OpenAI. GPT-4 Technical Report. arXiv preprint arXiv:2303.08774. 2023. DOI: 10.48550/arXiv.2303.08774.
Gemini Team. Gemini: A Family of Highly Capable Multimodal Models. arXiv preprint arXiv:2312.11805. 2024. DOI: 10.48550/arXiv.2312.11805.
Zhang W., Kumar R., Thompson A. Cost-Effective AI: Comparing Local and Cloud-Based Language Models for Production Workloads. Proceedings of the International Conference on Machine Learning. 2024. URL: https://proceedings.mlr.press/ (дата звернення: 28.12.2025).
Lu Z. et al. Small Language Models: Survey, Measurements, and Insights. arXiv preprint arXiv:2409.15790. 2024. DOI: 10.48550/arXiv.2409.15790.
Hu E. J. et al. LoRA: Low-Rank Adaptation of Large Language Models. arXiv preprint arXiv:2106.09685. 2021. DOI: 10.48550/arXiv.2106.09685.
Gautam A. Multi-agent Systems for Misinformation Lifecycle: Detection, Correction And Source Identification. Proceedings of the ICWSM Workshop. 2025. URL: https://arxiv.org/abs/2505.17511 (дата звернення: 28.12.2025).
Romaniuk M., Smetanin S., Shypilo M. et al. Shared Task on Media Manipulation Detection in Ukrainian. Proceedings of the 4th Workshop on Ukrainian Natural Language Processing (UNLP). 2025. URL: https://unlp.org.ua/ (дата звернення: 28.12.2025).
Detector Media Manipulation Techniques with Examples. UNLP Workshop. URL: https://github.com/unlp-workshop/unlp-2025-shared-task/blob/main/data/techniques-en.md (дата звернення: 28.12.2025).
Da San Martino G., Cresci S., Barrón-Cedeño A., Yu S., Di Pietro R., Nakov P. A Survey on Computational Propaganda Detection. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI-20 / ed. by C. Bessiere. International Joint Conferences on Artificial Intelligence Organization, 2020. P. 4826–4832. DOI: 10.24963/ijcai.2020/672
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Науковий журнал дотримується принципів відкритого доступу (Open Access) та забезпечує вільний, негайний і постійний доступ до всіх опублікованих матеріалів без фінансових, технічних або юридичних обмежень для читачів.
Усі статті публікуються у відкритому доступі відповідно до ліцензії Creative Commons Attribution 4.0 International (CC BY 4.0).
Авторські права
Автори, які публікують свої роботи в журналі:
-
зберігають за собою авторські права на свої публікації;
-
надають журналу право на перше опублікування статті;
-
погоджуються на поширення матеріалів за ліцензією CC BY 4.0;
-
мають право повторно використовувати, архівувати та поширювати свої роботи (у тому числі в інституційних та тематичних репозитаріях) за умови посилання на первинну публікацію в журналі.