Methodology of multi-agent system for misinformation and disinformation detection
DOI:
https://doi.org/10.18372/2073-4751.84.20898Keywords:
artificial intelligence, information technology, multiagent systems, information verification, manipulation detection, large language modelsAbstract
The rapid growth of generative artificial intelligence has led to an unprecedented surge in disinformation, significantly complicating traditional media monitoring methods and necessitating the implementation of new automated verification tools. However, the effectiveness of existing manipulation and disinformation detection systems often relies on powerful commercial Large Language Models (LLMs), which entail high operational costs, limited accessibility, and risks associated with transferring confidential data to external servers. This paper assesses the potential of utilizing Small Language Models (SLMs) as a foundation for building autonomous systems to counter information manipulation. A proposed approach to constructing a verification system based on multi-agent interaction is presented, in which a complex task is decomposed into subtasks for specialized agents: a manipulation detector, a narrative analyst, and a fact-checker. The results of an experimental comparison of local and cloud-based models indicate that the proposed approach is more secure and cost-effective, achieving high analysis accuracy while maintaining full control over user data.
References
Vosoughi S., Roy D., Aral S. The spread of true and false news online. Science. 2018. Vol. 359, no. 6380. P. 1146–1151. DOI: 10.1126/science.aap9559.
Ukrainians Increasingly Rely on Telegram Channels for News and Information During Wartime. USAID-Internews. 2024. URL: https://internews.org/ukrainians-increasingly-rely-on-telegram-channels-for-news-and-information-during-wartime/ (дата звернення: 28.12.2025).
Melnychuk O. Social Media Sybil Detection in the Age of AI-Generated Content: A Literature Review. Кібербезпека: освіта, наука, техніка. 2025. Вип. 1, № 29. DOI: 10.28925/2663-4023.2025.29.885.
Yang K.-C., Menczer F. Anatomy of an AI-powered malicious social botnet. Journal of Quantitative Description: Digital Media. 2024. Vol. 4. DOI: 10.51685/jqd.2024.icwsm.7.
Radivojevic A., Clark J. H., Brenner P. C. LLMs Among Us: Generative AI Participating in Digital Discourse. Proceedings of the AAAI Symposium Series. 2024. DOI: 10.1609/aaaiss.v3i1.31202.
Sharma K., Qian F., Jiang H., Ruchansky N., Zhang M., Liu Y. Combating Fake News: A Survey on Identification and Mitigation Techniques. ACM Transactions on Intelligent Systems and Technology. 2019. Vol. 10, no. 3. P. 1–42. DOI: 10.1145/3305260.
Liu Y. et al. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692. 2019. DOI: 10.48550/arXiv.1907.11692.
Anderson K., Wilson R. Evading Bot Detection in the Age of Large Language Models. IEEE Security & Privacy. 2024. URL: https://ieeexplore.ieee.org/xpl/RecentIssue.jsp?punumber=8013 (дата звернення: 28.12.2025).
OpenAI. GPT-4 Technical Report. arXiv preprint arXiv:2303.08774. 2023. DOI: 10.48550/arXiv.2303.08774.
Gemini Team. Gemini: A Family of Highly Capable Multimodal Models. arXiv preprint arXiv:2312.11805. 2024. DOI: 10.48550/arXiv.2312.11805.
Zhang W., Kumar R., Thompson A. Cost-Effective AI: Comparing Local and Cloud-Based Language Models for Production Workloads. Proceedings of the International Conference on Machine Learning. 2024. URL: https://proceedings.mlr.press/ (дата звернення: 28.12.2025).
Lu Z. et al. Small Language Models: Survey, Measurements, and Insights. arXiv preprint arXiv:2409.15790. 2024. DOI: 10.48550/arXiv.2409.15790.
Hu E. J. et al. LoRA: Low-Rank Adaptation of Large Language Models. arXiv preprint arXiv:2106.09685. 2021. DOI: 10.48550/arXiv.2106.09685.
Gautam A. Multi-agent Systems for Misinformation Lifecycle: Detection, Correction And Source Identification. Proceedings of the ICWSM Workshop. 2025. URL: https://arxiv.org/abs/2505.17511 (дата звернення: 28.12.2025).
Romaniuk M., Smetanin S., Shypilo M. et al. Shared Task on Media Manipulation Detection in Ukrainian. Proceedings of the 4th Workshop on Ukrainian Natural Language Processing (UNLP). 2025. URL: https://unlp.org.ua/ (дата звернення: 28.12.2025).
Detector Media Manipulation Techniques with Examples. UNLP Workshop. URL: https://github.com/unlp-workshop/unlp-2025-shared-task/blob/main/data/techniques-en.md (дата звернення: 28.12.2025).
Da San Martino G., Cresci S., Barrón-Cedeño A., Yu S., Di Pietro R., Nakov P. A Survey on Computational Propaganda Detection. Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI-20 / ed. by C. Bessiere. International Joint Conferences on Artificial Intelligence Organization, 2020. P. 4826–4832. DOI: 10.24963/ijcai.2020/672
Downloads
Published
How to Cite
Issue
Section
License
Автори, які публікуються у цьому журналі, погоджуються з наступними умовами:- Автори залишають за собою право на авторство своєї роботи та передають журналу право першої публікації цієї роботи на умовах ліцензії Creative Commons Attribution License, котра дозволяє іншим особам вільно розповсюджувати опубліковану роботу з обов'язковим посиланням на авторів оригінальної роботи та першу публікацію роботи у цьому журналі.
- Автори мають право укладати самостійні додаткові угоди щодо неексклюзивного розповсюдження роботи у тому вигляді, в якому вона була опублікована цим журналом (наприклад, розміщувати роботу в електронному сховищі установи або публікувати у складі монографії), за умови збереження посилання на першу публікацію роботи у цьому журналі.
- Політика журналу дозволяє і заохочує розміщення авторами в мережі Інтернет (наприклад, у сховищах установ або на особистих веб-сайтах) рукопису роботи, як до подання цього рукопису до редакції, так і під час його редакційного опрацювання, оскільки це сприяє виникненню продуктивної наукової дискусії та позитивно позначається на оперативності та динаміці цитування опублікованої роботи (див. The Effect of Open Access).