ІНТЕЛЕКТУАЛЬНИЙ АСИСТЕНТ ДЛЯ ПОШУКУ ІНФОРМАЦІЇ В УНІВЕРСИТЕТСЬКИХ БАЗАХ ЗНАНЬ НА ОСНОВІ МОДЕЛІ MISTRAL
Опубліковано 20.12.2025
Як цитувати
Завантаження

Ця робота ліцензується відповідно до Creative Commons Attribution-ShareAlike 4.0 International License.
Анотація
Сучасний університет функціонує як складний генератор значних обсягів інформації. Щороку накопичуються тисячі сторінок неструктурованих текстових даних: методичні вказівки, накази, положення, а також кваліфікаційні роботи студентів. Традиційні інструменти пошуку, що використовуються в більшості освітніх систем, базуються на лексичному співпадінні ключових слів. Такий підхід має суттєвий недолік: якщо запит користувача семантично пов'язаний з документом, але не містить точних термінів з нього, система не повертає релевантний результат.
Посилання
- 1. Lewis P. & others. (2020) Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks. URL: https://arxiv.org/abs/2005.11401.
- 2. Jiang A.Q. & others. (2023) Mistral 7B. URL: https://arxiv.org/abs/2310.06825.
- 3. Ollama. (2024) Get up and running with large language models. URL: https://ollama.com/.
- 4. Elartu. (2024) Institutional Repository of TNTU. URL: http://elartu.tntu.edu.ua/.
- 5. Reimers N. & Gurevych I. (2019) Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing. URL: https://aclanthology.org/D19-1410/.
- 6. ChromaDB. (2024) The open-source embedding database. URL: https://www.trychroma.com/.
