«Главным образом они связаны с вопросами безопасности и контролем над облачными LLM. Такие решения вызывают опасения у бизнеса: передача конфиденциальной информации сторонним сервисам остается риском. К тому же, облачные LLM часто «живут своей жизнью» — их поведение сложно предсказать из-за постоянного дообучения», — отметил Дмитрий Лактионов.
«В обучение ИИ нужно вкладывать ресурсы: нанимать дорогостоящих специалистов, тратить время на тонкую настройку. Но когда на рынке появляется более совершенная модель, всё приходится начинать заново».
«Представьте, что RAG — это студент. Для ответа на вопросы вы даете студенту не всю библиотеку, а конкретные книги или даже выбранные главы их этих книг. Логично предположить, что в таком случае ответы будут точнее, а ошибки случаться реже», — пояснил Дмитрий Лактионов.
«Самое важное, благодаря использованию LLM+RAG совместно с Базой знаний, у бизнеса появляется контроль над моделью и свобода выбора.
Если на рынке появится новая, более эффективная LLM, ее легко можно встроить в существующую схему с Базой знаний, которая остается основным источником знаний для LLM», — отметил Дмитрий Лактионов.