Дообучение моделей - fine-tuning
В ситуациях, когда метода RAG недостаточно, требуется, чтобы языковая модель глубоко погрузилась в тематику или отвечала в определенной стилистике. Например, посты от компании в соц. сетях должны соответствовать заданной тональности и стилю.
Мы используем fine-tuning или тонкую настройку языковых моделей. Она позволяет получить собственную нейросеть под специфические задачи бизнеса, но на базе существующих LLM .

Мы обычно используем комбинированный подход, объединяющий RAG и fine-tuning. Вместе они создают синергетический эффект: RAG позволяет получать ответы на основе ваших данных, а тонкая настройка задает правильную стилистику и тональность.
Это делает взаимодействие модели с пользователями более естественным, например соответствующим корпоративным стандартам.
Настройка базы знаний
Подготовка данных для тонкой настройки
Для эффективной тонкой настройки необходимы пары вопрос-ответ, количество которых зависит от конкретной задачи. Чтобы научить модель специфической стилистике, может потребоваться всего 100 примеров, в то время как для глубокого погружения в специализацию может не хватить и тысячи примеров.
Важнейшим этапом является подготовка и оценка этих данных, включая их предварительную очистку и дальнейшую разбивку на мелкие единицы. От качества этого этапа зависит конечный результат.


Процессы дообучения
Дообучение моделей подразумевает изменение весов внутри модели. Полное обучение меняет все веса, тогда как в большинстве случаев мы используем методы LoRA и QLoRA. Эти методы не изменяют весов, а добавляют новые слои низкого ранга.
В 90% случаев, такой подход позволяет удовлетворить потребности в дообучении моделей без значительных затрат времени и ресурсов.
Процесс внедрения
Анализ и подготовка данных
Сбор и структурирование информации для обучения модели
Анализ и подготовка данных
В зависимости от задачи, мы собираем либо данные для глубокого погружения в конкретную область, либо примеры стилистики и тональности. Это могут быть документы, отчеты, примеры диалогов, постов, и другие текстовые данные, которые характеризуют особенности вашей компании или отрасли.
Формирование пар «вопрос-ответ»
Эти данные используются для создания пар «вопрос-ответ», что необходимо для обучения модели в специфическом контексте.
Обработка информации
Очистка и структурирование данных
Предварительная обработка
Данные проходят очистку для удаления ошибок и шлейфа несущественной информации. Это включает нормализацию и фильтрацию данных.
Разделение на логические блоки
Тексты разбиваются на отдельные логические единицы, что необходимо для дальнейшего обучения и оценки результатов.
Дообучение модели
Процесс тонкой настройки
Адаптация модели на ваших данных
Мы используем методы обучения(обычно LoRA или QLoRA) для тонкой настройки модели, позволяя ей обучаться на ваших примерах. Это помогает сохранить общие знания и одновременно адаптировать модель под ваши специфические задачи.
Оптимизация и тестирование
Проводим thorough testing(всестороннее тестирование) для проверки точности ответов и соответствия стилю и контексту вашей отрасли.
Мониторинг и итерации
Разработка эффективных промптов с контекстной информацией
Постоянное улучшение
Мы следим за качеством ответов модели и собираем обратную связь. На основе полученных данных вносим изменения и улучшения в процесс тонкой настройки, чтобы повысить результативность модели.
Результаты внедрения
Повышение качества
Улучшение точности ответов за счет правильной настройки и тестирования
Понимание специфики бизнеса
Тонкая настройка для понимания отрасли.
Индивидуальный подход к данным
Структурирование информации для более эффективного обучения.
Метод формирования промптов на основе собственных баз знаний позволяет вашему бизнесу эффективно использовать имеющиеся данные для повышения уровня автоматизации и улучшения взаимодействия с клиентами.