Тонкая настройка модели
Тонкая настройка — это компромисс между «дёшево и быстро» (промптинг) и «дорого и долго» (предобучение). Берётся готовая модель и продолжается её обучение на небольшом, но качественном наборе примеров.
Виды тонкой настройки
- Полная тонкая настройка — обновляются все веса модели. Дорого, но даёт максимальный контроль.
- LoRA и подобные методы — обновляется только маленький «адаптер», основная модель остаётся неизменной. В 10–100 раз дешевле полной настройки.
- Тонкая настройка под инструкции — учит модель следовать форматам и инструкциям, а не просто продолжать тексты.
- Тонкая настройка по предпочтениям — учит модель выбирать ответы, которые люди оценивают выше.
Когда оправдано
- Нужен стабильный специфический стиль или формат ответа, который трудно описать промптом.
- Объём запросов велик и хочется уменьшить промпт, чтобы экономить токены.
- Качество в узком домене у общей модели не дотягивает, а данных для дообучения хватает.
Когда применять и когда нет
Применять
- Есть несколько сотен или тысяч качественных примеров «вход → правильный ответ»
- Стиль или формат трудно стабильно держать только промптом
- Стоимость промптов с большим контекстом уже становится заметной
Не применять
- Задача меняется каждую неделю — данные устареют быстрее, чем закончится тонкая настройка
- У вас нет качественных размеченных примеров
- Промпт хорошо справляется и так — добавление тонкой настройки усложнит проект без явной выгоды
Примеры применения
Компания собирает 800 примеров идеальных ответов своей поддержки клиентов и дообучает на них среднюю модель через LoRA. После тонкой настройки модель отвечает в фирменном стиле без длинного системного промпта, что снижает стоимость каждого запроса. При этом базовая модель остаётся той же — её можно использовать и для других задач параллельно.
Часто задаваемые вопросы
Чаще нет, и пытаться так делать — обычно плохая идея. Тонкая настройка отлично работает для стиля, формата и поведения, но плохо подходит для запоминания фактов. Для фактических знаний почти всегда выгоднее использовать RAG — поиск по своей базе документов.
LoRA (Low-Rank Adaptation) — это техника, которая обучает не всю модель, а маленький «адаптер» поверх неё. Так тонкая настройка обходится дешевле, не требует копировать всю модель и позволяет держать сразу несколько разных адаптеров под разные задачи на одной общей базовой модели.