<div><img src="https://mc.yandex.ru/watch/56654995" style="position:absolute; left:-9999px;" alt="" /></div>
Попробовать бесплатно

Тонкая настройка модели

Тонкая настройка — это компромисс между «дёшево и быстро» (промптинг) и «дорого и долго» (предобучение). Берётся готовая модель и продолжается её обучение на небольшом, но качественном наборе примеров.

Виды тонкой настройки

  • Полная тонкая настройка — обновляются все веса модели. Дорого, но даёт максимальный контроль.
  • LoRA и подобные методы — обновляется только маленький «адаптер», основная модель остаётся неизменной. В 10–100 раз дешевле полной настройки.
  • Тонкая настройка под инструкции — учит модель следовать форматам и инструкциям, а не просто продолжать тексты.
  • Тонкая настройка по предпочтениям — учит модель выбирать ответы, которые люди оценивают выше.

Когда оправдано

  • Нужен стабильный специфический стиль или формат ответа, который трудно описать промптом.
  • Объём запросов велик и хочется уменьшить промпт, чтобы экономить токены.
  • Качество в узком домене у общей модели не дотягивает, а данных для дообучения хватает.

Когда применять и когда нет

Применять

  • Есть несколько сотен или тысяч качественных примеров «вход → правильный ответ»
  • Стиль или формат трудно стабильно держать только промптом
  • Стоимость промптов с большим контекстом уже становится заметной

Не применять

  • Задача меняется каждую неделю — данные устареют быстрее, чем закончится тонкая настройка
  • У вас нет качественных размеченных примеров
  • Промпт хорошо справляется и так — добавление тонкой настройки усложнит проект без явной выгоды

Примеры применения

Компания собирает 800 примеров идеальных ответов своей поддержки клиентов и дообучает на них среднюю модель через LoRA. После тонкой настройки модель отвечает в фирменном стиле без длинного системного промпта, что снижает стоимость каждого запроса. При этом базовая модель остаётся той же — её можно использовать и для других задач параллельно.

Часто задаваемые вопросы

Чаще нет, и пытаться так делать — обычно плохая идея. Тонкая настройка отлично работает для стиля, формата и поведения, но плохо подходит для запоминания фактов. Для фактических знаний почти всегда выгоднее использовать RAG — поиск по своей базе документов.

LoRA (Low-Rank Adaptation) — это техника, которая обучает не всю модель, а маленький «адаптер» поверх неё. Так тонкая настройка обходится дешевле, не требует копировать всю модель и позволяет держать сразу несколько разных адаптеров под разные задачи на одной общей базовой модели.

Готовы применить теорию на практике?

Соберите команду в Shtab — единое пространство для проектов, целей и задач. Бесплатно до 5 человек.