Промпт
Промпт — это не только текст вопроса. В современных приложениях он обычно состоит из нескольких частей.
Из чего состоит промпт
- Системный промпт — кто такая модель, какие у неё правила и стиль.
- Контекст — фрагменты документов, история диалога, данные пользователя.
- Примеры — пары «запрос → правильный ответ» (few-shot).
- Сам запрос — то, на что нужно ответить сейчас.
- Инструкции по формату — JSON, Markdown, ограничения по длине и тону.
На что обращать внимание
- Чётко формулировать роль модели и цель ответа.
- Описывать формат вывода и приводить хотя бы один пример.
- Учитывать, что модель часто следует началу и концу промпта лучше, чем середине.
- Тестировать промпт на разнообразных входах, а не только на «удобных» примерах.
Когда применять и когда нет
Применять
- Любая работа с LLM в продукте начинается с проектирования промпта
- Когда нужно быстро адаптировать готовую модель под задачу без обучения
- Когда хочется управлять стилем и форматом ответа
Не применять
- Слишком сложная или нестабильная задача — иногда лучше перейти к тонкой настройке или более структурному пайплайну, чем бесконечно усложнять промпт
Примеры применения
Сравните два промпта. Первый: «расскажи про продукт». Второй: «Ты — ассистент сейлза в SaaS-компании. Отвечай 3–4 короткими абзацами на простом языке. Если данных не хватает — задай уточняющий вопрос. Запрос клиента: ...». Второй вариант не только звучит человечнее, но и сильно стабилизирует ответы модели на разных запросах.
Часто задаваемые вопросы
Промпт меняется на каждый запрос и не требует переобучения модели. Тонкая настройка обновляет веса модели и сохраняется навсегда. Хороший подход — сначала довести промпт до разумного уровня, и только потом, если по-прежнему не хватает, переходить к тонкой настройке.
Потому что генерация в LLM почти всегда содержит элемент случайности (температура, top-p). Чтобы получить более стабильный ответ, можно понизить температуру и явно описать формат ответа в промпте.