Большая языковая модель
LLM — это огромная нейросеть на архитектуре трансформера. Она обучается на терабайтах текста из интернета, книг, кода и других источников, после чего отдельно дообучается следовать инструкциям и быть полезным собеседником.
Как работает на простом уровне
- Текст разбивается на токены — кусочки слов.
- Модель смотрит на все предыдущие токены и предсказывает распределение вероятностей следующего.
- Один из вероятных токенов выбирается, добавляется к тексту, и цикл повторяется.
Что отличает большую модель от маленькой
- Число параметров — миллиарды, иногда сотни миллиардов.
- Объём и разнообразие обучающих данных.
- Способность к обобщению на задачи, которым модель явно не учили (zero-shot и few-shot).
Чего LLM делать не умеет
- Гарантированно говорить правду — модель часто уверенно ошибается (галлюцинирует).
- Считать большие числа и выполнять точные алгоритмы без внешних инструментов.
- Помнить разговор дольше своего контекстного окна без специальных механизмов памяти.
Когда применять и когда нет
Применять
- Задача связана с пониманием или генерацией текста
- Можно жить с тем, что ответ может быть неточным и требует проверки
- Цена единичной ошибки не катастрофическая или есть слой контроля сверху
Не применять
- Нужны точные числовые расчёты — лучше встроить калькулятор или классический алгоритм
- Цена ошибки очень высока (медицинские диагнозы, юридические выводы), и нет человека-проверяющего
- Чисто структурированная задача с понятными правилами — здесь LLM не нужен
Примеры применения
Команда поддержки клиентов внедряет LLM как «первую линию»: модель сама отвечает на частые вопросы, а сложные кейсы передаёт человеку. По метрикам количество тикетов, требующих участия оператора, падает в два раза, средняя скорость ответа клиенту — с часа до минуты. При этом ответы модели регулярно выборочно проверяются, и на основе ошибок дорабатывается системный промпт и база знаний.
Часто задаваемые вопросы
Из-за количества параметров. У современных LLM их от единиц до сотен миллиардов. Это в тысячи раз больше, чем у языковых моделей десятилетней давности, и именно на таком масштабе у моделей появились новые качества: следование инструкциям, обобщение, способность к рассуждениям.
Это спорный философский вопрос. Формально модель учится предсказывать следующий токен и не имеет внутренней модели мира, как у человека. При этом её ответы во многих задачах неотличимы от ответов понимающего собеседника. Поэтому удобнее думать о модели как о мощном инструменте обработки языка, а не как о сознательном агенте.
Модель не различает «знает» и «не знает» — она просто выбирает наиболее вероятное продолжение текста. Если правильного ответа в её весах нет, она всё равно сгенерирует что-то правдоподобное. Это называют галлюцинацией, и лечится оно либо подключением внешних источников знаний (RAG), либо встроенным механизмом «не знаю».