<div><img src="https://mc.yandex.ru/watch/56654995" style="position:absolute; left:-9999px;" alt="" /></div>
Попробовать бесплатно
Фреймворк

Тег: LLM

Термины, отмеченные тегом «LLM» — 24 термина.

MCP (Model Context Protocol)

Открытый протокол, по которому LLM и агенты могут единообразно подключаться к внешним инструментам, источникам данных и сервисам.

RAG (поиск с дополнением генерации)

Подход, при котором перед ответом LLM ищет релевантные документы в своей базе знаний и использует их как контекст.

Большая языковая модель

Нейросеть с миллиардами параметров, обученная предсказывать следующий токен в тексте и способная отвечать на вопросы, писать код и рассуждать.

Векторная база данных

Хранилище, оптимизированное под быстрый поиск ближайших векторов — основа RAG-систем и семантического поиска.

Вызов функций (function calling)

Возможность LLM возвращать структурированный запрос на вызов внешней функции вместо обычного текста и затем учитывать её результат.

Выравнивание (alignment) модели

Совокупность подходов и методов, направленных на то, чтобы поведение ИИ-модели соответствовало целям и ценностям людей.

Галлюцинации модели

Уверенно сформулированный ответ языковой модели, который при этом фактически неверен или выдуман.

Дистилляция модели

Метод, при котором маленькая «ученическая» модель обучается имитировать ответы большой «учительской» — получается дешёвая модель с близким качеством.

Джейлбрейк (обход ограничений модели)

Способы заставить языковую модель обойти свои защитные правила и выдать запрещённый или нежелательный ответ.

ИИ-агент

Программа на основе LLM, которая способна планировать действия, вызывать внешние инструменты и доводить задачу до результата без постоянного контроля человека.

ИИ-копилот

ИИ-помощник внутри основной рабочей среды человека, который подсказывает, заполняет и выполняет рутинные операции, но финальное решение оставляет за человеком.

Контекстное окно

Максимальное количество токенов, которые языковая модель может видеть одновременно — её рабочая «оперативная память».

Обучение с подкреплением на обратной связи человека (RLHF)

Метод, в котором модель улучшают, используя оценки людей: они сравнивают разные ответы и направляют обучение в сторону предпочтительных.

Обучение на нескольких примерах (few-shot)

Подход, при котором в промпт добавляют 2–10 примеров «запрос → правильный ответ», чтобы модель поняла нужный формат и стиль.

Предобучение модели

Этап тренировки большой нейросети на огромных объёмах общих данных перед последующей тонкой настройкой под конкретные задачи.

Промпт

Входной текст, который пользователь или приложение подаёт большой языковой модели и на основании которого она генерирует ответ.

Промпт-инжиниринг

Инженерная дисциплина проектирования, тестирования и поддержки промптов как ключевого компонента ИИ-продукта.

Системный промпт

Постоянная часть инструкции к модели, задающая её роль, стиль, ограничения и поведение в рамках продукта.

Трансформер (архитектура нейросети)

Архитектура нейросети из статьи «Attention Is All You Need» (2017), на которой построены почти все современные большие языковые модели.

Токен

Минимальный кусочек текста, с которым работает языковая модель: целое слово, его часть или знак препинания.

Тонкая настройка модели

Дообучение готовой модели на небольшом наборе своих данных, чтобы адаптировать её под конкретную задачу, домен или стиль.

Температура (параметр генерации)

Параметр, регулирующий случайность ответов LLM: чем ниже температура, тем более предсказуемы и однообразны ответы.

Цепочка рассуждений (chain-of-thought)

Техника, при которой модель просят показать промежуточные шаги рассуждения, а не сразу выдавать ответ — это улучшает решение сложных задач.

Эмбеддинг (векторное представление)

Числовой вектор, в который модель переводит слово, предложение или другой объект, сохраняя его смысл.