Термины, отмеченные тегом «LLM» — 24 термина.
Открытый протокол, по которому LLM и агенты могут единообразно подключаться к внешним инструментам, источникам данных и сервисам.
Подход, при котором перед ответом LLM ищет релевантные документы в своей базе знаний и использует их как контекст.
Нейросеть с миллиардами параметров, обученная предсказывать следующий токен в тексте и способная отвечать на вопросы, писать код и рассуждать.
Хранилище, оптимизированное под быстрый поиск ближайших векторов — основа RAG-систем и семантического поиска.
Возможность LLM возвращать структурированный запрос на вызов внешней функции вместо обычного текста и затем учитывать её результат.
Совокупность подходов и методов, направленных на то, чтобы поведение ИИ-модели соответствовало целям и ценностям людей.
Уверенно сформулированный ответ языковой модели, который при этом фактически неверен или выдуман.
Метод, при котором маленькая «ученическая» модель обучается имитировать ответы большой «учительской» — получается дешёвая модель с близким качеством.
Способы заставить языковую модель обойти свои защитные правила и выдать запрещённый или нежелательный ответ.
Программа на основе LLM, которая способна планировать действия, вызывать внешние инструменты и доводить задачу до результата без постоянного контроля человека.
ИИ-помощник внутри основной рабочей среды человека, который подсказывает, заполняет и выполняет рутинные операции, но финальное решение оставляет за человеком.
Максимальное количество токенов, которые языковая модель может видеть одновременно — её рабочая «оперативная память».
Метод, в котором модель улучшают, используя оценки людей: они сравнивают разные ответы и направляют обучение в сторону предпочтительных.
Подход, при котором в промпт добавляют 2–10 примеров «запрос → правильный ответ», чтобы модель поняла нужный формат и стиль.
Этап тренировки большой нейросети на огромных объёмах общих данных перед последующей тонкой настройкой под конкретные задачи.
Входной текст, который пользователь или приложение подаёт большой языковой модели и на основании которого она генерирует ответ.
Инженерная дисциплина проектирования, тестирования и поддержки промптов как ключевого компонента ИИ-продукта.
Постоянная часть инструкции к модели, задающая её роль, стиль, ограничения и поведение в рамках продукта.
Архитектура нейросети из статьи «Attention Is All You Need» (2017), на которой построены почти все современные большие языковые модели.
Минимальный кусочек текста, с которым работает языковая модель: целое слово, его часть или знак препинания.
Дообучение готовой модели на небольшом наборе своих данных, чтобы адаптировать её под конкретную задачу, домен или стиль.
Параметр, регулирующий случайность ответов LLM: чем ниже температура, тем более предсказуемы и однообразны ответы.
Техника, при которой модель просят показать промежуточные шаги рассуждения, а не сразу выдавать ответ — это улучшает решение сложных задач.
Числовой вектор, в который модель переводит слово, предложение или другой объект, сохраняя его смысл.