В статье разбираем архитектурный паттерн, где LLM вынесена из ядра принятия решений в сервисную роль, а управление диалогом осуществляет stateful-субъект. ПоказВ статье разбираем архитектурный паттерн, где LLM вынесена из ядра принятия решений в сервисную роль, а управление диалогом осуществляет stateful-субъект. Показ

Субъектный подход к архитектуре агентов: инверсия управления LLM

В статье разбираем архитектурный паттерн, где LLM вынесена из ядра принятия решений в сервисную роль, а управление диалогом осуществляет stateful-субъект. Показываем реализацию механики "осознанного обращения к LLM" (deliberate query) на основе оценки внутреннего состояния, в отличие от жестких пайплайнов типа ReAct или CoT.

Проблема "LLM-центричности"
Большинство современных агентов строятся вокруг промпта к модели:
Context + Prompt - LLM - Action/Answer
Это делает агента заложником стохастики модели. Мы предлагаем инверсию:
Agent State - Decision Logic - (Optional LLM Call) - Answer

Архитектура ENA
Stateful Core: Агент — это не промпт, а непрерывный процесс (Python-класс с сохраняемым состоянием), который "живет" между репликами пользователя.
LLM как Tool, а не Brain: Модель подключена как один из инструментов (наряду с поиском и доступом к коду).
Logic Layer: Слой логики, который оценивает сложность контекста и риски текущей реплики.

Кейс реализации: Эмерджентная рефлексия
Вместо жесткого зашивания "think step" перед каждым ответом (как в Quiet-STaR), мы реализовали динамическую проверку:
Если уверенность агента в ответе высока (рутинный диалог) - ответ генерируется напрямую в BodyState.

Если детектируется конфликт целей (например, "сохранить persona" vs "быть полезным") -- инициируется внутренний диалог. Технически это выглядит как вложенный цикл запроса:

Агент формирует мета-запрос: [Situation Context] + [Internal Conflict Description] - "Advice needed".
LLM возвращает не финальный ответ юзеру, а анализ вариантов стратегии.
Логика агента парсит ответ и выбирает стратегию.
Финальная генерация ответа.

Агент "тормозит" перед сложными ответами, генерируя до 10-15 КБ скрытого "мыслительного" текста (reasoning trace), валидируя свои гипотезы об уместности ответа.

Отделение субъекта (state) от логического движка (LLM) позволяет создавать агентов, которые:

Могут "молчать" и "думать".
Используют LLM для валидации своих действий, снижая галлюцинации и социальные риски.
Обладают стабильной "психикой" (consistent persona), которая не размывается контекстным окном.

Источник

Возможности рынка
Логотип Cosplay Token
Cosplay Token Курс (COT)
$0.001084
$0.001084$0.001084
0.00%
USD
График цены Cosplay Token (COT) в реальном времени
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу service@support.mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно