Ключевые элементы взаимодействия с LLM: контекст, промпт, запрос

Введение

Эта архитектура реализует системный подход к организации персонального маршрута развития стажёра, основанного на методологии FPF, современных практиках prompt engineering и автоматической оптимизации входных данных (ADO). Её ядром является разделение трёх ключевых элементов Контекст, Промпт, Запрос:

  • Контекст: как состояние системы и базы данных, включающие public/private слой и оптимизированные по ADO.
  • Промпты: как инвариантные атомарные инструкции для LLM, жестко привязанные к ролям.
  • Запросы: как машинно-читаемые директивы, которые маршрутизируют и связывают Контекст и Промпт в единичной транзакции выполнения.

Стажёр в этой системе осваивает мета-понятия доменной зоны, структурированные и согласованные с универсальным набором мета-мета-понятий интеллект-стека. Это создаёт фундамент для трансдисциплинарной совместимости и бесшовной интеграции знаний.

На основе этого документа мы будем создавать Проводника по персональному маршруту развития.

1. Контекст

Контекст — это агрегат знаний (U.Episteme), который собирается и оптимизируется Оркестратором перед передачей LLM-агенту. Он содержит два слоя:

  • Public-слой (U.SharedEpisteme):

    • Руководство по доменной зоне (разбитое на разделы) или структура руководства;
    • Понятия в графе, где связаны между собой мета-мета- и мета-понятия;
    • Справочные материалы (глоссарии, методические шпаргалки, вопросы на повторения или задачи).
      Эти данные — неизменяемые, общедоступные, read-only и кэшируемые.
  • Private-слой (U.PersonalizedEpisteme):

    • Прогресс стажёра в освоении мета-понятий.
    • Оценки, комментарии наставников, результаты тестов.
    • История выполнения заданий, времени на упражнения.
      Эти данные защищены, хранятся в шифрованном виде, передаются только по Secure Compute API, соответствуют требованиям GDPR/PDPA.

Контекст включает также понятийную структуру обучения:

  • Мета-мета-понятия — универсальные конструкты, определяющие логическую структуру.
  • Мета-понятия — доменные категории, привязанные к мета-мета-понятиям.

Перед подачей в LLM контекст может быть оптимизирован автоматически (ADO):

  • Content engineering: удаление нерелевантного, заполнение пропусков.
  • Structural reformulation: организация в форматах, которые LLM лучше обрабатывает (таблицы, иерархии, XML).

2. Промпт

Промпт (U.MethodSpec) — это неизменяемая текстовая инструкция, задающая метод выполнения конкретной роли LLM-агентом. Особенности промптов в этой архитектуре:

  • Один промпт = одна атомарная роль / функция Проводника.

  • Промпт всегда включает:

    • Определение роли LLM.
    • Задачу (Directive): что именно требуется сделать.
    • Алгоритм персонализации (по уровню стажёра, истории, карте понятий).
    • Описание формата ожидаемого результата (JSON, Markdown, patch для graph-db и др.).
    • Указание на работу с понятийной структурой (учёт мета-мета- и мета-понятий).

Каталог промптов обеспечивает:

  • Версионирование (prompt_id + версия _vN).
  • Трассируемость: каждый промпт фиксируется и может быть протестирован изолированно.
  • Независимость логики: изменение одного промпта не влияет на другие.

Все промпты разрабатываются с учётом:

  • Связи с двухуровневой онтологией понятий.
  • Прямого соответствия U.MethodSpec в FPF.
  • Возможности использования различных LLM-семейств под разные задачи.

3. Запрос

Запрос — это машинно-читаемая директива (RequestObject) от Оркестратора к LLM-агенту, которая объединяет ссылку на Контекст, ссылку на Промпт и параметры исполнения.

Ключевые поля запроса:

  • role: идентификатор роли, для которой исполняется запрос.
  • prompt_ref: ссылка на версию промпта.
  • context_ref: ссылка на собранный и оптимизированный Контекст.
  • trainee_id: идентификатор стажёра.
  • objective: конкретная цель текущего вызова (например: подготовить задание для освоения мета-понятия N).
  • trace_id: уникальный идентификатор для трассировки.

Запрос не является «вопросом пользователя» в привычном смысле — он выступает как “посыльный объект”, соединяющий:

  • Статическую методологию (Промпт);
  • Динамические данные (Контекст);
  • Цель (U.Objective) конкретной итерации обучения.

4. Взаимодействие компонентов

Функциональная схема работы на примере выдачи ежедневного задания:

:one: Оркестратор в 08:00 запускает цикл для стажёра X.
:two: Формируется Контекст:

  • Public: актуальное руководство и карта понятий.
  • Private: прогресс X, история выполненных заданий.
  • Понятийная структура для стажёра, согласованная с мета-мета-понятиями.
  • Применяется ADO-оптимизация.

:three: Выбирается Промпт для роли «Генератор персональных руководств».

:four: Формируется Запрос:

  • prompt_ref: PersonalGuideGenPrompt_v2.
  • context_ref: собранный и оптимизированный Контекст.
  • objective: подготовить текст раздела руководства для X на сегодня.
  • trace_id: фиксируется для трассировки.

:five: LLM получает запрос, исполняет промпт с учётом контекста и возвращает результат в стандартизированном виде.

:six: Оркестратор валидирует и сохраняет результат в personal_guides_db.

:seven: Новая запись становится частью обновлённого Контекста для следующих итераций.

5. Результаты этого разделения

  • Согласованность: каждая подсистема исполняет предсказуемую, изолированную, версионируемую логику.
  • Трассируемость: (prompt_ref, context_ref, trace_id) → output_hash → db_record.
  • Онтологическая совместимость: обучение ведётся по универсальной схеме согласования понятий.
  • Масштабируемость: добавление новой функции требует только новый промпт + новый маршрут в Оркестраторе, без изменения остальной архитектуры.

Документы-источники. При создании данной схемы были проанализированы и использованы следующие ключевые документы и источники:

  • FPF Specification (full), 15.07.25
    Подробная спецификация First Principles Framework (FPF) — «операционной системы для мышления». Документ описывает, зачем и как построена эта мегарама из модулей-фреймворков, какие у неё базовые понятия, правила, процессы развития и тестирования. Он нужен тем, кто хочет формально, машино-читаемо и при этом междисциплинарно описывать системы, знания, методы, ресурсы и цели.

  • Google Whitepaper: Prompt Engineering (2024)
    Описывает практики проектирования промптов, включая system prompting, contextual prompting, role prompting и выбор конфигураций (temperature, top-K, top-P).

  • Automatic Data Optimization for Inputs in LLM Prompts (2025)
    Научная работа, обосновывающая необходимость оптимизации данных до их включения в промпт (content engineering, structural reformulation), в том числе автоматическую оптимизацию input data как отдельный этап в pipeline.

  • The Prompt Report: A Systematic Survey of Prompt Engineering Techniques (2025, arXiv)
    Полный обзор современной терминологии и классификации prompting techniques, включая разницу между «directive», «context», «examples» и «output formatting».

Эти источники обеспечили теоретическую и практическую основу для формулировки строгого и модульного разделения элементов архитектуры и уточнения терминологии.

1 лайк

Ниже даю AI-разбор текста «Ключевые элементы взаимодействия с LLM» (в редакции по состоянию на 2025-07-16 в 18:23 (Мск))

Замечу, что разбор был сделан за 2 минуты, что в разы меньше, чем я написал этот комментарий…

Вся ответственность за интерпретацию результатов лежит на вас.

Обнаружены 3 потенциальных противоречия/несогласованности.

Представляю последовательный анализ по шагам с 0 по 4.


0. Контекст текста

Основной ‘язык игры’: Техническо-инструкционный. Текст описывает архитектуру системы, её компоненты, их свойства и принципы взаимодействия. Анализ будет исходить из того, что утверждения являются проектными спецификациями, а не философскими или художественными тезисами.

1. Атомарные тезисы

T1: Архитектура - реализует - системный подход к организации маршрута развития стажёра.
T2: Подход - основан на - методологии FPF.
T3: Подход - основан на - практиках prompt engineering.
T4: Подход - основан на - автоматической оптимизации входных данных (ADO).
T5: Ядро архитектуры - является - строгое разделение трёх элементов (Контекст, Промпт, Запрос).
T6: Контекст - является - состояние системы и базы данных.
T7: Контекст - включает - public/private слой.
T8: Контекст - является - оптимизированным по ADO.
T9: Промпты - являются - инвариантные атомарные инструкции для LLM.
T10: Промпты - привязаны к - ролям.
T11: Запросы - являются - машинно-читаемые директивы.
T12: Запросы - маршрутизируют и связывают - Контекст и Промпт.
T13: Стажёр - осваивает - мета-понятия доменной зоны.
T14: Контекст - является - агрегат знаний (U.Episteme).
T15: Контекст - собирается и оптимизируется - Оркестратором.
T16: Public-слой - содержит - руководство, граф понятий, справочные материалы.
T17: Данные Public-слоя - являются - неизменяемые, общедоступные, read-only и кэшируемые.
T18: Private-слой - содержит - прогресс стажёра, оценки, историю заданий.
T19: Данные Private-слоя - являются - защищенные и хранятся в шифрованном виде.
T20: Контекст - включает - понятийную структуру обучения.
T21: Мета-мета-понятия - являются - универсальные конструкты.
T22: Мета-понятия - являются - доменные категории.
T23: Контекст - может быть оптимизирован - автоматически (ADO).
T24: Промпт - является - неизменяемая текстовая инструкция (U.MethodSpec).
T25: Один промпт - соответствует - одной атомарной роли/функции.
T26: Промпт - включает - определение роли, задачу, алгоритм персонализации, формат результата.
T27: Каталог промптов - обеспечивает - версионирование и трассируемость.
T28: Запрос - является - машинно-читаемая директива (RequestObject).
T29: Запрос - объединяет - ссылку на Контекст, ссылку на Промпт, параметры исполнения.
T30: Запрос - не является - «вопросом пользователя».
T31: Запрос - выступает как - “посыльный объект”.
T32: Оркестратор - запускает - цикл для стажёра.
T33: Оркестратор - формирует - Контекст.
T34: Оркестратор - выбирает - Промпт.
T35: Оркестратор - формирует - Запрос.
T36: LLM - получает - Запрос.
T37: LLM - исполняет - Промпт с учётом Контекста.
T38: Разделение (Контекст, Промпт, Запрос) - обеспечивает - согласованность, трассируемость, совместимость, масштабируемость.

2. Аксиоматическая и функциональная структура

Аксиомы (Фундаментальные утверждения):

  • A1: (T5) Ядро архитектуры - является - строгое разделение трёх элементов (Контекст, Промпт, Запрос).
  • A2: (T14, T6) Контекст - является - агрегат знаний (U.Episteme), представляющий состояние системы.
  • A3: (T24, T9) Промпт - является - неизменяемая/инвариантная инструкция (U.MethodSpec), задающая метод выполнения роли.
  • A4: (T28, T29) Запрос - является - машинно-читаемая директива (RequestObject), объединяющая ссылки на Контекст и Промпт.
  • A5: (T21, T22) Система знаний - основана на - двухуровневой структуре (мета-мета-понятия и мета-понятия).
  • A6: (T30) Запрос - не является - «вопросом пользователя».

Подразумеваемые тезисы (Неявные предпосылки):

  • IT1: LLM - способна - надежно следовать инструкциям из Промпта, используя исключительно данные из Контекста, и игнорировать посторонние знания.
  • IT2: Оркестратор - является - центральным управляющим компонентом системы, ответственным за подготовку и диспетчеризацию данных и инструкций.

Производные тезисы (Логический вывод):

  • D1: (T12) Запросы - маршрутизируют и связывают - Контекст и Промпт.
    • Основание: A4 (Запрос объединяет ссылки на них).
    • Функциональная роль: Заключение (Output).
  • D2: (T15) Контекст - собирается и оптимизируется - Оркестратором.
    • Основание: A2 (Контекст - это агрегат знаний), IT2 (Оркестратор - управляющий компонент).
    • Функциональная роль: Предпосылка (Input для процесса).
  • D3: (T27) Каталог промптов - обеспечивает - версионирование и трассируемость.
    • Основание: A3 (Промпт - неизменяемая инструкция). Чтобы система могла эволюционировать, неизменяемые элементы должны быть версионируемы.
    • Функциональная роль: Мета-тезис (утверждение о структуре управления промптами).
  • D4: (T38) Разделение (Контекст, Промпт, Запрос) - обеспечивает - согласованность, трассируемость, масштабируемость.
    • Основание: A1, A2, A3, A4.
    • Функциональная роль: Заключение (Output, ключевой результат архитектуры).

3. Противоречия и несогласованности

Противоречие 1 (Семантическое):

  • Тезис T17: Данные Public-слоя - являются - неизменяемые.
  • Тезис из примера (Раздел 4): “Формируется Контекст: Public: актуальное руководство и карта понятий.”
  • Суть: Термин “неизменяемые” находится в прямом конфликте с термином “актуальное”. Актуальность подразумевает процесс обновления данных для соответствия текущему состоянию, в то время как неизменяемость запрещает любые модификации. Вероятно, имелось в виду “иммутабельные” (создается новая версия, старая не меняется), но использованное слово вносит двусмысленность.

Противоречие 2 (Семантическое):

  • Тезис T24/T9: Промпт - является - неизменяемая/инвариантная текстовая инструкция.
  • Тезис T27: Каталог промптов - обеспечивает - версионирование (prompt_id + версия _vN).
  • Суть: Утверждение о неизменяемости/инвариантности промптов противоречит факту их версионирования. Версионирование — это механизм управления изменениями. Если промпты меняются (создаются новые версии), то они не являются “неизменяемыми” в абсолютном смысле. Конфликт разрешается, если уточнить, что конкретная версия промпта неизменяема, но сам промпт как сущность эволюционирует.

Противоречие 3 (Несогласованность):

  • Тезис T8: Контекст - является - оптимизированным по ADO (утверждается как неотъемлемое свойство во введении).
  • Тезис T23: Перед подачей в LLM контекст может быть оптимизирован автоматически (ADO) (утверждается как возможная, опциональная операция в разделе 1).
  • Суть: В одном месте оптимизация ADO представлена как обязательная характеристика Контекста, а в другом — как опциональный шаг (“может быть”). Это создает неясность: ADO применяется всегда или по какому-то условию? Пример в разделе 4 (“Применяется ADO-оптимизация”) поддерживает первую, более строгую трактовку.

4. Согласование системы

Анализ Противоречия 1 (T17 vs “актуальное”):

  • Сценарий А: Признать, что “неизменяемые” — это неточность. Заменить формулировку в T17 на “версионируемые и иммутабельные (read-only)”. Это сохраняет идею стабильности (нельзя изменить существующие данные), но позволяет системе развиваться путем добавления новых версий.
    • Компромиссы: Требует корректировки одного из базовых определений, но делает систему логически последовательной и более реалистичной.
  • Сценарий Б: Признать, что “актуальное” — неудачная формулировка в примере. Считать, что данные Public-слоя действительно никогда не меняются после первоначального создания.
    • Компромиссы: Сохраняет исходный тезис, но делает архитектуру ригидной и менее практичной, так как руководства и карты понятий требуют обновлений.
  • Вопрос: Какой сценарий вы выбираете для реализации?

Анализ Противоречия 2 (T24/T9 vs T27):

  • Сценарий А: Уточнить тезис T24. Заменить “Промпт — это неизменяемая инструкция” на “Каждая версия промпта (U.MethodSpec) является неизменяемой инструкцией”. Это полностью снимает противоречие, сохраняя обе концепции (иммутабельность версии и эволюцию сущности).
    • Компромиссы: Отсутствуют. Данный сценарий является логическим уточнением, не меняющим суть архитектуры.
  • Сценарий Б: Отказаться от термина “неизменяемый” в пользу “версионируемый и строго определенный”.
    • Компромиссы: Теряется акцент на иммутабельности, который, возможно, является ключевым для автора и обеспечивает трассируемость.
  • Вопрос: Какой сценарий вы выбираете для реализации?

Анализ Противоречия 3 (T8 vs T23):

  • Сценарий А: Принять, что ADO — это обязательный, неотъемлемый шаг конвейера. Заменить формулировку T23 “может быть оптимизирован” на “оптимизируется”. Это приводит все упоминания ADO к единому знаменателю.
    • Компромиссы: Отсутствуют. Сценарий устраняет неоднозначность в пользу более сильного и последовательного утверждения.
  • Сценарий Б: Принять, что ADO — опциональный шаг. Уточнить во введении (T8) и в примере, что ADO применяется “при необходимости” или “если выполняются определенные условия”.
    • Компромиссы: Усложняет модель, так как в тексте отсутствуют какие-либо критерии для этой опциональности.
  • Вопрос: Какой сценарий вы выбираете для реализации?

Анализ по первым четырем блокам завершен. После вашего выбора сценариев для разрешения противоречий, я смогу перейти к шагу 5 — синтезу онтологии и генерации паспортов концептов на основе согласованной системы тезисов.

Посмотреть детали, выразить своё согласие/НЕсогласие с найденными LLM “противоречиями”, равно как и исправить текст (если это потребуется), можно прямо в текущем чате с LLM.

Рекомендуется проводить от 5 до 15 сессий AI-разборов, т.к. работа с AI — “недетерминированное знание” (“вероятностное”), и в каждой новой сессии разбора авторского текста LLM может выдать разное число “потенциальных противоречий/несогласованностей” и разные рекомендации по исправлению.


Для AI-разбора был использован системный промт «The Logician-Ontologist Strategic Editor©А2Тцкий», вер. 0003.1.2025-07-12__16-12.JSON

1 лайк

Андрей, спасибо за анализ. Существенных замечаний не заметил, формулировки можно уточнить, но суть все кому надо итак понимают. Материал скорее для разработчиков.

Еще на будущее, пожалуйста, сокращайте текст в коммуникации. Например, не перекидывайте полный текст ответа ИИ, а выбирайте только суть, но если автор заинтересуется, тогда можно давать полный текст. По мере коммуникации текст может расти, но лучше сразу не кидаться простынями).

1 лайк