ИИ-агенты: от модели к сотруднику — кто создаёт, кто нанимает, кто работает

ChatGPT, Claude, Gemini — не агенты и не специалисты в какой-то предметной области (домена). Это обученные модели, знания которых похожи на знания выпускника вуза. Чтобы модель стала полезным агентом, её нужно запустить на железе, дать роль, знания вашего домена и контекст вашей ситуации. Всё как с наймом сотрудника — только быстрее, дешевле и масштабируемее.


Что является и НЕ является ИИ-агентом

«Claude — это ИИ-агент». Нет. Claude — это языковая модель (LLM). Набор обученных весов, файл на диске. Как книга с знаниями — знания есть, но их некому применить, а вот применяет именно агент.

«ChatGPT — это специалист и он заменит меня». Нет. ChatGPT — это система: серверы, API, интерфейс, модель внутри. Система работает, но не знает ничего о вас, вашей ситуации и домене, ваших задачах.

«Агент = модель + роль + контекст + инструменты + память». Нет. Знак «=» и «+» здесь вводят в заблуждение. Агент — это не сумма частей. Агент — это работающая система с эмерджентным свойством: способностью к целенаправленному действию.


Что такое ИИ-агент

Агент — автономная система, способная к целенаправленному действию.

Это объяснение работает безмасштабно: агентом может быть человек, робот, организация, ИИ-система. Ключевое свойство — не интеллект и не знания, а способность действовать ради цели.

Для того чтобы ИИ-агент существовал, нужны три условия одновременно:

  1. Железо (hardware) — сервер с GPU, на котором работает вычисление. Аналог тела: без него никакое действие невозможно.
  2. Модель (описание) — обученная нейросеть. Это артефакт: файл с весами, который описывает функцию, но сам ничего не делает. Как чертёж описывает двигатель, но не крутится. Знания модели — аналог знаний, например, выпускника вуза (далее уточню почему уповаю на выпускника).
  3. Система создания (harness / обвязка) — система, которая создаёт среду для работы агента. Как и любая система, это физическая целостность: работающий код, который маршрутизирует запросы, подставляет контекст, управляет состоянием. Обвязка использует описания (промпты, инструкции, документацию), предоставляет инструменты (API, файловый доступ) и хранит состояние (память, историю). Аналог рабочего места: не просто набор вещей, а работающая инфраструктура — офис, в котором всё подключено и функционирует.

Агент возникает не когда модель «получает» роль, а когда запущен процесс на железе, в котором модель работает внутри обвязки. Без запущенного процесса агента нет — есть только артефакты (файл модели, текст промпта, конфигурация).

Одна и та же модель проходит три состояния:

Состояние Что это Пример
Описание (артефакт) Файл весов на диске. Ничего не делает. Claude (веса модели)
Система Модель запущена на сервере, принимает запросы. Работает, но без цели. Claude, запущенный на сервере Anthropic
Агент Система настроена с целью и автономией. Действует и что-то помнит. Claude, настроенный с ролью, знаниями и протоколами внутри IWE

Аналогия с наймом: полный цикл

Представьте, что вам нужен финансовый аналитик. Что происходит?

Этап 0. Обучение (до найма — кто-то другой создал специалиста)

Выпускник экономического факультета провёл 4-6 лет в вузе. Преподаватели передали ему знания: МСФО, финмодели, статистику, экономическую теорию. Это обучение — длительный, дорогой процесс, который вы не контролируете. Он происходит до того, как вы нанимаете сотрудника.

Аналог в ИИ: pre-training. Компания (Anthropic, OpenAI, Google) обучает модель на огромном массиве текстов. Результат — описание (артефакт): файл весов, который «знает» множество предметных областей. Вы не участвуете в этом процессе и не влияете на него.

Общее в этом то, что в голове выпускника и в модели LLM скомпилированы определенные знания.

Человек ИИ
Вуз обучил студента (4-6 лет) Anthropic обучила модель Claude (месяцы, миллионы долларов)
Выпускник знает теорию, но не вашу компанию Модель знает множество тем, но не ваш домен
Вы не контролируете программу вуза Вы не контролируете процесс pre-training
Результат: мировоззрение человека Результат: описание (файл весов) с знаниями

Что создаёт Anthropic? В строгих терминах — описание (артефакт). Файл весов описывает функцию, но сам ничего не делает. Как чертёж описывает двигатель, но не крутится. «Выпускник вуза» — метафора, сравнивающая знания модели с знаниями человека, а не отождествляющая модель с человеком.

Этап 1. Найм (подписка / доступ)

Вы нашли подходящего кандидата. Теперь нужно оформить отношения. Вы не покупаете человека — вы платите ему зарплату. Каждый месяц. Пока сотрудничество полезно обеим сторонам.

Аналог в ИИ: подписка. Вы платите за доступ к модели. Claude Pro, ChatGPT Plus, API по токенам. Это не покупка — это аренда вычислительных мощностей и доступа к знаниям модели.

Человек ИИ
Зарплата (ежемесячно) Подписка (ежемесячно) или оплата по токенам
Можно «уволить» Можно отменить подписку
Сотрудник доступен в рабочее время Модель доступна 24/7
Один сотрудник = одна задача одновременно Одна подписка = параллельные сессии

Этап 2. Дообучение (необязательный, специализация)

Иногда после найма выпускник проходит дополнительную программу: MBA, сертификация CFA, стажировка в Big Four. Это дообучение — специализация знаний под конкретную область. Не каждый работодатель организует это — но некоторые компании оплачивают сертификации новым сотрудникам.

Аналог в ИИ: fine-tuning. Вы (или провайдер) берёте готовую модель и дообучаете её на ваших данных. Модель меняется «внутри» — её веса обновляются, она начинает лучше понимать вашу терминологию, ваш стиль, ваши типовые задачи.

Человек ИИ
Сертификация CFA после найма Fine-tuning модели на ваших данных
Меняет мировоззрение «в голове» (как бы навсегда) Меняет веса модели (навсегда в рамках этой версии)
Дорого, долго, результат предсказуем Дорого, требует данных, результат не всегда предсказуем
Создает специалист / учебный центр Создает ML-инженер / провайдер модели

Большинство пользователей LLM НЕ делают fine-tuning, они просто используют готовое. Это как разница между «нанять выпускника МГУ» и «оплатить ему ещё год в Гарварде». Обычно в этом нет необходимости — достаточно хорошего онбординга.

Этап 3. Онбординг (ввод в должность)

Вот тут начинается самое важное. Выпускник нанят, зарплату платите — но он не знает:

  • Чем занимается ВАША компания
  • Какие у вас проекты прямо сейчас
  • Где лежат документы
  • Какие регламенты действуют
  • С кем взаимодействовать
  • Как принимается работа

И каждое утро — как первый рабочий день, потому что у него нет памяти о прошлом дне.

Аналог в ИИ: context engineering. Вы не меняете модель «внутри» (это было бы обучение). Вы создаёте среду, в которой модель работает:

Что делает работодатель Что делаете вы для ИИ-агента
Должностная инструкция с ролями Роль (системный промпт): какие методы применять, как себя вести
Документация компании Знания домена: база знаний, документы, терминология
«Что сейчас происходит» Контекст: текущие проекты, задачи, состояние дел
Доступ к системам (1С, CRM, почта) Инструменты: API, серверы, доступ к файлам
Корпоративная память (кто что делал) Память: история взаимодействий, заметки, предыдущие решения

Онбординг ≠ обучение. Вы не учите выпускника-бухгалтера, что такое баланс — он это уже знает из вуза. Вы даёте ему ВАШ план счетов, ВАШУ учётную политику, ВАШИ шаблоны отчётов. Знания модели не меняются — меняется то, что она видит.

Этап 4. Постановка задачи

Сотрудник онбордился. Теперь ему нужна конкретная задача:

  • Что сделать (цель)
  • В каких ограничениях (сроки, бюджет, формат)
  • Какой результат ожидается

Аналог в ИИ: промпт. Промпт — это не магическое заклинание. Это постановка задачи: что нужно сделать, в каком формате, с какими ограничениями. Иногда, конечно, многие пытаются сделать еще и онбординг, но это редко получается хорошо или это приходится делать каждый раз.

Плохая постановка (человеку) Плохой промпт
«Сделай что-нибудь с финансами» «Помоги с бизнесом»
«Подготовь отчёт» (какой? за какой период? для кого?) «Напиши текст» (какой? для кого? зачем?)
Хорошая постановка (человеку) Хороший промпт
«Подготовь P&L за Q4 2025 для совета директоров, формат — 2 страницы, фокус на отклонениях от бюджета» Конкретная цель + контекст + формат + ограничения

Этап 5. Приёмка результата

Работа сделана. Но как понять, что она сделана хорошо?

Руководитель проверяет:

  • Соответствует ли результат поставленной задаче?
  • Нет ли фактических ошибок?
  • Можно ли использовать результат дальше?

Аналог в ИИ: проверка и валидация. ИИ-агент может ошибаться (галлюцинации, устаревшие данные, непонимание контекста). Результат нужно проверять — как работу любого сотрудника.


Четыре роли вокруг ИИ-агента

Разные люди (и организации) делают разное с ИИ-агентами:

Роль Что делает Пример Аналогия
Изготовитель, созидатель Обучает базовую модель (pre-training) Anthropic, OpenAI, Google Вуз, который выпускает специалистов
Дообучатель (тоже созидатель) Специализирует модель (fine-tuning) ML-инженер компании, провайдер Учебный центр, который проводит сертификацию
Инженер среды Проектирует обвязку (harness): принципы и знания предметной области, инструменты, протоколы Разработчик ИИ-систем, инженер платформы Администратор + руководитель, который создаёт рабочее место, регламенты, систему адаптации
Пользователь Ставит задачи и принимает результаты Конечный пользователь Заказчик работы (руководитель), который формулирует «что нужно»

Ключевой инсайт: большинство людей — пользователи. Они думают, что качество результата зависит от модели (изготовителя). На самом деле оно больше зависит от среды (обвязки).


Что значит «написать промпт»

Промпт часто воспринимают как единственное, что нужно сделать. «Написал хороший промпт — получил хороший результат». Это упрощение.

В аналогии с сотрудником промпт — это одна конкретная задача. Но качество результата определяется не только формулировкой задачи:

Уровень Что это Как влияет Кто отвечает
Модель Базовые знания и способности Потолок возможного Изготовитель
Fine-tuning Специализация под домен Точность в специфике Дообучатель
Обвязка Роль + знания + инструменты + память 80% качества результата Инженер среды
Промпт Конкретная задача Направление действия Пользователь

Промпт без обвязки — как задача сотруднику без онбординга. Можно дать идеальное техзадание выпускнику в первый рабочий день, но без знания контекста компании он сделает «правильно в целом, но неправильно для вас».


Почему доменные знания — самое важное

Вернёмся к выпускнику. Он знает теорию. Но:

  • Не знает вашу терминологию (в каждой компании свой жаргон)
  • Не знает ваши процессы (как у вас принято работать)
  • Не знает вашу историю (почему решения были приняты именно так)
  • Не знает ваши ограничения (бюджет, сроки, политику) и проблемы

То же самое с ИИ-моделью. Claude знает, что такое «финансовый анализ» в целом. Но не знает:

  • Ваш план счетов
  • Ваши KPI
  • Что в прошлом квартале сменился CFO и приоритеты изменились
  • Что отчёт для совета директоров — это 2 страницы, а не 20

Доменные знания — это мост между общими знаниями модели и вашей конкретной ситуацией. Без них модель генерирует «правильный в вакууме» текст, который бесполезен на практике.

Способы дать доменные знания ИИ-агенту:

Способ Когда Аналогия
В промпте (каждый раз) Разовые задачи Объяснить стажёру задачу на словах
В системном промпте (один раз для сессии) Постоянная роль Должностная инструкция на столе
В базе знаний (подгружается по запросу) Много знаний, не все нужны сразу Корпоративная wiki с поиском
Fine-tuning (записано в веса модели) Критически важная специализация Отправить на курсы повышения квалификации

Итоговая мысль

ИИ-модель — не агент и не специалист. Это обученная нейросеть, знания которой похожи на знания выпускника хорошего вуза.

Чтобы модель стала полезным агентом, нужны те же шаги, что и при найме сотрудника: 0. Кто-то должен её обучить (Anthropic, OpenAI — это «вуз»)

  1. Нужно оформить доступ (подписка — это «зарплата»)
  2. Иногда нужно дообучить под вашу специфику (fine-tuning — это «сертификация»)
  3. Нужно провести онбординг (context engineering — это «ввод в должность»)
  4. Нужно ставить задачи (промпт — это «техзадание»)
  5. Нужно принимать результат (проверка — это «приёмка работы»)

Большинство людей останавливаются на шагах 1 и 4: оплатили подписку и пишут промпты. Пропускают шаг 3 — онбординг. И удивляются, что «ИИ не понимает мою ситуацию».

Это как нанять выпускника, не провести адаптацию и ожидать, что он сразу будет работать как сотрудник с пятилетним стажем. Модель не виновата. Виновата отсутствующая среда.

Именно поэтому в IWE (Intelligent Working Environment) сделана ставка на знаниевую работу: ИИ-агент настолько полезен, насколько качественны доменные знания в его обвязке. IWE организует эти знания в виде репозиториев с описаниями предметных областей (Pack) — структурированных, версионируемых, доступных для агентов через MCP. Не промпт определяет качество результата, а то, насколько глубоко и точно описан ваш домен. Репозиторий предметной области — это не документация «для людей»; это рабочий материал, из которого агент строит свой онбординг при каждом запуске. Чем лучше описана предметная область, тем ближе агент к «сотруднику с пятилетним стажем» — без пяти лет ожидания.

1 лайк