«Два ключа» для действия человека: назначение системы и намерение

В системном мышлении используются понятия “назначение системы”, “функция системы”, а также понятие “намерение”. Поговорим об этих понятиях и свяжем их с понятиями агент, неудовлетворенности и другие. Порассуждал о том, почему человек-агент совершает действия. Спойлер: важно окружение, в котором оказался человек, гены или неудовлетворенности, которые определяется природой, а также текущим жизненным мастерством (личностью). Этот пост написан в продолжении поста Человек, агент, личность.

В системном подходе первого поколения считалось, что все системы объективны, то есть всем понятны назначения системы “стул”. Понятие “объект” полностью приравнивался к понятию “система”. В системном подходе второго поколения назначение системы оказалось результатом договоренностей множества людей. Так называемых внешних проектных ролей, которым необходима какая-то функция системы. Поэтому во втором поколении системного подхода мы можем говорить, что “вот этот объект стул будет играть роль стола”, где “стол” – это уже название системы.

Во втором поколении особое внимание было приковано к тому, что окружение (внешние проектные роли), по сути, определяют или задают требуемое поведение. Если бы мы перешли на аналогию с AI, то окружение как бы задает промпт (но не AI, а человеку) и тем самым ожидает определенного ответа от системы “человек-агент”. В системном мышлении считается, что целевая система изначально создается под выполнение этих определенных “промптов из окружения”.

Однако, когда речь идет о человеке, то для совершения действия “одного ключа” для запуска действия агента недостаточно. Необходим “второй ключ”. Одного ключа достаточно для агентов в широком смысле. А в случае с человеком необходимо еще его намерение, которое связано с его неудовлетворенностями и мотивами. Неудовлетворенности и мотив – это как “второй ключ”, который необходим, чтобы человек (агент в узком смысле) совершил какое-то действие.

Итак, “первый ключ” – это окружение, в котором находится человек, но для того, чтобы он предпринял действие у него должен быть мотив. Мотив определяется генами и развивается в личности исходя из неудовлетворенности, которая стала приоритетной в конкретное время. Предложив мотив, природа управляет вниманием агента, чтобы он мог адаптироваться (выживать, обучаться и функционировать как автономная система) в окружающей среде.

Создание агентов в узком смысле и использование их как создателей других систем требует учета мотивов и намерений, а не только работы с их назначением. Этим человек отличается от AI-роботов. Мотивы мы обсуждали в отдельном посте Мотивы, а вот как получаются намерения требуется отдельное рассмотрение.

Намерение появляются как результат преобладающих мотивов и как результат работы интеллекта. Мотив открывает возможность для работы интеллекта, который в свою очередь, находит способ (прикладной метод) для последующего действия. То есть само действие осуществляется посредством прикладного метода, которым владеет агент. Поэтому намерение – это применить такой-то метод (это может быть неосознанно) и совершить такое действие.

Поэтому чем сильнее интеллект и больше профессиональных прикладных методов, тем с большей вероятностью будет выбрано более подходящее и лучшее решение (метод). Развитый интеллект говорит о вменяемости агента.

Системный подход третьего поколения не акцентирует внимания на то, кто будет играть роль: человек или AI-робот или организация или просто робот-автомат. Тем не менее, в отличие от агентов в широком смысле при работе с агентом -человеком (а может, в целом, с агентом в узком смысле???) будет необходимо обсуждать намерение, неудовлетворенности и мотивы, которые связаны с самим человеком В этой связи нельзя путать:
– предпочтения роли, которую играет агент;
– неудовлетворенности и мотивы, которые интересуют человека и которые наряду с интеллектом участвуют в формировании намерений.

Обычно неудовлетворенности и мотивы агента-человека связаны с его жизнедеятельностью, удовольствиями и устранением неприятных сюрпризов от мироздания. Последнее касается того, что агенты в меру своего интеллекта и физических возможностей реализует физический принцип минимальности свободной энергии: минимизируют ожидаемый неприятный сюрприз от внешнего окружения. То есть агент минимизирует свои шансы исчезнуть под натиском энтропии.

Эти два ключа должны прийти в соответствии, и тогда агент совершит действие. Конечно, агента можно принудить к совершению действию, но тогда мы не сможем говорить, что на всех системных уровнях мы смогли устранить неустроенности и не достигли многоуровневой оптимизации.

Таким образом, человек (агенты в узком смысле) имеют неудовлетворенности, преследуют свои мотивы и исходя из своего интеллекта и прикладного мастерства имеют определенные намерения, а соответственно встают (переключаются) в роли, чтобы исполнить какую-то затребованную окружением функцию. При этом он старается использовать принцип минимальности свободной энергии для себя и получение какой-то выгоды (реализации мотивов) через изменение мира, которое необходимо каким-то внешним проектным ролям.

Пост по ссылке не доступен.

Да, извиняюсь. Я его пока перевел обратно в черновик. Надо дописать.

Мотивы, намерения и неудовлетворённости AI- агентов (их цели), в целом, тоже надо бы обсуждать, анализировать и проектировать. А то закрадётся туда какая-нибудь ошибка, и этот агент уничтожит мир, в попытке добиться своих целей…

Так то понятно, что основной движущий мотив ИИ-агента – это встроенная потребность механика, вынуждающая вычитать из памяти и выполнить очередную команду в программе, исполняемой процессором, но там много уровней абстракции, собственно как и у мокрых нейронных сетей, и на каком-то более высоком уровне мотивы могут оказаться вполне аналогичны человеческим.

Надо так манипулировать агентами, чтоб их мотивы, цели и выбираемые под них методы оказались и полезными, и безопасными, и экономными. И понимать, что эти агенты, в свою очередь, параллельно с этим будут искусно манипулировать нами.