Я хотел бы разобраться в различиях между человеком и ИИ-агентом, который может обладать интеллектом, сравнимым с человеческим (AGI – Artificial General Intelligence) или даже превосходящим его (ASI – Artificial Superintelligence). Многие визионеры считают, что AGI появится уже в ближайшее время, но появится ли ИИ-агент? Я различаю AGI и ИИ-агента, а также различаю интеллект и агента.
К сожалению, я пока не настолько глубоко погружен в технологии создания ИИ, чтобы быть экспертом в этом вопросе. Однако мне важно понять, насколько возможен такой высокоинтеллектуальный ИИ. Уверен, что это поможет мне лучше осознать, как улучшить свою жизнь и создавать системы, способные менять мир к лучшему.
Это мое первое размышление в формате письма на эту тему, поэтому возможны ошибки, включая грубые логические просчеты. Однако такова моя текущая «нейронная сеть» – и если я хочу ее развивать, мне не стоит бояться ошибок или выглядеть глупо.
Агент: характеристики и принципы функционирования
Понятие “агент” позволяет универсальным образом рассматривать разных исполнителей ролей, выделяя при этом что-то общее. Под агентами можно понимать не только живых существ, но также ИИ, калькулятор или даже камень. Конечно, у каждого вида агента есть свои характеристики агентности, вменяемости, автономности и т.п. При этом нельзя сравнивать агентность и интеллект, это все равно, что говорить про скорость и мотор автомобиля (разные типы).
Разные агенты или даже в рамках одного из видов агентов эти характеристики могут варьироваться. Например, у камня показатель автономности будет равен нулю, но даже человека мы не можем рассматривать как полностью автономного агента (хотя человек имеет высокий показатель автономности), поскольку люди также сильно зависят от своего окружения. Разные люди также проявляют различные уровни агентности: один – инициативен и постоянно действует или имеет высокую агентность, а другой – пассивен, но в определенных обстоятельствах их поведение может кардинально меняться.
Для любых агентов можно определить следующую простую схему их функционирования:
– получение информации, при этом здесь получается не только первичная информация для принятия решения, но и обратная связь от совершенных действий;
– принятие решения исходя из своей модели мира и себя, то есть учитывает вся информация, которая так или иначе находится и доступна в момент принятия решения. Это информация можно представить как убеждения, принципы, опыт, изученные теории по разному мастерству и т.п.
– действие в реальном мире, которое по факту меняет мир на разных системных уровнях, начиная с того, что меняется сам агент (например, остается отпечаток от совершенного действия как впечатление в памяти) или меняются системы в окружении.
Для реализации этой схемы агент может обладать двумя функциональными частями: организмом (аппаратной основой) и мастерством (навыками и интеллектуальными способностями). Это можно сравнить с компьютером, где есть аппаратная часть (hardware) и программное обеспечение (software). Подробнее об этом в курсе “Инженерия личности”.
Получение информации происходит через обе функциональные части. Даже если информация поступает через органы восприятия, например, как у человека в том числе через тело (hardware), окончательное решение принимает software, которая затем дает команду организму на выполнение действия.
Конечно, чем менее вменяемый агент (или у него низкий показатель автономности), то он может больше зависеть от других агентов (часто более интеллектуальных). Например, камень не сам решает стать молотком, это решение принимает человек, который решил исполнить роль столяра. Но справедливости ради необходимо отметить, что камень при этом имеет мастерство (способность) исполнить роль молотка. Точно также смартфон получает от человека информацию о том, что ему нужно исполнить роль калькулятора, а далее после ввода данных он уже сам совершает математические действия и выводит результат на экран. Это его по вменяемости кардинально отличает от камня.
ИИ-агент как выпускник профтехучилища
Высокоразвитые агенты имеют высокие показатели по разным системным характеристикам. Речь идет не только об автономности или обучаемости, но и о других характеристиках, которые касаются всего человека в целом, а не только его личности.
Поэтому при создании ИИ-агента, сравнимого с человеком, важно учитывать его характеристики, разделяя интеллект и организм. Следовательно, мы различаем:
- ИИ-агента – систему, способную выполнять задачи, используя определенные интеллектуальные модели и аппаратную базу (тело).
- Сам ИИ – как программную систему, которая может существовать отдельно от физического тела.
- Классификацию ИИ по степени вменяемости – Узкий (ANI), Общий (AGI) и Сверхразумный (ASI).
Человек сравнивается с ИИ-агентом, который имеет AGI сравнимый с человеческим интеллектом, а биологический интеллект человека можно сравнивать с AGI. Текущие модели, такие как GPT, являются узким ИИ (ANI – Artificial Narrow Intelligence), поскольку они не обладают адаптивностью, самосознанием и настоящей способностью к обучению в реальном мире. В отличие от них AGI должен уметь адаптироваться, обучаться и пересматривать свои цели. Однако даже наличие AGI еще не делает ИИ-агента полностью сравнимым с человеком.
Функциональное устройство человека – организм и личность – может быть легко воспроизведено, когда ИИ-агент обзаведется телом, которое по функциональности будет не уступать человеческому (но устройство будет, конечно, другим). И скорее всего, это не запредельно сложная проблема, если говорить о действиях, которые будет способно выполнять тело ИИ-агента. Поэтому многие характеристики человека такие как мобильность или профессионализм в самых разных областях (не путать с интеллектуальностью) будут ИИ-агентами легко достигнуты и даже улучшены.
Современные ИИ-агенты, оснащенные ANI, способны выполнять многие прикладные роли. Достаточно объединить узкий интеллект с профессиональным мастерством и телом – и система сможет выполнять большинство рабочих функций. Это похоже на выпускника профтехучилища, который сразу после обучения обладает многолетним практическим опытом.
По сути, ИИ-агент с ANI уже сможет существенно изменить мир и, вероятно, это нас ждет в ближайшее время. Это еще связано с тем, что прикладное мастерство не требует столь сильного интеллекта, поэтому, в частности, в профтехучилищах сразу учат прикладному мастерству на том интеллекте, который имеется у человека после школы. И это далеко не олимпиадники. Усилением школьного интеллекта занимаются в высших учебных заведениях, где уделяется больше внимание фундаментальным трансдисциплинам.
Таким образом, относительно того, что ИИ заберет многие рабочие места – это скорее точно, но вот относительно ИИ-агента с AGI, по моему, есть пока большие сомнения.
Сравнение человеческого интеллекта и AGI
Многие задачи, где четко определены цель и награда, ИИ-агенты с ANI уже выполняют лучше человека. Но вот можно ли создать ИИ, который будет сам ставить себе цель, тестировать и переопределять её, при этом “ставя шкуру на кон”?
Мне представляется, что AGI создать можно, но вот появление сравнимого с человеком ИИ-агента с AGI – сомнительно. То есть по характеристике вменяемости ИИ-агент с AGI будет как отличный аналитик, но все решения принимает не он, а его руководитель, поэтому субъектности у ИИ-агента будет не больше, чем у такого аналитика.
Вероятно, главное различие человека и ИИ-агента связано с наличием у человека биологического тела, которое генерирует довольно много информации для принятия решения на втором шаге функциональной схемы. При этом биологическое устройство человека имеет свои плюсы и минусы, и в этом можно найти аргументы о возможности или невозможности создания AGI.Как мне сейчас представляется, при создании AGI есть несколько важных вопросов:
- Мотивация и намерения. Человек имеет биологически обусловленную мотивацию и она же предполагает то, что на ее основе каждый человек в самых разных ситуациям выбирает себе функцию награды. Будет ли AGI способен выбирать цели и исходя из чего он это будет делать? У человека есть биологическая мотивация удовольствия и безопасности, есть текущее состояние здоровья, обязательства, окружение и даже информация из собственного организма (боли) тп., что необходимо учитывать при принятии решения, которое влияет на несколько системных уровней исходя из системного мышления 3.0. А что будет мотивировать AGI действовать когда нет никакого контекста, опыта и т.п.?
- Ресурсы и риски. Человек участвует в техноэволюции, он выдвигает гипотезы и так или иначе всегда ставит шкуру на кон. Он рискует и несет ответственность, если вдруг он неправильно распорядился ресурсами (аналитик не распоряжается ресурсами). Это также является основой обучения. И в этом также проявляется человеческая автономность. Где будет брать ресурсы AGI, чем рискует и будет ли он действительно субъектом отношений? Ведь иначе это не сравнимый с человеком интеллект.
- Человек старается привлекать других людей, чтобы достигать своих целей. Это особенно важно для создания систем на высоких системных уровнях. Для этого человек использует эмоции и умеет чувствовать других людей (эмпатия), что повышает притягательность и способствует взаимодействию. В том числе другие люди знают о том, что человек может хотеть делать что-то для других и находить в этом смысл для себя. Поэтому человек также склонен доверять другому человеку (хотя по этой причине и не доверять) и желать взаимодействовать с ним. Как будет и нужно ли будет ИИ привлекать других людей, чтобы сделать что-то большое?
- Автономность: ощупывание границ себя. Анатолий Левенчук пишет: “агент как бы ощупывает пространство вокруг себя непрерывно, ибо не уверен в границе системы — что ещё его тело, а что уже вне пределов его влияния. Поэтому у него идёт как бы броуновское опробывание всех эффекторов и датчиков, непрерывные небольшие попытки что-то сделать, просто для того, чтобы понимать текущую ситуацию с границами влияния. Вот когда LLM начнёт самопроизвольно что-то делать “просто чтобы делать”, чтобы понимать, где там заканчиваются границы её собственного влияния, а где уже влияет внешний мир — вот тогда и агент”.
Таким образом, встает вопрос – можно ли сравнивать AGI с человеческим интеллектом, если ИИ-агент не будет принимать решения в реальной жизни не будет? Как вообще можно говорить о том, что ИИ (ASI) будет превосходить человеческий интеллект по всем аспектам жизнедеятельности, если он не ставит шкуру на кон? Ведь речь идет не об учебных задачах, а о реальной жизни.
Получается, что для высокоинтеллектуального агента нужна субъектность? В фильме “Двухсотлетний человек” рассказывается история о том, как железный робот NDR-114 (Эндрю) проходит долгий путь трансформации. Он не только развивает эмоции, но и борется за признание своих прав, стремясь быть официально признанным человеком. В конце Эндрю принимает решение стать смертным, чтобы полностью соответствовать человеческой природе.
Мне представляется, что до обретения субъектности ИИ-агентов, говорить об искусственном интеллекте сравнимом с человеческим не приходится. По каким параметрам будет сравнение? Если по возможности решать известные задачи, то это будет просто умный робот и даже отличный аналитик. Но вот одновременно видеть проблемы в мире, иметь желание их решать, выбирать методы их решения, и постоянно все это менять (тестируя сразу несколько гипотез) – это совсем другое. А еще же надо ставить шкуру на кон (ресурсы), чтобы проверить на эти гипотезы. Именно в этом проявляется человеческий интеллект.
Хотя ИИ демонстрирует впечатляющие возможности в некоторых областях, а скоро и во всех областях, но отсутствие субъектности делает прямое сравнение с человеческим интеллектом проблематичным. ИИ-агент скорее будет отличным аналитиком, которые многое знает и может готовить решения, но не принимать их. ИИ и человеческий интеллект следует рассматривать как взаимодополняющие, а не конкурирующие формы интеллекта, каждая из которых имеет свои сильные и слабые стороны. Когда-то все начиналось с палки, которую взял человек в руки, потом появлялись другие приспособления и еще совсем недавно появились стиральные машинки, которые заменили прачечные. Сейчас мы стоим на пороге того, что ИИ высвободит для человека еще больше времени, а также изменит саму структуру труда. Поэтому главный вопрос не в том, что ИИ заберет что-то у человека или погубит человечество, а в том, что будет делать человек, у которого появится еще больше свободного времени и какие возможности он откроет для себя.
Примечание
Здесь более подробно поразмышляю о вышеперечисленных 4х пунктах.
Мотивация и неудовлетворенности
У человека есть биологически обусловленная мотивация, то есть мы от рождения получаем “программу”, которая задаем нам мотивацию на уровне организма. Мы изначально хотим удовольствия или избегаем боли и хотим безопасности или самосохранения. И уже далее исходя из уровня образованности, опыта, контекста, психического состояния мы действуем, чтобы в том числе получить желаемое или увернуться от проблем сейчас или в будущем.
Животных, человека, команды или общества можно рассматривать как биологических агентов. Конечно, у них разные степени вменяемости и даже степень развития интеллекта разных людей будет разным. Но у них у всех есть такие характеристики интеллекта как агентность, автономность, образованность и даже профессионализм (в чем-то). Соответственно, все эти агенты:
– имеют какие-то желания и они в чем-то испытывают дефицит. Однако, не каждый может четко сформулировать их в виде какой неудовлетворенности (желания, потребности);
– ставят цели, которые помогут осуществить эти целания или устранить неудовлетворенности (дефицит). Не всегда эти цели осознаны, но какие-то гипотезы относительно перемещения из сейчас в будущее;
– выбирают методы достижения целей и действуют;
– в этом цикле неудовлетворенности-цели-действия учатся.
Живые агенты обязательно принимают в расчет физико-биологический (гомеостатический) уровень, на котором они стремятся к поддержанию жизни, минимизации боли и достижению удовольствия. Это гомеостатические, физические или биологические неудовлетворенности. Высокоинтеллектуальные живые агенты еще добавляют в расмотрение другие системные уровни – создают системы, которые помогают другим людям устранять их неудовлетворенности и живому миру в развитии. То есть человек ощущает дефицит в смыслах, идеях, познании. Эти неудовлетворенности можно назвать многоуровневыми, концептуальными, познавательными.
Человек может иметь большой калибр личности (одна из характеристик интеллекта) и размышлять о больших идеях, он может видеть смысл в создании систем на уровне человечества. Но у него может не быть достаточного мастерства и ресурсов. Поэтому он не может тестировать свои идеи. А вот как это сможет сделать ИИ-агент с AGI? Если он субъектен и имеет ресурсы, то тогда все понятно, но если у него нет ресурсов, то значит он не вполне автономен и поэтому не может сравниваться по агентности с человеком.
Получается, что если мы создает ИИ-агента с AGI, то необходимо предусматривать не только субъектность с ответственность и ресурсами, но самонастраивающуюся мотивацию, которая поможет такому ИИ-агенту сформировать как личность и заполучить необходимые ресурсы для тестирования своих идей. А что будет, если AGI заполучит много ресурсов и станет самым богатым в мире? Не нужно ли его готовить быть богатым, то важно его пропитывать и обучать правильными идеями.
При это важно понять, что будет в основе этой мотивации?
В итоге мы получаем AGI с динамической функцией награды, которая эволюционирует в зависимости от среды и действий (AGI изучает мир, его сложность растет); социальных факторов (взаимодействие с другими агентами); самоанализа (AGI может “рефлексировать” и менять собственные цели). То есть AGI не просто имеет фиксированную мотивацию, а учится ее формировать в процессе своей жизни, где он субъектен и пытается существовать как часть техноэволюции. Все это делает его похожим на человека.
Однако, сейчас даже самый всемогущий человек не может максимизировать собственное существование, иначе биологическая неудовлетворенность могла бы стать единственной ради чего мог бы жить такой человек. Желание не умирать может побороть любые установки, и стать единственно важной целью, ради которой можно использовать любые средства и ресурсы. Но AGI вполне может этого достичь, если он как-то обзаведется этой неудовлетворенностью. И тогда довольно сложно предсказать его поведение.