Lytdybr -- от 20 июня 2024

Принял решение дополнить первый раздел “Методологии” материалами по разложению в спектр. Пока тренируюсь на разложении в спектр культуры социальных танцев, написал пост и сделал новую картинку (Культурный спектр социальных танцев.. | Системный мультиданс | VK, а ещё обновил картинки в Разложения, спектры, стеки, слоёные пироги, программы и мастерства методов: ailev — LiveJournal, стало ещё понятней со спектром и шкалой). Сразу пошли упражнения в терминологии: танцевальная или телесная культура скажешь, а танцевальный или телесный метод – звучит так себе. Спектр вроде как получается степени мастерства, ибо всё же “одновременно”. Но если говорить о разделении труда и ролях, то там будет что-то типа Hump diagram, так что надо будет вставлять материал по спектрам и туда описание. То самое “разделение труда” за счёт специализации на какой-то проблеме, теоретически это следствие теоремы о бесплатном обеде. The Master Algorithm становится сообществом самых разных узкоспециализированных “ускорителей”, “специалистов”, “экспертов”, “небольших сетей” — имя им легион. Смотрим на эволюцию CYC, я писал о ней в https://ailev.livejournal.com/1610230.html: “разработали 1100 ускорителей-оптимизаторов, часть на нейронных сетях. А потом тихо убили модуль общего вывода, который практически перестал давать результаты. То есть раньше это были ускорители к главному алгоритму, а теперь там кроме ускорителей ничего и нет. И ускорители, как всегда, решают проблему перевода представления в язык, более близкий к машинному. По этому пути потом легко и квантовый ускоритель воткнуть, и оптический, и нейросетевой (уже!) и простейший SAT solver”. Микротеории и превращение всего остального в контекст, как в CYC – тоже сюда. Я не верю, что будет “всеведущий и всемогущий ASI, который может создать такую сложную теорию, которую сам не сможет понять, а также создать такой большой камень, который сам не сможет поднять”. Нет, агентские сети, и будут там агенты с маленьким интеллектом, как у тараканов, а ещё агенты с самыми разными другими интеллектами, и разными инструментами у них (датчики, актуаторы, станки и заводы), и эволюционировать всегда будет экосистема, а ниши в ней будут осваиваться через специализацию. Я прыгаю много хуже, чем кошка, даже сравнить нельзя – а вроде царь природы. Но не всей природы я царь, с мышами кошка быстрей управляется. Ну, и проблема планирования с ленивыми “выполнениями/вычислениями”, или как говорили СМД-методологи “движение в воронке возможностей” – тоже сюда.

Кстати, CYC вполне живёт, https://cyc.com/, 200+ Hospitals trust our software products. Нейросети там ведь тоже, и давно. Ещё можно поглядеть последнюю работу Douglas Lenat, совместную с Gary Marcus: [2308.04445] Getting from Generative AI to Trustworthy AI: What LLMs might learn from Cyc. if the logical language is expressive enough to fully represent the meaning of anything we can say in English, then the inference engine runs much too slowly. That’s why symbolic AI systems typically settle for some fast but much less expressive logic, such as knowledge graphs. We describe how one AI system, Cyc, has developed ways to overcome that tradeoff and is able to reason in higher order logic in real time. И в этом тексте рассказывается чуть подробней про алгоритм, и почему “общий логический вывод” был выключен: универсальный алгоритм вывода (“попытка обойти free lunch theorem и сработать универсально”), к которому прибегали как “последнему средству”, если 1100 частных инструментов не могли решить задачу, просто не имел шансов сработать – он уходил вычислять, но безрезультатно выключался по таймауту, и так происходило десятилетиями. Потом его выключили совсем. Но к этому моменту 1100 частных инструментов работали отнюдь не только с представлением знаний в виде логики высших порядков, но и большим числом других репрезентаций. И ещё вычисления производились так, что противоречий не ожидалось только внутри микротеорий, которые там назывались контекстами – скажем контекст звёздных войн подразумевает наличие джедаев, а вот контекст реального мира подразумевает отсутствие джедаев. И ещё там ризонер работает с аргументацией, а не доказательствами – выбираются более сильные аргументы, а не делается полное доказательство. И, конечно, LLMs уже могут пополнять базу знаний CYC, то есть транслировать тексты в CycL – но потом результат трансляции всё одно проверяется “вручную”, ибо трансляция идёт, конечно, с ошибками в типах (а это для логики обычно смертельно). В любом случае, LLMs и системы типа CYC вполне могут работать вместе. Ещё в этом тексте указано 16 свойств, которыми должна обладать система AI – ещё одно пожелание к таким системам быть здоровыми и богатыми, а не бедными и больными.

Меня удивляет, почему обсуждение систем AI всё время идёт одноуровневое и поэтому задача создания сильного интеллекта воспринимается как запредельно сложная и не решаемая. Есть же системные уровни и разделение труда. Когда-то был вебмастер (один за всех) и никаких веб-фреймворков. Потом штук десять специализаций, которые делают вебсайт — и куча фреймворков. Проблема сложности решается в эволюции специализацией агентов, а в техно-эволюции – разделением труда создателей. Кто-то ваяет лучшую функцию активации в мире, кто-то подхакивает для неё аппаратуру, кто-то структуру ANN, кто-то на этой ANN умеет сваять LLM, а кто-то делает обвязку для LLM с проверяющей логикой (возможно, там просто другая LLM). И вперёд: необязательно всем даже в одной компании работать. Боинг алюминий из руды не добывает, а производитель алюминия не строит электростанции. Непонятно, почему сегодняшние AI-мастера не разделятся как-то и не нарастят экспертизу в своих предметах. С веб-мастерами это произошло буквально за пяток лет, тут тоже процесс начался. Пообсуждали бы лучше, какие специализации в инженерии систем AI появляются, то есть как эти все “нерешаемые задачи техноэволюции” начинают решать. Дискуссии про “будет или не будет скоро AGI” всё-таки неплодотворны. Это предпринимательские ставки, и если нет шкуры на кону, то мнения могут быть любые, но ничего в жизни от этих мнений не изменится. При этом я считаю, что мальтузианские идеи про “одно обучение модели – $1млрд” это некоторый тупик. Конечно, должны появиться маленькие очень специализированные модели, и будет society of minds, агентские сети, в количестве, и там обязательно появится какой-нибудь рыночек.

Шмитхубера нельзя со счетов сбрасывать. Как я понял, он пытается обобщать уж что может, как в патентах. Например, он пытается для LLM агентов дать графовый формализм на потоках информации, поэтому что бы потом ни рисовалось как “принципиальная схема LLM агента”, будет затем говориться — “это частный случай нашей работы”, [2402.16823] Language Agents as Optimizable Graphs. Так что gonzo-обзоры — это тоже “частный случай описания наших графов”. Там начинают с Early approaches zero-shot-prompted LLMs or prompted them with few-shot examples (Kojima et al., 2022; Brown et al., 2020). Recent methods prompt LLMs in a structured way, such as chain of thought (COT) (Wei et al., Equal Contribution Project Engineer Lead 2022), ReAct (Yao et al., 2022), tree of thought (TOT) (Yao et al., 2023), Reflexion (Shinn et al., 2023), and Graph of Thought (GOT) (Besta et al., 2023), to improve textbased reasoning. Single agent applications such as AutoGPT (Torantulino et al., 2023), BabyAGI (Nakajima, 2023), LangChain (Chase, 2022), and Llama-index (Liu, 2022) utilize LLMs for various functionalities, including tool usage, function calling, and embodied actions. In multi-agent frameworks (Zeng et al., 2022; Zhuge et al., 2023), several LLMs take on different roles (Li et al., 2023; Park et al., 2023; Qian et al., 2023; Wu et al., 2023), to communicate in natural language and collectively solve a given task. This approach often outperforms single agents, exploiting the specialization (Hong et al., 2023) of various LLM agents. Unfortunately, it also leads to increasingly different and disparate code bases that require a lot of human engineering to defne prompting schemes and the workflow of agents. И дальше просто: Taking inspiration from the society of mind (SOM) (Minsky, 1988; Zhuge et al., 2023), we propose to organize intelligence within a modular and hierarchical framework. This framework consists of nodes, graphs, and composite graphs, with each component playing a specifc role. A node represents a fundamental operation that includes, but is not limited to, LLM inference, tool use, function calls, and various embodied actions. An agent, conceptualized as a graph, consists of multiple nodes that form a coherent functional entity. A swarm, or composite graph, represents a complex system of agents where the collective capabilities of this system may exceed those of individual agents. Finally, the edges within an agent defne its execution topology, while the edges between agents establish collaboration and communication among them. Почувствуйте язык “includes, but is not limited to” — это ж прямо язык патентной заявки! Собственно, речь идёт о принципиальной электрической, гидравлической или dataflow схеме — и вот, по идее надо уже ссылаться на первоисточник. Вот такие схемы и разбираются в gonzo-обзорах ANN. Только тут говорится, что “давай такое будем делать на уровень выше LLM”. Конечно, давай. Все инженеры так делают! Но дальше в работе делается такой swarm из LLM и приводятся результаты — конечно, они лучше, чем у одиночных LLM, “сеть сетей” вполне работает, “размер имеет значение”!

VERSES вышла в публичную бету, от неё ожидали что-то типа GPT4o, ибо пафоса было выше крыши – и тоже про сообщество агентов. Или видео бегающих роботов как сообщество агентов. Но нет, они на денежный сегмент рынка нацелились, там в примерах — ремонты по состоянию и управление запасами запчастей. Я с этим работал, видеокартинками это не берётся, а цена вопроса — большая. Инвестиций они получили на $10млн, и только-только начали свой roadmap — VERSES | Genius. Сегодня показали, что могут предсказывать. В 4 квартале 2024 покажут, как решать оптимизационную задачу планирования. И только в 1 квартале 2025 года у них в плане learn для адаптации, типа “Automatically place the order for the right part before it fails and schedule the maintenance with the right technician. — это по плану на 1й квартал 2025”. Дальше опять общие заявления. Увы, сегодня у всех в голове LLM как “образец AI” для сравнения, а тут совсем другое, отсюда и разница в ожиданиях. Я этими ремонтами по состоянию занимался в электроэнергетике, поэтому примерно понимаю, что там за проблемы и сколько они стоят. Я бы за эту компанию не беспокоился, она себя прокормит. Венчурный фонд им, похоже, нужен не столько для инвестиций, сколько “для имени”, “умные деньги”. Я думаю, что у них там приглашены лично были менеджеры каких-нибудь нефтяных полей, а шум стоял на всю тусовку AI. Вот и получилось “горшки перебил”. При этом продавцы из LLM тусовки тоже пойдут к этим же менеджерам нефтяных полей и тоже будут пытаться продать “нейронные сети”. Которые будут отчаянно галлюцинировать, но там тоже прогресс по линии “LLM для временных рядов”, помним про работы Miles Cranmen со товарищи про научные LLM – Заметки по лекции Miles Cranmer "Следующая большая научная теория прячется внутри нейронной сети": ailev — LiveJournal. И ещё надо мониторить заявленную победу в бенчмарках, это можно найти в On Upcoming 2024 Benchmark Work from VERSES, хотят что-то значимое по compute и sample efficiency (вплоть до сравнимой с человеческой, например, на играх Atari по пиксельной картинке) демонстрировать как раз в 3-4 квартале 2024, то есть надо ещё подождать, это ещё не конец истории. согласен, что они подтапливают саму тусовку таким “маркетингом”. При этом я с ними пытался чуток работать — но нет, они со всеми разговаривают на птичьем своём языке, а тут маятник качнулся — и от попсовости зашкалило. Перевести их идеи в понимание, как и когда у них будут результаты — похоже, нету таких людей. Ну, подождём ещё полгода. Не удивлюсь, если кто-то сделает движки на active inference с реальными результатами быстрее, чем сам VERSES, несмотря на Фристона. Я с этой тусовкой пару лет назад плотно работал, сидел в advisory board их института, собственно, и слово “институт” я придумал, и форму организации подсказал. Они там все больше учёные, но их могли влёгкую развести на “поддержим небольшими деньгами ваши идеи” какие-нибудь “бизнесмены”. Не знаю, какой тут смайлик ставить — ))) или (((. В любом случае, обсуждение active inference мультиагентных архитектур вполне важно, ибо даже дискуссию про “поверим алгеброй гармонию”, тьфу, “поверим логическим выводом результаты галлюцинаций LLM” — это ж как раз работа с этими belief. UPDATE: всё ещё хуже, VERSES вряд ли взлетит, это “инвестицияполучатели”, а продукта нет – см. обсуждение с Telegram: Contact @ailev_blog_discussion

Обсуждение выхода Claude 3.5 Sonnet – обычное уже “по бенчмаркам у нас лучше всех”, а первые же попробовавшие говорят, что “не лучше Opus по качеству выходных текстов”. А вот как это продаётся: “Claude 3.5 Sonnet — самая продвинутая модель Anthropic уже в @GPT4Telegrambot (Telegram: Contact @GPT4Telegrambot). Anthropic представила Claude 3.5 Sonnet. Новая модель на тестах превосходит не только предыдущего лидера Claude 3 Opus (Opus в 5 раз дороже), но даже GPT-4o :warning:”. Так что преимущество надо искать не столько в том, что тексты там более качественные, чем у старшей модели, а в том, что можно за ту же цену вызвать Sonnet пять раз — и один из этих текстов может оказаться качеством лучше, чем у Opus. Когда у Билла Гейтса спросили, как он может продавать людям систему, которая так часто показывает людям синий экран смерти — вон, Unix ведь много надёжней! Билл Гейтс улыбался и замечал, что от дешёвой системы трудно хотеть работать лучше, и кто хочет работать без синего экрана смерти может купить Юникс за примерно вдесятеро дороже. Цена, однако, имеет значение. Чем ниже цена, а не чем лучше свойства, тем больше распространение технологий.

Штатно работаю на микрофоне RDM-160 от Ritmix – это я услышал, что мой microphon array на ноутбуке бубнит как из бочки и купил кардиоидный микрофон на подставочке, даже с креплением паук, всего за 1000 рублей. Но выяснилось, что говорить в него надо только прямо в упор, как вокалисты поют – иначе он банально тих. Исследование показало, что половина отзывов – “чудесный микрофон, мечта сбылась”, а половина – “дико тихий и глухой, обманули”. И было несколько отзывов, которые говорили, “требует фантомного питания 48 вольт на XLR разъёме”. Вау, я достал из шкафа запасной микшер Roland, запасной XLR кабель – и воткнул микрофон через микшер. И всё отличненько завелось, звук чудесный. Теперь у меня в компьютер воткнуты через выходной микшер студийные колонки и студийный сабвуфер Yamaha, а микрофон воткнут через входной микшер. И делловская камера с AI отслеживает мои приближения и удаления, а также убегания вбок, при этом освещение – поставленная далеко вверху-сбоку на штативе прямо на столе кольцевая лампа 56 см. Почему вверху-сбоку? А чтобы в глаза не светила! Оборудование рабочего места можно только начать, закончить его нельзя.

3 лайка