FPF как инструмент создания "ИИ-читаымых" документов (плюс пример его применения)

Я с интересом наблюдаю за ходом исследовательского проекта @ailev и время от времени использую его результат для несложных в общем-то задач с целью тестирования. Можно сказать что выступаю в роли бета-тестера на минималках (думаю далеко не я один но других таких постов пока не нашёл).
И вот в процессе размышления о сути этого FPF вспомнил такой термин - “машиночитаемый документ”. У нас в отрасли это в последнее время чем дальше тем более часто употребляемо, с разделением ещё на более узкие категории - машиночитаемый, машинопонимаемый и т.п.
Вот иллюстрация из одной из отраслевых презентаций на тему:

Как правило под ними понимают документы на машинном языке с жёсткой разметкой (xml, json, ifc вот тоже можно таким форматом считать).
Разговоры эти идут давно, в том числе и на (около)государственном уровне например в концепции “машиночитаемого права”
Нетрудно заметить что в FPF есть некоторый аналогии с такими “машино-читаемыми, понимаемыми, интерпертивруемыми” документами, однако благодаря тому что это документы всё же текстовые, то есть презназначенные для чтения в первую очередь LLM, но не исключающие и возможность их прочтения обычным человеком, мне кажется что FPF можно отнести к новому классу “LLM-читаемых”, “LLM-интерпретируемых” документов. Понятно, что таковым является также и любой хороший промпт (плохой тоже является, просто мы не будем их рассматривать, они нам не нравятся). Также и RAG тоже можно относить к LLM (или более широко - AI) - читаемым документам.
Однако FPF здесь мне кажется очень подходящим документом ввиду и своего размера, и своей структурированности, и своего предназначения - я пока вижу это предназначение в том чтобы удерживать “мышление” LLM в жёстких границах формальных описаний, давая при этом возможность дальнейшей интерпретации результатов на человеческом языке.
Мне показалось важным отметить факт появления такого класса документов, и видится в перспективе что возможно они даже важнее именно “машиночитаемых” документов, как они понимались ранее. Идея перевода всего корпуса стандартов, требований и НПА в машиночтаемый формат вручную мне кажется нерешаемой, а если для этого будет применяться ИИ - то бессмысленной. А вот с ИИ-читаемыми документами как будто перспектива выглядит гораздо более реальной, они, как видим, создаются самим ИИ, при должном уровне руководства процессом.

Ну и в качестве примера того самого тестового применения FPF.
Результаты уже приводил в чате Лабораторного журнала в Телеграме, сюда дублирую для истории и возможно кому-то будет интересно их увидеть здесь.
Там пока нет идеального результата, проект исследовательский и ещё далеко не в стадии завершения, но тем не менее я считаю результаты обнадёживающими.

Итак, исходная информация:

Новость о том что в Госдуме сформулировали определение искусственного интеллекта.
Вот оно:
«Искусственный интеллект — это любая система данных, программное обеспечение или аппаратное средство, обладающее способностью обрабатывать данные и информацию способом, напоминающим разумное поведение, с использованием методов машинного обучения или статистических методов для генерации контента, формирования прогнозов, рекомендаций или решений, способных оказывать влияние на реальную и виртуальную среду».

Гипотеза:
Это определение плохое, так как содержит в себе внутренние конфликты.

Метод проверки:
Пропустить это определение через ChatGPT 5 с предзагруженным в него файлом FPF и промптом на поиск в нём несоответствия FPF.

Результат:
1. Категориальные смешения (A.7 · Strict Distinction)

В определении спутаны объект («система данных, ПО или аппаратное средство»), метод («машинное обучение или статистические методы»), и поведение/результат («генерация контента, прогнозов, решений»).

По FPF нужно строго различать:

U.System (носитель, физическая или софтовая система),

U.Method и U.MethodDescription (способы действия),

U.Work (фактическое событие исполнения).
Здесь всё сжато в одну фразу без онтологической чистоты.

2. Проблема с агентностью (A.13 · Agential Role)

Определение приписывает системе «способность» вести себя «разумно». Но по FPF способность (U.Capability) — это отдельная ось, а «разумность» — это роль/характеристика, требующая контекста (U.RoleAssignment).

Иными словами, ИИ не является «разумным» сам по себе — он играет роль в контексте, а способность к обработке данных должна быть отделена от внешней интерпретации как «псевдоразумность».

3. Неявная метафора «как разум» (E.10 · Lexical Governance)

Формулировка «способом, напоминающим разумное поведение» вводит неформализованную аналогию. По FPF такие описания должны быть либо сведены к измеримым характеристикам (CHR), либо отнесены к конкретному bounded context. Иначе возникает риск амфиболии.

4. Смешение уровня дизайна и уровня исполнения (A.4 · Temporal Duality)

Определение одновременно говорит о методах («машинное обучение») и об их результатах («контент, прогнозы, решения»), но не проводит границы между design-time и run-time.

В FPF это разделяется: MethodDescription (например, обученная модель) ≠ Work (конкретный прогноз, выданный в момент времени).

5. Недостаточная онтологическая парсимония (A.11)

В одном предложении перегружено: система, данные, ПО, железо, методы, контент, прогнозы… Но не дано минимального ядра. FPF требует минимальной достаточности: лучше выделить «AI-система» как U.System, уточнить её U.Capabilities, а всё остальное оформить как роли и сервисы.

6. Неявность границ и контекста (A.1.1 · U.BoundedContext)

Определение претендует на универсальность, но не фиксирует контекст применения (например, юридический, инженерный, научный). По FPF любое определение должно быть привязано к bounded context, иначе оно становится размытым и несогласованным между доменами.

7. Нет физического якоря (A.12 · External Transformer, C.1 Sys-CAL)

Определение не указывает, что «ИИ» всегда должен быть реализован в конкретной физической системе (процессоры, память, носители). В FPF это обязательный якорь: любое абстрактное свойство должно быть связано с материальным трансформером.

:small_blue_diamond: Итого:
Определение ИИ в исходной формулировке нарушает несколько базовых FPF-принципов: смешивает уровни (система/метод/работа), не фиксирует контекст, использует метафору «как разум», не разделяет способность и роль, и не имеет физического якоря. В терминах FPF такое определение является категориально нестрогое и непроверяемое.

В ответ на предложение откорректировать определение от LLM получен следующий текст:

Искусственный интеллект (ИИ) — это система, реализованная на программном и/или аппаратном носителе, которая в рамках заданного ограниченного контекста наделена определёнными способностями по обработке данных и информации.

Эти способности могут реализовываться через различные описания методов (например, статистические методы или методы машинного обучения), которые при исполнении порождают конкретные работы (события обработки).

ИИ может исполнять различные роли, связанные с:

созданием контента,

формированием прогнозов,

предоставлением рекомендаций,

выработкой решений,

— что оформляется как услуги, оказывающие воздействие на реальную или виртуальную среду.

Отдельно приведу ответ на вопрос в чём проблема с термином “система данных”:

В FPF термин «система данных» в исходном виде проблематичен и некорректен. Обосную по слоям FPF:

Строгое различение сущностей (A.7)
FPF требует чёткого разграничения между:

U.System — холон, обладающий границей, динамикой, сервисами и способностью к действию.

U.Episteme — знание или описание (например, датасет, спецификация, метрика).

Данные как таковые — это эпистемический артефакт, а не система. Следовательно, термин «система данных» путает U.System с U.Episteme, нарушая принцип строгого различения.

Что может быть системой?
В FPF системой можно назвать:

платформу управления данными (например, СУБД или хранилище) как U.System, предоставляющий сервисы;

или коллектив программно-технических средств, которые трансформируют/хранят данные.

Но сами данные (наборы записей, наблюдений, файлов) — это не система, а U.Episteme.

Риски некорректного термина
Если оставить «система данных» без уточнения, возникают:

Категориальная ошибка: объект (System) смешивается с описанием (Episteme).

Архитектурная двусмысленность: непонятно, идёт ли речь о платформе, об инфраструктуре или о наборе сведений.

Управленческая ошибка: неясно, чем управлять — данными или системой их обработки.

Правильные проекции (аналогично L-FUNC для «функции»):

Если имеется в виду СУБД, lakehouse, data warehouse → корректнее: «система управления данными» ≍ U.System.

Если речь о самих данных → корректнее: «набор данных» ≍ U.Episteme.

Если о сервисах по предоставлению данных → U.Service, реализуемый системой.

:white_check_mark: Вывод:
Термин «система данных» сам по себе некорректен в модели FPF. Он требует уточнения и проекции:

либо в U.System (если это инфраструктура для работы с данными),

либо в U.Episteme (если это сами данные как знание).

Без этой проекции он нарушает принцип строгого различения и попадает в категориальную ошибку.

Вывода здесь пока особого не будет, возможно в дальнейшем дополню пост если будут ещё интересные примеры использования.

4 лайка

С FPF много проблем в части его “машиночитаемости”. Интенция – да, это мини-экспертная система, там много формальных описаний, как в математических статьях. И люди могут читать, и машины. Но у машин пока банально памяти не хватает. Из FPF-файла, например, будут загружены первые примерно 400Кзнаков (из 3.2M), а остальное будет доставаться дырявым RAG, причём читаться будет даже не весь документ, а “по оглавлениям и заголовкам”. Поэтому работать – работает, но очень неустойчиво. Нужно другое поколение моделей, чтобы FPF был как отлажен лучше, так и заработал в полную силу.

Если делать документ “для LLM”, то он быстро утратит человекочитаемость (появятся всякие выжимки, разметка вроде JSON, и прочее. Я пока не хочу этого делать).

Тут ещё надо указать и на саму направленность документа: он очень хорошо будет разбирать инженерную документацию, требовать на любой чих подтверждения, это в него крепко вшито. Мало будет что-то сказать, надо будет привести какие-то обоснования, иначе “незачёт”.

Вообще интересная идея, да - взять и “прогнать” рабочие продукты агентов в ролях чиновников (не уверен, что это верно, но более точные роли называть даже не хочется;-( ) через LLM+FPF, то выяснится ну очень много интересного. Что и так давно понятно знатокам праксиологии/экономической теории АЭШ/системным мыслителям.

Задача чиновников же - искажение/фальсификация реальности. Начинается она с искажения языка, придумывания странных терминов, которые в жизни люди не используют (типа ВВП), а также подмены смыслов терминов на прямо противоположные. Одни фиатные деньги/цифровой тугрик чего стоят - прямо “ничто” предлагается считать как “нечто”, и отдавать в обмен на него реальные блага.

Неудивительно, что результатом фальсификации реальности на уровне слов, генерация бессмыслицы и попытка ею руководствоваться в жизни приводят к разрушению реальности на физическом плане. Буквально.

FPF всё это и вскрывает.

Поэтому главная задача чиновников в области ИИ, как мне кажется, сводится к созданию оксюморона - попытки льда поставить себе на службу пар, но так, чтобы пар не растопил лёд. Чтобы ИИ не “вывел их на чистую воду”, продемонстрировав, что суть их деятельности - разрушение общества путём паразитирования на нём.

Это относится к чиновникам любого г-ва на планете.

1 лайк