R.1. Задание 1.2

Вернитесь к рассуждению о вещи из задания 1.1. Уточните/дополните ваше описание ситуации эксплуатации системы. Если LLM перестаёт учитывать FPF при ответе (теряет контекст), скорректируйте ваш запрос (карандаш под запросом) и попросите ChatGPT не забывать об опоре на FPF. Просьбу не терять контекст может потребоваться повторить несколько раз, как и в случае общения с человеком.

  • Спросил у GPT насчет границ системы – она верно подсказала, что система не занимается ни принятием решений о назначении таких выплат, ни проверкой формата заявлений, этим занимается государственная ИС. С этим я согласен.
  • Но так как я разрабатываю только бэкенд часть, то моя граница системы находится “внутри” кластера, в котором развернуто приложение, общение происходит посредством сетевого обмена сообщениями между мобильными приложениями и Гос-ИС.
  • Но теперь у меня происходит некоторое понимание, что я может и не вижу систему сейчас полностью, но я вижу, что её U.TransformerRole – “перевод (U.Work) запроса (U.SpeechAct) агента в роли клиента (U.Role) в сообщение (U.SpeechAct) установленного госорганами (U.System) формата (U.Signature), осуществляемый рабочей программой (U.System), размещенной (partOf) в инфраструктуре организации (U.System)”
    • Я сделал несколько итераций улучшения своего описания и давал на проверку гпт, и понял еще один момент – его можно расширять и дальше, чтобы больше тренироваться в понимании и применении типизации (как минимум можно указать, что формат описания сообщений тоже имеет свое описание и на это надо указать, и указать какой нормативный акт это описывает и так далее)