Где кончается нейросеть и начинается AI? Нигде
«Это просто статистика.» «Нейросети — это ещё не AI.» «AI — это когда будет настоящий интеллект.»
Знакомо? Эти фразы звучат уверенно, но в каждой спрятана одна и та же ошибка мышления. Люди ищут границу там, где её нет — потому что задают вопрос не о том.
Ложная лестница
Обычно рассуждение строится так: сначала была статистика, потом машинное обучение, потом нейросети, а потом — когда-нибудь — появится «настоящий AI». Как будто это ступени эволюции: одно заканчивается, другое начинается.
Но это не ступени. Это вложенные и пересекающиеся категории:
- Статистика — математическая дисциплина. Инструменты анализа данных.
- Машинное обучение — набор методов, где система обучается на данных. Включает статистические методы.
- Нейросети — одна конкретная архитектура внутри машинного обучения.
- AI — функциональная классификация систем, решающих задачи, которые ассоциируются с интеллектом.
Логистическая регрессия — одновременно статистика, машинное обучение и AI (если она ставит диагноз по снимку). Нейросеть, распознающая кошек — тоже AI. GPT-4 — тоже AI. Все три — разные системы, один класс.
Спрашивать «где кончается нейросеть и начинается AI» — как спрашивать «где кончается двигатель и начинается автомобиль». Двигатель — часть автомобиля. Нейросеть — один из методов внутри AI. Одно не превращается в другое, потому что одно уже внутри другого.
Почему люди ищут границу (и не находят)
Потому что пытаются классифицировать по субстанции: из чего это сделано? «Это же просто матрицы и числа — какой это интеллект?»
Но AI — не вещество. Золото можно определить по атомному числу. Воду — по формуле H₂O. А AI определяется не по тому, из чего сделан, а по тому, что делает. Это функциональная классификация.
Калькулятор складывает числа — но не AI. Спам-фильтр обучается на данных и обобщает на новые письма — уже AI. Разница не в «субстанции» (оба — софт на железе), а в функции: обучается ли система на данных, обобщает ли на новые ситуации, принимает ли решения в условиях неопределённости.
Когда кто-то говорит «это просто статистика», он пытается сказать: «это сделано из простых вещей, значит, это не может быть чем-то сложным». Но автомобиль тоже сделан из железа, резины и стекла — и ни один из этих материалов сам по себе не едет. Функция системы не сводится к функциям её частей.
Три вещи, которые все путают
Когда говорят «AI», обычно смешивают три разных типа вещей. И от этого разговор заходит в тупик.
Описание — обученный артефакт. Файл весов, архитектура. GPT-4, Claude — как набор весов — это описания. Они описывают функцию, но сами ничего не делают. Как чертёж описывает двигатель, но не крутится.
Система — физическая целостность, которая работает. Железо, софт, интерфейсы. ChatGPT — это система: серверы, API, слой безопасности, интерфейс. Модель внутри — описание, которое система использует. Но модель — не часть системы, как чертёж — не часть двигателя.
Агент — система, у которой есть цель и которая сама выбирает следующее действие. Coding-агент, который читает код, планирует исправление и пишет патч — это агент. AI-исследователь, который формулирует гипотезы и проектирует эксперименты — тоже агент.
Путаница между этими тремя типами порождает бессмысленные споры. «GPT-4 не думает» — верно, потому что GPT-4 это описание, оно и не должно думать. «ChatGPT не понимает» — зависит от того, что вы имеете в виду под «пониманием» и говорите ли вы о системе или об описании внутри неё.
Может ли AI стать учёным?
Вот где становится по-настоящему интересно.
Часто говорят: «AI не делает открытий — он просто ищет паттерны в данных». И дальше делают вывод: значит, AI — не более чем калькулятор, просто помощнее.
Но «учёный» — это не свойство субстанции. Это роль. Функциональное назначение. Человек становится учёным не потому, что он из правильного материала сделан, а потому, что выполняет определённые функции: формулирует гипотезы, проектирует эксперименты, интерпретирует результаты, обновляет модели мира.
Вопрос «может ли AI быть учёным» — это вопрос о субстанции. Как будто нужна какая-то особая «ткань разума». Это ложный вопрос.
Правильный вопрос: способна ли конкретная AI-система исполнять роль учёного? То есть: выполняет ли она функциональные требования этой роли?
И это уже не философия — это эмпирический вопрос. AlphaFold нашёл структуры белков, которые десятилетиями не находили люди. AI-системы проектируют новые материалы и лекарства. Система либо является агентом (имеет цель, выбирает действия), либо нет — это бинарно. И если агент способен исполнять роль исследователя — он её исполняет, из чего бы он ни был сделан.
Какие вопросы задавать вместо «что такое AI»
Вопрос «является ли это AI» — тупиковый. Он толкает к поиску границы, которой нет. Вот три вопроса, которые помогают думать яснее:
Это описание, система или агент? Описание (модель) само ничего не делает. Система работает. Агент — сам решает, что делать дальше. Разные типы — разные свойства — разные ожидания.
Какую роль это исполняет? Роль определяется функцией, не субстанцией. Калькулятор исполняет роль вычислителя. Спам-фильтр — роль сортировщика. AI-исследователь — роль учёного. Вопрос не «достоин ли он этой роли», а «справляется ли».
Справляется ли с функциональными требованиями? Не «умный ли он», не «сознательный ли он», не «настоящий ли это интеллект» — а: решает ли задачу? Находит ли структуру белка? Проектирует ли эксперимент? Обобщает ли на новые данные?
Эти три вопроса снимают 90% споров об AI. Потому что споры обычно идут о субстанции, а ответы — в функции.