Intentio

Intentio

Последние восемь лет индустрия старательно игнорирует фундаментальный факт — большие языковые модели не являются интеллектом ни в каком из его видов.

Стохастические попугаи копируют без понимания. Современные языковые модели воплощают чистый мимесис — подражание форме без схватывания смысла. Они статистически интерполируют паттерны из корпуса, но не переосмысливают основания. Архитектура трансформеров переводит задачи логического рассуждения в задачи распознавания паттернов (Jovanovic & Voss, 2025), создавая потемкинское понимание — фасад компетенции без подлинного мышления.

Биологический шовинизм. Индустрия застряла на стадии Икара, привязывающего перья к рукам. Братья Райт не копировали птиц — они абстрагировали принципы аэродинамики и создали самолет, который летает иначе, но эффективнее. Галилей не копировал глаз — он абстрагировал законы оптики и создал телескоп, радикально превосходящий человеческое зрение. Индустрия ИИ создала карго-культ нейронауки, складывая миллиарды параметров в надежде на магический фазовый переход.

Архитектурные ограничения. Проблема не решается увеличением данных — она архитектурная:

  1. Apple GSM-NoOp (2024) — модели не способны к genuine logical reasoning: вместо выполнения формального логического вывода они пытаются воспроизводить шаги рассуждения из обучающих данных (Ivanova et al., 2024)
  2. Potemkin Understanding (2025) — модели правильно отвечают на сложные вопросы, но проваливаются на простых задачах, которые решил бы любой человек с настоящим пониманием
  3. Проблема композициональности — смысл предложений и текстов формируется за счет принципа композициональности. LLM владеют только первым уровнем и не выполняют композициональное вычисление. Они полагаются лишь на surface-level patterns, а не на структурные отношения
  4. Next-Token Prediction — студент, угадывающий ответы в слепой надежде на успех, никогда не учился исправлять свои ошибки. Поверхностная критика: ошибка накапливается при генерации. Настоящая проблема: эффект «умного Ганса» — модель учится подглядывать в «правильный» контекст, а не планировать последовательность шагов

Логика — культурная практика, а не врожденная способность. Ученые ведущих университетов достигают лишь 60-90% точности в элементарной формальной логике (A. Schumann, 2021). Обучение больших языковых моделей на массивах человеческих текстов приводит к тому, что они наследуют не логическое мышление, а человеческие когнитивные искажения.

Когда парадигма сталкивается с аномалиями, которые невозможно решить внутри ее рамок, исследователи:

  1. Множат ad hoc гипотезы — добавляют «патчи» к существующей теории (CoT, RAG etc.)
  2. Отказываются признать фундаментальный характер проблем
  3. Усложняют систему, пока аномалии не станут невыносимыми

Chain-of-Thought — театр рассуждений. Промежуточная генерация ответа. Ноль логики, ноль каузальности. Максимум имитации.
RAG — больше паттернов не улучшит логику и понимание на структурном уровне.

MoE — остается подходом параллельного увеличения параметров, не меняет принцип мимирования паттернов, ограничения NTP и Attention сохраняются.
Все инновации остаются внутри парадигмы, не решая ни одной значимой архитектурной проблемы. Это развитие от O → n, но не от O → 1.

Нейронные сети ограничены лишь перцептивными задачами (распознавание паттернов, память), с которыми хорошо справляются. Символьные методы необходимы для высшего познания (язык, аналогии, абстракции, решение проблем), то есть для самого интеллекта.

Правила и паттерны постоянно взаимодействуют, а значит нужны гибридные — нейро-символьные модели.

Но не просто эмпирические попытки создать синтез методом тыка, а фундаментальные философские и научные основания альтернативной парадигмы, которая сменит господствующую и изжившую себя парадигму «стохастических попугаев».

Мы не создаем инструмент для узкого рынка. Мы закладываем фундамент новой архитектуры интеллекта.

Наша миссия — вывести интеллект за пределы биологии, решив проблему его природной ограниченности.

Время жизни человека ~80 лет, скорость обработки ~200 Гц в сравнение с ГГц машин, объём памяти ~2.5 петабайт против колоссального потенциала масштабирования, не говоря уже о когнитивных искажениях при восприятии мира.

Это не нейроинтерфейсы или киборгизация — они лишь обеднение, с ними мы можем стать лишь функцией технологии, а не ее разумными создателями.

Быть человеком — единственный способ выйти за пределы человеческого.