История с Cursor и Kimi получила продолжение. На этот раз Cursor опубликовал технический отчёт по модели Composer 2, фактически признав, что в основе решения лежала китайская открытая модель Kimi K2.5.
При этом компания подчёркивает: это не “чистая обёртка”, а результат собственной доработки, где использовались этапы дополнительного предобучения и усиленного обучения.
Иными словами, Cursor не стал спорить с очевидным: базой служила Kimi, а уже поверх неё строилась собственная инженерная система.
В отчёте Cursor прямо пишет, что перед обучением рассматривались несколько открытых моделей, включая GLM-5, Kimi K2.5 и DeepSeek V3.2, но лучшим выбором оказалась именно Kimi K2.5.
Причина — не только в качестве модели, но и в её эффективности в собственной инфраструктуре Cursor. Для AI-продукта это критично: важны не только бенчмарки, но и скорость, стоимость и удобство реальной эксплуатации.
Cursor использовал двухэтапный процесс обучения.
1. Продолженное предобучение
Сначала модель дообучали на кодовых данных, чтобы усилить фундаментальные навыки программирования. В этом этапе:
основное внимание уделялось последовательностям длиной 32k токенов;
затем модель расширяли до 256k для длинного контекста;
после этого проводили небольшую SFT-настройку под конкретные кодовые задачи.
Также Cursor добавил слой MTP для ускорения инференса, что позволило улучшить скорость работы модели в реальных сценариях.
2. Асинхронное усиленное обучение
Следом модель обучали в среде, максимально похожей на реальное использование Cursor. Там моделировались задачи программной инженерии и агентного взаимодействия.
Для этого использовались:
крупномасштабный policy gradient;
модифицированный GRPO;
дополнительные штрафы и награды за стиль кода, поведение в диалоге и некорректные действия с инструментами.
Итог Cursor описывает так: модель не только улучшила точность, но и расширила пространство правильных решений.
Для оценки Cursor создал собственный набор — CursorBench. Он основан на реальных сценариях использования Agent-системы и учитывает не только правильность результата, но и:
качество кода,
эффективность исполнения,
взаимодействие с агентом.
По данным компании, Composer 2 показывает заметный прирост по сравнению с предыдущими версиями и даже конкурирует с крупными передовыми моделями. При этом Cursor утверждает, что добился хорошего баланса между качеством и стоимостью — то есть модель работает эффективно без чрезмерных затрат.
Самый интересный момент здесь даже не в самом Cursor, а в том, что открытая китайская модель стала базой для сильного коммерческого продукта. Это означает, что open source-модели из Китая уже воспринимаются мировыми компаниями не как вспомогательный вариант, а как серьёзная инженерная основа.
Именно в этом смысле Kimi K2.5 и другие китайские модели становятся новым стандартом. Их используют не только разработчики, но и исследовательские команды, аппаратные вендоры и стартапы по всему миру.
На фоне публикации Cursor основатель Kimi Ян Чжилин поделился собственным взглядом на развитие больших моделей.
По его словам, суть LLM — это превращение энергии в интеллект. Но главный вопрос сегодня — не просто “больше ли вычислений”, а как эффективнее масштабировать интеллект.
Он выделяет три ключевых направления:
повышение эффективности токенов;
расширение длины контекста;
переход к агентным кластерам, где несколько AI-агентов решают задачу совместно.
Также Kimi делает ставку на архитектурные улучшения, а не только на рост объёма вычислений. Например, компания развивает собственные сетевые решения, включая новые варианты attention-архитектур и long-context-подходов.
По мнению Ян Чжилина, индустрия уже вошла в третью фазу развития больших моделей.
В 2023–2024 годах доминировали большие объёмы естественных данных.
В 2025 году акцент сместился на высококачественные задачи и масштабное reinforcement learning.
С 2026 года AI начнёт участвовать уже в самом процессе R&D: генерировать задачи, строить обучающие среды и даже искать новые архитектуры.
То есть AI всё меньше просто обучают — и всё больше поручают ему быть участником создания следующего AI.
История Cursor и Kimi показывает сразу несколько важных вещей. Во-первых, открытые китайские модели уже стали серьёзной технологической базой для глобальных продуктов.
Во-вторых, современный AI всё чаще строится не вокруг одной “волшебной” модели, а вокруг инженерного слоя, обучения и агентной организации.
И в-третьих, рынок всё сильнее признаёт: open source-модели из Китая — это уже не альтернатива, а один из центров мировой AI-инфраструктуры.
sms_systems@inbox.ru
+ 7 (985) 982-70-55