Cursor и Kimi: как открытый китайский базовый модельный слой дал результат сильнее Claude

Cursor и Kimi: как открытый китайский базовый модельный слой дал результат сильнее Claude
 

История с Cursor и Kimi получила продолжение. На этот раз Cursor опубликовал технический отчёт по модели Composer 2, фактически признав, что в основе решения лежала китайская открытая модель Kimi K2.5.

При этом компания подчёркивает: это не “чистая обёртка”, а результат собственной доработки, где использовались этапы дополнительного предобучения и усиленного обучения.

Иными словами, Cursor не стал спорить с очевидным: базой служила Kimi, а уже поверх неё строилась собственная инженерная система.

В отчёте Cursor прямо пишет, что перед обучением рассматривались несколько открытых моделей, включая GLM-5, Kimi K2.5 и DeepSeek V3.2, но лучшим выбором оказалась именно Kimi K2.5.

Причина — не только в качестве модели, но и в её эффективности в собственной инфраструктуре Cursor. Для AI-продукта это критично: важны не только бенчмарки, но и скорость, стоимость и удобство реальной эксплуатации.

Cursor использовал двухэтапный процесс обучения.

1. Продолженное предобучение

Сначала модель дообучали на кодовых данных, чтобы усилить фундаментальные навыки программирования. В этом этапе:

основное внимание уделялось последовательностям длиной 32k токенов;

затем модель расширяли до 256k для длинного контекста;

после этого проводили небольшую SFT-настройку под конкретные кодовые задачи.

Также Cursor добавил слой MTP для ускорения инференса, что позволило улучшить скорость работы модели в реальных сценариях.

2. Асинхронное усиленное обучение

Следом модель обучали в среде, максимально похожей на реальное использование Cursor. Там моделировались задачи программной инженерии и агентного взаимодействия.

Для этого использовались:

крупномасштабный policy gradient;

модифицированный GRPO;

дополнительные штрафы и награды за стиль кода, поведение в диалоге и некорректные действия с инструментами.

Итог Cursor описывает так: модель не только улучшила точность, но и расширила пространство правильных решений.

Для оценки Cursor создал собственный набор — CursorBench. Он основан на реальных сценариях использования Agent-системы и учитывает не только правильность результата, но и:

качество кода,

эффективность исполнения,

взаимодействие с агентом.

По данным компании, Composer 2 показывает заметный прирост по сравнению с предыдущими версиями и даже конкурирует с крупными передовыми моделями. При этом Cursor утверждает, что добился хорошего баланса между качеством и стоимостью — то есть модель работает эффективно без чрезмерных затрат.

Самый интересный момент здесь даже не в самом Cursor, а в том, что открытая китайская модель стала базой для сильного коммерческого продукта. Это означает, что open source-модели из Китая уже воспринимаются мировыми компаниями не как вспомогательный вариант, а как серьёзная инженерная основа.

Именно в этом смысле Kimi K2.5 и другие китайские модели становятся новым стандартом. Их используют не только разработчики, но и исследовательские команды, аппаратные вендоры и стартапы по всему миру.

На фоне публикации Cursor основатель Kimi Ян Чжилин поделился собственным взглядом на развитие больших моделей.

По его словам, суть LLM — это превращение энергии в интеллект. Но главный вопрос сегодня — не просто “больше ли вычислений”, а как эффективнее масштабировать интеллект.

Он выделяет три ключевых направления:

повышение эффективности токенов;

расширение длины контекста;

переход к агентным кластерам, где несколько AI-агентов решают задачу совместно.

Также Kimi делает ставку на архитектурные улучшения, а не только на рост объёма вычислений. Например, компания развивает собственные сетевые решения, включая новые варианты attention-архитектур и long-context-подходов.

По мнению Ян Чжилина, индустрия уже вошла в третью фазу развития больших моделей.

В 2023–2024 годах доминировали большие объёмы естественных данных.

В 2025 году акцент сместился на высококачественные задачи и масштабное reinforcement learning.

С 2026 года AI начнёт участвовать уже в самом процессе R&D: генерировать задачи, строить обучающие среды и даже искать новые архитектуры.

То есть AI всё меньше просто обучают — и всё больше поручают ему быть участником создания следующего AI.

История Cursor и Kimi показывает сразу несколько важных вещей. Во-первых, открытые китайские модели уже стали серьёзной технологической базой для глобальных продуктов.

Во-вторых, современный AI всё чаще строится не вокруг одной “волшебной” модели, а вокруг инженерного слоя, обучения и агентной организации.

И в-третьих, рынок всё сильнее признаёт: open source-модели из Китая — это уже не альтернатива, а один из центров мировой AI-инфраструктуры.

БОЛЬШЕ ИНФОРМАЦИИ

Email

sms_systems@inbox.ru

Телефон

+ 7 (985) 982-70-55

Если у вас есть инновационная идея, мы будем рады реализовать ее для Вас!

Специалисты нашей кампании и наши разработки для вас!