В Кремниевой долине появился новый культовый показатель: Tokenmaxxing — максимальное потребление токенов. То, что ещё недавно было просто технической единицей в тарифах на AI, сегодня превращается в меру продуктивности, корпоративную привилегию и даже новый критерий карьерного успеха.
Внутри Meta (запрещённой в России) , OpenAI и других компаний инженеры уже сравнивают не только качество своих проектов, но и объёмы токенов, которые они «сжигают» в работе с AI-агентами.
Масштабы этой гонки впечатляют. В медиа уже обсуждался случай, когда один инженер за неделю израсходовал около 210 миллиардов токенов — объём, сопоставимый с десятками Википедий.
Есть и более бытовой пример: инженер в Стокгольме тратит на Claude больше, чем составляет его зарплата, но компания оплачивает этот счёт. В некоторых командах токен-бюджет стал частью соцпакета — почти как бесплатные обеды или офисные снеки раньше.
Но главный вопрос не в том, сколько токенов сжигают сотрудники. Вопрос в том, что именно измеряется этим расходом. И здесь начинается самая интересная часть.
За последние два года рынок AI резко усложнил систему расчётов. Если раньше цена считалась просто по входным и выходным токенам, то теперь почти у каждого крупного провайдера есть целый набор дополнительных платных слоёв: кеширование, batch-режимы, региональные ограничения, ускоренные режимы, веб-поиск, файловый поиск, контейнеры исполнения кода, память, agent-операции и многое другое.
Иными словами, крупные AI-платформы продают уже не просто модель, а целую инфраструктуру выполнения задач. В счёт попадает всё: поиск, хранение данных, запуск кода, доступ к внешним инструментам, длительное мышление модели.
Поэтому сравнивать стоимость AI только по цене за миллион токенов уже бессмысленно — реальная стоимость складывается из целой цепочки сервисов.
На первый взгляд, рынок вроде бы движется к удешевлению. Стоимость базовых моделей снижается: где-то падение в разы, где-то даже на порядок. Китайские модели на части площадок действительно стоят заметно дешевле западных аналогов.
Но есть парадокс: снижение цены за токен не означает снижение итогового счёта. Причин несколько.
Первая — модели стали умнее, но и разговорчивее. Современные reasoning-модели тратят гораздо больше токенов на один и тот же запрос, потому что «думают» дольше и подробнее. Формально цена за единицу падает, но количество единиц на задачу растёт.
Вторая — появились AI-агенты. Если обычный чат-бот отвечает на один запрос, то агент работает в цикле: сам ставит подзадачи, вызывает инструменты, уточняет выводы, перепроверяет себя и продолжает работу без участия человека. Это уже не разовый расход, а непрерывное потребление вычислений.
Третья — дорожает сама инфраструктура. GPU, память, хранилища, сеть, дата-центры и электричество становятся всё более дорогими. Поэтому даже если модельный прайс снижается, итоговая стоимость работы системы может расти.
На этом фоне и появляется Tokenmaxxing — идея, что чем больше AI используется, тем лучше работает сотрудник. Отсюда и новый внутренний KPI: если ты не жжёшь токены, значит, ты будто бы недоиспользуешь современные инструменты.
Проблема в том, что потребление токенов — это показатель затрат, а не результата. Один и тот же проект можно сделать с большим или меньшим количеством вычислений. Но в корпоративной логике может возникнуть странный перекос: тот, кто тратит больше, выглядит активнее, «продвинутее» и полезнее.
Это создаёт новую форму офисного давления — не только работать, но и демонстрировать высокую AI-активность.
По сути, это очень знакомый сценарий. Когда-то компании должны были срочно делать сайты, потом — мобильные приложения, теперь — массово внедрять AI. Но в отличие от прошлых этапов, здесь цена ошибки намного выше: сжигание токенов напрямую превращается в ощутимые счета, а не в абстрактные инвестиции в будущее.
Главная слабость текущей AI-экономики в том, что она почти не умеет измерять эффективность результата. Система видит, сколько токенов было потрачено, но не видит, насколько полезной была работа. Именно поэтому возникает ложный стимул: больше токенов — не обязательно лучше, но почти всегда дороже.
В этом и заключается настоящий кризис токен-экономики. Компании научились считать расход, но ещё не научились нормально считать ценность. И пока этого нет, рынок будет продолжать путать AI-производительность с AI-расточительностью.
Для компаний новая реальность означает очень простой, но жёсткий вопрос: не сколько стоит миллион токенов, а сколько токенов нужно, чтобы реально закрыть задачу. Для сотрудников — вопрос ещё острее: если раньше ценился навык быстро работать, то теперь может начать цениться навык «правильно и экономно использовать AI», не срываясь в пустой расход.
А для рынка в целом это сигнал, что следующий этап AI-гонки будет строиться не только вокруг качества моделей, но и вокруг умения превращать вычисления в конкретный деловой результат. Победит тот, кто сумеет сделать AI полезным, а не просто шумным и дорогим.
Именно поэтому новый лозунг эпохи звучит так: не «сколько токенов ты сжёг», а «сколько смысла ты из них извлёк».
sms_systems@inbox.ru
+ 7 (985) 982-70-55