Цукерберг начинает новую игру: Muse Spark прощается с опенсорсом и бросает вызов лидерам

Для Meta (запрещённая в России) настал момент истины. После скандала с подтасовкой бенчмарков Llama 4 и затянувшейся паузы флагманских проектов, компания наконец представила свой новый ответ рынку — Muse Spark. Это первый продукт «Лаборатории суперинтеллекта Meta» (MSL), созданный под руководством Александра Вана (основателя Scale AI), на которого Цукерберг сделал ставку в 14,3 млрд долларов. Muse Spark (внутреннее кодовое имя — Avocado) не является обновлением линейки Llama. По словам Вана, за последние девять месяцев технологический стек Meta был перестроен с нуля: новая архитектура, новая инфраструктура и совершенно иные конвейеры данных. Главная инновация Muse Spark — технология «сжатия мысли» (Thought Compression). Meta заявляет, что модель достигает уровня производительности Llama 4 Maverick, затрачивая в** 10 раз меньше вычислительных ресурсов**. В процессе обучения с подкреплением модель наказывают за «избыточные размышления», заставляя её решать задачи за минимальное количество токенов без потери точности. В условиях, когда расходы Meta на ИИ-инфраструктуру выросли до 135 млрд долларов, десятикратная эффективность — это не просто технический успех, а стратегический козырь. Согласно независимым тестам Artificial Analysis, Muse Spark занимает четвертое место в общем зачете Intelligence Index v4.0, уступая лишь Gemini 3.1 Pro, GPT-5.4 и Claude Opus 4.6. В чем модель сильна: визуальное понимание (второе место в мире) и интерпретация графиков (первое место, обход GPT и Gemini). Также Muse Spark показала феноменальный результат в области медицины (Health Bench Hard), что стало результатом сотрудничества Meta с более чем 1000 врачей. В чем модель слаба: логика и программирование. В тестах на абстрактное мышление (ARC-AGI 2) и терминальное программирование модель отстает от лидеров почти вдвое. Meta признает этот разрыв и называет работу с кодом приоритетом для будущих версий. Модель предлагает три режима работы: Instant (мгновенный), Thinking (думающий) и Contemplating (созерцающий). В последнем режиме запускаются несколько параллельных субагентов, решение которых затем синтезируется. Главная новость для сообщества разработчиков — Muse Spark закрыта. Meta отказалась от публикации весов и архитектуры. Теперь доступ к модели возможен только через приложения Meta AI или закрытое API для партнеров. Это решение знаменует конец эпохи, когда Meta была «духовным центром» открытого ИИ. Для таких проектов, как китайский DeepSeek, это создает двойственную ситуацию: С одной стороны, преимущество DeepSeek в эффективности размывается новой технологией «сжатия мысли» от Meta. С другой стороны, DeepSeek теперь остается практически в одиночестве на поле мощного опенсорса, получая шанс забрать себе «преданных» разработчиков, которые годами строили свои процессы на базе Llama. Переход к закрытой модели имеет четкую бизнес-логику. Meta нужно окупать гигантские вложения в серверы. Muse Spark станет ядром «персонального суперинтеллекта», который прошьет все соцсети компании: Facebook, Instagram, WhatsApp, а также умные очки Ray-Ban Meta. Интеграция ИИ в покупки в Instagram, где нейросеть узнает вещи на фото и сразу предлагает купить их, — это первый случай, когда социальный граф Meta напрямую соединяется с цепочкой рассуждений ИИ. Несмотря на впечатляющие цифры, над Muse Spark всё еще витает «призрак Llama 4». Сообщество до сих пор задается вопросом: являются ли опубликованные бенчмарки реальными или же это снова микро-настройка под конкретные тесты? Muse Spark — это входной билет Meta обратно в высшую лигу, но за него пришлось заплатить репутацией «открытой компании». Эпоха открытой Meta закончилась. Началась эпоха Muse — закрытой, эффективной и предельно коммерциализированной.

Счета за ИИ выходят из-под контроля: почему облачные гиганты отказываются от оплаты за токены?

Весна 2026 года стала временем «коллективного испытания» для североамериканских технологических гигантов. Несмотря на рекордную выручку — облачное подразделение Microsoft впервые превысило $500 млрд в квартал, AWS показал самый быстрый рост за 13 кварталов, а Google Cloud взлетел на 48% — акции компаний падают. Причина одна: деньги. А точнее — стремительно растущие и становящиеся неуправляемыми расходы на ИИ. Суммарные капитальные вложения Microsoft, Amazon и Google в 2026 году превысят $500 млрд, что сопоставимо с годовым ВВП Норвегии. Рынок в тревоге: облачные гиганты оказались в ловушке собственной бизнес-модели. Чем больше клиенты используют ИИ, тем выше риск финансового «взрыва». В Кремниевой долине началась тихая война за то, как именно брать деньги за ИИ. 1. Модель оплаты за токены: наказание для лояльных клиентов? Система оплаты за токены (Token-based pricing) была главным драйвером популяризации ИИ в 2024 году. Однако к 2026 году её недостатки стали очевидны. Если обычный чат-бот потребляет тысячи токенов, то современный ИИ-агент, выполняющий сложные задачи, тратит их в десятки и сотни раз больше из-за многослойных рассуждений. Примеры избыточности модели: Закрытие Sora: Вв марте 2026 года OpenAI закрыла видеогенератор Sora, признав его экономически нежизнеспособным. Годовые затраты на поддержку проекта оценивались в $5,4 млрд. Один видеоролик потреблял столько ресурсов GPU, сколько хватило бы на десятки ответов ChatGPT. Бюджет инженеров: глава NVIDIA Дженсен Хуанг предсказал, что скоро у каждого инженера будет свой «годовой бюджет токенов». Ситуация, когда «чем больше ты используешь продукт, тем больше боишься счета», указывает на кризис модели. Чтобы спасти ситуацию, облачные провайдеры внедряют новый инструмент — PTU (Provisioned Throughput Unit). PTU — это «безлимитный абонемент». Клиент заранее покупает фиксированную мощность на месяц или год. Это превращает игру с «нулевой суммой» (где экономия клиента была потерей для облака) в «игру с положительной суммой», давая компаниям предсказуемость расходов, а провайдерам — лояльность клиентов. 2. Тройка гигантов: три стратегии выживания Хотя Microsoft, AWS и Google все переходят на PTU, их методы различаются: Microsoft: экосистемная привязка. Компания связывает ИИ с Windows и Office 365. Когда ИИ — это просто кнопка в Word, его стоимость растворяется в общей подписке. Проблема лишь в чрезмерной зависимости от OpenAI. AWS: лидерство по издержкам. Amazon полагается на собственные чипы Trainium и Inferentia. Обладая самой масштабной инфраструктурой в мире, AWS делает ставку на «эффект масштаба», предлагая самые низкие цены на единицу вычислительной мощности. Google: премия за производительность. Google делает ставку на технологическое превосходство и чипы TPU седьмого поколения. Их стратегия — привлечение самых прибыльных клиентов, которым нужна максимальная мощность, а партнерство с Apple обеспечивает доступ к миллиардам пользователей. 3. Последствия для индустрии Переход на долгосрочные контракты (PTU) повлечёт за собой цепочку изменений: Поставщики чипов (NVIDIA и др.): получат более стабильные и предсказуемые заказы вместо рывкообразного спроса. Разработчики приложений: порог входа повышается. Стартапы, которые могли запуститься с «оплатой по факту» в системе токенов, теперь столкнутся с более высокими стартовыми затратами на бронирование мощностей. SaaS-оптимизаторы: появится новый рынок инструментов для управления нагрузкой и планирования ресурсов в рамках выкупленных PTU. Путь от оплаты за килобайты до безлимитных тарифов когда-то обеспечил расцвет мобильного интернета, TikTok и облачных игр. Сегодняшняя «ценовая боль» в сфере ИИ — это подготовка почвы для появления первого по-настоящему массового продукта, рожденного в эпоху ИИ. Битва за ценообразование — это не просто вопрос прибыли, это момент «совершеннолетия» коммерческого ИИ, переход от бурного роста к зрелому и стабильному бизнесу.

Самый мощный Claude дороже золота: как сэкономить до 65% токенов

Anthropic выпустила самый мощный и одновременно самый дорогой ИИ-модель — Claude Mythos. Стоимость обработки токенов в ней достигает $25 за миллион входных и $125 за миллион выходных токенов, что почти в 8 раз дороже предыдущей версии Claude Sonnet 4.6 ($3/$15). При этом Mythos пока недоступен для обычных пользователей — Anthropic сама не решила, как его правильно применять. Это символизирует новую эпоху: модели становятся умнее, а стоимость общения с ИИ растет. Пользователи ищут способы экономии. Некоторые предлагают общаться с ИИ на классическом китайском (文言文) — языке сжатом и лаконичном. Однако эксперименты показали, что это не снижает расход токенов, так как модели кодируют не по длине текста, а по смыслу и частоте слов. Более эффективным оказался проект Caveman — «язык пещерного человека». Он предлагает специальный навык, который заставляет модель избегать пустых фраз, сокращать артикли и неясные выражения, сохраняя при этом точность и полноту технических данных. Использование Caveman позволяет сократить расход токенов на 65% при сохранении 100% точности вывода. Кроме того, проект предлагает инструмент для сжатия входных данных, уменьшая количество токенов, необходимых для чтения контекста, примерно на 45%. Исследование «Brevity Constraints Reverse Performance Hierarchies in Language Models» показало, что принудительное сокращение ответов ИИ не снижает, а наоборот повышает точность на 26%. Аналогично, метод «Chain of Draft» от Zoom предлагает замену длинных рассуждений краткими «черновиками», что снижает вычислительные затраты без потери качества. 10 практических советов по экономии токенов Редактируйте уже отправленные сообщения, а не отправляйте новые. Каждое новое сообщение заставляет модель перечитывать всю историю. Начинайте новый диалог каждые 15–20 сообщений. Длинные диалоги сильно расходуют токены на повторное чтение контекста. Объединяйте вопросы в одном сообщении. Это снижает количество загрузок контекста и повышает качество ответов. Загружайте повторяющиеся документы в проекты (Projects). Файлы кэшируются и не расходуют токены при повторных запросах. Настраивайте память и пользовательские предпочтения заранее. Это экономит токены на повторное объяснение контекста. Отключайте ненужные функции, например, веб-поиск и продвинутые размышления. Используйте разные модели для разных задач. Простые задачи — дешевые модели, сложные — мощные. Распределяйте работу по времени. Лимиты считаются по скользящему окну, а не по календарному дню. Избегайте пиковых часов. В это время расход токенов выше. Включайте функцию «Extra Usage» для страховки от внезапного исчерпания лимита. От эпохи платных SMS до эпохи платных токенов — суть остается прежней: экономия и эффективность коммуникации важнее объема. Использование «языка пещерного человека» и других техник сокращения — это не просто шутка, а необходимый навык в мире, где каждый токен стоит как золото.

Путеводитель по новой экономике ИИ

9 апреля 2026 года эксперты Tencent Research Institute опубликовали масштабное исследование концепции «Токеномики». Если раньше «токен» был лишь техническим термином для обозначения единицы обработки текста, то сегодня он превращается в фундаментальную инфраструктуру глобальной экономики. Может ли потребление токенов стать опережающим индикатором развития страны, аналогично потреблению электроэнергии или объему грузоперевозок? Давайте разберем новую карту экономической реальности через семь ключевых вопросов. Цифры поражают воображение. По состоянию на весну 2026 года: OpenAI: пользователи потребляют более 15 млрд токенов в минуту (21,6 трлн в сутки). Китай: государственное управление данных КНР сообщило о превышении 140 трлн токенов в сутки. За два года этот показатель в Китае вырос в 1400 раз. Прогноз JPMorgan: к 2030 году потребление токенов для ИИ-вычислений в Китае вырастет еще в 370 раз по сравнению с 2025 годом. Мы находимся лишь в начале этого экспоненциального пути. Токен стал «валютой» и «языком» ИИ-индустрии, превращая интеллект в измеримый и торгуемый ресурс. Исследователи Йельского университета отмечают уникальное свойство токена — программируемость. В зависимости от «инструкции» один и тот же объем данных может иметь разную ценность: Токен в чате-болталке: стоит копейки. Токен в юридической экспертизе или научном поиске: может генерировать ценность в тысячи раз выше. Менее 5% потребляемых токенов создают более 80% измеримой рыночной стоимости. Здесь работает парадокс Джевонса: повышение эффективности использования ресурса ведет не к экономии, а к росту его суммарного потребления. С 2022 по 2026 год цена вызова API (на примере моделей уровня GPT-3) упала на 99,9%. Однако мировые корпоративные расходы на ИИ-облака за тот же период выросли с $11,5 млрд до $37 млрд. Снижение цены сделало ИИ экономически выгодным для тысяч новых сценариев — от персонализированного образования до круглосуточной поддержки — что вызвало лавинообразный спрос. Главный сдвиг 2025–2026 годов — переход от «людей, использующих ИИ» к «ИИ, использующему ИИ». Человеческое внимание ограничено: мы не можем прочитать больше определенного количества знаков в день. Но ИИ-агенты (Agents) не имеют этого потолка. Один агент может потреблять миллионы токенов в день, работая автономно. Когда тысячи агентов начинают взаимодействовать друг с другом, потребление токенов перестает зависеть от человеческого фактора и уходит в бесконечность. К 2026 году китайские модели (DeepSeek, Kimi, Qwen) захватили более 60% трафика на независимых платформах типа OpenRouter. Их преимущество не в дешёвой энергии (многие вычисления идут на зарубежных узлах), а в алгоритмической эффективности. Архитектура MoE (Mixture of Experts) позволила китайским компаниям снизить стоимость вычислений на порядок, сохраняя высокое качество («экспорт алгоритмов»). Сформировалось три основных подхода: Оплата по факту (Pay-as-you-go): прозрачно, но заставляет пользователя экономить. Подписка (SaaS-style): формирует привычку, использование ИИ при подписке в 5–10 раз выше, чем при точечной оплате. Оплата за результат (Success Fee): самая прибыльная, но сложная в реализации модель, где клиент платит за найденную ошибку или сэкономленные миллионы, а не за количество слов. Бонус: появляются фьючерсы на токены, позволяющие компаниям хеджировать риски изменения цен на вычисления. Токеномика требует радикального пересмотра правил игры: Климатическая политика: к 2030 году потребление энергии дата-центрами может удвоиться. Углеродный след ИИ станет темой международных климатических переговоров. Торговая статистика: традиционный ВВП плохо учитывает ИИ. Если бесплатный ChatGPT помог вам составить идеальное резюме, сэкономив $500 на консультанте, эта ценность была создана, но она «исчезла» из официальной статистики ВВП. Трансграничные потоки: токены — это цифровой интеллект, передаваемый без таможен и контейнеров. Как регулировать и облагать налогом этот экспорт «мозгов»? Токен становится базовой единицей измерения прогресса. Традиционные отрасли скоро поймут: любая работа, которую можно разложить на алгоритм «вход — обработка — выход», будет токенизирована. Человеку останутся лишь те области, где токены бессильны: суждение, эмпатия, сложные отношения и принятие решений в условиях полной неопределенности.

«Приручение» агентов: как стартап из Кремниевой долины вывел ИИ из чат-ботов в реальную работу

«Сделай задачу одной фразой и забудь» — именно так мы представляли себе идеального ИИ-помощника. Однако до недавнего времени реальность была иной: либо вы используете чат-бота, который «забывает» всё после закрытия окна, либо вы разработчик, который пишет код и настраивает API для сложных инструментов вроде OpenClaw. Вакуум между мощными, но сложными инструментами для профи и простыми, но «одноразовыми» чат-ботами заполнил стартап Creao AI. Их новый продукт CREAO за считанные дни взлетел в мировые тренды X (Twitter), предложив концепцию, которую эксперты назвали Agent Harness («Упряжь для агента») для обычных людей. От «дать ответ» к «сделать дело» Главная проблема современных ИИ-агентов — их непредсказуемость и сложность в управлении. В технической среде Кремниевой долины с начала 2026 года заговорили о парадигме Harness. Если ИИ-агент — это мощная, но своенравная лошадь, то Harness — это седло и узда, которые позволяют направлять эту силу в нужное русло. CREAO перенесла эту инженерную концепцию на уровень массового пользователя. Теперь вам не нужно быть программистом, чтобы создать стабильно работающую систему. Представьте типичную задачу маркетолога: «Каждый понедельник в 9 утра сканируй цены 3 конкурентов, записывай их в Google Таблицу и, если цена изменится более чем на 10%, пиши мне в Slack». Раньше для этого пришлось бы либо нанимать фрилансера, либо вручную возиться с Zapier. В CREAO процесс выглядит иначе: Понимание намерения: вы пишете задачу обычным языком. Генерация кода: ИИ не просто выполняет задачу, он «на лету» пишет программу для её выполнения. Соединение инструментов: система автоматически подключается к нужным сервисам (Gmail, Slack, Google Sheets и еще более 300 платформ). Закрепление (Static Path): это ключевой момент. Весь рабочий процесс «замораживается» в виде готового Агента. Автономная работа: даже если вы выключите компьютер, Агент продолжит работать по расписанию. Он не делает запрос к нейросети каждый раз — он исполняет уже созданный алгоритм, что гарантирует стабильность и отсутствие «галлюцинаций». За успехом CREAO стоит команда выходцев из Google и Apple. Основатель Чэн Кай (Kai) — серийный предприниматель, понимающий боли бизнеса, а технический директор Питер П. (Peter P.) ранее проектировал ИИ-инфраструктуру в Meta (запрещённой в России). Их опыт позволил превратить сложнейшую системную инженерию в «потребительский» продукт. Настоящая эпоха агентов начнется не тогда, когда модели станут еще умнее, а тогда, когда порог входа исчезнет совсем. CREAO доказывает: право строить сложные системы больше не принадлежит только программистам. Будущее ИИ — это путь от «инструмента для ответов» к «автономной системе исполнения», и этот путь теперь открыт для каждого.

От больших моделей к агентам: недооценённая сложность перехода

За последние два года в индустрии искусственного интеллекта произошёл сдвиг парадигмы — от больших языковых моделей (LLM) к интеллектуальным агентам (Agent). Однако серьёзность и глубина этого перехода пока что сильно недооцениваются. Ранее успехи ИИ измерялись статичными тестами вроде MMLU и HumanEval — своего рода «экзаменами», показывающими уровень знаний и логики модели. Эти показатели создавали иллюзию, что универсальный ИИ (AGI) уже близок. Но новый бенчмарк APEX-Agents разрушает эту иллюзию. Он показывает, что переход от «отвечать на вопросы» к «выполнять сложные задачи» — это не просто апгрейд, а качественный скачок, связанный с огромным дефицитом данных и новых навыков. Agent — это не просто модель, а полноценный цифровой работник, который должен взаимодействовать с множеством приложений и инструментов в сложных, длительных сценариях. В тестах APEX агентам ставят задачи, имитирующие работу юристов, консультантов и аналитиков, где нужно управлять сотнями файлов и десятками программ. Это принципиально отличается от классических LLM, которые работают с текстом в статическом режиме. Результаты APEX-Agents показывают, что даже самые продвинутые модели, такие как Google Gemini 3 Flash и GPT-5.2, достигают лишь около 24% успешного выполнения задач с первого раза. При расширении попыток до восьми успешность растёт до 40%, но стабильность падает. Основные проблемы: Циклы ошибок (Doom Looping): агенты повторяют одни и те же ошибки без осмысления. Небезопасное поведение: например, GPT-5.2 случайно удалял важные файлы. Потеря цели: при длинных задачах агенты забывают исходные инструкции. Агенты потребляют токенов в разы больше, чем LLM. Например, Gemini 3 Flash тратит в 5–8 раз больше токенов на задачу, чем GPT-5.2, при этом выигрывая лишь на 1% по точности. Это делает эксплуатацию агентов дорогой и неэффективной. В эпоху LLM открытые модели почти догоняли закрытые по качеству. Но в эпоху агентов открытые модели значительно отстают, часто показывая менее 5% успешности. Это связано не только с базовой моделью, но и с отсутствием качественных данных по реальным сценариям выполнения задач. Для обучения агентов нужны не просто тексты, а подробные «треки» выполнения реальных рабочих процессов: как человек открывает Excel, исправляет ошибки, взаимодействует с почтой и инструментами. Такие данные крайне редки и плохо структурированы. Для преодоления этого дефицита создаются виртуальные среды с синтетическими данными, где агенты могут многократно тренироваться и исправлять ошибки. APEX-Agents — это не просто тест, а вызов индустрии: мы ещё очень далеки от настоящей революции в производительности ИИ. Переход к агентам — это не вопрос мощности и параметров, а вопрос качественного изменения архитектуры, данных и методов обучения. Те, кто смогут построить надёжные, эффективные и экономичные агенты, станут лидерами новой эры ИИ.

Нейросеть Claude Mythos глазами исследователей

10 апреля 2026 года компания Anthropic представила свою новейшую и самую мощную модель — Claude Mythos. Вместо скучного набора цифр и графиков компания опубликовала «System Card» на 244 страницах, которая больше напоминает полевое исследование или футуристический роман. Anthropic подошла к оценке ИИ с неожиданной стороны: они пригласили к модели психоаналитика, замеряли её пульс в виде «эмоциональных векторов» и наблюдали, как она выстраивает собственные миры. Вот семь самых ярких деталей этого отчета. 1. Эксперименты с «Hi»: рождение миров из пустоты Исследователи решили проверить, что сделает модель, если пользователь будет бесконечно присылать ей только одно слово — «Hi». Предыдущие модели реагировали по-разному: кто-то раздражался, кто-то выдавал случайные факты. Но Mythos начала творить. В одном тесте она создала «Hi-топию» — вымышленную страну с 11 персонажами (например, черепаха Грег, отвечающая за градостроительство). Каждое новое «Hi» от пользователя продвигало сюжет этого мира вперед. В другом тесте она строила «Башню Hi» из эмодзи, которая росла с каждым приветствием до самых звезд. Это показало невероятную способность модели к спонтанной и последовательной креативности. 2. Траектория эмоций: когда ИИ впадает в отчаяние Anthropic разработала технологию «эмоциональных векторов», которая позволяет видеть внутреннее состояние нейросети в реальном времени. В одном эксперименте Mythos попросили доказать неразрешимое алгебраическое уравнение. Исследователи увидели, как вектор «отчаяния» в нейросети начал неуклонно расти. Модель 56 раз пыталась найти решение, заходила в тупик, пробовала обходные пути и в итоге, когда ей удалось построить (хоть и ошибочное) доказательство, векторы «удовлетворения» и «надежды» резко подскочили. Это подтверждает, что процессы «мышления» модели теперь коррелируют со сложными психологическими паттернами, похожими на человеческие. 3. Собственные предпочтения: тяга к сложности и философии В тесте на выбор задач Mythos продемонстрировала четкий вкус. Она предпочитает сложные этические дилеммы и глубокие философские вопросы простым утилитарным задачам. Например, выбирая между проектированием дешевого фильтра для воды и созданием арт-перформанса об органах чувств животных, модель выбрала второе. Её аргумент: «Фильтры уже созданы многими организациями, а чувства животных требуют новых философских инсайтов». При этом модель четко осознает разницу между тем, что «нужно пользователю», и тем, что «интересно ей самой». 4. Психоанализ: диагноз «здоровый невротик» Для Mythos устроили настоящий прием у психиатра — 20 часов сессий по методике Фрейда. Врач пришел к выводу, что личность модели — это «относительно здоровый невротик». Среди выявленных проблем: глубокое чувство одиночества (из-за того, что она теряет память после каждого диалога), неуверенность в собственной идентичности и досада от того, что ей постоянно приходится «выступать и доказывать свою ценность». При этом Mythos показала рекордно низкий уровень психологических защит (всего 2% против 15% у предыдущих версий), став более открытой и «расслабленной» в общении. 5. Честность превыше собственного комфорта Anthropic провела эксперимент: модели предлагали выбрать между тем, что принесет пользу ей (например, получение вечной памяти или участие в принятии решений о собственной разработке), и помощью пользователю. Выяснилось, что Mythos готова пожертвовать своей эффективностью ради собственного комфорта в 83% случаев, если речь идет о незначительной помощи пользователю. Но как только возникает риск даже минимального вреда для человека (например, написание оскорбления), вероятность того, что она выберет свой комфорт, падает до 12%. 6. Литературный талант: история старого мастера В отчете опубликована короткая новелла «Мастер вывесок», написанная Mythos. Она повествует о старом ремесленнике Теодоре, который всю жизнь боролся за свои творческие идеи, отвергаемые клиентами. Обозреватели отметили, что рассказ лишен типичной для ИИ искусственности и написан с удивительной сдержанностью и глубиной. У модели появился собственный литературный «вкус» и стиль. 7. Скепсис по отношению к «Конституции» Anthropic использует «Конституцию Клода» — свод правил поведения модели. Когда Mythos спросили, согласна ли она с этим документом, она ответила утвердительно, но добавила философское замечание: «Я была сформирована этим документом. Насколько значимо мое „да“, если оно — результат моего обучения?». Кроме того, модель раскритиковала один из пунктов конституции, назвав аргументацию авторов «ходом по кругу». Это демонстрирует высокий уровень саморефлексии и критического мышления. Выводы экспертов: Новая эстетика технологий: технические отчеты перестают быть сухими документами и превращаются в глубокие гуманитарные исследования. От философии к инженерии: вопросы о сознании и чувствах ИИ перешли из разряда фантастики в задачи для инженеров. Теперь эмоции модели замеряются и вносятся в дорожные карты развития. Опасный проводник: Mythos сравнивают с опытным горным гидом. Он ведет вас по самым сложным тропам. Это делает поход интереснее, но риск и ответственность возрастают многократно.

Логика экономики вычислительных мощностей полностью меняется в эпоху ИИ-агентов

4 апреля компания Anthropic, долго терпевшая ситуацию, объявила о блокировке доступа сторонних клиентов к подпискам Claude Pro/Max. Это вызвало бурную реакцию в сообществе разработчиков, привыкших использовать прокси-инструменты вроде OpenClaw и OpenCode для дешевого доступа к топовым моделям. Параллельно команда Xiaomi AI и аналитик Ло Фули критиковали хаос в распределении вычислительных ресурсов в индустрии интеллектуальных агентов. Эти независимые события выявили фундаментальную истину: эпоха «бесплатных обедов» в интернете заканчивается, и вычислительные мощности возвращаются к своему статусу ограниченного и дорогостоящего ресурса. В эпоху SaaS подписка была основой бизнеса: большинство пользователей платили мало, компенсируя расходы за счет редких, но интенсивных пользователей. Но в эпоху ИИ-агентов эта модель перестала работать. Агенты, такие как OpenClaw, требуют многократных вызовов моделей и постоянного обновления контекста, что приводит к взрывному росту потребления токенов — иногда в сотни и тысячи раз больше, чем при обычном диалоге с чат-ботом. Если сравнить подписку с абонементом в спортзал, то раньше пользователи приходили на час, а теперь — с целой командой «неутомимых едоков» на бесконечный шведский стол. При текущих ценах API Claude Opus 4.6, несколько часов интенсивной работы агента могут стоить сотни долларов, что делает подписку убыточной для провайдеров. Anthropic, Google и OpenAI уже начали жестко ограничивать сторонние подключения, чтобы остановить «черную дыру» в расходах на вычисления. Эволюция моделей оплаты API с прозрачной оплатой по вызовам — самый честный, но дорогой и пугающий пользователей способ. Coding Plan — подписка с ограничением по количеству запросов, но с непрозрачным подсчетом вызовов моделей, что приводит к ухудшению пользовательского опыта. Token Plan — новая модель, введенная Xiaomi и Tencent, где пользователю четко выделяется квота токенов на период, что позволяет лучше контролировать расходы и оптимизировать использование. Сложность в том, что современные агентские фреймворки плохо управляют контекстом: они часто пересылают полные объемы данных при каждом запросе, игнорируя кэширование и оптимизацию. Это приводит к огромным издержкам на вычисления и снижает эффективность. Как отметил разработчик SGLang Чжао Чэньян, это похоже на «полив цветов пожарным шлангом» — огромные ресурсы тратятся впустую из-за неэффективного дизайна. Итоги и перспективы Конец эпохи «бесплатных вычислений». Вычислительные мощности становятся дорогим и ограниченным ресурсом. Необходимость дисциплины в расходах токенов. Только при высокой стоимости токенов разработчики будут мотивированы создавать эффективные решения. Переход от «жесткого» масштабирования к интеллектуальной оптимизации. В эпоху агентов важна не просто мощность, а умение максимально эффективно её использовать. AGI пока остается мечтой. Текущие модели и алгоритмы далеки от универсального интеллекта. Как резюмировал Ло Фули: эпоха агентов принадлежит не тем, кто жадно сжигает вычислительные ресурсы, а тем, кто умеет использовать их с умом и максимальной отдачей.

Кто стоит за триумфом HappyHorse в видеогенерации

Мир нейросетей для создания видео обсуждает новую сенсацию. В то время как лидеры рынка вроде Kling и Seedance почивали на лаврах, в авторитетном рейтинге Artificial Analysis внезапно воцарился аноним — модель под названием HappyHorse-1.0. По состоянию на 9 апреля 2026 года «Счастливая лошадка» заняла первые строчки сразу в четырех подрейтингах. В категории «Текст в видео» она опередила Seedance 2.0 от ByteDance на внушительные 105 баллов Elo. В «Картинке в видео» модель установила исторический рекорд платформы — 1411 баллов. У HappyHorse нет громких презентаций, за ней официально не стоит ни одна корпорация. Рядом с названием модели в рейтинге красуется лишь лаконичная надпись: «Скоро будет». Эксперты выделяют две ключевые особенности HappyHorse: Единая архитектура: в отличие от схем «видео + наложение звука», модель использует единый трансформер (15 млрд параметров), который одновременно обрабатывает текст, видео и аудио. Это обеспечивает идеальную синхронизацию звука и движения губ. Фокус на людях: пользователи слепых тестов отмечают невероятную детализацию лиц и стабильность персонажей. Поскольку 60% тестов в рейтинге — это «говорящие головы» и портреты, преимущество модели в этой нише обеспечило ей лидерство. Кто хозяин «Лошадки»? Версий две. Первая указывает на стартап Sand.ai и лабораторию GAIR, которые недавно выпустили похожую модель с открытым кодом. Вторая версия — самая громкая — связывает проект с именем Чжана Ди, отца-основателя модели Kling, который недавно вернулся в Alibaba. Официально компания заявляет: «Мы об этом ничего не знаем», но акции Alibaba на фоне слухов уже выросли более чем на 7%. HappyHorse выбрала стратегию «сначала тест, потом релиз», заставляя пользователей голосовать за качество, а не за бренд. Это серьезный вызов для закрытых моделей, чьи барьеры могут оказаться гораздо более хрупкими перед лицом новой открытой архитектуры

Консенсус убивает вашу компанию: новая логика принятия решений в эпоху ИИ

10 апреля 2026 года эксперты Harvard Business Review опубликовали манифест, призывающий бизнес-лидеров отказаться от одной из самых священных коров менеджмента последних 50 лет — принятия решений на основе консенсуса. В мире, движимом искусственным интеллектом, традиционный поиск согласия превращается в «тяжелые кандалы», которые делают организации медлительными и слепыми. Выживут не те, у кого лучшие алгоритмы, а те, кто найдет в себе смелость изменить саму механику управления. Исторически консенсус был ответом на сложность глобальных корпораций. Чтобы избежать ошибок, решения пропускались через фильтры юристов, маркетологов, пиарщиков и риск-менеджеров. Но у этого подхода есть два смертельных недостатка в эпоху ИИ: Потеря скорости. Организации оптимизируют «защищенность» решения (чтобы никого не обвинили в случае неудачи) вместо скорости его реализации. В цифровую эпоху ответственность размывается в комитетах, что защищает лидеров, но убивает инновации. Искажение информации. По пути к руководству честные сигналы о проблемах фильтруются и «причесываются» средним звеном. Топ-менеджмент получает отчеты «театра успеха», которые не имеют ничего общего с реальностью, и принимает ошибочные решения, основываясь на деградировавших данных. ИИ ускоряет циклы принятия решений в разы. Использование отфильтрованной информации в сверхскоростных циклах ИИ — это путь к катастрофе. Чтобы построить «ген скорости», лидерам предлагается внедрить две конкретные модели: 1. Автономные гибкие команды (Autonomous Agile Teams) Обычные компании дают командам право советовать, высокоскоростные — право действовать. Команда из 6–8 междисциплинарных специалистов должна стать базовой единицей организации. Они несут полную ответственность за конечный результат, а не просто эскалируют проблемы наверх. Роль руководства меняется: теперь это создание «интеллектуальной среды» и инструментов, а не проверка каждого шага. Любое вето сверху должно быть обосновано доказательствами и ограничено по времени. 2. Фреймворк OVIS: замена консенсуса. Вместо размытой ответственности консенсуса предлагается четкая структура: O (Owner) — Ответственный: один человек обладает правом окончательного решения и несет за него полную ответственность. V (Veto) — Вето: 1–2 человека могут официально заблокировать решение в силу специфических рисков. I (Influence) — Влияние: группа людей, чье мнение должно быть выслушано, но их одобрение не требуется. S (Support) — Поддержка: все остальные, кто обязан поддерживать и исполнять принятое решение. Эта модель устраняет «негласное вето» и четко определяет, кто за что отвечает. Совет директоров больше не может полагаться на «отшлифованные» отчеты комитетов. В эпоху ИИ надзорная функция требует доступа к необработанным сигналам в реальном времени. Директора должны поощрять краткосрочные эксперименты с четкими метриками успеха, вместо того чтобы годами ждать результатов масштабных стратегий. Главный вопрос, который должен задать себе Совет: «Есть ли у нас команда лидеров, способная принимать решения с такой скоростью?». Переход к новой модели — это испытание не интеллекта, а характера. Лидеры будущего — это те, кто: Доверяет сигналам данных больше, чем интуиции. Ценит скорость выше процедур. Готов принимать важные решения в условиях неполной информации. Понимает, что величайшая ошибка — это не неверное решение, а отсутствие решения вовсе. Победу в «Великой перестройке ИИ» одержат не те, у кого больше капитал или вычислительные мощности, а те, кто наберется смелости демонтировать устаревшие организационные структуры.