В начале 2026 года Nvidia представила исследование, которое многие уже называют одним из самых громких в области AI-систем для программирования. Речь идёт о подходе AVO — Agentic Variation Operators, где AI-агент становится не просто генератором кода, а самим механизмом эволюции.
Если раньше большие модели использовались как помощники для предложения вариантов, то в AVO агент получает куда больше свободы: он сам ищет информацию, меняет код, проверяет результаты, исправляет ошибки и продолжает цикл улучшений без постоянного участия человека.
Суть AVO в том, чтобы заменить классические ручные механизмы эволюционного поиска — такие как фиксированные мутации, скрещивание и заранее придуманные эвристики — на автономного кодирующего агента.
Это особенно важно для задач, где даже очень сильные человеческие команды тратят месяцы на тонкую оптимизацию. Один из главных примеров — оптимизация attention-ядра, то есть одного из самых критичных вычислительных компонентов в Transformer-моделях.
Почему это важно именно для GPU-оптимизации
Оптимизация attention — это не обычное написание функции. Здесь приходится работать на уровне:
распределения регистров;
загрузки памяти;
синхронизации потоков;
планирования вычислительных стадий;
использования тензорных ядер;
борьбы с узкими местами архитектуры.
Раньше такие задачи решались вручную, ценой огромного времени экспертов. Nvidia утверждает, что теперь AI-агент способен самостоятельно проходить этот путь, причём не один раз, а в режиме длительной эволюции.
7 дней автономной работы
В эксперименте AVO был запущен на задаче оптимизации multi-head attention (MHA) на GPU архитектуры Blackwell B200. Агент работал 7 дней без участия человека.
За это время он:
исследовал более 500 направлений оптимизации;
создал около 40 рабочих версий ядра;
вышел на производительность до 1668 TFLOPS в BF16.
По результатам тестов это оказалось лучше:
закрытого cuDNN от Nvidia — до 3,5%;
FlashAttention-4 — до 10,5%.
Ещё более впечатляющий момент заключается в том, что найденные улучшения не были узко заточены только под один сценарий.
Когда исследователи попросили адаптировать оптимизированное MHA-ядро под GQA (grouped-query attention), агент справился примерно за 30 минут. И снова показал результат лучше существующих решений.
Это важно, потому что демонстрирует не просто перебор вариантов, а перенос паттернов оптимизации между задачами.
Что именно понял агент
Исследователи отмечают, что AVO не ограничился поверхностным кодовым рефакторингом. Он добирался до уровня микропроцессорной логики. Среди обнаруженных улучшений:
устранение ветвлений для снижения накладных расходов;
перекрытие вычислительных стадий;
более точное распределение регистров между warp-группами;
сокращение ожиданий между этапами вычисления и передачи данных.
Именно это делает результат особенно примечательным: агент, по сути, занимался настоящим hardware-level reasoning.
У этого исследования есть и более широкий смысл. Nvidia фактически показывает, что следующий этап развития AI — это не только обучение больших моделей, но и автономная инженерная эволюция самих вычислительных систем.
То есть AI начинает:
не просто писать код;
не просто помогать инженеру;
а сам участвовать в создании более быстрых вычислительных решений.
Это серьёзный сдвиг. Если такой подход масштабируется, он может изменить и разработку драйверов, и работу с компиляторами, и оптимизацию библиотек, и вообще весь стек низкоуровневого AI-инжиниринга.
Если кратко, то вывод Nvidia звучит так: человеческое понимание перестаёт быть единственным узким местом в оптимизации сложных систем.
AI-агент уже способен:
искать;
тестировать;
исправлять;
повторять;
улучшать;
и делать это долго, автономно и системно.
А это значит, что в некоторых областях конкурировать будут уже не человек с человеком, а человек с человеком + агентом против автономного агента.
Исследование AVO — это не просто ещё одна демонстрация “умного кода”. Это сигнал о том, что AI-системы переходят от роли помощника к роли самоулучшающегося инженерного участника.
И если сегодня агент уже может за неделю переиграть большую часть экспертов в GPU-оптимизации, то главный вопрос звучит уже не «может ли AI помочь», а как долго человек останется главным в цикле улучшений.
sms_systems@inbox.ru
+ 7 (985) 982-70-55