Долгое время в индустрии доминировал нарратив: «У кого дешевле электроэнергия, тот и победит в гонке ИИ». Однако свежие данные аналитиков и отчёты компании Moore Threads (Muxi) за март 2026 года вскрывают иную реальность. В структуре стоимости владения (TCO) современным дата-центром счета за свет составляют мизерную долю. Основной капитал «сгорает» совсем в других узлах.
Если разложить совокупную стоимость владения (TCO) сверхкрупным вычислительным центром на четырехлетний цикл (стандартный срок амортизации GPU), получается следующая картина:
GPU-чипы: $25 млрд (45%). Это главная статья расходов. Причем это не просто «железо», а плата за дефицит и технологическое доминирование.
Системы питания и охлаждения: $11 млрд (20%). Парадокс в том, что эти расходы продиктованы прожорливостью чипов. Когда один чип (уровня NVIDIA Blackwell) потребляет более 1000 Вт, инфраструктура охлаждения становится сложнее и дороже самого здания.
Сеть и хранение данных: $9 млрд (16%). В кластерах на десятки тысяч карт сетевое оборудование — это не роутеры, а сложнейшая «капиллярная система» из сотен километров оптоволокна.
Электроэнергия: $2,75 млрд (5%).
Вывод очевиден: даже если цена на электричество в вашем регионе упадет вдвое, общая стоимость проекта сократится всего на 2,5%. Это статистическая погрешность на фоне затрат на закупку ускорителей.
Многие CEO надеются на удешевление чипов с развитием конкуренции, но в 2026 году стоимость производства только растет по трем причинам:
Стоимость литографии: разработка и первый запуск (tape-out) чипа на техпроцессе 4-нм или 5-нм сегодня обходится в $300–500 млн. Это невозвратные издержки, которые закладываются в каждый серийный образец.
Память HBM: высокоскоростная память занимает более 40% себестоимости чипа. Рынок HBM монополизирован тремя игроками (SK Hynix, Samsung, Micron), и спрос на нее стабильно превышает предложение.
Сложная упаковка (CoWoS): технология объединения кристаллов памяти и процессора почти полностью контролируется TSMC. Дефицит мощностей упаковки — это «бутылочное горлышко», которое держит цены на высоком уровне.
Для стран, находящихся под экспортными ограничениями (как Китай), ситуация двоякая. С одной стороны, доступ к топовым решениям NVIDIA затруднен. С другой — это создало принудительный рынок для локальных GPU (Huawei Ascend, Muxi, Biren).
Однако покупка локального чипа не решает проблему стоимости. Эффективность китайских кластеров на 3000 карт часто составляет лишь 60-70% от аналогичных систем NVIDIA из-за слабого софта (CUDA остается золотым стандартом) и низкой пропускной способности межчиповых соединений. Это означает, что для решения той же задачи нужно больше карт, больше места и больше обслуживания, что снова раздувает TCO.
Поскольку на цену GPU и электричества повлиять сложно, бизнес в 2026 году фокусируется на системной оптимизации:
Жидкостное охлаждение: переход с воздуха на «воду» снижает PUE с 1.5 до 1.1. Это экономит не только копейки на электричестве, но и миллиарды на капитальных затратах в инфраструктуру охлаждения.
Ethernet вместо InfiniBand: развитие стандарта Ultra Ethernet (UEC) позволяет снизить стоимость сетевой части, которая раньше была «налогом» в пользу проприетарных решений NVIDIA.
Вертикальная интеграция: побеждают те, кто делает «облако-чип-софт» как единое целое (как Google с их TPU или Huawei с экосистемой CANN).
Эпоха «ресурсного преимущества» (дешевой земли и дешевого тока) в ИИ закончилась. Сегодня вычислительная мощность — это не природный ресурс, а продукт глубокой технологической и логистической интеграции.
Победа в гонке ИИ-вычислений в 2026 году достанется не тем, у кого дешевая розетка, а тем, кто сможет обуздать стоимость владения через инновации в охлаждении, архитектуре сетей и эффективности софта. Прямых путей и дешевых решений в этом секторе больше нет.
sms_systems@inbox.ru
+ 7 (985) 982-70-55