Мощность ИИ-ускорителей превысит 15 кВт — будут ли готовы дата-центры?
2025-08-07
De Novo cloud expert
По данным корейского исследовательского центра KAIST TeraLab, мощность ускорителей для задач AI/ML будет постоянно расти, что обусловлено, в частности, новыми типами высокоскоростной памяти. К 2038 году один GPU-сервер будет потреблять свыше 15 кВт и готовить ЦОДы к такой нагрузке надо уже сегодня.
Сегодня самые популярные ускорители вычислений (GPU/TPU) для ЦОД потребляют в среднем, 700-800 кВт, таковы, например показатели карты NVIDIA H100 в форм-факторе SXM5. Но, гонка за производительностью продолжается и она, похоже, скоро упрется в законы термодинамики и физические ограничения электросетей. Согласно прогнозу KAIST TeraLab к 2038 году модули с графическими процессорами нового поколения и памятью высокоскоростной HBM8 будут требовать до 15 360 ватт. Более того, если прогноз окажется верным, то уже через 5-6 лет существующая инфраструктура дата-центров станет недостаточной. Поэтому нас ждёт радикальный пересмотр архитектуры вычислений, питания, охлаждения и географии IT-инфраструктуры. Бизнесу придётся больше думать не о терафлопсах, а энергопотреблении и расходе воды.
Эволюция энергопотребления
Ведущая исследовательская лаборатория при KAIST TeraLab (Terabyte Interconnection and Package Laboratory) при Корейском научно-техническом институте (KAIST) специализируется на исследованиях в области высокоскоростной памяти (High Bandwidth Memory, HBM), трехмерной интеграции чипов (3D IC), интерконнекта и других высокотехнологичных компонентов. В июне 2025 организация презентовал обширный отчет HBM Roadmap v1.7, охватывающий будущие поколения памяти для ИИ-ускорителей — от HBM4 до HBM8. Фактически, отчет позволяет взглянуть на то, как будет развиваться энергопотребление дата-центров в ближайшее десятилетие и далее.

В частности, исследователи отмечают, что уже в 2026 году производители могут массово перейти на новый тип памяти для GPU — HBM4, вместо нынешнего HBM3. При этом, учитывая, рост числа модулей памяти в новых ускорителях и увеличение их потребления, уже в 2026 году мощность новейших серийных ИИ-ускорителей достигнет 2,2 кВт (втрое больше, чем сейчас), а в 2029-м году, с появлением памяти HBM5 — 4,4 кВт. Далее тенденция будет идти по нарастающей, пока в период 2035-2038 годов не достигнет уровня 15 кВт на ускоритель.

Изменений потребует и архитектура электронных компонентов самой памяти. Как отмечают исследователи TeraLab классическая горизонтальная компоновка элементов становится неэффективной, ей на смену приходят вертикальные многоуровневые архитектуры, где память располагается непосредственно над логикой GPU — так называемые SoIC (System on Integrated Chip). Межслойные соединения без термопрокладок (bumpless Cu-Cu bonding), интерпозеры нового типа, встраиваемые тепловые каналы, жидкостные контуры охлаждения — всё это формирует новый тип вычислительных платформ. Внутренние датчики температуры (TSV-термоконтроль) в такой ситуации становятся обязательным элементом дизайна: каждый чип отслеживает локальный перегрев, мгновенно снижая нагрузку или отключаясь от питания. Это не просто защита, а новая форма саморегуляции на уровне базовой архитектуры.
Гряду большие перемены
Растущий уровень энергопотребления меняет подход к проектированию ЦОД — если сегодня средняя ИИ-стойка рассчитана на нагрузку максимум в несколько десятков кВт, то в перспективе десяти лет, сто и более кВт на один серверный шкаф скорее всего станет новой нормой. При этом уже сейчас меняется и структура расходов: «Затраты на электроэнергию теперь составляют от 40 до 60% от общего объема операционных расходов в современной инфраструктуре ИИ, как облачной, так и локальной», — отметил Санчит Вир Гогия, генеральный директор Greyhound Research.
Его слова дополняет сказал Маниш Рават, аналитик TechInsights, который считает, что:
«Один модуль мощностью 15 кВт, работающий непрерывно, может обходится в сумму до $20 тыс. в год только расходов на электричества, без учета охлаждения, такая структура затрат заставляет предприятия оценивать местоположение, модели использования и эффективность платформы, так тщательно, как никогда раньше».
К тому же с таким уровнем потребления могут не выдержать уже электросети мегаполисов — таких как Франкфурт, Дублин, Амстердам, Сингапур и другие — где расположены крупные дата-центры. В такой ситуации преимущество могут получить локации с дешёвой электроэнергией, холодным климатом и/или возможностью развития возобновляемой энергетики, такие, например, как северная Европа и Канада. Учитывая описанные тенденции вполне вероятно, что уже в ближайшие годы операторы будут выбирать площадки для своих дата-центров, не столько по фактору близости к клиенту, сколько по доступности электрических и охлаждающих мощностей, а инвестиционные циклы будут начинаться с энергетического аудита, а не с анализа SLA и стоимости аренды стойки.
К 2035 году энергетика станет определяющим фактором в развитии искусственного интеллекта. Графики роста производительности больше не дают полной картины: без питания, охлаждения и стабильной инфраструктуры самые мощные ИИ-решения не принесут результата. Компании, работающие в области LLM, генеративного ИИ, кластерных вычислений и облачных платформ, уже сегодня должны готовиться к ситуации, когда вычислительные возможности будут ограничены не производительностью оборудования, а доступными мегаваттами питания и охлаждающими мощностями. Те же, кто не перестроит стратегию с учетом новых реалий, рискуют остаться за бортом уже через несколько лет.