Эта статья — о том, как дата-центры реально снижают энергопотери и стоимость владения, а не только ставят красивые лозунги в презентациях. Основа — свежие отраслевые сигналы: Google публично показывает PUE на уровне 1.09 по скользящему итогу за Q1 2025 (и 1.08 квартально), MiTAC на SC 2025 выносит в свет жидкостное охлаждение для AI-кластеров с новейшими GPU AMD Instinct, а в экосистеме серверов укрепляются практики стандартизации — в частности, спецификация Datacenter NVMe SSD от Open Compute Project (выпуск v2.7 от октября 2025). Все эти новости складываются в одну простую, но мощную идею: энергоэффективность перестала быть «добрым делом», это конкурентное преимущество, которое сразу видно в счёте за электричество и в плотности стойки.
Дальше — разберём по шагам, как добраться до цифр класса 1.09–1.10 по PUE и при этом не потерять надёжность и управляемость инфраструктуры.
Почему PUE — это не KPI для отчёта, а рычаг TCO
PUE (Power Usage Effectiveness) — это отношение всей потребляемой энергии дата-центра к энергии, которую ест только IT-нагрузка (серверы, системы хранения, сети). Идеальный PUE равен 1.0 — то есть все киловатты уходят в вычисления, а не в потери и охлаждение. В реальном мире всегда есть накладные расходы: на охлаждение, распределение питания, освещение, BMS и прочие «невидимые» потребители.
Смысловой перевод метрики на «пальцы»: PUE — это коэффициент потерь в трансмиссии. Если PUE = 1.09, значит, на каждый 1 кВт, который «ест» ваш серверный парк, ещё 0.09 кВт уходит на обеспечение его жизнедеятельности. У Google в Q1 2025 скользящее значение PUE — 1.09, а квартальное — 1.08. Это всего 8–9% «верхних» затрат на инфраструктуру. Такие цифры — не теория; это конкретный ориентир индустрии.
Почему каждая сотая по PUE — это деньги
Одна сотая PUE — это 1% от всей IT-нагрузки в виде накладных. Проще всего увидеть эффект на примере.
Пример расчёта (иллюстрация): у нас IT-нагрузка — 1 МВт. При PUE = 1.20 накладные — 0.20 МВт. При PUE = 1.10 — 0.10 МВт. Разница — 100 кВт постоянно. За год это 100 кВт × 24 × 365 = 876 000 кВт·ч. По тарифу в 0.10 у.е./кВт·ч это экономия порядка 87 600 у.е. в год на каждый мегаватт IT-нагрузки. Подставьте свои числа — формула проста: Доп.энергия = IT_нагрузка × (PUE − 1).
В бизнес-языке это означает: «Каждая сотая PUE — это ещё одна тонкая дырка в баке топлива вашего дата-центра». Её можно закрыть технологией — и это окупается быстрее, чем кажется.
Жидкостное охлаждение AI-стоек: меньше вентиляторов — больше полезной мощности
AI-ускорители делают воздух пределом. Современные кластеры на GPU греют стойки так, что традиционные «холодные/горячие коридоры» уже не вытягивают заданную плотность. Поэтому одна из главных линий атаки на PUE — переход к жидкостному охлаждению.
В ноябре 2025 MiTAC Computing на Supercomputing 2025 представила решения для AI-кластеров и охлаждения, включая AI liquid-cooled platform, основанную на новейших ускорителях AMD Instinct MI355X. Здесь важна не только демонстрация «железа», но и экономический смысл: жидкость уносит тепло эффективнее воздуха, позволяя:
- Повышать плотность в стойке. Там, где воздух «захлёбывается», жидкость даёт возможность разместить больше ускорителей без теплового троттлинга.
- Снижать затраты на вентиляторы и вентиляторные стены. Меньше аэродинамического сопротивления — меньше электричества на прокачку воздуха.
- Управлять теплом как ресурсом. Унесённую жидкостью теплоту легче рекуперировать (например, для подогрева помещений), чем разреженный тёплый воздух.
Как это бьётся с PUE? Прямая причинно-следственная связь: охлаждение — главный источник потерь после IT-нагрузки. Жидкостные контуры уменьшают потребление на вентиляцию и компрессию, помогают поднять температуру подачи (что облегчает работу чиллеров) и тем самым уменьшают «верхнюю» часть уравнения PUE.
«Горлышко бутылки» перемещаем из воздуха в вычисления
При проектировании AI-кластера цель — чтобы «узким местом» стала не тепловая инфраструктура, а сами задачи. Это слышится в цеху как мантра: «Сначала расшиваем тепло, потом считаем быстрее». Наличие на рынке готовых платформ от серверных вендоров под жидкость — это знак зрелости подхода. Кейсу MiTAC не нужно приписывать цифры: сам факт появления таких платформ на SC 2025 показывает, что индустрия видит экономический смысл в охлаждении жидкостью для AI-плотностей.
Коротко: меньше ватт на охлаждение — ниже PUE, выше доля «полезной» энергии. Там, где вентиляторы на максимуме, жидкость открывает путь к стойкам, которые «крутят» больше TFLOPS на квадратный метр при той же подведённой мощности.
Практические шаги к жидкости
- Начните с горячих точек. Перевод на жидкость не обязан быть «большим взрывом». Часто достаточно перевести AI-стойки с наибольшей тепловой плотностью, оставив остальной зал на воздухе.
- Планируйте на уровне инженерных систем. Трубопроводы, теплообменники, резервирование контуров — это не аксессуары, а база надёжности. Правил простых: два независимых контура лучше одного, горячий резерв — лучше холодного.
- Отдельный учёт и телеметрия. Измеряйте реальную экономию ватт от жидкостного ряда по сравнению с воздушным. Вы увидите PUE-сдвиг в цифрах, а не в ощущениях.
Стандарты для NVMe в ЦОД: меньше зоопарка — меньше риска
Инфраструктура — это не только охлаждение. Это ещё и «характер» компонентов. Когда хранилище — это сборная солянка из SSD разных вендоров, с разной прошивкой и поведением, начинаются утечки времени и денег: трудно прогнозировать латентность под нагрузкой, усложняется эксплуатация, растут запасы «на всякий случай».
Именно поэтому в 2025 году значимым событием для отрасли стало обновление Datacenter NVMe SSD Specification в рамках Open Compute Project (версия 2.7 от 24 октября 2025 года). Документ формулирует требования к Datacenter NVMe SSD (DSSD) для применения в ЦОД. Что это даёт практику?
- Предсказуемость поведения. Когда рынок договаривается о требованиях к датacenter-SSD, проще строить SLA и понимать, чего ожидать от носителя под смешанной нагрузкой.
- Упрощение закупки. Стандартизованные требования снижают стоимость выбора: меньше времени на сравнение «яблок с апельсинами», больше фокуса на совокупной стоимости владения.
- Снижение операционных рисков. Чем меньше вариативность в парке SSD, тем проще процессы прошивки, мониторинга, инцидент-менеджмента. Это экономит часы инженеров и снижает вероятность простоя.
Связь со счетом за электричество прямая, хотя не очевидная: «ровные» SSD — это «ровные» профили нагрузки на CPU и сеть, меньше «хвостов» задержек, меньше повторных попыток ввода-вывода. Меньше «шторма» — меньше лишней работы. А где меньше лишней работы — там меньше лишних ватт. Плюс, стандартизация ускоряет оборот парка: вы не держите на складе избыточный зоопарк запчастей, а это также деньги.
Как включить спецификации в практику
- Привяжите требования к закупке к отраслевым спецификациям. Это простой пункт в RFP: совместимость с Datacenter NVMe SSD Specification (OCP). Такая связка экономит месяцы на этапе пилотов.
- Проверяйте поставщиков на «готовность к ЦОД». Важно не только «скорость на коробке», но и соответствие требованиям эксплуатации в ЦОД: от управляемости до поведения при сбоях.
- Сведите в один стек телеметрию SSD и серверов. Даже при стандартизации важно видеть «кардиограмму» хранилища в одной панели: так легче ловить деградацию, до того как она ударит по SLA.
Почему сейчас: общее ускорение отрасли
Рынок не подаёт сигналы в пустоту — всегда есть контекст. В 2025 году внимание к энергоэффективности и инфраструктурным стандартам видно не только по продуктам и метрикам, но и по календарю отрасли.
- Публичные метрики операторов ЦОД. Страница об эффективности дата-центров Google показывает дисциплину измерений и прозрачность: за Q1 2025 скользящий PUE 1.09, квартальный — 1.08. Это «проверочная работа», которую весь рынок видит и на которую равняется.
- Технологические шоукейсы. Interop Tokyo 2025 — площадка, где инфраструктурные тренды показывают «в железе» и в сессиях. Это помогает быстрее переводить решения из статуса «пилот» в «прод».
- Фокус на энергетике как инженерной дисциплине. Конференции PSET 2025 и CPESE 2025 поднимают вопросы энергетики, электроснабжения и системной эффективности. Энергетика и ИТ всё больше работают бок о бок.
- Зрелость экосистемы. Вендоры и сообщества укрепляют позиции: пример — SUSE в Японии с новыми управленческими инициативами, активность openSUSE.Asia Summit, а также крупные отраслевые площадки вроде SEMICON Japan. Всё это формирует «плотный воздух» для более быстрых внедрений.
В сумме это означает: лучшие практики и стандарты доходят до продакшна быстрее, а критичные для TCO технологии — такие как жидкостное охлаждение для AI и стандартизованные компоненты хранения — становятся безопасным выбором, а не экспериментом.
Кейс-логика: как складывается экономический эффект
Рассмотрим связку «метрики → технологии → деньги» на трёх примерах логики принятия решений.
1) Ориентир по метрике: «хотим ближе к 1.10»
Точка отсчёта: видим, что крупные облачные игроки показывают PUE около 1.08–1.09 в отдельных кварталах и кампусах (по данным Google за Q1 2025). Это не просто маркетинг — это подтверждённые методологией измерения показатели.
Решение: ставим цель на 12–18 месяцев — приблизиться к 1.10 в наиболее загруженных залах. В план попадают: переход горячих зон на жидкостное охлаждение, оптимизация температурных режимов, ремонт течей в воздушных коридорах, ревизия источников паразитных потерь.
Экономика: сокращение накладной части на несколько процентных пунктов PUE мгновенно снижает счет за электричество и освобождает «голову» по мощности под рост ИТ-нагрузки без расширения подведённой мощности.
2) Технологический выбор: «AI-стойки на жидкость»
Точка отсчёта: на рынке есть готовые AI-платформы с жидкостным охлаждением от поставщиков серверов, пример — презентации MiTAC на Supercomputing 2025 (в связке с новейшими AMD Instinct MI355X).
Решение: пилотируем жидкость на одном ряду AI-стоек, где плотность и тепловыделение выше всего. Интегрируем телеметрию охлаждения в общую систему мониторинга, предварительно оцениваем влияние на энергопрофиль.
Экономика: ожидаем снижение доли энергии на вентиляцию и компрессию в расчётном балансе, что приближает PUE к целевым значениям. Второй эффект — растёт полезная плотность на стойку, а значит, падают капитальные затраты на площадь под ту же целевую производительность AI-кластера.
3) Управляемость и стандартизация: «SSD по требованиям ЦОД»
Точка отсчёта: есть отраслевой документ OCP — Datacenter NVMe SSD Specification (v2.7, октябрь 2025), который описывает требования к SSD для дата-центров.
Решение: закладываем соответствие этим требованиям в RFP для новых поставок NVMe-накопителей и в политику замены парка.
Экономика: меньше вариативности — меньше инцидентов и проще чёрная коробка расчётной производительности. Это сокращает «невидимые» расходы: часы инженеров, непредвиденные простои, запасы запчастей. А в энергобалансе — меньше «шумовых» перегибов нагрузки, которые накручивают лишние ватты.
Дорожная карта: от намерения к внедрению
Шаг 1. Измерьте то, что платите
«Сначала меряем, потом решаем» — золотое правило. Проверьте PUE по единой методике, отдельно для залов и кампусов. Снимите профиль потребления: где уходит энергия — вентиляция, чиллера, насосы, ИБП, потери на распределении. Без этого любые решения — «стрельба по теням».
Шаг 2. Поставьте целевые значения и спринты
Сформулируйте «целевую сотую» по PUE, к которой идёте (скажем, минус 0.03–0.05 от текущего). Разбейте на спринты 3–6 месяцев, закрепите за каждым спринтом конкретный эффект и ответственных.
Шаг 3. Выберите пилоты с высокой отдачей
- Жидкость для AI-стоек. Выберите ряд с максимальной тепловой плотностью — там ROI обычно самый быстрый.
- Стандартизация SSD. Привяжите закупки NVMe к требованиям уровня «Datacenter NVMe SSD» — это снизит операционный «шум».
- Температурная оптимизация. Поднимите температуру подачи в пределах рекомендаций, чтобы облегчить работу охлаждения, контролируя влияние на стабильность.
Шаг 4. Используйте инфраструктурные события для ускорения
Смотрите на стенды и доклады Interop Tokyo, следите за продуктовыми анонсами (вроде презентации MiTAC на SC 2025), держите руку на пульсе спецификаций OCP. Параллельно полезно отслеживать профильные конференции по энергетике (PSET, CPESE), где обсуждают практики из «мира электричества», влияющие на ЦОД. Это сокращает путь от «надо бы» до «в проде стоит и работает».
Ответы на частые «почему»
«Почему просто купить новые серверы — не решение?»
Потому что PUE — про системный баланс. Быстрые сервера без пересмотра охлаждения и стандартов хранения просто сдвинут «узкое место». Эффективность — это сцепка железа и инженерной инфраструктуры.
«Жидкостное охлаждение — это сложно и рискованно?»
Современные поставщики предлагают готовые платформы и решения, которые снимают большую часть рисков. Факт появления таких систем на крупных мероприятиях (как у MiTAC на SC 2025) показывает: технология взрослая. Риски минимизируются инженерией: резервирование контуров, качественная арматура, регламент обслуживания.
«Зачем нам спецификации SSD, если всё и так работает?»
Инфраструктура «и так работает» до тех пор, пока у вас не начнутся каскадные латентности и непредвиденные сбои. Стандартизация требований — это страховка от «эффекта зоопарка». Она упрощает жизнь эксплуатации и сокращает TCO.
Метафоры, которые помогают объяснить это бизнесу
- PUE — это коэффициент утечки. Как если бы у грузовика часть топлива тратилась на охлаждение кабины — вы хотите, чтобы больше топлива «шло в колёса».
- Жидкостное охлаждение — это лучшая радиаторная система. Вместо того чтобы размахивать веером перед костром, вы подключаете теплообменник и уносите жар по трубе.
- Стандартизованные SSD — это одинаковые колёса на флоте грузовиков. Их проще менять, обслуживать и прогнозировать, как они поведут себя под нагрузкой.
Короткие «квоты» от цеха
- «Сначала меряем, потом охлаждаем» — порядок работ, который экономит месяцы.
- «Режем ватт — режем счёт» — связь между инженерией и бухгалтерией прямая.
- «Меньше зоопарка — меньше сюрпризов» — про стандартизацию компонентной базы.
Заключение: что делать завтра
Индустрия дала нам три ясных сигнала. Первый — PUE уровня 1.09–1.10 достижим и проверяем на практике: об этом говорят открытые метрики, такие как данные Google за Q1 2025. Второй — жидкостное охлаждение для AI перестало быть экзотикой: вендоры выносят его в продуктовые линейки и демонстрируют на крупных событиях, как MiTAC на SC 2025 с платформой на новейших AMD Instinct. Третий — стандарты в подсистемах, вроде Datacenter NVMe SSD Specification (OCP v2.7), — это не бюрократия, а инструмент сокращения рисков и TCO.
План на ближайшие 90 дней:
- Замерьте PUE по единой методике, выделите горячие зоны и доли потребления.
- Запустите пилот жидкостного ряда на наиболее плотных AI-стойках, с полноценной телеметрией и сравнением «до/после».
- Зашейте требования к SSD уровня «datacenter NVMe» в RFP и процессы обновления парка.
- Сведите метрики в одну панель — PUE, потребление охлаждения, латентность хранилища, утилизация GPU/CPU. Видеть цель — половина пути к ней.
Так вы переводите абстрактную «энергоэффективность» в понятные действия, которые отражаются в счёте за электричество, в скорости ваших AI-экспериментов и в стабильности сервисов. В этом и есть настоящая конкурентная разница между ЦОД «вчера» и ЦОД «завтра».
Источники контекста, на которых основаны выводы этой статьи: публичные данные об эффективности ЦОД Google (Q1 2025: TTM PUE 1.09, квартальный PUE 1.08), спецификация Open Compute Project Datacenter NVMe SSD v2.7 (24 окт. 2025), анонсы MiTAC о жидкостно-охлаждаемых AI-платформах с AMD Instinct MI355X на Supercomputing 2025, а также общерыночная динамика, отражённая в событиях Interop Tokyo 2025, PSET 2025, CPESE 2025 и SEMICON Japan.

