Как виртуализация делает мир зеленее? Энергоэффективность современных дата-центров

Моя цель - предложение широкого ассортимента товаров и услуг на постоянно высоком качестве обслуживания по самым выгодным ценам.

Количество дата-центров в мире выросло с 500 тыс до более чем 8 млн всего за десять лет. И все они потребляют около 3–5% всего электричества планеты. В результате каждый дата-центр косвенно провоцирует выбросы парникового газа в атмосферу — суммарно около 2% от мировых выбросов CO2. Это примерно столько же, сколько выбрасывают крупнейшие авиакомпании мира.

В интересах провайдеров потреблять энергию эффективно, без лишних выбросов, чтобы снизить техногенное влияние дата-центров на внешнюю среду и оптимизировать затраты на электричество. Для этого необходимо следить за значением PUE собственных дата-центров и улучшать его при необходимости. Что это за параметр, и как мы в Selectel заботимся об энергоэффективности — рассказываем под катом.

Используйте навигацию, если не хотите читать текст целиком:

→ Энергоэффективность и показатель PUE
→ Способы снизить PUE
→ Другие практики энергоэффективности
→ Почему дата-центры нужны не только бизнесу
→ Еще один способ сделать мир зеленее

Энергоэффективность и показатель PUE


PUE — это показатель оценки энергоэффективности дата-центра. Мера была утверждена членами консорциума The Green Grid в 2007 году. PUE отражает отношение электрической потребляемой энергии к энергии, которая расходуется оборудованием.


Например, если дата-центр получает из сети 10 МВт мощности, а все оборудование «держится» на 5 МВт, показатель PUE будет составлять 2. Если «разрыв» в показаниях снизится, а оборудование будет потреблять большую часть электроэнергии, коэффициент будет стремиться к идеальному показателю — единице. На практике превосходными считаются значения PUE в районе 1,10-1,15.

Как показатель PUE ввели не из-за стремления сделать мир экологичнее. Важную роль сыграл финансовый фактор, когда в начале XXI века электричество стало стремительно дорожать. Поэтому провайдеры начали работать над оптимизацией энергопотребления.

В 2020 году компания Uptime Institute презентовала доклад Global Data Center Survey. К тому времени средний мировой показатель PUE был оценен в 1,59 по выборке на базе 900 провайдеров.

На графике ниже показано, как менялось среднее значение PUE с 2006 года. Как видим, это число слишком отличается от превосходных значений параметра:



Способы снизить PUE


Энергоэффективность — это опыт, который приходит со временем. Поэтому в качестве рекомендаций рассмотрим именно то, что мы успели применить в своих дата-центрах.

Расширение температурных диапазонов


Оборудование раньше работало только в определенном узком температурном диапазоне, при поддержании которого отводится много тепла, что требует много электроэнергии. Один из вариантов решения задачи — увеличить температурный диапазон работы оборудования и отдавать наружу меньше тепла.

Так сделали и мы в свое время: ранее допустимым считалось значение в районе 18–20°C, но теперь мы допускаем, что температура может достигать 22–24°C. Это нормально, современное серверное оборудование и СХД надежно работает до 27°C. Более того, сегодня есть устройства, которые могут корректно работать при температуре воздуха до 40°C. Результат: можно меньше корректировать температуру в дата-центре и чаще использовать температуру внешней среды. Таким образом, для поддержания определенных условий в серверных требуется меньше электричества.

У нас информация о температуре в коридорах поступает круглосуточно дежурному системному инженеру с интервалом обновления в 30 секунд.


Монитор с показателями температуры, дата-центр «Берзарина».

Если температура выходит за допустимые границы, раздается аварийный сигнал. Во время обходов инженеры измеряют температуру оборудования бесконтактными лазерными термометрами. Если мы обнаруживаем, что клиентское оборудование перегревается, — сразу же сообщаем об этом клиенту, указывая зафиксированную температуру.

Чиллеры вместо фреоновых кондиционеров


Показатель PUE классических фреоновых кондиционеров по современным меркам довольно высок и составляет 1,6–1,7, в то время как PUE чиллеров — в районе 1,4. То есть второй вариант более энергоэффективен.

Чиллеры мы в Selectel опробовали в 2010 году, когда построили дата-центр «Дубровка 1». Отличие чиллерной системы от классических фреоновых кондиционеров в том, что в трубопроводах между внутренними и внешними блоками циркулирует незамерзающий гликолевый раствор, который остается все время жидким и не переходит в газообразное состояние.


Чиллерная система охлаждения дата-центра.

Раствор прогоняется насосом через кондиционер в серверном зале, где нагревается от горячего радиатора кондиционера (в кондиционере может дополнительно стоять компрессорный блок), и откуда выкачивается в выносимый наружный теплообменник (чиллер). В нем он охлаждается с помощью наружного воздуха и дополнительного компрессорно-конденсаторного блока. Затем уже охлажденный гликолевый раствор вновь подается в кондиционер внутри серверного помещения дата-центра.

Энергоэффективность чиллерной схемы повышается за счет того, что внешний компрессорно-конденсаторный блок чиллера включается в работу лишь при температуре выше 12°C, причем вентиляторы внешнего блока запускаются постепенно, по мере роста температуры гликолевого теплоносителя. Это похоже на то, как работает система охлаждения обычного автомобильного двигателя.


Фрикулинг и АБХМ


Следующий шаг в повышении энергоэффективности систем охлаждения мы сделали при переходе к схеме прямого фрикулинга с дополнительным охлаждением. Он заключается в отказе от теплообменников, где горячий воздух из дата-центра охлаждается. В схеме фрикулинга охлаждение серверов и сетевого оборудования происходит за счет обдува с помощью забортного воздуха, проходящего через наполненные холодной водой радиаторы дополнительного охлаждения.

Забортный воздух проходит через фильтры, где очищается от пыли, и далее поступает в машинный зал. В зимнее время холодный воздух предварительно «разбавляется» теплым в камере смешения. Так поддерживается постоянная температура обдува.


Схема прямого фрикулинга с дополнительным охлаждением без фальшпола.

Как говорилось ранее, современное оборудование способно стабильно работать при 27°C. Однако температура воздуха в Ленинградской области и Москве, как показывает практика, может достигать 32°C.

Поэтому в том же дата-центре «Дубровка 3», введенном в эксплуатацию в 2013 году, мы используем прямой фрикулинг с блоком дополнительного охлаждения — абсорбционную холодильную машину (АБХМ) — на случай летней жары. Забортный воздух проходит через фильтры теплообменника АБХМ. В холодные коридоры серверного зала воздух подается под фальшполом.


Охлаждение дата-центра по схеме фрикулинга с фальшполом.

АБХМ включается в работу только летом, когда температура воздуха достигает 21°C. Это энергоэффективное решение, которое позволило достичь PUE ~1,25. Кроме того, АБХМ — экологически безопасная установка, потому что работает на воде без использования фреона.


Система охлаждения дата-центра «Дубровка 3» с АБХМ.

Также система вентиляции поддерживает разность давлений между дата-центром и внешней средой. Из-за этого пыль в воздухе практически отсутствует: даже если она попадает в серверное помещение, ее сразу же выталкивает наружу.

Расходы на техническое обслуживание такой системы выше, чем в случае обычного охлаждения. Однако использование системы с АБХМ позволяет экономить за счет снижения расхода электричества на нагрев воздуха и его доохлаждение. В качестве источника энергии система использует природный газ, который подведен к ней трубопроводом. А резервное питание котлов АБХМ — на дизеле.

Фрикулинг и адиабатическая система доохлаждения


Система фрикулинг-АБХМ показала себя хорошо, поэтому в 2018 году система фрикулинга с дополнительным охлаждением была введена в дата-центре «Берзарина 2» в Москве. Из-за ограниченности пространства и эксплуатационных сложностей блок дополнительного охлаждения был реализован с помощью адиабатической системы.


Схема движения воздушного потока внутри серверного помещения.

Адиабатическая система охлаждения, как и АБХМ, запускается летом, когда воздух становится слишком теплым. Воздух предварительно охлаждается, проходя через фильтры с жидкостью.

Другие практики энергоэффективности


Мы уже поняли, что экологичность дата-центра связана не только с выбросами теплоты, но и потреблением электроэнергии как таковой. Поэтому рассмотрим практики по ее сокращению.

Мониторинг энергоснабжения


Повысить энергоэффективность также поможет банальное правильное использование мощностей, которыми располагает дата-центр. В наших дата-центрах серверы сами снижают электропотребление при отсутствии нагрузки и настройках «по умолчанию». При использовании специфических настроек управления питанием для энергоэффективности важно, чтобы они были корректными.

Ведь даже сервер минимальной конфигурации будет потреблять от 100 Вт, а более мощная инсталляция — в районе 600. Для отслеживания эффективности необходимо организовать мониторинг, чтобы следить за элементами инфраструктуры и нагрузками.


В Selectel для мониторинга мы используем специальные DCIM-системы. Но более важны в этом процессе люди — специалисты инженерно-технического отдела. Они работают в несколько смен и занимаются задачами отслеживания параметров электропитания и вентиляции в удаленном режиме.

Динамические ИБП вместо статических


Бесперебойная подача электропитания в серверные — обязанность дата-центра перед клиентами. Но важна не только отказоустойчивость решения, но и его эффективность с позиции потребления ресурсов.

Классические статические ИБП (с аккумуляторами) при отключении электроэнергии обеспечивают оборудование электропитанием в течение 5–30 минут. Этого времени хватает с запасом для переключения на дизель-генераторные установки (ДГУ).

Статические ИБП надежно резервируют питание критической нагрузки, но имеют ряд недостатков в сравнении с динамическими. Главные недостатки — это занимаемое место, узкий температурный диапазон работы, необходимость замены и утилизации аккумуляторов.

Принцип работы динамических ИБП заключается в накоплении кинетической энергии вращающегося маховика. В момент отключения электропитания, за счет инерции вращения маховика они генерируют электроэнергию. Главный минус динамических ИБП — ограниченное время резервирования: они могут поддержать работу оборудования в течение всего 30 секунд при полной нагрузке. Но и этого достаточно для подключения ДГУ.

Также из-за отсутствия аккумуляторных батарей в динамических ИБП провайдеру не нужно закладывать место для их размещения. Свободную площадь можно использовать, например, для размещения серверных стоек.


Динамический ИБП Piller CPM300.

В общем, динамические ИБП куда рациональнее и экологичнее статических предков, поэтому мы перешли на них. Сегодня в дата-центрах Selectel используются установки Piller CPM300 — о них подробнее рассказали в отдельной статье.

«Умное освещение»


Общее электропотребление дата-центра можно снизить, заменив системы освещения. Так мы в начали использовать датчики присутствия. Они работают по простому принципу: свет включается только тогда, когда в серверной комнате появляется человек. В остальное время работает только аварийное освещение.

Почему дата-центры нужны не только бизнесу


Не только серверное оборудование потребляет электроэнергию во время вычислений, но и персональные компьютеры. Ранее распространенный процессор Core i7-6700 потреблял около 100 Вт электричества — сегодня это сравнительно мало. Новые модели чипов требуют от 250 Вт энергии, а некоторые — до 400.

Электропотребление ПК усиливается тем, что сегодня люди приобретают мощное железо, иногда опережающее по характеристикам серверы в дата-центрах. Причин здесь много — от майнинга биткоина до попытки запустить портированный ремейк The Last Of Us в 60 fps. Но есть проблема: не каждый владелец ПК заботится об энергоэффективности своего устройства, которое может потреблять несколько кВт*ч в день.


Side view, a person is sitting at a computer, computers emit a lot of heat, smoke is coming from computers into the sky, gray sky, poor ecology

Это значит, что в перспективе может быть выгоднее, энергоэффективнее и экологичнее использовать виртуальные ресурсы облачного провайдера. Виртуализация дает возможность перераспределять и наращивать процессорные мощности, ОЗУ и объем памяти по мере необходимости. Поэтому электроэнергия тратится только на обеспечение работы, исключая затраты на простаивающее оборудование.

Результат: капитальные затраты пользователей переходят в операционные, электроэнергия потребляется рациональнее, провайдер заботится об утилизации ресурсов и выбросов, а мир становится зеленее.

Еще один способ сделать мир зеленее


Невозможно добиться абсолютной энергоэффективности. Например, текущий PUE для дата-центра «Дубровка 3» составляет 1,25, а для «Берзарина 1.4» — 1,15–1,2.

Мы следим за значением коэффициента и стремимся использовать более энергоэффективные решения по охлаждению, освещению и другим аспектам работы.

Кроме того, мы активно сдаем на утилизацию аккумуляторные батареи, этиленгликоль из систем охлаждения и даже макулатуру. Все, что можно починить, — чиним, а устаревшую технику перепродаем сотрудникам, если есть такой запрос.

Чтобы максимально компенсировать косвенный вред, который наносят природе наши дата-центры, уже четвертый год мы проводим «Зеленый Selectel». Это акция, в рамках которой сотрудники и клиенты компании сажают ели и сосны в Ленинградской и Московской областях. За все время мы высадили 80 000 деревьев. Будущий лес сможет ежегодно перерабатывать до 1,76 млн кг CO2.

Какие способы по увеличению энергоэффективности дата-центров знаете вы? Поделитесь своим опытом в комментариях. За самые интересные истории отправим плюшевых тирексов и другой мерч Selectel. Итоги подведем 21 октября.


Другие интересные материалы


  • Как развивалась сеть Selectel
  • Сетевое резервирование в дата-центрах
  • Сравнение технологий резервирования коммутаторов: Stack и MLAG
Источник: https://habr.com/ru/companies/selectel/articles/761020/


Интересные статьи

Интересные статьи

Как язык программирования Аргентум делает быстрый dynamic_cast и диспетчеризацию методов интерфейсов четырьмя инструкциями процессора.
Реактивные паттерны программирования становятся всё более востребованы при реализации высоконагруженных сервисов. Вот уже и в Spring законсервировали RestTemplate. В тоже время, реактивные фреймворки ...
Охлаждение оборудования — задача, как известно, важная и нужная. Прогресс не стоит на месте и ищет лазейки для новых эффективных решений, если не сказать открытий!Решили ...
Известный Linux-разработчик, соавтор графического протокола Wayland, пользовательского окружения Sway и почтового клиента Aerc, Дрю ДеВолт (Drew DeVault) провёл анализ спецификаций W3C, которым д...
Источник Научно-фантастическая литература всегда была благодатной почвой для кино. Более того, экранизация фантастики началась практически с появлением кинематографа. Уже первый фантастическ...