Rambler's Top100
Статьи ИКС № 1 2018
Виктор ГАВРИЛОВ  17 апреля 2018

«Озеленение» ЦОДа: фантазии и реалии

Идеально «зеленый» ЦОД – это, по всей видимости, серверные стойки, которые установлены в чистом поле и запитаны от солнечных батарей, а выделяемым ими теплом подогреваются грядки с петрушкой или укропом. Есть ли предпосылки для реализации такого решения?

Для обеспечения физической безопасности оборудования, для защиты от атмосферных явлений и для комфортного пребывания обслуживающего персонала серверное оборудование предпочитают размещать в здании. Как только стойки с серверами оказываются в ограниченном пространстве машинного зала, неизбежно встает проблема отвода тепла из помещения. В отличие от стойки, расположенной в чистом поле, тепло от которой рассеивается в атмосферу, серверное оборудование в машинном зале будет нагревать помещение, поэтому мы вынуждены затрачивать дополнительную энергию на отвод теплопритоков.

Конечно, всегда можно использовать возобновляемые источники энергии – солнечные батареи или ветряные генераторы, при этом ЦОД будет оставаться «зеленым», но обойтись без механических систем для отвода тепла, к сожалению, пока не удается. По этой причине производители климатического оборудования уделяют огромное внимание разработкам энергоэффективных установок.

 Инициативы OCP и Open19  

Большое влияние на повышение энергоэффективности и экономичности ЦОДов оказывает инициатива Open Compute Project (OCP). OCP предполагает создание открытых стандартов и архитектур ИТ-обо­ру­до­вания, нацеленных на снижение потребляемой мощности и повышение температурного диапазона работы за счет дизайна аппаратных компонентов системных плат и элементов питания. Оптимизируется расположение процессоров, памяти и жестких дисков для увеличения эффективности системы охлаждения. OCP также предусматривает разработку серверных стоек со встроенными системами бесперебойного питания и СКС.

Недавно на рынке появилась новая инициатива Open19, имеющая с OCP много общего. Понятно, что участие в подобных программах – прерогатива крупных производителей и потребителей серверов, таких как Microsoft, IBM, Hewlett Packard, Cumu­lus Networks, «Яндекс», Facebook. Прогрес­сивные разработки не остаются незамеченными, и технологии, которые сегодня применяются в основном в корпоративных ЦОДах, через некоторое время распространятся повсеместно, причем не только для серверов, но и для всей инженерной инфраструктуры. Поэтому уже сейчас стоит обратить внимание на алгоритмы управления инженерными системами, задействованными в современных «зеленых» ЦОДах.

Зелено-дорого

Самый простой и, казалось бы, наиболее дешевый вариант отвода избытков тепла – это прямая подача наружного воздуха в помещение машинного зала без какого-либо предварительного охлаждения. Фактически наружный воздух, проходя через воздушные фильтры, подается в зону холодного коридора. Теплый воздух из зоны горячего коридора выбрасывается на улицу или используется для бытовых нужд, скажем, для отопления офисных помещений.

Если температура на улице низкая, то часть нагретого воздуха поступает в камеру смешения наружного и рециркуляционного воздуха для того, чтобы воздух, подаваемый к серверному оборудованию, не был слишком холодным и на поверхности серверных стоек не образовывался конденсат. При этом чем ниже температура наружного воздуха, тем больше тепла требуется для его нагрева перед подачей в зону холодных коридоров, и соответственно меньше тепла остается для обогрева смежных помещений. Безусловно, для собственных офисных помещений тепла будет достаточно, но если речь идет об отоплении соседнего микрорайона или тепличного хозяйства, то для бесперебойного теплоснабжения таких объектов должны быть предусмотрены дополнительные меры. По этой причине низкопотенциальное тепло, получаемое на выходе из серверов, использовать для отопления проблематично. Необходимо применять трансформаторы тепла, например тепловые насосы, а это уже дополнительные затраты, влияющие на стоимость строительства и капиталовложения на начальном этапе создания ЦОДа.

Тарифы на электроэнергию и тепло в России относительно невысоки, и срок окупаемости подобных решений может достигать 10–25 лет. При отсутствии стимулирующей законодательной базы и поддержки со стороны правительства инвестиции становятся невыгодными. Как правило, подобные проектные разработки после представления технико-коммерческого обоснования пылятся на полках.

«Теплолюбивые» ИТ

Тем не менее снижение затрат на оплату электроэнергии – хороший стимул для внедрения «зеленых» технологий. Даже если нет возможности вторичного использования тепла, любые технологии, которые приводят к сокращению затрат на эксплуатацию ЦОДа, весьма востребованы. Дополнительным катализатором развития энергоэффективных систем охлаждения является расширение допустимого температурного диапазона работы серверного оборудования. Сегодня большинство современных серверов могут устойчиво работать при 32°С или даже 35°С на входе и относительной влажности воздуха 20–80%.

Если допустимая температура воздуха на входе в сервер – 35°С или выше, то можно круглый год работать на наружном воздухе. Если мы отказываемся от охлаждения в теплый период года, то температура в зонах холодного коридора будет равна температуре наружного воздуха. Соответственно, отпадает смысл поддерживать заданную температуру, и мы приближаемся к варианту установки серверной стойки в чистом поле.

Но для того чтобы гарантировать бесперебойную работу серверного оборудования, нужно подавать такое количество наружного воздуха в зону холодных коридоров, которое требуется для работы серверов в данный момент времени. А для того чтобы исключить переток нагретого воздуха, необходимо поддерживать небольшое избыточное давление в холодных коридорах и разряжение в горячих. В зависимости от загрузки процессора изменяются скорость вращения вентиляторов серверов и, как следствие, расход воздуха через сервер. Чем выше загрузка серверов, тем больше наружного воздуха требуется подать в машинный зал, и наоборот.

Контролируя перепад давления между холодными и горячими коридорами, мы имеем возможность загружать систему, работающую на ассимиляцию теплопритоков, пропорционально загрузке серверного оборудования. Это важно с точки зрения максимальной энергоэффективности. С одной стороны, мы обеспечиваем стабильную работу серверного оборудования, с другой – снижаем потребляемую мощность системы в целом. Контроль перепада давления между коридорами позволяет соблюдать баланс между фактической загрузкой серверного оборудования и работой механических систем, отводящих теплопритоки.

Варианты фрикулинга

Однако далеко не все серверы способны стабильно работать при температуре воздуха 35°С и выше. Но это вовсе не повод отказываться от «зеленых» технологий при строительстве ЦОДа. Конечно, трудно представить инвестора в России, который будет вкладываться в строительство ветряных генераторов для нужд собственного ЦОДа. Тем не менее для уменьшения воздействия дата-центра на окружающую среду вследствие отвода тепла от серверного оборудования существует масса возможностей, не требующих больших инвестиций. Более того, применение современных технологий позволяет значительно снизить затраты на электроэнергию, что, в свою очередь, приводит к быстрой окупаемости первоначальных вложений.

Практически у всех ведущих производителей климатических систем для ЦОДов в ассортименте выпускаемого оборудования есть отдельный модельный ряд для «зеленых» ЦОДов. Многие компании постоянно совершенствуют свою продукцию: появляются все новые модификации и поколения оборудования, нацеленного на снижение потребляемой мощности за счет использования свободного охлаждения практически в течение всего года. Расширение модельного ряда свидетельствует о том, что подобные технологии востребованы на рынке. Рост предложения приводит к постепенному снижению стоимости оборудования за счет возрастающей конкуренции, что способствует дальнейшему развитию и повышению привлекательности «зеленых» технологий для инвесторов.

В основном применяются два принципа свободного охлаждения. В первом, наиболее распространенном варианте для отвода тепла от серверного оборудования используются моноблочные установки, как правило, располагаемые рядом со зданием или на кровле. Нагретый воздух из машинного зала проходит через рекуперативный теплообменник, охлаждается наружным воздухом и подается обратно в помещение ЦОДа.

Рекуперативный теплообменник разделяет воздушные потоки, не допуская смешения внутреннего и наружного контуров, что устраняет возможность воздействия внешней атмосферы на микроклимат серверных помещений. Полностью исключается попадание пыли, осадков или задымления во внутренний контур установки. Более того, появляется возможность активно использовать в наружном контуре адиабатическое охлаждение без опасения повышения влажности воздуха в помещениях ЦОДа.

Именно применение адиабатического охлаждения дает возможность значительно экономить электроэнергию в теплый период года. В ряде случаев в зависимости от региона установки оборудования и допустимой температуры в зонах холодных коридоров удается полностью отказаться от использования холодильных машин. Если риски потери информации в результате возможного перегрева серверного оборудования слишком высоки или заказчик просто хочет подстраховаться, установку всегда можно дооснастить секцией воздухоохладителя, работающего с внешней либо встроенной холодильной машиной (рис. 1).

В любом случае алгоритм работы подобных установок нацелен на то, чтобы полностью исключить или свести к минимуму использование систем механического охлаждения. Зачастую компрессионное охлаждение может действовать лишь несколько десятков часов в году, все остальное время установки работают в режиме свободного либо адиабатического охлаждения.

В зависимости от конкретного производителя типы рекуперативных теплообменников, варианты адиабатических систем и конфигурации установок могут быть различными. Как правило, производительность одной такой установки 50–300 кВт, хотя за счет модульности устройств может доходить до 500 кВт и более.

Пожалуй, один из главных недостатков этих решений – весьма внушительные размеры установок и необходимость прокладки воздуховодов большого сечения для подачи холодного воздуха в машинные залы и забора горячего воздуха для его охлаждения. Все это накладывает определенные ограничения на применение подобных систем, особенно когда речь заходит о строительстве ЦОДа в существующем здании.

Второй вариант, который в последнее время также становится популярным, основан на отказе от применения громоздких воздуховодов – для этих целей воздухоохладители максимально приближают к тепловой нагрузке. Как и в первом случае, время работы холодильных машин сводится к минимуму либо удается вовсе отказаться от их использования.

К данному варианту можно отнести решения с жидкостным охлаждением серверного оборудования, когда тепло отводится непосредственно от процессоров и блоков питания. Подобный подход распространяется все шире, практически любой стандартный сервер может быть дооснащен контурными тепловыми трубами. Это теплопередающее устройство, работающее по замкнутому испарительно-конденсационному циклу и использующее капиллярное давление для прокачки теплоносителя.

Такое решение избавляет от вентиляторов, установленных в сервере, а также от радиатора на центральном процессоре. Тепло отводится на внешний коллектор, по которому циркулирует теплоноситель. Температура жидкости во внешнем контуре достигает 45–50°С. Это позволяет не только отказаться от холодильных машин или затрат на воду для адиабатического охлаждения, но и вторично использовать тепло в холодный период года для отопления офисных помещений, подогрева грядок в теплицах и т.п.

Холодная стена

Более простой вариант, не требующий дополнительных затрат на строительство здания с громоздкими воздуховодами либо на модернизацию серверного оборудования, предполагает установку воздухоохладителей с большой площадью теплообменной поверхности в непосредственной близости от серверов. Это дает возможность сократить путь движения воздуха, использовать высокотемпературный теплоноситель. Такой подход, подразумевающий сдвиг парадигмы от «контроля давления» к «доступности воздуха», получил название «холодная стена». Традиционный контроль давления или температуры в холодных или горячих коридорах заменяется простым механизмом, гарантирующим достаточное количество холодного воздуха, который может забирать серверное оборудование.

Необходимость подавать большой объем воздуха для удаления тепла от серверных стоек может привести к высокой скорости потока, особенно при неверно рассчитанном сечении воздуховодов или при заниженной высоте фальшпола. Поэтому основное внимание уделяется площади поперечного сечения всего пути движения воздушного потока, чтобы обеспечить низкую скорость воздуха. Для того чтобы соблюдать баланс между текущей тепловой нагрузкой и количеством воздуха, подаваемого в помещение, достаточно выделить холодные или горячие коридоры и контролировать направление движения потока воздуха в месте, объединяющем зоны теплого и холодного воздуха.

В машинном зале в канале между горячей и холодной частями помещения устанавливается датчик расхода воздуха (рис. 2). Воздух подается через теплообменник в помещение и забирается серверами, где поглощает тепло и через фальш­потолок отводится назад к теплообменнику. При этом машзал выполняет функцию компенсационного помещения, и обслуживающий персонал работает в комфортных условиях.

Если датчик потока фиксирует слишком большой переток холодного воздуха из холодной зоны в горячую, то реальная производительность системы кондиционирования превышает текущие тепловыделения от серверного оборудования, и наоборот. Подобный принцип управления системой охлаждения возможен при условии, что скорость движения воздушных потоков во всем пространстве машинного зала не превышает 1,5–1,8 м/с.

Применение высокопотенциального теплоносителя, например с температурным графиком 28/21°С, позволит на больший период года отказаться от использования чиллеров. Система может работать в режиме либо адиабатического охлаждения, либо свободного охлаждения только за счет низкой температуры наружного воздуха. Для серверного оборудования, способного стабильно работать при температуре воздуха в зонах холодного коридора +35°С и выше, можно и вовсе отказаться от холодильных машин.

Для дополнительной экономии электроэнергии можно организовать симбиоз между «холодной стеной» и функцией прямого воздушного фрикулинга (рис. 3).

Для реализации прямого фрикулинга потребуется только установить дополнительные воздушные клапаны для забора и выброса воздуха. В зависимости от температуры и относительной влажности наружного воздуха система может автоматически переходить в режим свободного охлаждения без включения холодильных машин. При повышении относительной влажности наружного воздуха или в случае задымления клапаны подачи и выброса наружного воздуха перекрываются, и система автоматически переходит в режим 100%-ной рециркуляции.

Россия не Голландия

На мировом рынке строительства «зеленых» центров обработки данных лидируют Нидер­ланды. По данным Dutch Data Center Association, в Голландии более 90% ЦОДов площадью свыше 1 тыс. кв. м активно применяют «зеленые» технологии, включая возобновляемые источники энергии, вторичное использование тепловой энергии, в том числе для отопления зданий в прилегающих районах. Это неудивительно – внедрение экологичных систем стимулируется поддержкой со стороны правительства, законодательной базой и налоговыми вычетами.

В России не меньше возможностей широкого применения «зеленых» технологий. Параметры климата, водные ресурсы, высокий профессиональный уровень инженерного персонала – хороший базис для повсеместного внедрения подобных решений. Относительно низкая стоимость электроэнергии и тепла не позволяет сегодня в полной мере использовать мировой опыт и заниматься собственными разработками. Тем не менее появляются все новые проекты, нацеленные на достижение максимальной энергетической эффективности, и интерес к ним растет с каждым годом. Это вселяет уверенность, что будущее в развитии ЦОДов принадлежит «зеленым» технологиям. 

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!