Rambler's Top100
 
Статьи
13 апреля 2015

Выжать максимум из классических решений

На российском рынке проектирования и строительства инженерной инфраструктуры дата-центров сейчас в фаворе традиционные проверенные временем решения. Нестандартные и экзотические системы пока отошли на второй план.

Илья ЦАРЕВ, руководитель проектного отдела по направлению «Центры обработки данных» компании Schneider Electric

Но, как полагает руководитель проектного отдела по направлению «Центры обработки данных» компании Schneider Electric Илья ЦАРЕВ, это нельзя считать шагом назад, поскольку классические решения всячески «дотачиваются» и шлифуются для получения максимальной энергоэффективности.

– Как за последние год-два изменилась «техническая мода» на инженерную инфраструктуру в российских дата-центрах?

– В сегменте коммерческих дата-центров сохраняется тренд на укрупнение ЦОД, а для них приоритетом остаются надежность и энергоэффективность. Практически стандартом для подтверждения надежности является сертификация в Uptime Institute на уровень Tier III или Tier IV. Заказчики таких дата-центров внимательно относятся к взаимодействию систем инженерной инфраструктуры в нормальном и аварийном режимах работы, отсутствию в системах единых точек отказа, подтверждению надежности и плановых показателей ЦОД в процессе приемосдаточных испытаний. Серьезное внимание уделяется и энергоэффективности. Заказчики хотят получить оборудование с высоким КПД, современные системы холодоснабжения и кондиционирования, максимально использующие преимущества российского климата. И, конечно, заказчики хотят совместить надежность, энергоэффективность с приемлемыми капитальными затратами, и поэтому требуют от проектировщика, чтобы решение было еще и достаточно бюджетным.

– Какие технологии и решения для инженерной инфраструктуры ЦОД сегодня наиболее популярны у российских заказчиков?

– Можно сказать, что недавняя мода на экзотические системы, такие, как системы кондиционирования с прямым фрикулингом или крупногабаритными роторными теплообменниками, уже закончилась. Многие заказчики отложили планы строительства подобных объектов на будущее и вернулись к более традиционным чиллерным системам. Одна из причин такого возврата – бюджетные ограничения. В качестве второй причины можно назвать стремление заказчиков использовать проверенные решения, которые уже внедрены на других объектах и подтвердили свою надежность. Таким образом, взят курс на повышение энергоэффективности классических схем. Если говорить о чиллерах, то сейчас практически все производители выпускают чиллерные системы с функцией фрикулинга. На рынке также присутствуют современные фанкойлы с улучшенной внутренней аэродинамикой, переносом вентиляторного блока под фальшпол, уменьшенным энергопотреблением вентиляторов. Если говорить о чиллерной системе в целом, оптимизируется температура хладоносителя для увеличения периода фрикулинга, оптимизируются диаметры трубопроводов, количество фильтров на них для уменьшения потребления насосов. Продолжается внедрение систем контейнеризации горячих и холодных коридоров. Если говорить о системах электроснабжения, есть определенный прогресс в росте КПД статических ИБП. Проектировщики обращают внимание на то, чтобы сделать загрузку ИБП оптимальной (с точки зрения КПД) в нормальном режиме работы. Появляются новые инструменты мониторинга для оперативного контроля и учета энергопотребления. В итоге, даже при использовании классических решений удается получить очень неплохие значения коэффициента энергоэффективности PUE.

– Требования заказчиков проектов коммерческих и корпоративных дата-центров как-либо различаются?

– Заказчики корпоративных ЦОД обращают меньше внимания на вопросы энергоэффективности, для них себестоимость эксплуатации не так важна, как для компаний, владеющих коммерческими дата-центрами. Для корпоративных заказчиков важнее надежность, первоначальные капитальные затраты и сроки строительства объекта. Если масштабы дата-центра позволяют, то многие корпоративные заказчики выбирают, например, не чиллерную систему охлаждения, а фреоновую, потому что она дешевле и на первый взгляд проще в эксплуатации. Кроме того, в корпоративных ЦОД более высокие требования к энергопотреблению в расчете на одну стойку и к плотности установки оборудования. Как правило, корпоративные дата-центры более компактны по сравнению с коммерческими, их заказчики стараются использовать выделяемую площадь по максимуму, они сразу рассчитывают ЦОД под установку конкретных ИТ-систем, максимально используя пространство стоек под размещение оборудования. Соответственно при проектировании дата-центра они ориентируются на системы охлаждения, более приспособленные к высокому энергопотреблению в расчете на одну стойку, например на системы межрядного охлаждения, в том числе системы с контейнеризированными стойками.

Некоторые корпоративные заказчики требуют более высоких показателей надежности работы инженерной инфраструктуры, чем заказчики коммерческих ЦОД. В частности, это выражается в более сложных схемах резервирования. В корпоративных ЦОД встречаются схемы резервирования 2N + 1, 2N + 2 и т.п., как правило, отсутствующие в коммерческих дата-центрах.

– Если заказчики сегодня склоняются в сторону традиционных решений, то каковы тогда перспективы у энергоэффективных систем?

– Нельзя сказать что традиционные решения не энергоэффективны. Они оптимальны в настоящее время по соотношению «стоимость–энергоэффективность» с учетом нынешней экономической ситуации и относительно дешевых энергоресурсов. Однако энергоресурсы будут дорожать, а стоимость «продвинутых» систем при росте их серийного выпуска – снижаться. Так что перспективы у «продвинутых» систем, несомненно, есть. Мы собираемся развивать это направление, в том числе наши комбинированные системы охлаждения EcoBreeze. Эти системы уже несколько лет работают на ряде объектов в Европе и Северной Америке, а также эксплуатируются в московском дата-центре компании DataPro на Авиамоторной. В данном случае это не только инновационное, но и проверенное в эксплуатации решение, в том числе в российских условиях.

– В каких российских проектах дата-центров используется сейчас оборудование Schneider Electric?

– В России оборудование Schneider Electric используется на множестве объектов – от небольших корпоративных серверных до крупнейших коммерческих площадок. Можно привести пример нового крупного дата-центра компании DataLine с подведенной мощностью 20 МВА, где используются ИБП и оборудование распределения питания нашего производства. Следует отметить, что мы не только поставляем оборудование, но и разрабатываем и реализуем проекты критически важных систем ЦОД, т.е. систем электроснабжения и охлаждения. Разработаны и проекты СКС, систем мониторинга и диспетчеризации дата-центров. В своих решениях мы опираемся как на наше классическое оборудование (чиллерные системы в части холодоснабжения и моноблочные ИБП в системах электропитания), так и на сравнительно новые устройства и решения, в том числе на уже упомянутые экономайзеры EcoBreeze, модульные ИБП, шинопроводные системы распределения электропитания. При этом используется богатый опыт команд в инженерных центрах Schneider Electric. Например, в ЦОД DataLine заказчик хотел получить максимально энергоэффективную систему на чиллерном оборудовании. В Европе есть несколько крупных дата-центров, построенных с использованием чиллеров и при этом обладающих высокими показателями энергоэффективности и хорошими значениями PUE. Мы провели консультации с нашими европейскими инженерными подразделениями, посетили несколько объектов в Западной Европе и применили этот опыт в проекте для DataLine.

Для небольших корпоративных дата-центров и серверных комнат мы предлагаем решения на базе архитектуры InfraStruxure, в которые входят стойки для оборудования, ИБП, такие, как, например, Symmetra PX, межрядные кондиционеры, системы охлаждения, как фреоновые, так и на основе чиллеров. Особенностью подобных проектов является то, что корпоративные серверные комнаты и небольшие ЦОД часто располагаются в современных бизнес-центрах, где следует «вписаться» в инженерию здания: нельзя устанавливать внешние блоки кондиционеров на фасаде, ограничены возможности по прокладке коммуникаций, крайне ограничены из-за своей дороговизны площади под оборудование инженерных систем. Для таких случаев у нас разработан целый ряд подходов, позволяющих решить эти задачи. Например, можно подключиться к центральной системе кондиционирования здания, не забывая при этом о требованиях по резервированию системы холодоснабжения. Например, такой способ был использован при проектировании дата-центра, который расположен в одной из башен делового центра «Москва-Сити» – чиллеры ЦОД были подключены к взаиморезервирующим магистралям центральной чиллерной системы здания. Хладоцентр ЦОД был сделан максимально компактным. При этом была решена нетривиальная инженерная задача соединения двух систем, имеющих разные температуры хладоносителя и разные давления в контуре охлаждения.

– Можете привести примеры нестандартных интересных проектов, где использованы решения Schneider Electric?

– К нестандартным я бы отнес, например, проект дата-центра «Парковый» в Киеве, где московская проектная команда помогала киевской, которая являлась генеральным проектировщиком ЦОД. Интересно здесь то, что под ЦОД были выделены помещения с серьезными архитектурными ограничениями (небольшая высота помещений, жесткие ограничения по площади). Само здание стоит на довольно крутом склоне. При планировании ЦОД пришлось решать массу проблем по вписыванию оборудования в архитектуру здания и окружающий ландшафт. Коммуникации ЦОД (шинопроводы, кабели, трубопроводы и вентиляционные каналы) местами располагаются крайне плотно, иногда в несколько ярусов. Но в результате проект этого дата-центра получил сертификат Tier III в Uptime Institute, это первый и пока единственный такой ЦОД на Украине.

Также можно упомянуть интересный проект, выполненный совместно с московским Microsoft Technology Center. Необходимо было разработать и реализовать проект инженерной инфраструктуры демонстрационной серверной центра, который должен был одновременно решить ряд разнообразных задач: вписаться в жесткие архитектурные ограничения заказчика и владельцев здания, интегрировать в себя уже имеющееся у заказчика инженерное оборудование, иметь привлекательный для посетителей центра вид, но при этом сохранить функциональность и эффективность. Все эти задачи были решены.

– С какими заказчиками вам приходится работать? Как вы оцениваете их технический уровень?

– Заказчики бывают разные. Все зависит от масштаба организации и отраслевой специализации клиентов. Заказчики, близкие к ИТ-сфере, специалисты профильных подразделений крупных компаний прекрасно разбираются и в стандартах, и в технических, и в организационных вопросах. У таких заказчиков может иметься большая команда, включая специалистов отделов капитального строительства, которая достаточно профессионально занимается строительством дата-центров или функционально сходных объектов (узлов связи, центров управления). Но для некоторых заказчиков, особенно из среднего бизнеса, создание дата-центра – это непрофильная деятельность, такие компании переходят на уровень проекта ЦОД в десятки стоек иногда с уровня совсем небольших серверных. Таким заказчикам нужна серьезная методологическая, консультационная и информационная помощь, и мы ее можем оказать. Кроме того, заказчикам-новичкам приходится разъяснять, каковы реальные сроки строительства подобных объектов, а также в чем важность качественной проектной документации и необходимость ее разработки даже для небольших дата-центров.

– Как вы считаете, в каком направлении будет идти технологическое развитие инженерной инфраструктуры дата-центров в ближайшие годы?

– Если говорить о системах охлаждения, на мой взгляд, будет идти дальнейшее совершенствование чиллерных систем, а также рост интереса к экономайзерам, продолжится повсеместное внедрение систем с непрямым фрикулингом. Что касается систем непосредственного жидкостного охлаждения нагрузки, разнообразных «ванн», их перспективы в ближайшие годы туманны. С одной стороны, пока не произошло обещанного радикального увеличения плотности нагрузки, особенно в коммерческих ЦОД. С другой стороны, в подобных решениях не до конца решена масса вопросов с пожарной безопасностью, электробезопасностью, контролем качества масла-теплоносителя. В отношении систем прямого фрикулинга видятся проблемы для их распространения в России – этому мешают как континентальный климат с резкими сезонными и суточными перепадами температуры и влажности, так и низкое качество городского воздуха, ведущее к быстрому забиванию фильтров в подобных системах, либо к попаданию уличной пыли внутрь помещений ЦОД.

В части систем распределения питания, на наш взгляд, на крупных мегаваттных ЦОД всё более популярными будут становиться решения на основе не кабелей, а шинопроводов. Как показывают наши расчеты, и для магистральных линий, и для распределительной сети машинных залов шинопроводы вполне способны конкурировать по стоимости с кабельными линиями, не говоря уже о плюсах, связанных с электробезопасностью, износостойкостью оборудования, а также с минимизацией влияния изменений в системе распределения электропитания на ИТ-оборудование ЦОД.

Определенные ожидания связаны и с новыми разработками в сегменте ИБП. Сейчас ведутся активные поиски замены свинцово-кислотным батареям. Например, в целом ряде компаний, в том числе в Schneider Electric, идут разработки в области литиевых батарей, цель которых – получить более компактные батареи, срок службы которых меньше зависит от температурного режима работы и которые к тому же выдерживают на несколько порядков бОльшее число циклов заряда-разряда.

Еще одно направление – дальнейшее наращивание возможностей систем мониторинга и управления в ЦОД и развитие продуктов категории DCIM (Data Center Infrastructure Management), которые увязывают в некий единый программно-аппаратный комплекс системы мониторинга инженерной инфраструктуры, контроля параметров окружающей среды и микроклимата, системы учета электроэнергии, планирования размещения инженерного и ИТ-оборудования в пространстве ЦОД и системы планирования изменений. Мы активно развиваем эти продукты и видим за ними большое будущее. И, конечно, одним из важнейших направлений своей работы мы считаем развитие услуг – в том числе по разработке решений для заказчиков, их реализации и обслуживанию, а также по аудиту эксплуатируемых дата-центров.

Беседовала Евгения ВОЛЫНКИНА

 

Поделиться:
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!