Rambler's Top100
Статьи ИКС № 07-08 2010
Андрей ПАВЛОВ  27 июля 2010

Нам придется подтянуться до мирового уровня

Большинство российских дата-центров строилось в период повального спроса на их услуги, когда основной задачей клиента было не столько выбрать самое дешевое предложение, сколько просто поставить хоть куда-то свое оборудование. Клиент был готов платить практически любые деньги, поэтому проблема энергоэффективности владельцев дата-центров не волновала.

Андрей Анатольевич ПАВЛОВ, генеральный директор DatadomeМаксимум, что делалось в этом направлении – использование чиллеров с функцией фрикулинга. Поэтому в России типичное значение PUE для дата-центров лежит в диапазоне от 1,7 до 2,2 (в зависимости от времени года и технологической базы).


Кризис сделал свое «черное дело» на российском рынке дата-центров. С одной стороны, произошло ощутимое снижение спроса со стороны заказчиков, связанное с мировой стагнацией бизнес-активности, а с другой— плодовитый 2008 г. выплеснул на рынок ЦОДов большое количество новых проектов, заметно расширились уже имеющиеся площадки. Эти факторы спровоцировали значительное усиление конкуренции и, как следствие, снижение среднерыночной цены стойкоместа. При этом тарифы на электроэнергию, ставки налогов и прочие спущенные «сверху» нормативы продолжили уверенный рост. Снижение доходов от аренды стойкоместа и одновременное увеличение расходов на него (которое раньше спокойно компенсировалось повышением цен), заставило многих владельцев коммерческих ЦОДов задуматься об экономии. Доля затрат на электроэнергию составляет почти половину от операционных расходов владельцев дата-центров, поэтому они всерьез озаботились энергоэффективностью. Правда, задача модернизации старых площадок для снижения PUE пока не ставится, так как «старость» их очень относительная – многие из них построены 2–4 года назад, и еще не все успели окупиться. Но заказчики уже начинают исследовать этот вопрос.


Выше головы пока не прыгнешь


Снижение PUE с 1,8 до 1,7 сокращает расходы на 5%, причем часто этого можно добиться без существенных финансовых вложений, а лишь ограничившись определенными усилиями службы эксплуатации, оптимизацией холодораспределения, установкой перегородок в коридорах и т.д. Но максимальный эффект в деле снижения PUE достигается только в ходе проектирования и строительства, поэтому подавляющее большинство заказчиков уже на этапе проектирования ЦОДа стараются применить максимально энергоэффективные технологии, оптимизируя ТСО дата-центра.  К сожалению, организация ЦОДа в имеющемся помещении – а именно это является у нас правилом – сильно ограничивает возможности проектировщика в выборе технологий, с помощью которых можно повысить энергоэффективность объекта. Большинство энергосберегающих технологий чисто физически невозможно разместить в уже построенном здании. В этом случае можно применить только типовые, хорошо отработанные решения, такие как чиллеры с фрикулингом, сокращение расстояний при прокладке трасс теплоносителя и электрокабелей, оптимизация путей доставки холодного воздуха от кондиционеров до активного оборудования. С некоторой натяжкой и при удачной геометрии помещения можно перейти на питание серверного оборудования постоянным током, создать каналы для теплого и холодного воздуха, применить динамические источники бесперебойного питания. И уж совсем маловероятно, что получится использовать морскую воду и технологию полного фрикулинга.


На уже работающей площадке кардинально увеличить энергоэффективность весьма проблематично: чтобы уменьшить PUE до значений ниже 1,4–1,5, потребуется глобальная модернизация ЦОДа, которая обойдется практически в стоимость строительства нового. Снизить PUE с 2 до 1,5 можно за счет лучшего размещения оборудования внутри ЦОДа и замены некоторых инженерных компонентов. Подобные идеи у нас пока широко не обсуждались, но малозатратные проекты по «доведению до ума» плохо спроектированных ЦОДов выполнялись и приводили к вполне ощутимому повышению эффективности ЦОДа, примерно на 5–7%. Но при значениях PUE ниже 1,4 (физику не обманешь!) потребуются принципиально иные технологии охлаждения, основанные на свободном холоде. Интегрировать их в имеющиеся площадки практически нереально.


Перемены неизбежны


За 15 лет строительства дата-центров и серверных в России многие компании освоили эту нелегкую профессию – строитель ЦОДов. Какие-то технологии были переняты у западных коллег, возможно, что-то было создано и у нас. На иностранных конференциях становится понятно, что мы практически не отстаем от Запада. Но есть одно «но»: наш рынок коммерческих дата-центров – лишь призрачная тень того, что происходит там. Если в России компании, узко специализирующиеся на строительстве ЦОДов, можно сосчитать по пальцам одной руки (не учитывая интеграторов, которые делают всё или говорят, что делают всё), то в любой развитой западной стране число таких компаний может доходить до сотни (опять же не считая интеграторов). Площадь всех российских дата-центров в совокупности меньше, чем площадь одного, не самого большого коммерческого ЦОДа где-нибудь в Аризоне. Их рынку коммерческих дата-центров уже почти 30 лет, их интернет-трафик превышает наш в сотни раз, компьютеризация общества там выше в разы. К тому же, если стоимость подключения к энергомощностям у нас доходит до $2–3 тыс. за 1 кВт, то у них за тобой еще побегают, чтобы ты выбрал одного из поставщиков услуг (хотя надо признать, что электричество у нас ПОКА еще дешевле). Поэтому естественно, что никто у нас до сих пор не построил дата-центр площадью 20–30 тыс. м2 и никто не смог опробовать новейшие энергоэффективные технологии в ЦОДе из-за их невостребованности. Нам просто негде получить опыт строительства больших дата-центров. Но рано или поздно это произойдет – и уже начинает происходить. И естественно, когда западные игроки выйдут на наш рынок с услугами строительства и аренды ЦОДов, у нас не останется иного выхода, кроме как подтянуться до их уровня или уйти.  икс 

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!
Поделиться: