Rambler's Top100
Реклама
 
Статьи ИКС № 06-07 2013
Евгения ВОЛЫНКИНА  18 июня 2013

Надежный ЦОД – простой ЦОД

Простота систем ЦОДа не всегда равна надежности их работы, но, как показала международная конференция Data Center Design & Engineering, организованная журналом «ИКС», грамотный проектировщик может совместить и простоту, и надежность, и невысокую цену.

Долгое время считалось, что следование рекомендациям Uptime Institute при создании дата-центров – занятие весьма накладное. Однако, как заявил вице-президент Uptime Institute по инженерным системам Кейт Клеснер, построить ЦОД высокой доступности можно с помощью простых конструктивных решений, которые будут к тому же экономически эффективны. Конечно, эти решения нельзя назвать дешевыми (любой дата-центр высокой готовности – объект по определению дорогой), но они вполне оправдывают потраченные на них деньги.

     

Простота и экономия. В частности, К. Клеснер обращает внимание на то, что экономия на резервировании инженерных систем нередко ведет к усложнению всей конструкции и повышению вероятности совершения ошибок обслуживающим персоналом ЦОДа, а именно на них приходится большинство аварийных инцидентов в дата-центрах. Например, политика резервирования систем целиком, а не отдельных их элементов, существенно упрощает общую архитектуру инженерной инфраструктуры ЦОДа и систему управления ею. Она позволяет сократить общее количество элементов в системе, в том числе разного рода переключателей, и тем самым немало сэкономить. Стремление инженеров создать максимально гибкое решение понятно, но эта гибкость не должна излишне усложнять конструкцию.

Кроме того, упрощение системы управления уменьшает время реагирования операторов ЦОДа в случае нештатной ситуации. Uptime Institute также считает, что в дата-центрах, обслуживающих критически важные приложения, следует использовать проверенные решения, имеющие хорошую поддержку производителя. Инновации вполне допустимы, но лишь там, где непрерывность работы не является критичной. Также в российском дата-центре не стоит использовать оборудование, для ремонта которого придется вызывать специалистов из-за рубежа и оттуда же везти запчасти. Вендор должен иметь в России представительство, местных авторизованных партнеров и локальный склад комплектующих.

Упростить, не снижая надежности, можно и систему мониторинга дата-центра. Правда, по словам менеджера Intel по развитию ЦОДов Леонида Шишлова, для этого дата-центр должен быть укомплектован серверами с процессорами производства Intel. Он напомнил, что уже не первый год компания Intel встраивает в системные платы для серверов аппаратные компоненты Intel Intelligent Power Node Manager, позволяющие осуществлять мониторинг и управление питанием каждого сервера дата-центра. А с помощью программного продукта Intel Data Center Manager (DCM) можно управлять энергопотреблением любой группы серверов, предотвращать возможные перегрузки, грозящие отключением части ИТ-оборудования, отслеживать нагрузку каждого сервера и составлять температурные карты всего ЦОДа, что дает возможность вовремя выявлять зоны перегрева или переохлаждения, выход из строя кондиционеров и другие неполадки, причем делать это без лишних затрат на специализированные системы мониторинга и интеллектуальные блоки распределения питания PDU.

Не PUE единым. Не все однозначно и в повышении энергоэффективности дата-центров. Системный архитектор Schneider Electric Алексей Соловьев подчеркнул, что к такому показателю энергоэффективности ЦОДа, как PUE, нужно относиться с определенной осторожностью. Необходимо учитывать, что коэффициент PUE – величина относительная и что он не в полной мере отражает действительную энергоэффективность дата-центра и экономическую эффективность примененных в нем решений. Да, снижать энергопотребление дата-центра надо, но делать это можно разными способами. Можно временно сократить энергопотребление, уменьшив нагрузку с помощью средств управления электропитанием, а можно провести структурное снижение энергопотребления, установив более эффективные серверы и ИБП оптимальной мощности. На первый взгляд второй способ сложнее и дороже, но расчеты показывают, что он почти вдвое выгоднее простых временных мер.

Конечно, лучше всего задуматься об энергоэффективности ЦОДа еще на этапе его проектирования, однако и на этапе эксплуатации готового дата-центра тоже можно немало сделать, сочетая оптимизацию ИТ- и инженерной инфраструктуры дата-центра. Например, можно вывести из эксплуатации устаревшие и ненужные серверы (как указал Л. Шишлов, 10–15% серверов почти в любом ЦОДе не выполняют никакой полезной работы, это серверы-«призраки»), перейти на более экономичные вычислительные платформы, построить эксплуатацию существующих систем электропитания и охлаждения более оптимальным образом. Не следует пренебрегать и такими мерами, как организация энергоэффективного освещения и установка панелей-заглушек. Хоть экономия от них и невелика, зато они не требуют серьезных капиталовложений.

     

Тему «нелегких отношений» между уровнем готовности ЦОДа и его энергоэффективностью затронул и заместитель директора департамента интеллектуальных зданий компании КРОК Александр Ласый: дискуссии вокруг энергоэффективности ЦОДа не должны отодвигать на второй план главное предназначение этого объекта – выполнять свои функции по обработке информации. Заказчик должен определить свои приоритеты: что ему важнее – иметь суперэффективное решение или надежно работающее. К тому же, как показывает практика, ЦОД с PUE, равным 1,5, в эксплуатации порой обходится гораздо дешевле, чем очень продвинутый дата-центр с PUE, равным 1,12. Тем более что стандартной методики расчета PUE пока нет, и сравнивать эти показатели у разных ЦОДов некорректно, поскольку расчеты сильно зависят от принятых допущений. В частности, необходимо учитывать влияние центральных инженерных систем здания на инженерные системы ЦОДа. С точки зрения PUE идеальным дата-центром может оказаться, условно говоря, сарай в Ирландии, где серверы обдуваются прохладным внешним воздухом. Но есть большие сомнения, что такое решение будет пользоваться спросом у российских заказчиков. Так что нужно строить что-то более приближенное к реальности.

Нетехнические проблемы. Реалии создания и что, наверное, еще важнее, согласования строительства ЦОДов в России могут сильно «скорректировать» бизнес-план любого проекта. Как отметил технический директор ADM Partnership Андрей Абрамов, заказчикам и инвесторам строительства крупных дата-центров, к которым у нас принято относить объекты с подведенной мощностью более 10 МВт, стоит обратить самое пристальное внимание не только на инженерные решения, но и на регламентирующие требования Градостроительного кодекса РФ, постановления субъектов Федерации и муниципальных органов власти, которые могут сильно различаться в зависимости от местоположения предполагаемого ЦОДа. Причем решить все вопросы с согласованием нужно на самых ранних стадиях реализации проекта, чтобы не получить неприятных сюрпризов, чреватых срывом всего строительства и большими убытками.

Заказчикам и проектировщикам дата-центров, стремящимся использовать новые технологические решения, которые выгодно выделяются среди нынешних серийных продуктов более высоким КПД, быстродействием, простотой эксплуатации, экологичностью и другими замечательными свойствами, не стоит забывать, что в деле создания ЦОДа важно всё, в том числе бюрократические тонкости, и что даже из самых продвинутых компонентов можно собрать совершенно неэффективную систему, потребляющую массу электроэнергии. Главное – это комплексный подход, и тогда даже из рядового оборудования можно построить вполне экономичный и надежный дата-центр.

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!