Рубрикатор |
Статьи | ИКС № 7-8 2009 |
Александр МАРТЫНЮК  | 28 июля 2009 |
Потратить с умом – значит сэкономить
В последние годы все мировое ЦОДовское сообщество озабочено вопросами энергосбережения и экономии при строительстве и эксплуатации дата-центров. В России любят говорить об экономии, особенно теперь, со ссылками на кризис, но реальные действия в этом направлении по их эффективности можно сравнить с ямочным ремонтом на наших дорогах.
Менталитет и превратности климатаТри года назад конференция Data Center World была посвящена инженерной инфраструктуре и экономии при ее создании, два года назад обсуждали методы снижения энергопотребления ИТ-инфраструктуры путем соответствующего выбора вычислительных комплексов, систем хранения данных и коммутирующего оборудования, в прошлом году говорили о виртуализации и «облачных» вычислениях. На последней конференции, весной этого года, довольно много докладов было посвящено снижению энергопотребления холодильного оборудования дата-центра и использованию внешнего холодного воздуха для отвода тепла.
Американцы далеко не самые бедные люди на земле, и электричества на просторах США вырабатывается вполне достаточно (во всяком случае, за право подать электроэнергию для строящегося дата-центра американские электрические компании борются на конкурсах), да и платы за подключение там практически нет. Тем не менее в США, где климат куда теплее нашего, в новых мощных ЦОДах можно встретить до четырех систем охлаждения со сложной автоматической системой их управления. Эти системы построены таким образом, чтобы максимально эффективно использовать внешний холод, и только тогда, когда на улице совсем жарко и никакая система кондиционирования уже не может использовать забортный воздух, включаются компрессоры холодильных машин и начинается отвод тепла традиционными способами. Да, создание четырех систем охлаждения обходится дороже, чем одной, но общий срок жизни дата-центра достаточно долог, а его энергопотребление очень велико, и вложения, сделанные в инженерную инфраструктуру, дают такую экономию на энергопотреблении при эксплуатации, что окупаются за вполне обозримый срок.
В России же, несмотря на то что электричество весьма дорогое, а эффективность его использования очень низкая, наши проектировщики даже не пытаются объяснить заказчику необходимость установки хотя бы двух систем охлаждения ради будущей экономии на электричестве. Потому что в подавляющем большинстве случаев подобное предложение будет расценено заказчиком как результат сговора проектировщика с поставщиком этих систем. Такой уж у нас менталитет. Да что и говорить – чиллеры с функцией free-cooling у нас все еще экзотика, потому что «они дороже, чем обычные».
Правильные решения у нас сложно продать. Не cтолько потому, что они дороже, сколько из-за дефицита необходимой информации в российских представительствах вендоров, разрабатывающих такие решения. Максимум, что они могут сделать, это по номеру в каталоге посмотреть в базе данных, есть ли это оборудование на ближайшем складе, и сказать, когда его могут доставить. Но понимания, как на базе этого оборудования построить полноценную систему, нет. Поэтому технические решения, которые применяются сейчас при создании российских ЦОДов, весьма далеки от современного мирового уровня. Неудивительно, что тот, кто найдет время съездить за границу и посмотреть «правильный» дата-центр, как минимум сильно удивится. Возможно, увиденное повлияет на выбор подрядчиков и структуру проекта, что позволит наконец-то начать строить у нас в стране дата-центры, соответствующие требованиям времени. Экономически такой подход вполне оправдан, потому что по сравнению с ценой квадратного метра ЦОДа стоимость поездки ничтожно мала. Но на деле желающих следовать этой логике что-то немного.
Дорогой беспорядок
Еще один пропагандируемый на западных конференциях, но не свойственный нам прием сокращения эксплуатационных расходов дата-центров – обязательное обследование существующих серверных помещений через 1,5–2 года их эксплуатации. Особенно это касается корпоративных ЦОДов, которые к этому времени зачастую начинают жить жизнью, отдельной от той концепции, в соответствии с которой они создавались. Нужно проинспектировать схемы подключения оборудования, распределение нагрузки по фазам, заполнение стоек, оптимизировать установленное в них оборудование, проверить, какое оборудование реально работает, а какое попусту потребляет электричество, потому что работающие на нем приложения давным-давно никто не использует. Нужно выявить зоны перегрева и устранить их. На данном этапе это, как правило, можно сделать, не прерывая работы ЦОДа и не меняя систему кондиционирования. Но, возможно, придется заменить внутренние блоки кондиционеров на более мощные, чтобы снять нагрузку с тех стоек, которые будут модернизированы.
Целесообразно также перераспределить оборудование внутри серверной, чтобы более энергоемкое оборудование стояло в том месте, где оно лучше всего охлаждается. Естественно, это потребует разработки проекта по миграции, отключения и перекоммутации оборудования и… соответствующих расходов, которые нелегко будет обосновать перед руководством компании. Но в итоге мы получим возможности развития ЦОДа и продления его жизни на несколько лет.
Если нужно устанавливать новое оборудование, а денег на строительство новой серверной нет, следует провести инспекцию в имеющемся дата-центре, навести там порядок и освободить место. Да, это потребует денег, но не в масштабах, необходимых для строительства. Прежде чем начинать что-то строить, надо посмотреть на то, что уже есть.
Делать на века дешевле
Сейчас у всех туго с деньгами, но экономить надо с умом. Например, вкладывая средства в максимально надежные инженерно-технические и строительные решения, которые не потребуют переделки (и новых трат) в дальнейшем. К примеру, отделка в помещении должна быть такой, чтобы через полгода-год не понадобился ремонт из-за того, что краска отшелушилась и летает по серверной под ветром от кондиционеров. И все инженерные системы надо рассчитывать исходя не из гипотетических предположений о том, что в дата-центре может появиться 150 стоек с энергопотреблением 25 кВт каждая, а из того, что самые популярные стойки потребляют 4,5 кВт. Не надо пытаться запихнуть все блейд-серверы в одну стойку, не надо создавать хот-споты и заодно проблемы службе эксплуатации, которая потом будет бороться с локальными перегревами, открывая двери в шкафах, снимая плитки фальшпола, расставляя в серверной напольные бытовые кондиционеры и офисные вентиляторы. Основная задача – сделать так, чтобы построенный дата-центр в течение 10 лет обеспечивал гибкость и возможность установки нового оборудования.
И проекты достойного уровня в России уже появляются. Например, в дата-центре одного известного оператора несколько залов с постоянным теленаблюдением, все очень чисто и ухожено, прекрасно выполнены общестроительные работы, стены покрыты металлическими панелями с порошковым напылением (это навсегда решает проблему с покраской и шелушением), нет никаких труб, покрытых пожаростойкой пеной, которая в климатических условиях дата-центра имеет обыкновение осыпаться. Возможно, в этом ЦОДе применены не самые новые и совершенные технические решения, но те деньги, которые потрачены, на мой взгляд, потрачены грамотно. И это самый большой плюс этого проекта.
Сейчас к нам наконец-то начали приходить западные компании, которые специализируются на этом бизнесе. И те, кому повезет работать с такими партнерами в одном проекте, смогут многому научиться. Во-первых, они на практике увидят, в чем именно состоит комплексный подход к строительству дата-центра. Во-вторых, осознают, что мелочей в этом деле быть не может и никакие отклонения от технологии недопустимы. Это важно, потому что отсутствие соответствующих теоретических и практических навыков сильно тормозит технологическое развитие российского рынка дата-центров и отечественной экономики. И исходя из этого, следует подходить к выбору поставщиков и подрядчиков.
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!