Rambler's Top100
Статьи ИКС № 7-8 2008
Александр МАРТЫНЮК  28 июля 2008

Кому в России нужны дата-центры нового поколения?

Уже стало привычным оценивать российский рынок с позиций «мы и они». Причем в большинстве случаев сравнение оказывается не в нашу пользу. К сожалению, не исключение и ситуация c дата-центрами. Как ни парадоксально, дело здесь не в техническом отставании.

Александр МартынюкНе хуже, чем у других?

 

Объективный взгляд на российский рынок ЦОДов не оставляет сомнений в том, что по уровню проектов, технических решений и их исполнению российские дата-центры в большинстве своем отстают от того, что делают «они», как минимум на два поколения. Особенно очевиден этот разрыв в секторе операторских и коммерческих ЦОДов. Российские проекты порой не выдерживают никакой критики как в плане подготовки помещения, так и в плане обеспечения заявленной отказоустойчивости. Исключением можно считать разве что действующие дата-центры МТС и Stack Group, при проектировании и строительстве которых были учтены самые современные на тот момент тенденции и концепции. Думаю, что сегодня уровень исполнения этих ЦОДов и есть та планка, относительно которой можно оценивать качество и инновационность других проектов, которые идут сейчас в России, – в большинстве своем громких и амбициозных.

 

Отрадно заметить: заказчики этих проектов начинают понимать, что, вопервых, использование ИТрешений высокой плотности не всегда экономически оправданно; вовторых, для поддержания отказоустойчивости ИТ должна быть создана соответствующая инфраструктура; втретьих, не стоит ограничивать себя в выборе инфраструктурных решений, предлагаемых международным рынком. Да, есть, конечно, серьезные различия в платформах инженерных систем в США и в России, но это не главное. Например, последние разработки Emerson или APC, которые уже применяются в проектах на территории США, с тем же успехом можно использовать и у нас. Правда, было бы хорошо, если бы владельцы дата-центров руководствовались при этом принципом «лучшее из возможного», а не «не хуже, чем у других».

 

Возможно лучшее

 

Основная причина того, что многие новые отечественные дата-центры не соответствуют принятым в мире представлениям о современном ЦОДе, заключается не в техническом отставании российского рынка, а в различии мировоззрений и приоритетов.

 

Наш нынешний стандартный подход – это применение типовых решений для систем охлаждения и электропитания. В условиях острого дефицита услуг ЦОДов поставщикам этих услуг и их клиентам не до тюнинга – главное как можно скорее нарастить объемы. Редко кто задумывается о том, сколько электроэнергии потребляет климатическое оборудование. Практически никто не пытается всерьез оптимизировать системы охлаждения, чтобы снизить потребление электроэнергии (хотя она у нас довольно дорогая), чтобы получить возможность поставить больше оборудования и применять более сложные решения.

 

То же самое и с компьютерным оборудованием. Основные энергопотребители в серверах – это жесткие диски, блоки питания и вентиляторы. Чтобы они потребляли меньше энергии, нужно правильно хранить информацию, используя, например, ленточные библиотеки. Нужно устанавливать жесткие диски быстрой доступности и более длительного срока хранения, применять системы управления информацией, исключать реплики, вводить строгую каталожную систему. Какие там «зеленые» ЦОДы? Нам не до этого. Нам элементарно нужна «жилплощадь», а «ремонт» в ней будет делаться позже.

 

Все это напоминает ситуацию примерно трехлетней давности, когда в России поднялся ажиотаж вокруг строительства интеллектуальных зданий, а за рубежом уже перешли к «зеленым» домам. Вот и теперь у нас стартовал марафон по созданию дата-центров категории Tier III или Tier IV, а у них тем временем идет горячий обмен мнениями по поводу строительства и эксплуатации «зеленых» дата-центров. Их задача – сделать ЦОДы максимально экологичными и минимально вредными. Они пытаются использовать вместо аккумуляторных батарей маховики, отказываются от дизелей и переходят на газ, строят систему охлаждения так, чтобы она максимально долго работала на внешнем охлажденном воздухе.

 

Не случайно последние по времени конференции DataCenters World в США были посвящены рассмотрению различных аспектов «зеленых» дата-центров. Причем, если осенью 2007 г. разговор шел на уровне инженерных систем, то весной 2008 г. вопрос «озеленения» изучался уже со стороны ИТоборудования. И говорили не только о серверах и мощности процессоров, но и об инженерном оборудовании и грамотном дизайне.

 

Отчасти в таком положении дел повинен и дефицит информации об аналогичных проектах, реализованных в мире. Причем это касается всех участников проектов – даже внутри одного вендора обмен сведениями о продуктах и решениях не всегда достаточно оперативный и российские подразделения западных поставщиков зачастую оказываются не в курсе достижений собственных головных компаний.

 

Что могут системные интеграторы и строители

 

Чтобы придумывать и реализовывать небанальные технические решения, нужны знания и опыт, которым в России обладают единицы. Это те заказчики и системные интеграторы, которые понимают, что для того, чтобы построить хороший ЦОД, нужно ехать за границу и учиться. Подругому пока нельзя. Российские системные интеграторы, даже лидеры своего сегмента ИТрынка, испытывают острый дефицит знаний и специалистов, что не позволяет им спроектировать систему охлаждения или электроснабжения для дата-центра с требуемым уровнем надежности. Поэтому им нужно более тесно взаимодействовать с вендорами, призывая их показывать инновационные технические решения, рассказывать о сделанных проектах, знакомить с «историями успеха». Надеюсь, что в результате этой работы уже в ближайшее время на смену массовым продажам оборудования «с лотка» придет концептуально новый подход к проектам создания ЦОДов – на уровне решений предпоследнего, а то и последнего поколений.

 

Нередко отечественные системные интеграторы переоценивают свои возможности, пытаясь взять на себя управление проектом. Отсюда и ошибки. Недаром же на Западе сложилось четкое деление: есть консультанты, управляющие компании, координирующие ход проекта, и есть подрядчики по отдельным системам, которые не лезут в чужие разделы проекта. Наши системные интеграторы знают параметры вычислительной техники и хорошо делают СКС, поэтому они могли бы совершенствовать свой профессионализм, занимаясь созданием интегрированных ИТрешений. А электрикой, климатическим оборудованием и другими инженерными системами должны заниматься специализированные компании. И такие компании в России есть, причем довольно высокого уровня. Они общаются не с российскими, а с зарубежными представительствами вендоров, которые показывают им передовые проекты. Они могут применять эти проектные решения и у нас, и как хорошие технические специалисты, стараются предложить максимально правильное техническое решение, а не продать максимально дорогое оборудование, чем грешат иные системные интеграторы.

 

Качество строительных работ при создании ЦОДов у нас тоже не блещет. Строительные компании, которые берутся за эти проекты, не видят особой разницы между домом, бизнесцентром и ЦОДом – строят как могут. А ведь ЦОД – это особый объект недвижимости. В нем нет и не может быть мелочей. У нас же в серверных помещениях можно встретить полы из ДСП, фанеры или другого горючего материала, деревянные плинтусы, а на стенах – пластиковые панели, как в обычной поликлинике. Если в ходе подготовки площадки приходится объяснять, что пол должен быть ровным, то рассчитывать на соответствующий ожидаемому уровню качества и надежности результат довольно сложно.

 

Чего хотят продвинутые заказчики

 

Некоторые российские заказчики уже осознали, что с системных интеграторов, берущихся строить им ЦОД, нужно требовать законченное комплексное решение, а не просто оборудование, которое можно поставить так, как нарисовано в проспекте производителя. Они ждут от системных интеграторов не предложений, позволяющих решить проблему отвода тепла, но построения дата-центра, который не потеряет своей актуальности и через пятьсемь лет. Особенно это касается коммерческих ЦОДов, строящихся для сдачи площадей в аренду. Для них очень сложно заранее спрогнозировать, какое именно оборудование и в каких количествах привезут туда клиенты. Это может оказаться и стойка с небольшим энергопотреблением (например, с одним сервером и ленточной библиотекой), и несколько блейдсерверов, дисковый массив, а то и моноблочная система типа Sun Fire или HP Superdome с тепловыделением 5 или 10 кВт на стойку. Во втором случае оператору ЦОДа придется ставить локальную систему охлаждения или нагнетать в этом месте серверного помещения массу холодного воздуха. Потом придет еще один «горячий» клиент, а свободное место для его оборудования будет только в другом конце зала – и там придется делать то же самое. Но ведь можно создать такой проект, чтобы зал был рассчитан в среднем на 2–5 кВт на стойку, а с помощью шкафного оборудования или трубной разводки позволял отвести до 20 кВт тепла от заданного ограниченного количества стоек. Такой ЦОД в целом будет более экономичен и с энергетической точки зрения более эффективен, чем зал, подготовленный к тому, что в любом месте может быть установлена высоконагруженная стойка. То есть уровень решений задач может быть разным. Те крупные российские компании, у которых уже есть не один коммерческий дата-центр, сейчас применяют правильные технические решения, можно сказать, предпоследнего американского поколения.

 

Конечно, строительство дата-центра – проект не из дешевых, а создание «правильного» дата-центра – тем более. Заказчик должен отдавать себе отчет, что, если через дватри года при установке нового ИТоборудования потребуются дополнительные дизельгенераторы и переделка инженерных систем, это выйдет дороже, чем строительство инженерной инфраструктуры с нуля. Так что оптимальное решение, сделанное с учетом последующей модернизации дата-центра, может оказаться в итоге заметно дешевле «экономного варианта». Перестраивать же ЦОД придется, поскольку многие компании планируют выходить на IPO, а для этого нужно выполнить определенные требования по ИТобеспечению бизнеса. В общем, изменения в сознании заказчиков корпоративных ЦОДов уже идут, и довольно быстро.

 

По своему опыту знаю, что ряд крупных заказчиков проектов ЦОДов уже лично познакомились с организацией дела в западных дата-центрах. Там они увидели, что «правильный» ЦОД – это 200–300 человек в службе эксплуатации, 7 человек на диспетчерском пульте, 40 охранников, всё под контролем, всё просматривается и записывается, с клиентом заключается соответствующий договор, гарантирующий, например, что вышедшее из строя оборудование заменят со склада в течение получаса. Получить в России такой уровень обслуживания пока очень тяжело, но спрос есть, и компанииоператоры ЦОДов вынуждены будут тянуться за такими заказчиками.

 
. . . 


Выбирая, как всегда, свой особый путь, мы всетаки постепенно учимся учитывать опыт и ошибки, которые другие уже совершили. Понимаем, что пришло время думать другими категориями, более цивилизованно заниматься бизнесом, больше учитывать интересы заказчика, а не собственные интересы. Потому что в итоге заказчик заботу оценит.

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!
Поделиться: