Rambler's Top100
Статьи ИКС № 10 2013
Сергей АНДРОНОВ  Андрей ЛУКИЧЕВ  14 октября 2013

ЦОД как сервер: и сказка станет былью?

Дата-центр становится большим облаком или единым сервером. Авторы статьи видят в этом превращении путь к повышению отдачи от ЦОДа.

 Сергей АНДРОНОВ, руководитель департамента проектирования, внедрения и сопровождения Центра сетевых решений, «Инфосистемы Джет»
 Андрей ЛУКИЧЕВ, бизнес-архитектор, «Инфосистемы Джет»
Отечественный рынок дата-центров в начале 2000-х гг. пережил настоящий бум. В период же кризиса 2008–2009 гг. большая часть строек, традиционно связанных с весьма серьезными капзатратами и долгосрочным планированием, была остановлена. ЦОДы, которые создавались к 2008 г., были запущены в работу, а остальные проекты, в зависимости от стадии, на которой находилось строительство, были либо свернуты, либо заморожены. И разворачиваться некоторые из них начали только к 2010–2011 гг. Вследствие этого на рынке ЦОДов сложилась ситуация сродни демографическому старению: соотношение дата-центров, построенных в докризисный бум и в последние два-три года, составляет примерно 80 к 20.

От hi-end к виртуальным серверам, от избыточности мощностей – к гранулярности

Комплексы инженерной инфраструктуры ЦОДа рассчитаны в среднем на 10–15 лет (хотя срок службы некоторых их компонентов может достигать четверти века). Между тем почти 10-летний временной отрезок, который мы выделяем в «новейшей истории» дата-центров, серьезно изменил подходы к построению ЦОДов с точки зрения их инженерии и концепции серверной инфраструктуры.

К примеру, поменялась картина заполнения дата-центров: серверное хозяйство ушло в сторону более энергоемких ресурсов. Раньше ЦОД жестко сегментировался на hi-end, сетевую часть (LAN, SAN и т.д.), серверы х86, систему резервного копирования, запас для масштабирования и т.п. В соответствии с такой «картой» прокладывались коммуникации. Теперь ситуация изменилась: сектор hi-end сократился, а количество серверов х86 в разы увеличилось. Появилась технология виртуализации, а вместе с ней и возможность запускать несколько логических серверов на одном физическом. При этом они могут организовываться в некие фермы, и в случае выхода из строя одного сервера эти виртуальные машины «поднимаются» на другом, без прерывания работы и совершенно незаметно для пользователей. И вот на месте разрозненных х86-х мы уже имеем некую единую сущность, в которой «живет» множество виртуальных серверов.

Такие изменения в архитектуре серверного хозяйства привели к ощутимому росту плотности нагрузки в одних точках ЦОДов старого образца при ее снижении в других. То есть дата-центр перестал быть однородной структурой. И дисбаланс наблюдается в первую очередь с точки зрения инженерной инфраструктуры. В дата-центре появились точки перегрева, превышения лимитов по электричеству и одновременно зоны с резким падением нагрузки. За счет этого значительно снизилась утилизация ЦОДов – сегодня этот показатель едва дотягивает до 50%, тогда как пять-семь лет назад он в большинстве случаев достигал 90%.

В то же время нельзя забывать и о таком параметре, как PUE (Power Usage Effectiveness) – коэффициенте энергоэффективности, который сегодня непременно оценивается при работе любого ЦОДа вне зависимости от даты его постройки. Но для тех 80% дата-цент-ров, запуск которых пришелся на первую половину 2000-х, он отнюдь не был ключевым. И это ставит цодовладельцев перед необходимостью использования целого ряда организационно-технических и архитектурных решений, нацеленных на снижение PUE дата-центров.

Не меньшую роль в изменении подхода к строительству центров обработки данных сыграла и тенденция к сокращению затрат на начальное строительство. Условно говоря, подход к цодостроению основывался на принципе избыточности и предоставлении максимально возможных мощностей и ресурсов. После кризиса подход изменился, и ЦОДы, дабы сократить капзатраты, стали модернизироваться более мелкими шагами согласно потребностям заказчика. Это не могло не отразиться на технологических и технических решениях. Если оперировать таким понятием, как «гранулярность решений», то «гранулы» (возможные шаги модернизации) значительно уменьшились.

Утилизация инфраструктуры: рычажок на максимум

Получается, что на основную цель сегодняшних цодовладельцев – повышение отдачи от дата-центров – влияют три фактора: значительная масса ЦОДов докризисного «возраста», изменение и неравномерность их заполненности и коэффициент PUE. Для достижения цели можно выделить две задачи – повышение плотности ресурсной базы серверного хозяйства и повышение утилизации инженерной инфраструктуры ЦОДа, ее параметров и свободных мощностей. Причем решать эти задачи необходимо в связке друг с другом и с учетом сложившихся тенденций применения более энергоемких ресурсов и гранулярности используемых решений.

Здесь на первый план выходит так называемая дефрагментация свободных мощностей инженерной инфраструктуры дата-центров. Если проводить аналогию с дефрагментацией дискового пространства, состоящей в освобождении кластерных фрагментов для записи новой информации, то применительно к дата-центру такая дефрагментация осуществляется с точки зрения ресурсов (площадей, энергопотребления, тепловыделения и т.п.). Эти параметры вполне поддаются мониторингу посредством решений класса DCIM (Data Center Infrastructure Management), позволяющих оценить загрузку различных локальных зон ЦОДа и подстроить инженерную инфраструктуру для более эффективной ее утилизации.

Но видоизменение инженерной инфраструктуры весьма трудоемко и подчинено ограничениям с точки зрения «физики», в прямом смысле слова зависящей от толщины проложенного кабеля, ширины трубы, сечения воздухоканала и т.д. При этом сама нагрузка на процессорные мощности при условии использования технологий виртуализации обладает значительно большими возможностями для перемещения в ту или иную физическую зону дата-центра (или даже за его пределы). Если расположить процессорные мощности внутри ЦОДа более или менее равномерно, то можно обеспечить распределение нагрузки на них путем миграции виртуальных машин между физическими серверами в соответствии со статистическими данными, накапливаемыми DCIM. Это позволит перебрасывать высоконагруженные процессорные ресурсы ближе к необходимым им элементам инженерной инфраструктуры (в зоны повышенной концентрации холода или энергомощностей, к примеру). В этом случае снимается проблема жесткой инженерной инфраструктуры, сконструированной в расчете на hi-end-ориентированное зонирование дата-центров.

Надо понимать, что идея основана отнюдь не на некоем мануальном управлении перемещением процессорных ресурсов, поэтому следует учитывать, что для эффективной реализации такого подхода недостаточно наличия технологии виртуализации и DCIM. Необходимо создание специализированной сети датчиков или SNMP-адаптеров, которые будут фиксировать и передавать в аналитическое ядро системы управления виртуальными машинами данные о превышении пороговых значений по тем или иным критичным параметрам. Далее система управления в соответствии с полученными данными сможет реализовывать заранее настроенные сценарии по переносу виртуальных машин в различные места ЦОДа. В данном случае разговор идет уже не о классической виртуализации, а о макровиртуализации, когда физические ЦОДы воспринимаются как большое облако или единый сервер.

Для тех, кому за сотню метров

Такой подход применим в первую очередь к ЦОДам площадью 100 м2 и более, в которых не смешиваются воздухопотоки разных зон. Но еще более высокие результаты такая концепция даст в случае географически разнесенных ЦОДов, что вовсе не редкость для современного корпоративного сегмента. Соответственно, если абстрагироваться от ограничений, накладываемых каналами связи (а их существование, как показывает опыт, дело относительно непродолжительного времени), то применение технологий виртуализации позволит создать некий единый географически «размазанный» ЦОД. Максимальная утилизация его достигается за счет перемещения приложений и виртуальных машин между входящими в него физическими площадками (распределенными дата-центрами). Что это дает? Например, если такие площадки расположены в разных часовых поясах, то появляется возможность «поиграть» на разнице суточных тарифов на электроэнергию.

Более того, такая концепция позволяет отказаться от деления дата-центров на основные и резервные. Заказчик зачастую заинтересован в своеобразном «распылении» приложений business critical между своими ЦОДами. Однако преобладает ситуация, когда часть приложений «крутится» в одном ЦОДе, часть – в другом, они не пересекаются между собой, а надежность их повышается на уровне «холодного» резервирования ЦОДов друг относительно друга. В случае же объединения географически разнесенных дата-центров в единую виртуальную площадку некая часть приложений начинает функционировать на разных физических площадях, их пересечение увеличивается, что позволяет максимально утилизировать ЦОДы. По большому счету логичным продолжением такой концепции является переход к некоему облаку, в котором все приложения абсолютно виртуальны, пересекаются и распределены. 

Поделиться:
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!