Рубрикатор |
Статьи | ИКС № 12 2014 |
Кэрри ГЕТЦ (Хигби)  | 08 декабря 2014 |
Меняющийся облик дата-центров
Принятие новых стандартов 10GBASE-T и 10GE создало потребность в модернизации существующих ЦОДов и заставило компании оценить пространство для размещения техники. При внедрении новой стратегии важно относиться к дата-центру как к комплексной экосистеме и воспринимать ЦОД как единое целое.
В отрасли ИТ через виртуализацию мы движемся снова к среде с главной ЭВМ. Разрозненные прежде центры обработки данных сейчас объединяются, чтобы использовать преимущества этих технологий. Все больше и больше серверов занимают одну аппаратную платформу, и это влечет за собой необходимость увеличения пропускной способности. Для удовлетворения этих потребностей IEEE опубликовал стандарты 40/100 GE, а стандарты 10GBASE-T и 10GbE уже реальность; почти все активные производители электроники выпускают такие компоненты серийно. Это требует повышенного внимания к возросшей мощности аппаратного и программного обеспечения и модернизации существующих центров обработки данных.
Важнейшим фактором успешности дата-центра является проект. Проблема многих ЦОДов заключается в том, что в них действуют несколько бюджетов. Отделы организации сети, серверов, SAN, оборудования и безопасности могут принимать решения, неблагоприятно влияющие на другие отделы. Чтобы получить полностью рабочий, динамичный и функциональный проект, этим отделам нужно общаться между собой и принимать решения, которые будут наилучшими для компании в целом, а не просто закупать самые новые игрушки на рынке. Для этого потребуется комплексная оценка. Например, можно построить ЦОД с использованием только оптоволоконных кабелей, но в результате роста расходов на оборудование некоторые его дополнительные возможности могут оказаться недоступными, что, несомненно, увеличит другие бюджеты.
Кабельная система и шкафы
В дата-центре кабельная система и шкафы меняются редко. Изменениям подвергаются оборудование, устанавливаемое в шкафах, распределяемая мощность и, разумеется, потребности в охлаждении. Шкафы должны иметь глубину не менее 1200 мм, чтобы разместить крупное оборудование. Шкафы со стандартной шириной 600 мм смогут вместить оборудование, но это приведет к высокой плотности прокладки кабелей. Последняя тенденция – использование более широких шкафов, чтобы в них можно было аккуратно заправлять кабели, не допуская сужения пространства для потоков воздуха, поступающих в оборудование и отводимых от него приточными и вытяжными вентиляторами.
Что касается коммутационных шкафов, то лучше предварительно проложить кабели через все отверстия к коммутационным панелям соответственно прокладке в других местах, так чтобы коммутаторы оставались заправленными внутри, а кабели были проложены от вентиляторных модулей и модулей-супервизоров. Перемещения, добавления и изменения в области кросса не будут затрагивать коммутационный шкаф, за исключением случаев отказа или замены оборудования.
Стандарты TIA-942A и ISO 24764 недвусмысленно указывают: кабели должны прокладываться так, чтобы обеспечивать наращивание ИТ-инфраструктуры ЦОДа и чтобы вам не приходилось снова и снова заниматься ими при многочисленных перемещениях, добавлениях и изменениях. Так обеспечивается полный контроль над магистралью. Переполненные трассы с верхним расположением могут создавать проблемы в плане безопасности, а переполненные трассы под полом – препятствия для потоков воздуха. Брошенные кабели следует удалять, чтобы не понижать эффективность работы в дополнение к затруднениям, перечисленным выше. ЦОДы, имеющие проблемы с кабельным хозяйством, обычно органически разрастаются сверх планируемых размеров. В прошлом в них использовалась преимущественно кабельная система «точка – точка».
Комплексный подход
Выбор медных или волоконных кабелей должен делаться не с точки зрения какой-то одной единицы оборудования, а исходя из необходимости обеспечения максимальной маневренности любого оборудования, которое может занимать место в стойке. Стандарты рекомендуют использовать кабели как минимум категории 6A, хотя более производительные системы категории 7A /класса FA имеют явные преимущества. В аппаратуре, соответствующей стандарту 10GBASE-T, имеется возможность автосогласования скоростей 1 Гбит/с – 10 Гбит/с, что обеспечивает этим системам более высокую долговечность без необходимости замены оборудования и в некоторых случаях кабельных систем по мере роста скоростей. Не так обстоит дело с некоторыми системами на базе оптоволокна и других систем 10GbE «точка – точка». Автосогласования нет в оптоволоконных системах или в медных системах прямого соединения с интерфейсом DAC.
Большинство волоконных систем в центрах обработки данных относятся к классу ОМ3. Волоконная система OM4 была внедрена в 2010 г. для увеличения расстояния при многомодовой передаче данных. OM3 поддерживает длину 100 м для 40/100GbE, а OM4 увеличивает это расстояние до 150 м. Не забывайте, что передача данных осуществляется по многожильным кабельным системам для поддержки параллельной передачи данных; только двужильный стандарт 40/100GbE использует две жилы одномодового оптоволоконного кабеля. При передаче данных по волоконным кабелям очень важно отслеживать полярность во всех волоконных системах. В то время как 10GbE является двужильной системой с переменой полярности на одном конце, 40/100GbE – многожильная система, где 40GbE использует восемь жил, а 100GbE – 20 жил в односегментной системе в соответствии с сегодняшним стандартом. Ведутся работы по стандарту 100GbE, задействующему восемь жил 12-жильной системы с четырьмя линиями 25GbE и сокращающему потребность в 20-волоконных жилах. Это также означает, что в ЦОДах будет больше сегментов СКС, чем обычно используется для двужильных систем, таких, как 10GBASE-SR/SX.
Оптимизация коммутаторов
Стоечные коммутаторы (располагающиеся вверху стойки) были внедрены в промежуточный период, когда производители оборудования 10GBASE-T ожидали появления чипсетов, потребляющих меньше энергии. Обычно они используют кабельные системы SFP+ «точка – точка» длиной 1, 3 или 5 м. Из-за ограниченности поддерживаемой длины кабеля число коммутаторов может понадобиться увеличить. Стоечные коммутаторы с оглядкой можно устанавливать там, где это имеет смысл и где можно решить проблему переподписки портов.
Если при типе зонирования «каждый-с-каждым» применяются коммутационные зоны (patching zones) и 100-метровые системы 10GBASE-T, использование портов коммутатора значительно улучшается, так как кабельная система позволяет реализовать множество вариантов размещения оборудования. Порты с переподпиской в стоечных коммутаторах по-прежнему потребляют электроэнергию, и невозможность текущего обслуживания портов из-за ограничений на потребляемую стойкой мощность, а также ограниченность поддерживаемого кабелями расстояния приводят к ненужным затратам, которых следует избегать. При любых кабельных системах нагревающееся оборудование можно рассредоточить по ЦОДу, устраняя горячие точки, для которых может потребоваться дополнительное охлаждение.
Интеллектуальные ленточные шины питания
Новой тенденцией в области электропитания являются воздушные силовые шины, которые позволяют подавать электроэнергию без необходимости использовать толстые кабели. В ЦОДе, в котором возможны изменения в стойках и их расположении, это обеспечивает маневренность в размещении питания. В том, что касается питания и экологии ЦОДа, важно иметь возможность измерять потребление электроэнергии, а не только выходную мощность. Новые интеллектуальные ленточные шины дают такую возможность.
Еще один тренд, находящийся за пределами виртуализации, – автоматическое «вежливое» отключение серверов, когда они не нужны, вместо переброски ресурсов на виртуальной машине. Стремясь к уменьшению потребления ресурсов, компании могут принимать взвешенные решения о том, какое оборудование следует заменить или виртуализировать первым, а также планировать проведение наиболее интенсивных работ вне периодов пикового потребления электроэнергии.
При оценке пространства ЦОДа для совместного размещения техники (colocation) важно определить, имеется ли в дата-центре план для обеспечения того, чтобы стойки с оборудованием в отсеках не располагались перпендикулярно другим отсекам, чтобы магистралями можно было управлять, а средства питания и охлаждения не блокировались близлежащими отсеками. Если конечным пользователям разрешить делать в своих отсеках все что им вздумается, это может создавать проблемы для соседей. Постоянные реконфигурации могут создать немало проблем в пространстве совместного размещения оборудования. Владельцы ЦОДа должны помочь пользователям отсеков повысить энергоэффективность своих ИТ-систем. Настойчивое внедрение интеллектуальных ленточных шин питания может способствовать экономии электроэнергии, а управление средой, включая магистрали и пространство, – обеспечению циркуляции потоков воздуха во всех отсеках.
Охлаждение общее и индивидуальное
Для охлаждения ЦОДа существует бесчисленное количество вариантов, в том числе процессоры с жидкостным охлаждением (которые значительно снижают потребности в охлаждении помещений), водоохлаждаемые двери, сохранение тепла в проходах, сохранение холода в проходах и т.д. Некоторые компании игнорируют простейшие решения, которые быстро решают проблемы охлаждения дата-центров. В их число входят панели-заглушки в шкафах, щеточные кабельные вводы в полах, рассредоточение по ЦОДу оборудования с высоким тепловыделением вместо концентрации его в одном месте, что может устранить потребность в дополнительном охлаждении. Если же необходимо дополнительное охлаждение, имеет смысл добавить его в определенные зоны с высокой плотностью оборудования, а не пытаться нарастить охлаждение по всему помещению.
* * *
Основной принцип для любого ЦОДа – не принимать изолированных решений. Дата-центр является экосистемой. Прежде чем внедрять какую-либо новую стратегию, следует учесть развитие всей экосистемы в долгосрочном плане. Ключ к гибкости – обеспечение достаточности кабельной системы и магистралей для поддержки разнообразных вариантов применения в наших постоянно меняющихся экосистемах ЦОДов. Проектирование же любой технологии по отдельности повлечет за собой изменения, которые вызовут очередной «технологический шторм».