Rambler's Top100
Реклама
 
Статьи ИКС № 05-06 2016
Грег ШЕРРИ  14 июня 2016

Охлаждение в ЦОДе: на круги своя?

Концепция охлаждения ИТ-оборудования со времен первых вычислительных центров совершила полный оборот «вокруг своей оси», но не остановилась на этом.

Грег ШЕРРИ, профессор кафедры автоматизированных систем обработки информации и управления, РЭУ им. Плеханова

От мейнфреймов к серверам…

На заре вычислительной техники, во времена таких машин, как Co­lossus, ENIAC и ILIAC, построенных на электронных лампах, для загрузки или хранения программ и данных применялись бумажные и магнитные носители. Использование ламп, бумажных и магнитных носителей требовало тщательного контроля окружающей среды, чтобы избежать высокой влажности и быстрого повышения или понижения температуры, а также устранить присутствие статического электричества, поскольку все это могло привести к неисправности вычислительной системы.

Из-за колоссального веса этих систем потребовалось усиление перекрытий, устройство специальных полов и в рамках этой инфраструктуры размещение в подпольном пространстве различных компонентов, включая многочисленные кабели и трубопроводы подачи воды для охлаждения – непосредственно к основному оборудованию обработки данных.

Созданные в то время вычислительные устройства получили название мейнфреймов и заняли достойное место в престижных вычислительных центрах большинства крупных компаний. С разработкой в начале 80-х технологий локальных сетей, таких как Ethernet и Token Ring, мейнфреймы стали постепенно вытесняться распределенными вычислительными системами, начался рост рынка ПК.

Этот рост породил определенные проблемы, включая недостаточную безопасность, лицензирование, малую скорость передачи данных в сети для их хранения и извлечения – все это потребовало нового мышления. Именно в то время была предложена клиент-серверная технология, и мы стали свидетелями создания серверных комнат, появления и развертывания сетей хранения данных.

Вполне логично было разместить эти новые системы в освобожденных от мейнфреймов вычислительных центрах. Однако требования мейнфреймов к окружающей среде существенно отличались от требований серверов.

Первая революция произошла в 1999 г. с возникновением так называемой проблемы 2000 года (Y2K). Слухи и домыслы, рожденные в Кремниевой долине, заставили многие компании обновить все ИТ-оборудование и программное обеспечение, чтобы внутренние часы вычислительных систем правильно восприняли значение '00', когда наступит полночь 31 декабря 1999 г. Проблема, конечно, так нигде и не проявилась, самолеты не попадали, компьютерные системы не дали сбой, однако появились новые вопросы.

Из-за стремительного развертывания только что разработанного серверного оборудования, монтируемого в стойку, главным образом в унаследованные стоечные системы, начались серьезные проблемы с перегревом и возникновением в машинном зале «горячих точек» (термин «центр обработки данных» в то время еще не придумали). Решали эти проблемы довольно просто. В то время оборудование сетей хранения данных и серверы, как правило, забирали воздух снизу и выводили воздушный поток вверх. В результате достаточно было открыть фальшпол под стойкой и установить вверху стойки лоток с вентилятором – и поток воздуха охлаждал все оборудование в ней. И конечно, само оборудование было гораздо менее энергоемким, чем сегодня. Кроме того, стойки обычно имели переднюю дверь со стеклом и сплошную заднюю дверь, что удерживало воздух внутри стойки для охлаждения оборудования. Стойки также обычно выстраивались в компьютерном зале стеклянными дверцами вперед, или, другими словами, практиковалась компоновка «спереди назад».

Вместе с тем у нового оборудования требования к охлаждению были уже другими. Специализированные монтируемые в стойку модули теперь прокачивали воздух, забирая его спереди и выдувая назад, да и тепловая нагрузка в целом также возросла. Это привело сразу к трем проблемам. Первая была связана с наличием сплошных передних и задних дверей: они мешали доступу холодного воздуха к оборудованию и выпуску горячего воздуха назад, поэтому двери пришлось снять. Вторая проблема заключалась в том, что воздух поступал из-под стойки, а не спереди, так что пришлось устанавливать плитку фальшпола с решеткой перед стойкой, а не под ней, а также удалить лоток с вентилятором сверху. В-третьих, ориентация «спереди назад» теперь означала, что стойки первого ряда просто обдувают горячим воздухом стойки второго ряда, те – третьего и так далее. Исправить это было, очевидно, сложнее, так как пришлось бы развернуть каждую стойку, что в функционирующей рабочей среде является непростой задачей.

Все эти сложности возникли в относительно короткий промежуток времени, когда в панике пытались преодолеть широко обсуждавшуюся проблему Y2K, не задумываясь о подводных камнях развертывания новых технологий в унаследованных средах. Эти проблемы существовали еще несколько лет, пока, наконец, не была полностью разработана концепция горячих/холодных коридоров и не стали уделять пристальное внимание воздушным потокам в ЦОДах.

…И обратно

Несмотря на более глубокое понимание роли управления потоками воздуха и разработку и развертывание широкого спектра технологий охлаждения, проблемы, которые проявились после 2000 г., сегодня хотя и контролируются гораздо лучше, но не исчезли полностью.

Теперь проблема заключается не только в том, как обеспечить наилучшее охлаждение и организовать воздушные потоки, но и в том, как сделать это наиболее эффективно и экономично. И в настоящее время мы видим применение систем жидкостного охлаждения, обеспечивающих отвод тепла непосредственно от ИТ-оборудования. Круг замкнулся: мы когда-то ушли от мейнфреймов с водяным охлаждением и возвращаемся к тому же.

Об особенностях использования мейнфреймов полезно знать еще и потому, что количество продаваемых сегодня вычислительных систем такого типа растет, разрабатываются специальные модели для облачной инфраструктуры. Они обещают стать более дешевым решением, чем традиционные облачные платформы на основе серверов, и это еще одно свидетельство цикличности изменений.

Перед новым витком

Быстрое развитие технологий «больших данных» и стремительное расширение сетей доставки контента обусловливают возрастающие требования к «пропускной способности» ЦОДов и потребуют строительства большого числа дата-центров, вынесенных на границу сети, к пользователям. Мы становимся свидетелями начала очередного раунда умощнения ЦОДов. Отметим, что это происходит еще до начала экспоненциального роста объема генерируемых данных, который произойдет с широким внедрением интернета вещей.

Однако самое крупное изменение, настоящая революция в индустрии ЦОДов – это развитие программного обеспечения open source и появление проекта Open Compute Project (OCP), по сути означающего перенос софтверного понятия open source в мир серверного железа.

Проект OCP – детище Facebook. Компания поделилась им с отраслью в 2011 г., и он быстро распространился в коммерческом секторе и уже привел к серьезным изменениям в мире ЦОДов. Сегодня в разработке продуктов в рамках OCP участвуют сотни членов отраслевого консорциума, популярность проекта растет, растет и его влияние на производителей традиционного оборудования. И это уже чувствуется.

С разработкой серверов и систем хранения OCP, стоек OCP, включая шины питания оборудования постоянным током, и даже проектов целых ЦОДов для создания мегаэффективных площадок, с распространением кластерного ПО с открытым кодом, такого как Hadoop, все станет еще интереснее. Поэтому не пропустите: скоро на рынке появятся продукты OCP, которые будут определять будущее архитектуры ЦОДов, создание и функционирование дата-центров нового поколения, открывающих новые возможности и ставящих новые сложные задачи. 

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!