Rambler's Top100
Реклама
 
Все новости Новости компаний

Производительность «РСК Торнадо» достигла более 200 TFLOPS на стойку

21 июня 2013

Группа компаний РСК анонсировала на международной конференции International Supercomputing Conference (ISC’13), что производительность суперкомпьютерной архитектуры «РСК Торнадо» с высокоэффективным жидкостным охлаждением достигла уровня более 200 TFLOPS (миллионов операций в секунду) на стойку благодаря использованию нового поколения сопроцессоров Intel Xeon Phi.

«РСК Торнадо» поддерживает сопроцессор Intel Xeon Phi 7120X, входящий в состав представленного на ISC’13 нового семейства Intel Xeon Phi 7100. Новое поколение сопроцессоров Intel Xeon Phi разработано и оптимизировано для обеспечения наибольшего быстродействия и самых передовых характеристик, обладая 61-м вычислительным ядром с тактовой частотой 1,23 ГГц, поддержкой 16 ГБ памяти (в два раза больше, чем объем, доступный ранее в ускорителях или сопроцессорах) и производительностью 1,2 TFLOPS при вычислениях с двойной точностью.

Кроме того, в решениях на базе архитектуры «РСК Торнадо» теперь используется новая модель сопроцессора Intel Xeon Phi 5120D, которая оптимизирована для вычислительных сред с высокой плотностью монтажа компонентов и имеет возможность подключения разъемов непосредственно к мини-плате для использования в форм-факторе блейд-сервера.

«Благодаря использованию нового поколения сопроцессоров Intel Xeon Phi наша инновационная архитектура «РСК Торнадо» с жидкостным охлаждением обеспечивает не только самую высокую энергоэффективность, но и рекордные для мировой HPC-индустрии показатели вычислительной (более 200 TFLOPS на стойку) и энергетической (более 100 кВт на стойку) плотности. Это яркий пример достижения нового технологического уровня – если еще несколько лет назад вычислительный комплекс производительностью 200 TFLOPS занимал большое помещение, то сейчас это лишь одна стандартная вычислительная стойка. То есть для создания суперкомпьютера производительностью 1 PFLOPS (квадриллион операций в секунду), необходимо только 5 стоек на базе архитектуры «РСК Торнадо», — прокомментировал Алексей Шмелев, исполнительный директор группы компаний РСК.

Применение передовой системы жидкостного охлаждения позволяет достичь уникальной в отрасли вычислительной плотности более 200 TFLOPS на одну стойку 80см*80см*42U или 156  TFLOPS/м3, де-факто устанавливая новый мировой рекорд для х86 архитектур. Высокая вычислительная плотность необходима для суперкомпьютеров экзафлопного диапазона производительности, содержащих сотни вычислительных стоек с энергопотреблением более 100 кВт каждая. Уникальный уровень вычислительной и энергетической плотности, реализованный в архитектуре «РСК Торнадо», подтверждает достижимость требуемого результата при создании столь высокопроизводительных систем.

Характеристики решений на базе архитектуры «РСК Торнадо» 

Новый виток развития инновационной архитектуры «РСК Торнадо» для создания энергоэффективных и компактных центров обработки данных (ЦОД) и суперкомпьютерных комплексов позволил специалистам группы компаний РСК впервые в мире реализовать прямое жидкостное охлаждение для стандартных и массово доступных серверных плат (различных производителей) на базе процессоров Intel Xeon, изначально созданных для традиционных систем с воздушным обдувом электронных компонент, вместе с новейшими сопроцессорами Intel Xeon Phi. Это третье поколение энергоэффективных решений РСК для сегментов высокопроизводительных и облачных вычислений, а также ЦОД.

Высокопроизводительные решения с высокой вычислительной плотностью на базе архитектуры «РСК Торнадо» с жидкостным охлаждением предназначены для решения различных задач заказчиков. Продуктовая линейка включает: РСК микроЦОД (от 16 до 64 узлов), РСК миниЦОД (от 64 до 256 узлов) и РСК ЦОД (более 2-х стоек с высокой плотностью до десятков PFLOPS).

Среди уникальных характеристик архитектуры «РСК Торнадо» и решений на ее основе следует отметить следующие:

•  До 128 х86-серверов в стандартной 42U стойке 80х80х200 см;

•  Высокоплотный дизайн blade-серверов на основе стандартных и массово доступных серверных плат;

• Рекордная энергоэффективность — показатель эффективности использования электроэнергии PUE (Power Usage Effectiveness) достигает  рекордного для HPC-индустрии значения 1,06  (соотношение «энергопотребление всей системы/энергопотребление электронных компонент»). То есть не более 5,7% энергопотребления расходуется на охлаждение всей системы;

• Рекордный коэффициент вычислительной эффективности достигает 96% на тесте LINPACK для новых процессоров Intel  Xeon E5-2690 (технология Intel Turbo Boost работает все время, что обеспечивает прирост тактовой частоты до 400 МГц при работе с тестом LINPACK);

•  Отвод более 100 кВт электроэнергии от стойки с помощью уникальной системы жидкостного охлаждения РСК;

• Возможность использования самых высокопроизводительных моделей серверных процессоров Intel с тепловыделением 135 Вт. Например, процессора Intel Xeon E5-2690 (2,9 ГГц, 8 ядер) и новейшего высокопроизводительного сопроцессора Intel Xeon Phi;

•  Высокая пиковая вычислительная мощность более 47 TFLOPS в одной стойке на базе архитектуры Intel x86 с набором инструкций Intel AVX и более 200 TFLOPS с использованием сопроцессоров Intel Xeon Phi;

•  Высокая плотность — 74 TFLOPS на кв. м. (только на базе процессоров Intel Xeon) и 312 TFLOPS на кв. м. (с сопроцессорами Intel Xeon Phi);

•  Высокая масштабируемость – до уровня нескольких PFLOPS (десятки стоек);

•  Экономическая эффективность – сокращение эксплуатационных расходов до 60% (экономия затрат на электроэнергию в руб. благодаря эксплуатации решения РСК);

• Компактность – сокращение площади ЦОД в несколько раз по сравнению с традиционными решениями на основе воздушного охлаждения;

•   Возможность использования ускорителей и сопроцессоров (например, Intel Xeon Phi).

•  Полный интегрированный стек программного обеспечения «РСК БазИС», оптимизированного для высокопроизводительных вычислений.

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.