Rambler's Top100
Все новости Новости отрасли
Нина ШТАЛТОВНАЯ 28 ноября 2016

Запомнить все

В параллель с лавинообразно растущим объемом генерируемых нами данных развивается индустрия их хранения, продолжая поиски «идеальной» памяти.

Причем, как показал второй форум профессионалов в области хранения данных ПРОSTOR, организованный компанией «Рэйдикс», изменения происходят во всех сегментах: в архивном хранении, ориентированном на вечные ценности, в интерфейсах и сетях хранения, в сегменте высокоскоростной флеш-памяти, в программно реализуемых решениях.

Григорий Никонов, HGST

В сегменте флеш-памяти сейчас смена поколений: переход от 2D к 3D NAND-памяти, который позволит увеличить объем и быстродействие устройств. Правда, переход этот идет не настолько быстро, как ожидалось. Поэтому, как предсказывает Григорий Никонов, системный инженер компании HGST, наступающий 2017 г. будет годом достаточно серьезного дефицита на рынке NAND. В производство 2D-памяти инвестиций больше не делается, заводы по производству 3D еще не вышли на полную мощность, а спрос на NAND-память со стороны изготовителей смартфонов и планшетов растет, использование SSD в десктопах и ноутбуках расширяется (сегодняшняя доля достигает 30%). В результате как минимум вырастут сроки поставки, а, возможно, и цены. Однако все основные производители NAND-памяти (Toshiba/Sandisk, Samsung, Intel/Micron, SK Hynix) в строительство 3D-заводов уже вложились (суммарный объем этих инвестиций Григорий Никонов оценил примерно в $40 млрд). Кроме того, на рынок вот-вот выйдет новый игрок из Китая, компания XMC, лицензировавшая интеллектуальную собственность у компании Spansion. Она планирует наладить выпуск 3D NAND-памяти в 2018 году. Так что в середине следующего года произойдет перелом: 3D обгонит 2D по объему производства, к концу года предложение превысит спрос и дефицит исчезнет. При этом SSD-диски объемом в 8 Тбайт смогут предлагать практически все вендоры. А вот поддерживаемое количество полных циклов перезаписи диска в день уменьшится с 45 до 25, а то и до 10 циклов – практика показала, что такого ресурса вполне достаточно.

Прогресс на этом ни в коем случае не остановится. Работы над новым поколением энергонезависимой памяти ведутся, и сразу в нескольких направлениях. Инженеры стремятся получить память, по быстродействию приближающуюся к DRAM, но более дешевую и с меньшим энергопотреблением. Технологий-претендентов довольно много. Это может быть память на основе изменения магнитной поляризации, на смене агрегатного состояния, на основе создания проводящей нити и т.д. Какую технологию удастся в итоге коммерциализировать, пока непонятно.

Василий Лизунов, Intel Russia

Наиболее близко к коммерциализации подошла, вероятно, компания Intel. Помимо работы над памятью 3D NAND она уже вышла на уровень тестирования прототипов устройств, созданных по технологии Intel Optane, которая была анонсирована на IDF 2015. Как рассказал Василий Лизунов, менеджер Intel Russia по развитию рынка серверных платформ, Optane – это стек технологий, который включает в себя физический уровень, разработанный совместно с компанией Micron, контроллеры для управления микросхемами памяти, подсистему интерконнекта (реализация протокола NVMe) и управляющее программное обеспечение. На физическом уровне используются новые материалы (какие – не раскрывается) и структура Cross Point, обеспечивающие намного большие скорости переключения ячеек и, следовательно, намного более высокие скорости чтения/записи. Предполагается, что в дальнейшем объем этих устройств может сильно масштабироваться. Устройства типа Optane смогут выдерживать до 30–35 циклов полной перезаписи в день, будут иметь намного меньшую задержку при обращении к данным, чем 3D NAND, более высокие пропускную способность и QoS. Устройства-прототипы на тестах, где в качестве рабочей нагрузки использовалась реальная база данных хэш-ключей RocksDB, показали повышение пропускной способности до трех раз, уменьшение задержки – до 10 раз.

На другом конце шкалы, где борются за надежное хранение астрономических объемов информации в течение десятков лет, происходят свои революции. Например, Facebook решила не удалять контент, размещаемый в сети ее пользователями, а хранить его вечно. Но на чем? Компания Panasonic считает, что решением подобных задач станут оптические диски нового формата архивного хранения Archival Disk, который разработан ею совместно с Sony Electronics, и созданные на их основе масштабируемые роботизированные библиотеки.

Антон Петроченко, Panasonic Russia

Емкость одного диска составляет 300 Гбайт, одного картриджа (12 дисков) – 3,6 Тбайт, а одной стойки библиотеки – 1,9 Пбайт. Archival Disk является развитием формата Blu-ray, но в отличие от него, во-первых, использует обе стороны диска, а во-вторых, не поддерживает перезапись. Возможно, это ограничение будет преодолено в следующих поколениях дисков. Кроме того, второе поколение обещает увеличение емкости до 500 Гбайт, а третье – до 1 Тбайт. При этом декларируется обратная совместимость: благодаря неизменности физической структуры диска на новом оборудовании всегда можно будет получить доступ к данным, записанным на дисках старых форматов. Предполагаемый срок службы Archival Disc составляет 50 лет при температуре окружающей среды 50°C и выше и до 1000 лет при комнатной температуре (цифры получены экстраполяцией результатов тестирования, проводившегося в течение года при различных температурах до 80°С и влажности до 80%).

Сергей Платонов, «Рэйдикс»

По мнению Антона Петроченко, системного инженера по СХД Panasonic Russia, появление Archival Disc даст, наконец, возможность отказаться в «холодном» хранении от использования магнитной ленты – оптика не подвержена деградации носителя даже после миллиона чтений, обеспечивает в разы более быстрый доступ к данным и, проигрывая ленте в начальной стоимости, имеет лучшую совокупную стоимость владения.

Развивающиеся сегодня технологии программной организации СХД обещают снизить стоимость хранения за счет использования «железа» общего назначения, включая устаревшее оборудование. Однако Сергей Платонов, руководитель отдела развития продукта компании «Рэйдикс», предостерег от непродуманных шагов в этом направлении. По его мнению, многократная репликация данных, сложность развертывания и стоимость поддержки могут сделать SDS-проект дороже классического решения, а собрать быструю и надежную СХД из старых серверов все равно не получится, не говоря уже о том, что настройка оборудования для достижения высокой производительности может занять месяцы. При выборе программного подхода нужно по крайней мере предварительно убедиться, что используемое ПО не станет единой точкой отказа, а расчет производительности СХД выполнять для наихудшего сценария. Тогда действительно есть шанс запомнить все.

Инструментария для этого рынок предоставляет предостаточно.

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.