Rambler's Top100
Реклама
 
Статьи ИКС № 06 2012
Евгения ВОЛЫНКИНА  19 июня 2012

Виртуализация: низко висящие яблоки сорваны. Что дальше?

Еще три года назад виртуализация была первой в «горячей десятке» самых перспективных технологий, которую регулярно составляет компания Gartner. Сейчас ее в этом списке просто нет. Но это вовсе не означает, что виртуализация стала не нужна, – именно на ее фундаменте строятся современные корпоративные информационные системы.

Многие компании уже сделали с помощью виртуализации х86-серверов самые очевидные и легко реализуемые вещи, за счет этого резко сократив свои потребности в «железе»; кто-то еще только приступает к таким проектам. Однако и тем и другим сейчас нужно смотреть дальше, чтобы максимально эффективно использовать и проверенные временем, и новые возможности этой технологии. Все это надо учитывать и производителям средств для виртуализации. Энтузиасты уже давно установили их гипервизоры, получили определенный опыт работы с виртуализованной инфраструктурой, и потому их новые запросы вполне конкретны, они знают, чего хотят. Но энтузиасты составляют лишь малую часть потенциальных потребителей, так что вендорам от виртуализации нужно постараться привлечь остальных пользователей.

Hyper-V vs vSphere

Основные игроки на этом рынке – компании Microsoft и VMware – уже не первый год радуют пользователей результатами своей ожесточенной конкурентной борьбы. Причем конкуренция идет по всем направлениям: технологии, цены, лицензионная политика. Многие эксперты признают, что по базовым функциям представленные на рынке гипервизоры фактически сравнялись и борьба перешла в плоскость наращивания возможностей масштабирования, производительности, безопасности, отказоустойчивости и т.д.

В 2011 г. Microsoft выпустила пакет обновлений для своей серверной операционной системы Windows Server 2008 R2 SP1, где основные изменения касаются именно подсистемы виртуализации. В частности, в гипервизоре Hyper-V появилась технология динамического перераспределения памяти между виртуальными машинами Dynamic Memory, которая выделяет виртуальным машинам оперативную память в соответствии с их потребностями в конкретный момент времени, с учетом нагрузки и приоритетов исполняемых на них приложений, что позволяет более эффективно использовать физическую оперативную память на серверах. Причем Microsoft настолько уверена в надежности этой технологии, что рекомендует использовать ее в критически важных для бизнеса приложениях. Правда, более важным нововведением в Windows Server 2008 R2 SP1 считается технология RemoteFX, позволяющая обрабатывать трехмерную графику в виртуальных машинах VDI на физических видеокартах, установленных на сервере виртуализации. Таким образом технология VDI, ранее использовавшаяся только для простых офисных приложений, теперь поддерживает сложную графику, в том числе CAD/CAM-пакеты.

Судя по недавно вышедшей бета-версии, пользователей будущей ОС Windows Server 8, в состав которой вошла новая версия гипервизора Hyper-V 3.0, тоже ожидают много-обещающие «виртуальные» возможности: уже сейчас бета-версия поддерживает до 160 логических процессоров на один физический узел, до 32 виртуальных процессоров и до 512 Гбайт ОЗУ на виртуальную машину. А в самом гипервизоре Hyper-V 3.0 появились технология миграции хранилища виртуальной машины без прерывания ее работы Storage Live Migration, возможность переноса виртуальных машин между двумя связанными по сети серверами, не имеющими общего хранилища, и технология Hyper-V Replica, которая позволяет реплицировать данные между хранилищами различных производителей и строить отказо- и катастрофоустойчивые конфигурации. По мнению Василия Маланина (Microsoft), последняя технология спровоцирует мощный всплеск интереса к построению резервных ЦОДов, поскольку это станет доступно практически всем.

Компания VMware в 2011 г. выпустила новую версию свой платформы виртуализации vSphere 5, также сделав упор на повышение масштабируемости и доступности, причем, по заявлению разработчика, масштабируемость доведена до уровня таких «тяжелых» приложений, как базы данных, рассчитанные на 2 млрд транзакций в день, а повышение доступности обеспечивается для любых приложений, не требуя их модификации. Далее в списке нововведений идут те же 160 логических процессоров на один физический узел и 32 виртуальных процессора на виртуальную машину, но максимальный объем ОЗУ в расчете на одну виртуальную машину составляет уже 1 Тбайт. В vSphere 5 также включена технология Fault Tolerance для катастрофоустойчивых систем, обеспечивающая непрерывное зеркалирование виртуальной машины между физическими серверами, что позволяет избежать перезагрузки виртуальных машин при сбое физического сервера, на котором они работают (правда, пока поддерживаются только однопроцессорные виртуальные машины). Вообще в Интернете можно найти большие таблицы, в которых vSphere 5 и Windows Server 8 сравниваются по множеству параметров. Где-то соперника обходит Microsoft, где-то – VMware, но явного преимущества нет ни у кого: в принципе производительность и надежность обеих систем виртуализации сейчас отвечает стоящим перед ними задачам.

Катастрофоустойчивость – в массы

Кстати, вышеупомянутая перспективная тема катастрофоустойчивости виртуализованных ЦОДов для реального воплощения должна быть поддержана и производителями СХД. Как отметил Антон Жбанков (компания ЕМС, EMEA East), для создания такого дата-центра нужно построить так называемый «растянутый кластер» и виртуализовать и сетевую инфраструктуру, и СХД (необходимо обеспечить зеркалирование систем хранения данных, находящихся в разных ЦОДах, создав тем самым виртуальную СХД, работающую в режиме active–active). Виртуализация систем хранения сейчас используется не только для прозрачной миграции нагрузки между ЦОДами (так называемые метрокластеры), но и для сокрытия множества разнородных СХД разных производителей за единой точкой входа. Последний подход минимизирует усилия по администрированию всего того «зоопарка», что иногда образуется, например, в процессе слияния нескольких компаний в холдинг (пример подобного продукта – EMC VPLEX).

Свой вклад в отказоустойчивость (правда, только для систем на базе будущей ОС Windows Server 8 с гипервизором Hyper-V 3.0) готова внести компания LSI, анонсировавшая недавно технологию MegaRAID HA. По словам Александра Зейникова из LSI, реализованная в ней идея достаточно стара, но свое воплощение она получила только сейчас. Два сервера с контроллерами MegaRAID HA подключаются через SAS-интерфейс к общим дискам, например, к внешнему JBOD. Благодаря специальному ПО контроллеры работают в режиме синхронизации кэша по SAS-интерфейсу, что позволяет задействовать преимущества кэширования записи одновременно с реализацией отказоустойчивости. Таким образом, для создания отказоустойчивых систем не надо приобретать дорогие внешние системы хранения данных, достаточно будет внешней дисковой полки JBOD. Это решение также позволит производителям серверов выпускать решения типа «кластер в коробке». В этом случае два физических сервера, собранных в одном конструктиве, будут иметь доступ к общим дискам через контроллеры MegaRAID HA.

Интеграция и управление

Еще одна интересная тенденция в современном мире виртуализации, как отмечает Александр Светлаков (HP Россия), – это переход к поставкам интегрированных программно-аппаратных комплексов для виртуализации серверов или ПК. Основные преимущества таких решений – простота выбора оборудования для заказа и быстрый ввод в эксплуатацию. В частности, HP в 2011 г. выпустила на рынок комплексы VirtualSystem, состоящие из серверов, систем хранения данных, сетевых устройств, гипервизоров и ПО управления, для быстрого внедрения виртуализационных решений самого разного масштаба – от десятков до тысяч виртуальных серверов и ПК. При этом компания силами своей сервисной службы обеспечивает единую техническую поддержку как всех аппаратных компонентов, так и средств виртуализации.

Многие участники этого рынка считают, что новый виток конкурентной борьбы будет закручиваться вокруг продуктов для управления виртуализацией и расширения их функциональных возможностей. Как заметил В. Маланин, в период взрывного роста виртуализации эта тема была на втором плане, но сейчас она становится очень актуальной, и именно на ликвидацию образовавшегося разрыва направлена готовящаяся к выпуску система управления виртуализацией и облачными средами Microsoft System Center 2012. Продукты для управления виртуальными средами, интегрированные с платформой виртуализации, имеет в своем арсенале и VMware (vCenter Configuration Manager и vCenter Operations).

Поставщики «железа» тоже стараются встраивать собственные системы управления в свои решения. Например, HP предлагает программные средства Insight Control для интеграции с консолями управления Microsoft и VMware, обеспечивающие унифицированное управление физическими серверами и СХД и значительно повышающие «живучесть» виртуальных машин за счет автоматического выявления проблем с оборудованием (вентиляторы, блоки питания, жесткие диски) и миграции нагрузки на «здоровые» системы.

Свой подход к автоматизации и управлению у компании Parallels, где полагают, что хостерам, имеющим несколько дата-центров, сотни стоек, тысячи серверов, десятки и сотни тысяч клиентов, без автоматизации не обойтись. Системному администратору, который обслуживает сотни физических серверов, лишняя сложность ни к чему; кроме того, платформа для автоматизации должна быть понятной обычному пользователю, приобретающему сервер в облаке. Отсюда и тенденция к простоте использования управляющего ПО. «Виртуальный сервер должен быть сконфигурирован за минимальное количество времени. И пользователя не должно волновать, как сложно всё устроено «под капотом», ему нужны простые «рычаги». С учетом этих требований и разработано решение Parallels Automation for Cloud Infrastructure», – считает Виталий Обернихин из Parallels.

Не только для больших

С упрощением систем виртуализации и управляющего ПО для них тесно связано продвижение средств виртуализации на довольно широкий рынок малого и среднего бизнеса. Правда, создается впечатление, что далеко не все вендоры занимаются этим сегментом, ведь функции, которые разработчики ПО для виртуализации добавляют в свои новые продукты, ориентированы прежде всего на крупные компании, требующие максимального уровня производительности, отказоустойчивости и управляемости. Поэтому, как отмечает А. Светлаков, стоимость лицензий на такое ПО high-end выросла за последние годы на 30–50%. «Понятно, что компаниям SMB-сектора такие решения не подходят и они используют только базовые возможности гипервизоров, обычно ограничиваясь бесплатными версиями. Тем не менее сейчас лицензии гипервизоров начального уровня обеспечивают некоторые функции, ранее доступные только в топовых версиях, например живую миграцию виртуальных машин», – добавляет он.

Microsoft считает, что функций ее бесплатного гипервизора Hyper-V и серверной ОС Windows вполне достаточно для небольших компаний. Например, они позволяют даже построить отказоустойчивый кластер, на котором при выходе узлов из строя будет происходить перезапуск виртуальных машин. В бесплатной версии гипервизора можно также выполнять динамическую миграцию виртуальных машин между узлами, и многие небольшие компании этим пользуются, отмечает В. Маланин.

Но некоторые производители все же предпринимают специальные усилия для привлечения компаний SMB-сектора: урезают функционал своих продуктов, предлагают специальный тип лицензий и более привлекательные цены. Ну а по мере появления новых функций расширяется и функционал решений для малого бизнеса. Например, компания Veeam Software специально для SMB предлагает недорогое решение Veeam Essentials для управления виртуальной средой VMware, которое по функционалу ничем не отличается от аналогичного решения Veeam Essentials Plus корпоративного класса, но имеет определенные ограничения (не более трех лицензий на шесть процессоров), которые в принципе никак не ограничивают небольшие компании – им, как правило, больше и не надо. Специальное решение для виртуализации десктопов VDI-in-a-Box, ориентированное на малый бизнес, имеется у компании Citrix Systems. Основное отличие такого решения – отсутствие строгих требований к аппаратным ресурсам и инфраструктуре. Снятие этих барьеров – действительно серьезный шаг вперед по сравнению с классическими решениями для виртуализации десктопов, которые требуют выделенных однотипных серверов (лучше блейд-серверов), СХД, интеграции со службой каталога Active Directory, настройки сетевого оборудования и многого другого, считает Сергей Халяпин (Citrix Systems).

Правда, спрос на виртуализацию в секторе SMB, по мнению некоторых экспертов, «неквалифицированный». Иными словами, небольшие компании хотят внедрять у себя технологии виртуализации, но не всегда знают, как это правильно делать. В частности, построив у себя виртуальную среду, малый бизнес часто останавливается на полдороге и не предпринимает даже базовых шагов для обеспечения ее безопасности, сетует Михаил Савушкин из Symantec. А продукты для этого есть. Например, у той же Symantec имеется решение для комплексной защиты рабочих станций Symantec Endpoint Protection 12 (SEP12), которое в разных своих модификациях обеспечивает защиту виртуальных инфраструктур и небольших, и крупных компаний. Разработчик также подчеркивает, что в SEP12 применяется технология оптимизации, которая сводит к минимуму нагрузку на виртуализованные системы от работы антивирусного сканера.

Критичность и производительность

После проведения, если можно так выразиться, «первичной» виртуализации серверов, на которых работают не очень чувствительные к простоям приложения, в компании наступает этап раздумий о дальнейших шагах. Это, в частности, виртуализация систем, обеспечивающих работу критически важных для бизнеса приложений. Согласно исследованию, проведенному компанией Symantec в 2011 г., более трети крупных предприятий в течение 2012 г. планируют виртуализовать свои критически важные бизнес-приложения, такие как транзакционные базы данных, электронная почта и ERP-системы. Той опаски по отношению к виртуальным системам, которая наблюдалась на российском рынке еще пару лет назад, больше нет; зато есть немало компаний, которые уже перевели на виртуальные рельсы даже системы биллинга. Тем не менее даже поставщики платформ и продуктов для виртуализации, несмотря на свою «материальную заинтересованность», призывают проявлять здоровый прагматизм.

Если речь идет о критически важных, но не требовательных к производительности приложениях, то частично они могут быть виртуализованы средствами серверов архитектуры x86. Если же это приложения, требующие высокой производительности и работы в режиме 24×7, то можно говорить только о виртуализации на платформе RISC/Unix, считают в Oracle. RISC-системы отличаются высокой надежностью, малыми потерями производительности при виртуализации и тесной интеграцией с приложениями, что и позволяет поддерживать наиболее критичные для бизнеса задачи. В качестве примера можно назвать анонсированный осенью 2011 г. высокопроизводительный программно-аппаратный комплекс SPARC Supercluster T4-4, который позволяет консолидировать различные многоуровневые приложения на единой платформе SPARC/Solaris и одновременно использовать возможности ускорения баз данных, доступные в оптимизированном программно-аппаратном комплексе Oracle Exadata Database Machine.

Конечно, SPARC Supercluster T4 по карману далеко не каждой компании, но в любом случае, чем более функционально насыщено решение для виртуализации (а это неизбежно при работе с бизнес-критичными приложениями), тем более дорогим оно будет. придется заплатить не только за лицензии на процессоры и ПО виртуализации, но и за дублирование (резервирование) инфраструктуры, лицензии сопутствующих продуктов, консалтинг, работы по внедрению и сопровождению. Технологически здесь всё реализуемо, а вот будет ли оно экономически оправданным – это вопрос, на который ИТ-службу попросят ответить коллеги, выделяющие деньги на проект, предупреждает С. Халяпин.

Кстати, в связи с необходимостью обеспечить отказоустойчивость систем, на которых работают критически важные приложения, есть вопросы и к тем, кто эти приложения разрабатывает. Движение к отказоустойчивости должно идти фактически с трех сторон: резервирование аппаратной инфраструктуры, поддержка отказоустойчивости на уровне платформы виртуализации и на уровне самих приложений. Архитектура последних должна предусматривать возможность выхода из строя определенных компонентов оборудования. Кроме того, они должны поддерживать горизонтальное масштабирование системы, т. е. динамично «растягиваться» на большие кластеры серверов и «сжиматься» при снижении нагрузки. Разработчики платформ виртуализации также считают, что создатели приложений должны включать в них механизмы мониторинга, чтобы приложение можно было без больших проблем включить в общую систему мониторинга корпоративной информационной системы.

Самодеятельность и коммодитизация

Ну а что же пользователи – те, из-за кого ломают копья отделы маркетинга производителей продуктов для виртуализации? Уже давно вендоры говорят о том, что заказчики не боятся самостоятельно внедрять серверную виртуализацию или как минимум тестировать ее в ограниченных средах, благо что бесплатный гипервизор для экспериментов и полноценной эксплуатации можно получить вместе с серверной версией ОС либо скачать с сайта производителя. Готовы ли те из них, кто успешно попробовал или уже внедрил дающие быстрый эффект решения для серверной виртуализации, двигаться дальше?

По мнению игроков этого рынка, общий уровень подготовки корпоративных пользователей за последние пару лет несомненно вырос, но их движение к всеобщей виртуализации зависит от целого ряда обстоятельств. Вполне логично предположить, что для относительно небольшой компании, заметно сократившей благодаря виртуализации парк своих серверов, следующим шагом на пути к дальнейшей виртуализации будет обращение к провайдеру облачных сервисов. Для тех, кто по тем или иным причинам предпочитает остаться на своей территории, вариантов два – продолжать самостоятельные изыскания в области виртуализации или обращаться к системным интеграторам. Как считает Александр Акишин (Fujitsu в России и СНГ), практически все крупные компании, имеющие серьезный штат ИТ-специалистов, способны сейчас самостоятельно внедрять технологии виртуализации, но не все это делают по той простой причине, что ИТ-подразделение не хочет брать на себя риски перед бизнесом. Для этого есть системные интеграторы: контракт заключен, требования оговорены, и в случае несоответствия результата этим требованиям спрос будет со сторонней компании-интегратора, а конкуренция на рынке системной интеграции сейчас хорошая. Даже если система виртуализации, установленная и настроенная собственными силами, работает отлично и удовлетворяет всем требованиям бизнеса, то все будет замечательно ровно до тех пор, пока человек, выполнивший всю эту работу, не уволится, унеся с собой всё глубинное знание о виртуализованной системе. А вот интегратор, работающий по контракту, должен будет предоставить заказчику подробную документацию по проделанной работе. Кирилл Терешенко (IBM в России и СНГ) обращает внимание и на то, что сам переход к виртуализации, несмотря на последующее упрощение ИТ-инфраструктуры, требует больших знаний и опыта в этой области, тем более что виртуализация – это не только серверы, но и системы хранения данных, приложения и сети. Из чего следует вывод, что компаниям с немногочисленным ИТ-департаментом, как правило, выгоднее привлечь к выполнению работ надежного интегратора или обратиться напрямую к вендору.

Там, за горизонтом

Конечно, сложно представить себе компанию, которая доверит серьезный проект по трансформации своей ИТ-инфраструктуры паре собственных сисадминов с незаконченным высшим образованием, но поставщики ПО для виртуализации постоянно работают над упрощением своих продуктов (коммодитизация добралась и сюда). Цель их состоит конечно же не в том, чтобы разобраться с виртуализацией могла и простая домохозяйка, а чтобы даже большим специалистам было проще и удобнее работать (хотя среди них еще встречаются горячие приверженцы интерфейса командной строки). По мнению К. Терешенко, интерфейсам ПО виртуализации все еще не хватает простоты, часто они слишком перегружены, а документация написана таким образом, что на ее изучение могут уйти месяцы. В общем, будущее – за простыми и наглядными интерфейсами управления.

Все вендоры продуктов для виртуализации сейчас работают над улучшением масштабируемости своих решений, повышением их надежности, а также над улучшением автоматизации и интеграции компонентов средств управления виртуализацией. Пока они часто ограничены виртуальной инфраструктурой, а для отдельных компонентов, таких как серверы, СХД и приложения, компании вынуждены использовать иные средства, что только увеличивает сложность корпоративных ИТ-систем. По мнению специалистов, интеграция всех функций управления в единой системе могла бы решить многие проблемы, что и старается, в частности, продемонстрировать компания Oracle, предлагая единое ПО управления Oracle Enterprise Manager и интегрируя свою платформу виртуализации Oracle VM с приложениями.

Но, вообще говоря, за дело совершенствования средств виртуализации при наличии на рынке таких конкурентов, как Microsoft и VMware, можно не беспокоиться. Практика показывает: как только что-то интересное и полезное появляется в одном гипервизоре, оно – причем скорее рано, чем поздно – появится и у конкурента, так что через пару лет составленные энтузиастами длинные сравнительные таблицы характеристик их изделий сильно укоротятся или вовсе потеряют смысл.

  

Виртуализация сегодня уже перешла в разряд базовых технологий и стала обыденным явлением. Все процессоры теперь поддерживают технологии аппаратной виртуализации, гипервизоры встраиваются в операционные системы, поддержка возможности работы в виртуальных средах есть уже в антивирусах, в антиспам-программах, программах архивирования и т.д. Все идет к тому, что скоро использование виртуализации станет настолько естественным и массовым, что ее присутствие вообще перестанут замечать. А жаль.

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!