Rambler's Top100
Статьи ИКС № 07-08 2011
Надежда ПРИВЕЗЕНЦЕВА  26 июля 2011

Виртуализация: курс на синергию технологий

В ходе эксплуатации дата-центры быстро достигают пределов своих физических возможностей. Выход – оптимизация ИТ-инфраструктуры ЦОДа путем консолидации и виртуализации.

К концу 2013 г. 50% крупных ЦОДов по всему миру будут испытывать дефицит площадей, питания и охлаждения, предрекает Gartner. Параллельно увеличивается и стоимость содержания разрастающихся систем.

В существующих дата-центрах виртуализация, как правило, начинается с вычислительной инфраструктуры. Но этот процесс требует соблюдения ряда условий и правил.

Эволюция гипервизоров

Начнем с того, что в полной мере воспользоваться преимуществами виртуализации могут лишь обладатели последних поколений серверов. Архитектура процессоров х86 изначально не была рассчитана на виртуализацию, и гипервизорам приходилось вмешиваться в вычислительный процесс, что негативно влияло на производительность виртуальных машин (ВМ). Так, некоторые команды, выполняемые обычными операционными системами, не были разрешены к исполнению внутри ВМ. Чтобы решить эту проблему, гипервизоры «перехватывали» команды гостевой ОС и модифицировали их в разрешенные. Первой компанией, запатентовавшей технологии программной виртуализации, была VMware, а описанный механизм использовался в решении VMware ESX до момента выхода 4-й версии.

С 2006 г. компании AMD и Intel выпускают процессоры x86 усовершенствованной архитектуры – с аппаратной поддержкой виртуализации (технологии AMD-V и Intel VT), в результате чего гостевые системы могут получать прямой доступ к процессорным ресурсам. Аппаратная поддержка освобождает гипервизор от выполнения ряда ресурсоемких задач, благодаря чему виртуализация сделалась более экономичной в плане потребляемых ресурсов. Кроме того, улучшилась изоляция ВМ.

Современные версии гипервизоров ориентированы именно на поддержку виртуализации на уровне процессора. Например, VMware использует возможности аппаратной виртуализации начиная с версии vSphere 4, да и гипервизоры других основных производителей в обязательном порядке требуют наличия в серверах процессоров и BIOS с поддержкой технологии AMD-V или Intel-VT. «Без этих технологий гипервизоры Red Hat KVM и XenServer не работают вообще; применяя Hyper-V, не удастся использовать виртуальные машины Linux, – комментирует Валерий Рыбин из компании «Открытые технологии». 

Дальнейшее развитие технологий аппаратной поддержки виртуализации направлено на сокращение потребления ресурсов при доступе к памяти и контроллерам ввода-вывода. Речь идет о таких технологиях, как Intel VT-d и AMD-Vi (виртуализация операций ввода-вывода), Intel VT-c (виртуализация сетевых адаптеров), Intel EPT и AMD RVI (расширение функций управления памятью виртуальных машин) и т.п. Производители гипервизоров стремятся обеспечить поддержку этих технологий в своих продуктах; к примеру, поддержка аппаратных технологий EPT/RVI и VT-d/AMD-Vi есть в большинстве продуктов с гипервизорной виртуализацией.

Вместе с тем процесс «налаживания отношений» между гипервизорами и технологиями аппаратной виртуализации еще не завершен, считает Петр Марков (Fujitsu). В качестве примера он приводит поддержку технологии Intel VT-c и связанную с ней функцию VMDq (технология позволяет обрабатывать параллельные очереди пакетов, перенаправлять их в нужную ВМ на уровне чипсета): для Hyper-V поддержка этого функционала появилась только в 16-й версии драйверов, которая была выпущена в этом году.

Современные гипервизоры: возможны варианты

Как известно, существуют гипервизоры двух типов. Гипервизор первого типа устанавливается непосредственно на аппаратный комплекс, не имеющий ОС (примеры – VMware ESX, Microsoft Hyper-V, Citrix XenServer). Гипервизор второго типа устанавливается в хостовую ОС и работает поверх нее (это, например, VMware Server, Parallels Virtuozzo Containers, а также решения для виртуализации ПК – Microsoft Windows Virtual PC, VMware Workstation и др.). Обе технологии имеют свои плюсы и минусы.

В числе преимуществ гипервизора первого типа Сергей Халяпин (Citrix Systems) называет более высокую производительность системы и полную изоляцию машин друг от друга. Но за это приходится платить, например, ограниченной совместимостью с аппаратным обеспечением (Hardware Compatibility List). Гипервизор второго типа можно поставить на любой компьютер, где есть хостовая ОС. Установка его гораздо проще, но платой за это будет снижение быстродействия и зависимость от проблем хостовой ОС. «Гипервизор первого типа – для систем, требующих производительности, безопасности, – резюмирует С. Халяпин, – это вариант промышленного (корпоративного) внедрения. Гипервизоры второго типа – для вспомогательных сред (тестирования, обучения), которые предъявляют невысокие требования к квалификации обслуживающего ИТ-персонала».

Виртуализация на уровне ОС (виртуализация на базе хостовой ОС, в терминологии VMware) больше подходит для поддержки некритичных задач, для сред тестирования и разработки, а также для персонального использования, подтверждает Лионель Кавальер из компании VMware. К недостаткам этой технологии он относит то, что виртуальные машины имеют косвенный доступ к аппаратным ресурсам (с многочисленными уровнями перенаправления), что значительно повышает издержки. Кроме того, нет возможности гарантировать производительность работающих виртуальных машин: например, все входящие и исходящие запросы идут через хостовую ОС, делая ее узким местом (подверженным сбоям). Все факторы, влияющие на стабильность хостовой операционной системы, будут влиять и на виртуализованный слой, а значит, на запущенные в нем ВМ.

Программное обеспечение, устанавливаемое непосредственно на аппаратную платформу (на «голое железо»), лучше подходит для эксплуатации в производственных средах для поддержки важнейших приложений и сервисов. В числе плюсов такого решения Л. Кавальер отмечает то, что оно интегрируется, распространяется и поддерживается вместе с серверными системами, дает возможность стандартизовать ПО на множестве серверов разного типа и предоставляет расширенные возможности для организации серверов в пулы. Однако такое решение требует соблюдения определенных условий: необходимы специализированное ПО для управления гипервизором, поддержка независимых поставщиков ПО, а кроме того, применяемый гипервизор «должен доказать свою надежность и стабильность».

Виталий Обернихин (Parallels) полагает, что использование виртуализации на уровне ОС (виртуальных контейнеров) позволяет достичь большей плотности виртуальных сред на одном хосте и их большей производительности. Однако происходит это за счет того, что все виртуальные среды имеют одну ОС – либо Windows, либо Linux. Виртуализация на основе гипервизора, установленного на аппаратный комплекс, позволяет запускать различные ОС на одном хосте, однако необходимо «платить дань» в виде меньшей плотности виртуальных сред и меньшей производительности. «Виртуализацию на уровне ОС имеет смысл использовать везде, где нет необходимости смешивать различные ОС на одном хосте. Кроме того, ОС-виртуализация позволяет гораздо более эффективно использовать имеющееся оборудование, что очень важно, когда вы хотите контролировать расходы на содержание ЦОДа», – констатирует представитель Parallels. Поэтому продукты виртуализации на уровне OC широко используют, например, хостинг-провайдеры.

Но вернемся к гипервизорам первого типа. Как уже было сказано, они могут быть встроены в серверное оборудование, и основные производители серверов выпускают решения с интегрированными гиперви-зорами (хотя Валерий Рыбин считает, что применительно к серверам x86 правильнее употреблять термин «предустановленные»). Они представляют собой флеш-карту либо USB-накопитель, который вставляется в разъем на системной плате сервера. В качестве интегрированных гипервизоров на данный момент используются VMware ESXi, Citrix XenServer и Microsoft Hyper-V. «Интегрированные гипервизоры становятся все более популярными, – говорит Сергей Лисняк из компании «АйТи». – Такой подход позволяет максимально быстро разворачивать виртуальную инфраструктуру, а также сокращать затраты на покупку внутренних дисков для серверов. Производители серверов также «зашивают» в гипервизор дополнительный программный компонент, который позволяет вести постоянный мониторинг физических компонентов сервера».

«Поскольку гипервизор, по сути, является неизменяемой единицей с минимальными настройками, то вполне логично выглядит решение интегрировать его с предлагаемым серверным оборудованием, – подтверждает Владимир Мешалкин (АМТ-ГРУП). – Но в больших корпоративных инфраструктурах со множеством хостов и централизованной системой управления более целесообразной видится загрузка из сети хранения (SAN), что позволяет оперативно управлять всем комплексом, включая обновления и добавление дополнительных хостов».

Первые версии интегрированных продуктов работали не всегда стабильно, но сейчас, по мнению Александра Светлакова (НР Россия), все «детские болезни» излечены. «Функциональные возможности интегрированных гипервизоров точно такие же, как у устанавливаемых на жесткие диски, поэтому нет никаких причин не использовать их на производственных системах, – говорит он. – Многие наши заказчики уже больше двух лет используют гипервизоры, загружаемые с флеш-накопителей».

Главным достоинством интегрированных гипервизоров П. Марков считает снижение ТСО: «Диск имеет механическую часть, и это делает высокой вероятность его отказа. Для обеспечения отказоустойчивости требуется минимум два диска и контроллер, который поддерживает функции RAID, а конфигурирование потребует дополнительных знаний и времени».

Что лидер нам готовит?

В отчете Gartner (май 2010 г.) компания VMware с ее платформой виртуализации VMware vSphere названа лидером на рынке виртуализации серверной инфраструктуры на базе x86. Платформа VMware vSphere представляет собой набор продуктов для виртуализации серверов, в который входят гипервизор и инструмент управления VMware vCenter Server. Что касается гипервизора, то на данный момент VMware предлагает два варианта – ESX и ESXi. Основная разница между ними состоит в том, что ESXi представляет собой так называемый тонкий гипервизор размером около 30 Мбайт, который устанавливается непосредственно на сервер. В нем отсутствует встроенная графическая консоль управления vCenter и дополнительные функции. «Благодаря этому, – поясняет С. Лисняк, – почти в 10 раз снижается размер обновлений, скачиваемых с сайта. Все управление производится удаленно, а функционал можно наращивать путем приобретения дополнительных лицензий на те опции, которые необходимы конкретному заказчику».

До последнего времени в VMware vSphere поддерживались оба гипервизора. Однако VMware объявила, что в vSphere 5 останется поддержка только ESXi. В. Рыбин считает такой шаг производителя вполне логичным: «Начиная с 4-й версии VMware vSphere практически полностью готов механизм взаимодействия с гипервизором напрямую, без посредника, которым являлась сервисная консоль. VMware предоставила доступ к API взаимодействия с гипервизором напрямую и дала достаточно времени компаниям-разработчикам, чтобы переписать свое ПО под новую архитектуру». Отказ от сервисной консоли должен уменьшить издержки виртуализации: сейчас сервисная консоль – это фактически виртуальная машина, потребляющая ресурсы. Кроме того, добавляет В. Рыбин, повысится надежность решения: «меньше программного кода – меньше невыявленных ошибок, меньше сложность системы». Сократятся затраты на разработку новых версий ПО и сам цикл разработки.

Ожидается, что VMware предложит и так называемый stateless hypervisor – гипервизор, который не привязан к конкретному серверу и загружается по сети (в режиме PXE). Такой подход Александр Скороходов (Cisco) считает наиболее перспективным: «Как установка гипервизоров на флеш-диск сервера, так и установка на традиционный диск обладают тем недостатком, что привязывают функцию виртуализованного хоста к конкретному экземпляру блейд- или стоечного сервера. Поэтому в ближайшее время мы будем видеть более активное применение схем развертывания гипервизоров без привязки к конкретному серверу, использующих загрузку сервера по LAN или SAN». По мнению представителя Cisco, эта технология обеспечивает более гибкое управление серверными ресурсами и, в частности, позволит более полно задействовать возможности вычислительной платформы Cisco UCS.

Мультивендорная виртуализация

В ходе исследования Virtualization Decisions Pur-chasing Intentions Survey, проведенного порталом TechTarget два года назад, больше половины респондентов сообщили, что предпочли бы избежать смешанных виртуальных сред, но при этом не исключают использования в своей инфраструктуре платформ разных производителей, поскольку сомневаются, что единственная платформа способна в полной мере обеспечить выполнение всех возможных бизнес-задач. Оправдан ли мультивендорный подход при создании виртуализованной инфраструктуры, применяется ли он сегодня?

«Да, мультивендорные виртуализационные среды используются у многих заказчиков, – отвечает А. Светлаков. – Например, виртуализация серверов выполняется на продуктах одного вендора, а виртуализация персональных компьютеров – на продуктах другого. В крупных компаниях нередки ситуации, когда разные филиалы выбирают разные гипервизоры. Кроме того, иногда компания, внедрившая серверную виртуализацию на продуктах одного поставщика, выбирает для новых решений другие продукты, чтобы не попадать в зависимость от конкретного вендора».

«Такие подходы используются нашими заказчиками, – подтверждает С. Халяпин. – Например, для работы XenDesktop или XenApp они выбирают решение XenServer, хотя для прочей нагрузки ранее выбрали другой гипервизор. Обычно продукты одного вендора оптимизированы для совместной работы гораздо лучше, чем для работы на стороннем ПО».

Платформы виртуализации разных вендоров могут различаться по цене, функциональности и производительности. Поэтому мультивендорный подход имеет смысл, если желательно предлагать разнообразные виртуализационные решения, считает В. Обернихин. С другой стороны, поддержка решений нескольких вендоров обычно увеличивает количество проблем: требуются надежное решение для управления разными платформами, беспроблемная миграция между виртуализационными продуктами и т. д. «Есть компании, которые на практике используют различные виртуализационные платформы, – замечает г-н Обернихин, – но, как правило, для непересекающихся категорий пользователей».

«Данный подход характерен скорее для крупных организаций или в случае специфических требований уже реализованных проектов виртуализации. В целом экономически целесообразно использовать единую платформу виртуализации», – считает Андрей Кучинский («Verysell Проекты»). С этим согласен и В. Мешалкин: «Обслуживание однотипной инфраструктуры обходится значительно дешевле». При переводе инфраструктуры в виртуальную среду он советует максимально внимательно подойти к вопросу стандартизации: «Выбор поставщика среды виртуализации – это выбор не просто гипервизора, но и системы управления, обеспечения отказо- и катастрофоустойчивости, резервного копирования, а в перспективе и частного облака компании. Поэтому к первоначальному выбору платформы нужно относиться весьма ответственно. Кроме того, практика показывает, что вслед за первоначальным внедрением и апробацией следует масштабирование, т.е. дополнительные траты. Нецелесообразно создавать дублирующие непрозрачные друг для друга системы».

Средства управления – свои или чужие?

Специалисты часто подчеркивают, что при внедрении виртуализации обязательны средства мониторинга и управления, иначе высок риск получить неконтролируемую среду, способную принести больше проблем, нежели пользы. Производители гипервизоров предлагают «фирменные» инструменты управления и планирования нагрузки в виртуализованной среде – VMware vCenter, Microsoft System Center Virtual Machine Manager (SCVMM), Citrix XenCenter, Citrix Essentials для управления средами на базе Citrix XenServer и Microsoft Hyper-V. Пакет Citrix Essentials для Hyper-V дополняет собственное решение Microsoft; в свою очередь, компания Microsoft в этом году добавила возможность управления инфраструктурой виртуализации Citrix в SCVMM 2012.

Вместе с тем существуют и продукты сторонних производителей для мониторинга и управления виртуальной средой VMware, Hyper-V или Citrix: их предлагают, например, компании SolarWinds, Veeam, IpSwitch и ряд других. Имеет ли смысл пользоваться ими?

«Продукты сторонних производителей можно и нужно использовать, если функционал, например, vCenter недостаточен, – полагает В. Рыбин. – Обычно такая ситуация имеет место в организациях, где помимо виртуализации существуют еще гетерогенные сети LAN и SAN, компьютеры под управлением UNIX и Linux, почтовые серверы, серверы баз данных, ERP и прочие системы. В этих случаях использование единой системы мониторинга позволяет значительно быстрее выявлять сбои в системе и восстанавливать ее работоспособность». Выбор же конкретной системы во многом зависит от требований заказчика.

«Поставщики средств виртуализации часто сильно заняты концепцией, а об удобстве конечных пользователей задумываются во вторую очередь, – замечает П. Марков. – Именно в этот момент на помощь приходят поставщики дополнительного ПО и сообщество независимых программистов».

«Указанные компании разрабатывают нишевые решения, они создают отличные средства управления, но для строго определенных задач, – отмечает А. Светлаков. – Например, продукты Veeam хорошо дополняют VMware vCenter. Проблема для заказчиков в том, что для управления виртуализированной средой им приходится использовать несколько консолей, а это не всегда удобно. Для управления средой виртуализации использование фирменных средств является обязательным. Другие программные продукты, например HP Virtual Machine Management, могут их дополнять, но не заменять».

У компании Citrix есть развитая экосистема, и партнерские продукты расширяют и дополняют возможности фирменных средств управления и мониторинга. Для управления гипервизором XenServer можно воспользоваться, например, продуктами Servarica WHMCS XenServer Module (SWXSM), Solus Virtual Manager (SolusVM), OpenXenManager (аналог Citrix XenCenter с открытым кодом); XVP (web-менеджер ВМ для Citrix XenServer и Xen Cloud Platform). «Существуют также решения, нацеленные на любые гипервизоры, имеющие ядро Xen, – добавляет С. Халяпин, – ситуация с гипервизором Microsoft аналогичная».

Parallels Automation, стандартная платформа автоматизации бизнеса хостинг/сервис-провайдеров, поддерживает, в частности, Hyper-V.

Классики виртуализации к возможности использования управляющего ПО от сторонних производителей относятся скептически. «VMware как никто другой понимает, что происходит на уровне гипервизора, – говорит Л. Кавальер. – Наши решения созданы в соответствии со спецификой слоя виртуализации («прослойки» между аппаратным уровнем и виртуальными машинами), который обеспечивает корректное использование памяти, мобильность виртуальных машин, динамичное перераспределение ресурсов и т. д.».

Как правило, для управления всеми функциями VMware достаточно использования стандартных средств. Но периодически у заказчиков возникает необходимость интегрировать средства управления виртуальной инфраструктурой с основным ПО мониторинга и управления, которое используется в компании. «К примеру, – поясняет С. Лисняк, – ПО управления Veeam ONE Solution хорошо интегрируется с такими системами, как HP Operations или Microsoft System Center. В результате заказчик получает единую систему управления, которая охватывает всю ИТ-инфраструктуру предприятия». Того же мнения и А. Кучинский: «Лучше использовать фирменные средства управления. Только в этом случае гарантируется хороший уровень функциональности и надежности. Но можно говорить о применении инструментов комплексной автоматизации управления ИТ-инфраструктурой, где виртуализация – одна из составляющих».

Корпорация NEC предлагает собственное решение для управления виртуализованной средой. «Для предприятий и операторов связи имеет смысл использовать среду управления виртуализацией, способную работать с максимальным числом популярных гипервизоров, включая Xen, Hyper-V, VMware, –считает Николай Ильин («NEC Нева Коммуникационные Системы»). – Таким образом можно выбирать оптимальную среду под приложения и ОС. Например, система NEC Sigma Server Center поддерживает все вышеназванные среды и способна сама создавать, клонировать и переносить между физическими серверами виртуальные машины, созданные в различных средах виртуализации».

Интеграция технологий

Для управления нагрузкой в виртуализованных средах производители серверных систем и систем хранения обычно предоставляют собственные средства. В сущности, речь идет об интеграции средств управления физическими системами (серверами, системами хранения данных, сетевыми устройствами) с ПО управления виртуальными машинами. «Наверное, самое важное преимущество такой интеграции – это возможность определять предсбойные состояния серверов (оперативной памяти, жестких дисков, процессоров) и переносить виртуальные машины на «здоровые» системы», – полагает А. Светлаков.

С. Лисняк отмечает такие средства управления, как IBM Tivoli Dynamic Workload Broker, Dell Management Console (DMC), Fujitsu Resource Coordinator Virtual Edition (RCVE), HP Systems Insight Manager. Все они позволяют передавать рабочие нагрузки наиболее подходящим ресурсам в зависимости от требований нагрузок, бизнес-политик и доступности ресурсов, а также автоматически обнаруживать ресурсы, добавляемые в виртуальную инфраструктуру. Петр Марков также обращает внимание на программный комплекс Primergy ServerView Suite компании Fujitsu Technology Solutions, который, обладая функцией PDA (Pre-Failure Detection and Analysis), уведомляет центр управления виртуализованной средой о возможности аппаратного сбоя, благодаря чему виртуальные машины можно своевременно переместить на соседние серверы.

Упростить управление нагрузкой в виртуализованной среде призваны и решения виртуализации ввода-вывода и приоритизации трафика от виртуальных машин к системам хранения. Эту задачу со своих позиций решают процессорные технологии, виртуализационное ПО и технологии, предлагаемые производителями серверного и сетевого оборудования. Со стороны производителей процессоров это, например, технологии виртуализации сетевого ввода-вывода Intel VMDq и VMDc, AMD IOMMU и пр. Производители виртуализационных решений обеспечивают функционал виртуальных коммутаторов (так, базовый функционал виртуальных коммутаторов vSphere включает выставление гарантированной полосы пропускания, установку лимита полосы пропускания, настройку доли в потоке трафика при 100%-ной утилизации канала). Поставщики оборудования предлагают такие решения, как распределенный виртуальный программный коммутатор Cisco Nexus 1000V или технология VM-FEX, которая работает на базе виртуализованного сетевого адаптера Cisco VIC и поддерживает коммутацию трафика виртуальных машин на аппаратном уровне; конвергентные сетевые адаптеры и модули HP Virtual Connect FlexFabric, обеспечивающие подключение серверов к сетям как LAN, так и SAN без покупки дополнительных адаптеров Fiber Channel и коммутаторов, и целый ряд технологий других производителей.

Одной из самых интересных технологий в области виртуализации ввода-вывода Роман Ройфман («NetApp Россия и СНГ») считает так называемую one wire, когда через один порт передается как блочный трафик (FCoE, iSCSI), так и файловый (NFS, CIFS). Концепция one wire предполагает, что эта технология является сквозной – от сервера и сетевой среды до системы хранения данных. Реализована она, например, во FlexPod и других «коробочных» решениях для облачных вычислений.

  

Подводить итоги развития технологий виртуализации пока рано. Тем более что производители гипервизоров работают на этом поле не в одиночку, а технологии, предлагаемые поставщиками процессоров, серверного оборудования и программного обеспечения, движутся в сторону все более тесного взаимодействия и даже взаимозависимости. К тому же виртуализация на современном этапе охватывает не только вычислительные ресурсы, но и ресурсы хранения, и сетевые технологии – иначе говоря, ИТ-инфраструктуру в целом, выводя ее на концептуально иной уровень работы. 

Поделиться:
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!