Сделай сам: стенд с решениями для виртуализации — введение


Привет, меня зовут Артём Проничкин. С самого начала я участвую в этом блоге в качестве редактора, а на прошедшей неделе работал с Алексом и его коллегами над стендом для демонстрации Hyper-V и SCVMM. Этой статьёй я открываю цикл заметок, в которых обобщу сделанные нами выводы и полученный опыт. Во вводной статье я затрону самые общие соображения и расскажу историю нашего собственного стенда. А дальше перейду к конкретным описаниям настройки тех или иных компонентов. Прошу обратить внимание, что описываемые здесь сценарии хорошо подходят для демонстраций и тестов, но совершенно не поддерживаются в промышленной эксплуатации. Поэтому если вас интересует выбор оборудования для сборки системы, готовой к настоящей работе, — обратитесь к официальной документации и Windows Server Catalog.


В простейшем случае вам понадобятся две машины, которые будут узлами кластера Hyper-V, и общее хранилище для них. Поскольку вы вряд ли найдёте дешёвое аппаратное общее хранилище (если найдёте — напишите мне об этом), рекомендую воспользоваться программной реализацией iSCSI. Это потребует от вас третьей машины, которую по совместительству можно сделать контроллером домена, установить на неё System Center Virtual Machine Manager и VMware VirtualCenter (при необходимости). Понятное дело, что если позволят ресурсы, то все эти приложения лучше разнести по разным виртуальным машинам, но в принципе это необязательно. Также, если вы последуете моей рекомендации и установите узлы кластера в варианте Server Core, то на эту третью машину можно будет установить инструменты удалённого управления Hyper-V и Failover Cluster — для удобства работы через графический интерфейс. Ещё можно добавить одну-две машины с Virtual Server — им SCVMM тоже может управлять. Понятно также, что если вам потребуется демонстрировать интероперабельность с VMware, вам потребуется одна (а лучше две) машины, на которые вы установите VMware ESX Server.


Задачей нашего стенда было продемонстрировать работу SCVMM 2008 с кластерами Hyper-V, а также возможность управления VMware Virtual Infrastructure 3. Таким образом, первоначально мы хотели ограничиться пятью ноутбуками Lenovo ThinkPad T61p. Они хороши тем, что отвечают всем системным требованиям Hyper-V: поддерживают Intel VT, Execute Disable bit, а также существенный объём оперативной памяти — на наших системах было по 4 Gb. Однако позже выяснилось, что на этом оборудовании не работают системы VMware. Поэтому нам пришлось экспроприировать в лабораторном классе два десктопа HP Workstation xw6200. Они не подходят для Hyper-V, так как не поддерживают технологию Intel VT. Однако, на них прекрасно установились и заработали как VMware ESX Server 3.5, так и ESX Server 3i. Освободившиеся ноутбуки мы использовали для того, чтобы выделить отдельную машину для iSCSI Target — понятно, что это увеличивает производительность.


В конечном итоге наш стенд состоял из шести машин, объединённых в общую сеть. (Стрелки на диаграмме показывают логическое взаимодействие, а не физические подключения).


 



 


Ещё пара слов о производительности. В нашем распоряжении оказался только один коммутатор, работающий на скорости всего 100 mb/s. В результате мы получили одну из худших конфигураций из вообще возможных. Мало того, что использовалась программная реализация iSCSI вместо аппаратной (не говоря уже о Fibre Channel) — так ещё и работала она на скорости 100 mb/s в одной сети с трафиком виртуальных машин и управления. Кроме того, на ноутбуках было установлено по единственному жёсткому диску со скоростью 4200 оборотов в минуту. И на сервере iSCSI Target этот диск использовали два кластера сразу — Hyper-V и ESX Server. Но даже в таком запущеном случае машина с объёмом оперативной памяти 1 Gb перемещалась между узлами кластера Hyper-V примерно за 30-40 секунд.


Продолжение темы (список будет пополняться по мере добавления новых статей).


Comments (9)

  1. Anonymous says:

    Иконки собирал в фотошопе, затем соединял в визио. Подробнее, если интересно, — в моём личном блоге (http://pronichkin.com/Lists/Posts/Post.aspx?ID=56).

    Раз понравилось — думаю, что эту практику надо продолжать.

  2. Anonymous says:

    Star Wind у меня работает на Win 2k8 x64 – причем в своей 32-битной реинкарнации.

    SCVMM – жду! :)

  3. Anonymous says:

    Триальный iSCSI есть в WUDSS 2003. Сторонние (и микрософтовские) таргеты, написанные под 2003 не станут работать под 2008. Мы в своей лаборатории хотели принципиально делать на 2008, хотя это ни на что и не влияет.

    SCVMM, как я уже сказал сейчас во внутреннем тестировании, с очень жестким NDA. Поэтому про него ничего особенно и нет в сети. Скоро будет Microsoft Management Summit, его там объявят и мы выложим набор готовых статей.

  4. Anonymous says:

    Мы уже установили и настроили необходимое количество серверов, которые будут служить узлами будущего кластера. Осталось добавить к ним последний компонент, который объединит их единую систему и позволит, собственно, настроить клужбу кластеризации. Сегодня

  5. Anonymous says:

    Привет, это снова Артём. Продолжаем разговор о том, как собрать собственный стенд для демонстрации и тестирования решений виртуализации. История вопроса — в предыдущей статье «Сделай сам: стенд с решениями для виртуализации — введение». Если вас интересуют

  6. Anonymous says:

    Итак, я записал диск с предварительной версией Hyper-V Server, вставил его в свой домашний сервер и установил на один из разделов. Сразу сделал два открытия. Приятное: Hyperv-V Server, как и WUDSS, основан на Server Core. А значит — меньше патчей, больше

  7. Anton.Silenin says:

    Привет!

    Респект за серию статей! Что ни статья – в мемориз :)

    Про iSCSI – есть триальное софтовое решение – 30days trial StarWind. Для тестовой площадки вполне подходит…

    Буквально накануне хотел подтянуть к управлению виртуальными серверами на Hyper-V – SCVMM. В распоряжении была 2007 триальная версия. Она поддерживает только Virtual Server 2005 R2 SP1 64x (в top-е). Очень расстроился – на Launch-е 8-ой линейки так расхваливали SCVMM, как нужно его использовать для обслуживания виртуальной фермы… А в результате такой косяк.

    Спасибо за новость, что появится 2008 версия продукта – правда новостей как-то на эту тему не очень много…

    ЗЫ: в чем собран такой замечательный рисунок?

  8. Anton.Silenin says:

    Нашел про релиз SCVMM 2008 только это:

    http://blogs.technet.com/rakeshm/archive/2007/12/18/scvmm-and-the-hyper-v-beta.aspx

  9. ak2000 says:

    если говорить о 2003 сервер, то есть MySAN от Nimbus, бесплатное без ограничений, хотя немного послабее по гибристи настройки, чем Star Wind