Как сделать кластер vmware

Обновлено: 06.07.2024

В этой статье вы узнаете, как настроить отказоустойчивую кластеризацию в Windows Server в vSAN Решения Azure VMware с собственными общими дисками.

Реализация в этой статье приведена только в качестве подтверждения концепции в демонстрационных целях. Мы рекомендуем использовать конфигурацию Cluster-in-a-Box (CIB), пока не станут доступны политики размещения.

Отказоустойчивый кластер Windows Server, ранее известный как служба Microsoft Service Cluster Service (MSCS), является компонентом операционной системы Windows Server. WSFC является важнейшим для бизнеса компонентом и обязателен для многих приложений. Например, WSFC требуется для следующих конфигураций:

  • SQL Server, настроенный как:
    • Экземпляр отказоустойчивого кластера Always On, например с высоким уровнем доступности.
    • Группа доступности Always On для обеспечения высокого уровня доступности базы данных.
    • Универсальный ресурс общего доступа к файлам, выполняющийся на активном узле кластера.
    • Масштабируемый файловый сервер (SOFS), в котором хранятся файлы в общих томах кластера (CSV).
    • Локальные дисковые пространства (S2D) — локальные диски, используемые для создания пулов носителей на разных узлах кластера.

    Кластер WSFC можно разместить в различных экземплярах Решения Azure VMware, называемых "Cluster-Across-Box" (CAB). Кластер WSFC можно также разместить на одном узле Решения Azure VMware. Эта конфигурация называется "Cluster-in-a-Box" (CIB). Не рекомендуется использовать решение CIB для реализации в рабочей среде. В случае отказа одного узла Решения Azure VMware будут отключены все узлы кластера WSFC, что приведет к простою в работе приложения. Для Решения Azure VMware требуется по меньшей мере три узла в кластере частного облака.

    Важно развернуть поддерживаемую конфигурацию WSFC. Желательно, чтобы ваше решение поддерживалось в vSphere и в Решении Azure VMware. VMware предоставляет подробную документацию по WSFC в vSphere 6.7, Настройка отказоустойчивой кластеризации и службы кластеров Майкрософт.

    Эта статья посвящена WSFC в Windows Server 2016 и Windows Server 2019. К сожалению, прежние версии Windows Server выведены из основной фазы поддержки, поэтому в этой статье они не рассматриваются.

    Сперва потребуется создать WSFC. Используйте сведения, приведенные в этой статье, чтобы настроить развертывание WSFC в Решении Azure VMware.

    Предварительные требования

    • Среда Решения Azure VMware
    • Установочный носитель ОС Microsoft Windows Server

    Эталонная архитектура

    Решение Azure VMware обеспечивает собственную поддержку виртуализованных кластеров WSFC. Поддерживаются постоянные резервирования SCSI-3 (SCSI3PR) на уровне виртуального диска. Эта поддержка необходима кластеру WSFC для арбитража доступа к общему диску между узлами. Поддержка резервирований SCSI3PR позволяет настроить WSFC с ресурсом диска, совместно используемым виртуальными машинами в хранилищах данных vSAN.

    На следующей схеме показана архитектура виртуальных узлов WSFC в частном облаке Решения Azure VMware. Здесь показано, где находится Решение Azure VMware, включая виртуальные серверы WSFC (красный прямоугольник), относительно более широкой платформы Azure. На этой схеме показана типичная архитектура концентратора, но аналогичная конфигурация возможна при использовании Виртуальной глобальной сети Azure. Оба варианта имеют все преимущества остальных служб Azure.

    Поддерживаемые конфигурации

    В настоящее время поддерживаются следующие конфигурации:

    • Microsoft Windows Server 2012 или более поздней версии
    • До пяти узлов отказоустойчивой кластеризации на каждый кластер
    • До четырех адаптеров PVSCSI на виртуальную машину
    • До 64 дисков на адаптер PVSCSI

    Требования к конфигурации виртуальной машины

    Параметры конфигурации узла WSFC

    • Установите последнюю версию VMware Tools на каждом узле WSFC.
    • Одновременное использование локальных и общих дисков на одном виртуальном SCSI-адаптере не поддерживается. Например, если системный диск (диск C:) присоединен к SCSI0:0, первый общий диск будет присоединен к SCSI1:0. Узел ВМ кластера WSFC имеет тот же максимум виртуальных SCSI-контроллеров, что и обычная ВМ — до 4 (четырех) виртуальных контроллеров SCSI.
    • Идентификаторы SCSI виртуальных дисков должны быть согласованы между всеми ВМ, на которых размещены узлы одного кластера WSFC.

    Узел WSFC — параметры конфигурации загрузочных дисков

    Компонент Requirements
    Тип контроллера SCSI LSI Logic SAS
    Режим диска Виртуальная
    Совместное использование шины SCSI Отсутствуют
    Измените дополнительные параметры виртуального контроллера SCSI, на котором размещено загрузочное устройство. Добавьте следующие дополнительные параметры в каждый узел WSFC:
    scsiX.returnNoConnectDuringAPD = "TRUE"
    scsiX.returnBusyOnNoConnectStatus = "FALSE"
    Где X — это идентификационный номер контроллера шины SCSI загрузочного устройства. По умолчанию X имеет значение 0.

    Узел WSFC — параметры конфигурации общедоступных дисков

    Компонент Requirements
    Тип контроллера SCSI Паравиртуализация VMware (PVSCSI)
    Режим диска Независимый — постоянный (шаг 2 на рисунке ниже). Используя этот параметр, вы гарантируете, что все диски будут исключены из моментальных снимков. Моментальные снимки не поддерживаются для ВМ на основе WSFC.
    Совместное использование шины SCSI Физический (шаг 1 на рисунке ниже)
    Флаг множественной записи Не используется
    Формат диска Толстая подготовка. (Для vSAN не требуется EZT — безотложная плотная подготовка с заполнением нулями.)

    Снимок экрана, показывающий страницу изменения параметров для виртуального оборудования.

    Неподдерживаемые сценарии

    • Хранилища данных NFS
    • Дисковые пространства
    • vSAN с использованием службы iSCSI
    • Растянутый кластер vSAN
    • Улучшенная совместимость с vMotion (EVC)
    • Отказоустойчивость (FT) vSphere
    • Моментальные снимки
    • Динамическое (сетевое) хранилище vMotion
    • Виртуализация N-Port ID (NPIV)

    Горячая замена оборудования виртуальной машины может нарушить пакеты пульса между узлами WSFC.

    Следующие действия не поддерживаются и могут привести к отработке отказа узла WSFC:

    • Горячая установка памяти
    • Горячая установка ЦП
    • Использование моментальных снимков
    • Увеличение размера общего диска
    • Приостановка и возобновление состояния виртуальной машины
    • Подкачка ESXi и раздувание памяти ВМ в результате превышения объема физической памяти
    • Горячее расширение локального VMDK-файла, даже если он не связан с контроллером общего доступа к шине SCSI

    Настройка общих дисков для кластера WSFC в vSAN Решения Azure VMware

    Убедитесь, что среда Active Directory доступна.

    Создайте виртуальные машины (ВМ) в хранилище данных vSAN.

    Включите все виртуальные машины, настройте имя узла и IP-адреса, присоедините все виртуальные машины к домену Active Directory и установите последние доступные обновления ОС.

    Установите последнюю версию VMware Tools.

    Включите и настройте компонент отказоустойчивого кластера Windows Server на каждой виртуальной машине.

    Настройте кворум следящего сервера кластера (файловый ресурс-свидетель работает исправно).

    Выключите все узлы кластера WSFC.

    Добавьте один или несколько паравиртуальных SCSI-контроллеров (до четырех) в каждую часть виртуальной машины WSFC. Используйте параметры, приведенные в предыдущих абзацах.

    На первом узле кластера добавьте все необходимые общие диски с помощью команды Добавить новый жесткий дискустройства. Оставьте без изменений параметр общего доступа к Диску Не указано (по умолчанию), а для режима Диска выберите параметр Independent - Persistent (Независимое постоянное хранение). Подключите его к контроллерам, созданным на предыдущих шагах.

    Повторите действия для остальных узлов WSFC. Добавьте диски, созданные на предыдущем шаге, выбрав Добавить новое устройство существующий жесткий диск. Не забудьте сохранить один и тот же идентификатор диска SCSI на всех узлах WSFC.

    Включите первый узел WSFC; войдите в систему и откройте консоль управления дисками (MMC). Убедитесь, что добавленные общие диски могут управляться операционной системой и инициализированы. Отформатируйте диски и назначьте букву диска.

    Включите остальные узлы WSFC.

    Добавьте диск в кластер WSFC с помощью Мастера добавления Дисков и добавьте их в общий том кластера.

    Протестируйте отработку отказа с помощью Мастера перемещения дисков и убедитесь, что кластер WSFC с общими дисками работает правильно.

    Запустите Мастер проверки кластера, чтобы убедиться, что кластер и его узлы работают правильно.

    Важно учитывать следующие элементы в проверочном тесте кластера:

    Проверка постоянного резервирования дисковых пространств. Если вы не используете дисковые пространства в кластере (например, в vSAN Решения Azure VMware), этот тест недействителен. Можете проигнорировать любые результаты проверки постоянного резервирования дискового пространства, включая это предупреждение. Чтобы избежать появления предупреждений, можно исключить этот тест.

    Проверка взаимодействия по сети. При проверке кластера будет отображено предупреждение о том, что доступен только один сетевой интерфейс на узел кластера. Его можно проигнорировать. Решение Azure VMware обеспечивает необходимую доступность и производительность, так как узлы подключены к одному из сегментов NSX-T. Тем не менее, сохраните этот элемент в качестве части теста проверки кластера, так как он проверяет и другие аспекты сетевого взаимодействия.

    Создайте правило DRS для размещения виртуальных машин WSFC на одинаковых узлах Решения Azure VMware. Для этого требуется правило сходства узлов с виртуальными машинами. Таким образом, узлы кластера будут выполняться на одном хосте Решения Azure VMware. Опять же, это предназначено для пилотных проектов, пока не будут доступны политики размещения.

    Для этого нужно создать запрос в службу поддержки. Организация поддержки Azure сможет помочь вам в этом.

    Дополнительные сведения

    Следующие шаги

    Теперь, когда вы настроили кластер WSFC в Решении Azure VMware, может потребоваться изучить следующие материалы:

    Как достигается бесперебойный доступ

    Постоянная работа инфраструктуры возможна только при постоянном наличии точной копии существующего сервера, на котором запущены аналогичные процессы и сервисы. То есть, если создавать реплику уже после отказа оборудования, то это потребует времени, а значит, приведет к простоям и перебоям в предоставлении услуг.

    Реализация бесперебойности осуществляется аппаратным и программным способом:

    Концепция и реализация

    Кластеры на VMware – это изолированная группа хостов (то есть физических серверов), которые связываются между собой общей сетью и управляются общим сервером. То есть это некая целостная система, которая создается для выполнения определенных функций.

    Платформа VMware является одним из популярных способов виртуализации. И все чаще при использовании такого решения создаются отдельные кластеры, позволяющие решать конкретные бизнес-задачи и упростить процесс управления сервисом.

    На базе VMware – а точнее, с помощью системы vSphere – возможно построение двух разновидностей кластеров: HA (High-availability) и DRS (Distributed Resource Scheduler). Они оба функционируют на уровне виртуальных машин:

    • HA-кластер реализуется по следующей схеме: несколько физических серверов объединяются между собой. В результате, если один из хостов выходит из строя, то запускаются другие хосты с заранее зарезервированными ресурсами. При этом имеется небольшой простой, который обусловлен временем загрузки ОС. Подобное решение имеет недостаток, ведь его нельзя назвать кластером высокой доступности. Для минимизации времени простоя в сочетании с HA обычно применяется методика кластеризации отдельного приложения. Другой вариант – это применение инструмента Fault Tolerance. Основная особенность такого инструмента заключается в том, что на одном из хостов запускается полная версия виртуальной машины, а на другом – синхронно развернутая реплика. Если система на одном хосте прерывается, то производится мгновенное переключение на реплику. Благодаря этому простой равняется максимум 1-2 секундам. В ряде случаев дополнительно используется VMware Site Recovery Manager. Это специальное программное обеспечение, позволяющее создавать дополнительные резервные копии сайтов, на которые в дальнейшем восстанавливаются виртуальные машины в случае отказа основного хоста.
    • DRS – максимально простой способ создания кластера на VMware. При использовании такого решения DRS выбирает, на каком физическом сервере необходимо запустить ВМ или произвести миграцию уже работающей виртуальной машины. При помощи метода удается объединить ресурсы хостов в один пул и затем в автоматизированном или полуавтоматическом режиме распределять ресурсы между ВМ. Такое решение достаточно удобно тем, что позволяет автоматизировать процесс миграции виртуальных машин и провести ряд тонких настроек. Кроме этого, его часто используют для выравнивания нагрузок в кластере. Однако DRS-кластер имеет и особенности, которые потребуется учесть при разработке инфраструктуры.

    Что касается популярного HPC-кластера, то его нельзя построить на базе VMware. То есть сразу стоит учитывать, что платформа не позволит создать единый мощный компьютер из нескольких физических хостов.

    Особенности архитектуры

    obl-hosting-1.jpg

    Кластер VMware организуется на базе из двух или более серверов. Максимальное количество используемых физических хостов не может превышать 32. Управление всеми серверами производится при помощи VMware vCenter.

    Для создания кластера потребуется наличие единого хранилища, то есть системы для хранения данных. На ней хранятся разделы, которые доступны для чтения или записи сразу всеми серверами кластера. Например, в этих разделах находятся файлы ВМ (виртуальные диски, параметры конфигурации и пр.).

    В результате виртуальные машины полностью независимы от физического хостинга, а это позволяет добиться высокой отказоустойчивости системы и быстрого перемещения или восстановления данных.

    Последовательность создания

    Создание каждого типа кластера имеет особенности, мы рассмотрим все процессы на примере HA:

    • На первом этапе требуется определить количество и размер слотов на хостах ESXi. То есть производится резервация необходимых слотов. Этот параметр рассчитывается, исходя из максимального числа предполагаемых ВМ на узлах кластера.
    • Далее устанавливается значение NHF.
    • Рассчитывается параметр FCap. Для расчетов потребуется знать количество хостов, ВМ и слотов на хост. Из количества хостов вычитается число виртуальных машин, деленное на среднее количество слотов на каждый узел.
    • При необходимости выполняется установка дополнительных серверов (если значение параметра NHF больше FCap) или оптимизация Reservation.
    • Устанавливается параметр Admission Control.
    • Проверяется работа каждого сервера при отсутствии сигналов доступности от других хостингов.

    При организации кластера на VMware обязательным условием является нахождение всех виртуальных машин и их данных в едином хранилище. Именно это позволит мгновенно переключаться между ВМ. Внимания требует и настройка доступа к сетям, используемой памяти и ресурсам.

    Дополнительные параметры

    В ряде случаев (например, при развертывании кластера из двух и более серверов ESXi), потребуется использование централизованного управления vCenter Server. Конечно же, создать виртуальные машины можно и на одном сервере за счет наличия гипервизора VMware ESXi. Однако такое решение не позволяет получить все возможности HA и DRS. То есть, при недоступности одного из хостов, недоступны будут и остальные. По этой причине vSphere является практически обязательным. С помощью такой платформы возможно управлять ESXi-хостами и СХД.

    Обязательным условием для грамотной работы кластера серверов на VMware является единая система хранения данных. Мы уже упомянули этот момент, но не лишним будет добавить, что при отсутствии такой системы не удастся добиться полной независимости ВМ от физической платформы.

    Что важно понимать при развертывании кластера. Технология достаточно сложная, поэтому потребует больших материальных затрат. Не стоит забывать и о последующих затратах времени на настройку и администрирование. По этим причинам методику чаще всего выбирают для крупных проектов. Однако благодаря кластеру вы сможете добиться высокой отказоустойчивости и надежности ИТ-инфраструктуры.

    Самостоятельное создание кластеров в большинстве случаев является нецелесообразным, поэтому для инфраструктуры компании лучше выбирать услугу аренды виртуальных хостов в дата-центре.

    Если у вас остались вопросы о развертывании кластера VMware или вы хотите узнать, подойдет ли подобное решение для вашей компании, то обращайтесь за помощью к специалистам Xelent. При необходимости мы подберем для вас другое решение для организации безотказной инфраструктуры.

    date

    05.02.2020

    user

    itpro

    directory

    VMWare

    comments

    комментариев 17

    VMware Virtual SAN (vSAN) это высокопроизводительное решение для хранения данных корпоративного класса для гиперконвергентной инфраструктуры. vSAN позволяет объединять SSD накопители и обычные диски, подключенные к локальным ESXi серверам, в общее высокоустойчивое хранилище данных, к которому могут обращаться все узлы кластера vSphere. Если ранее для обеспечения высокой доступности администраторам VMware нужно было использовать SAN, NAS или DAS, то в случае vSAN потребность в выделенном внешнем общем хранилища исключается, при этом добавляется новый программный уровень, который может использовать локальные диски отдельных локальных серверов для обеспечения такой же отказоустойчивости и набора функций SAN.

    Поддержка vSAN встроена в ядро гипервизора, благодаря чему решения по выполнению операций ввода/вывода и перемещению данных принимаются максимально быстро (большинство других решений организации виртуальных сред хранения реализуется в виде отдельного аплайнса, работающего над гипервизором). В этой статье мы расскажем об основных особенностях VMware vSAN и покажем процесс развертывания и настройки vSAN 6.5.

    Примечание. Аналогом vSAN у Microsoft является технология Storage Spaces Direct (S2D), появившаяся в Windows Server 2016.

    архитектура VMware vSAN 6.5.

    Основные возможности VMware vSAN

    • Встроенный функционал защиты и обеспечения высокой доступности данных с отказоустойчивостью, асинхронной репликацией на большие расстояния и растянутыми кластерами между географически разнесенными сайтами.
    • Использование распределенного RAID и зеркалирования кэша для защиты данных от потери отдельного диска, сервера или целой стойки
    • Минимизация задержек хранилищ за счет ускорения операций чтения/записи с дисков за счет встроенного кэша на сервере, хранящиегося на локальных SSD дисках
    • Программная дедупликация и сжатие данных при минимальными затратами ресурсов CPU и памяти
    • Возможность без простоя наращивать емкость и производительность сети хранения за счет добавления новых серверов и дисков
    • Политики хранения виртуальных машин позволяют автоматизировать балансировку и выделение ресурсов хранения и QoS.
    • Полная интеграция со стеком VMware, включая vMotion, DRS, высокую доступность (High Availability), отказоустойчивость (Fault Tolerance), Site Recovery Manager, vRealize Automation и vRealize Operations.
    • Поддержка iSCSI подключений

    VMware vSAN: системные требования

    • Требуется VMware vCenter Server 6.5 и хосты с ESXi 6.5
    • Минимум 3 хоста в кластере (максимум 64), однако можно реализовать vSAN и на двух хостах, но потребуется отдельный хост-свидетель
    • Каждый сервера ESXi в кластере vSAN должен иметь как минимум один SSD диск (флешку) для кэша, и как минимум один SSD/HDD для данных
    • Наличие SATA/SAS HBA или RAID-контроллера в режиме pass-through или в режиме RAID 0
    • Минимум 1 ГБ сетевая карта (рекомендуется 10 Гб)
    • Все хосты должны быть подключены к сети vSAN через сеть L2 или L3
    • На физических коммутаторах, которые обрабатывают трафик vSAN должна быть включено многоадресное вещание (мультикаст)
    • Поддерживаются как IPv4 так и IPv6.
    • Информацию о совместимости с конкретным железом нужно смотреть в соответствующем документе на сайте VMware

    Лицензирование VMware vSAN

    vSAN лицензируется в расчете по CPU, виртуальным машинам или конкурентным пользователю и поставляется в трех редакциях: Standard, Advanced и Enterprise.

    • Enterprise лицензия – требуется для использования QoS и растянутых кластеров
    • Advanced лицензия нужна для поддержки дедубликации, сжатия и RAID 5/6
    • Standard – базовый функционал

    Лицензия vSAN можно использовать на любой версии vSphere 6.5.

    Есть дополнительные способы сэкономить за счет использовании пакета Virtual SAN для ROBO, или приобретения набора лицензий Standard илиAdvanced в количестве 25 штук для удаленных филиалов. Более подробную информацию о лицензировании vSAN смотрите на сайте VMware.

    Настройка сети и портов vSAN

    Перед настройкой vSAN нужно убедится, что на каждом хосте кластере настроен порт VMkernel для трафика vSAN. В веб-клиенте vSphere по очереди выберите каждый сервер, на котором вы хотите использовать vSAN. Выберите вкладку Configure-> Networking -> VMKernel Adapters -> нажмите Add Host Networking. Убедитесь, что выбран тип VMkernel Network Adapter и нажмите Далее.

    VMkernel Network Adapter

    Создайте новый виртуальный коммутатор (New standard switch) и нажмите Next.

    New standard switch

    С помощью зеленого значка плюса привяжите физические адаптеры к коммутатору. В продуктивных средах желательно обеспечить дополнительное резервирование за счет использования несколько физических NIC.

    привязка физических NIC к виртуальному коммутатору

    Укажите имя порта VMkernel и, если нужно, его VLAN ID. Обязательно поставьте галку напротив опции Virtual SAN и нажмите Next.

    сеть Virtual SAN

    Укажите сетевые параметры порта VMkernel.

    настройки сети интерфейса VMkernel

    Если вы настраиваете сеть vSAN на тестовом стенде с ограниченным количеством физических интерфейсов, выберите сеть управления (Management Network) и в списке поддерживаемых служб поставьте галку у пункта Virtual SAN. При такой конфигурации трафик vSAN будет идти через общую сеть управления, чего в продуктивных развертываниях делать не стоит.

    Настройка vSAN

    Как мы уже говорили, для настройки vSAN дополнительно доставлять что+то на гипервизор не нужно, весь функционал уже имеется. Вся что требуется от администратора – настроить vSAN через интерфейс веб клиента vSphere (vSAN пока не поддерживает модный HTML5 клиент).

    Чтобы включить vSAN найдите нужный кластер в консоли vSphere и перейдите на вкладку Configure. Разверните раздел Virtual SAN и выберите General. В нем должно быть указано, что Virtual SAN не включен. Нажмите на кнопку Configure.

    virtual san is turned off

    По умолчанию в хранилище vSAN будут добавлены любые подходящие диски. Чтобы вручную выбрать диски, измените параметр назначения дисков на Manual. Здесь же можно включить опцию сжатия данных, отказоустойчивости.

    настройка vmware vsan 6.5

    На странице валидации сети должны появится подтверждения о том, что каждый хост в кластере подключен к сети vSAN.

    валидация кластера vSAN

    Проверьте выбранные настройки и нажмите Finish. Дождитесь окончания выполнения задачи, после чего виртуальная сеть SAN объединит все локальные диски серверов выбранного кластера в распределенное хранилище vSAN. Данное хранилище представляет собой один единый VMFS датастор, на который вы сразу же можете поместить виртуальные машины. Настройки vSAN в дальнейшем можно будет изменить в том же разделе (вкладка кластера Configure -> Virtual SAN).


    Подобно хорошему вину, корпоративные решения по кластеризации компании Microsoft с течением времени становятся все лучше.

    К сожалению, реализация и тестирование кластерных решений Microsoft, как и хорошо выдержанное вино, многим не по карману. Я работал с несколькими организациями, которые располагали рабочими кластерами Microsoft Exchange Server и Microsoft SQL Server, но не имели средств для устройства тестовых серверных кластеров в лаборатории.

    Чтобы преподавать кластерные технологии, я приобрел десяток адаптеров SCSI, кабели и внешние накопители SCSI. Но даже после этого мои демонстрационные возможности были сильно ограничены, так как каждый кластер содержал лишь один разделяемый диск. Мне не раз приходилось слышать от пользователей пожелания, чтобы кластеры были портативными. Администраторы и системные инженеры предпочли бы изучать серверные кластеры вне рабочей среды. Партнеры и реселлеры Microsoft хотели бы демонстрировать клиентам кластерные решения на своих ноутбуках. Что же можно предпринять в такой ситуации?

    VMware — лучшее средство для изучения кластеров

    • один ноутбук или настольный компьютер с объемом оперативной памяти 512 Мбайт и свободным пространством размером 6 Гбайт на жестком диске;
    • одна лицензия для рабочей станции VMware Workstation 3.0 (или выше);
    • две виртуальные машины Windows 2000 Advanced Server в виртуальной сети TCP/IP, настроенные на работу оперативной памятью 128 Мбайт;
    • один или несколько разделяемых временных (nonpersistent) виртуальных дисков SCSI (кластерная память);
    • один локальный виртуальный диск IDE размером 2 Гбайт для каждой VM (для данных операционной системы);
    • одна или несколько виртуальных сетевых плат для каждой VM (для связи между кластерами).

    Построение виртуального кластера

    Для приготовления изысканного блюда мало иметь под рукой необходимые ингредиенты, нужно знать, в каком порядке их соединять. Итак, порядок построения виртуального кластера. Для начала следует запустить на системе два экземпляра Windows Advanced Server в качестве виртуальных машин. Для данной статьи я построил виртуальный кластер на компьютере Dell Inspiron 8100 с процессором на 1 ГГц и оперативной памятью 512 Мбайт. Роль главной операционной системы выполняла Windows XP Professional Edition. Виртуальные машины были организованы с помощью VMware Workstation 3.2. Эти инструменты позволяют успешно продемонстрировать процедуры установки и конфигурирования серверных кластеров как Exchange 2000, так и SQL Server 2000.

    Чтобы построить две виртуальные машины Windows 2000 Advanced Server, следует создать, установить и настроить первую виртуальную машину (VM1) в качестве автономного сервера Windows 2000 AS. После завершения установки нужно выключить VM1 и скопировать данные из папки VM1 на хост-машине в папку с именем VM2 (или любым другим). Затем следует открыть VM2 в консоли VMware. Открыв редактор Configuration Editor for VM2, необходимо перейти к вкладке Options и дать VM уникальное имя. Далее на вкладке Hardware требуется изменить путь к файлу виртуального диска VM2, чтобы он указывал на файл виртуального диска в папке VM2. После завершения конфигурирования следует загрузить VM2 и изменить ее хост-имя и IP-адрес, чтобы они отличались от имени и адреса VM1 (обычно я использую такие имена, как Node1 и Node2). Благодаря этому приему подготовка второго функционирующего сервера занимает значительно меньше времени, чем полная установка Windows 2000 AS на второй VM.

    Имея две VM, нужно подготовить два сервера к включению в кластер.

    1. Запустить dcpromo.exe, чтобы назначить VM1 контроллером домена (DC) и корнем леса. Домену можно присвоить любое имя.
    2. После завершения работы мастера Active Directory Installation Wizard и перезагрузки VM1 следует добавить в домен VM2. На данном этапе необходимо активизировать обе виртуальные машины.
    3. На DC (VM1) нужно открыть оснастку Active Directory Users and Computers консоли управления Microsoft Management Console (MMC) и создать учетную запись пользователя кластерного домена. Обычно я даю учетной записи имя Cluster. Необходимо сделать так, чтобы пользователь не мог изменить пароль, и срок действия пароля никогда не истекал. Затем учетную запись требуется добавить в группу Domain Admins.
    4. Закрыть и отключить обе VM.

    Разделение памяти

    1. В главном окне VMware щелкнуть правой кнопкой мыши на объекте VM1 и выбрать пункт Settings.
    2. Щелкнуть на кнопке Add вкладки Hardware.
    3. Выбрав жесткий диск, нажать Next.
    4. Оставив флажок Create a New Virtual Disk установленным, щелкнуть на кнопке Next.
    5. Установить размер диска 0,5 Мбайт (используется для кворумных данных кластера) и щелкнуть Next.
    6. Щелкнуть на кнопке Browse и создать новую папку для хранения разделяемых виртуальных дисков. Диску следует дать имя Shared1.vdmk и щелкнуть на кнопке Open.
    7. Убедиться, что в поле Disk File правильно указаны имя файла и путь, а затем щелкнуть на кнопке Advanced.
    8. Выбрать SCSI 0:0 в качестве узла виртуального устройства и щелкнуть на кнопке Finish.
    9. Повторить шаги 2-8, чтобы создать еще два виртуальных SCSI-диска с именами Shared2 (1 Гбайт) и Shared3 (0,5 Гбайт), и назначить дискам типы узлов виртуальных устройств SCSI 0:1 и SCSI 0:2, соответственно.

    Ранее я указывал, что диски должны быть временными, но после выполнения предыдущих операций они имеют статус постоянных (persistent). Пока диски следует оставить постоянными. Таким образом, операционная система, загружаемая на две VM, воспримет диски как новые и запишет для них сигнатуру. Два узла смогут совместно использовать диски после того, как будут поставлены в известность об их наличии.

    На данном этапе VM1 настроена на разделение дисков. Теперь нужно настроить VM2 таким образом, чтобы виртуальная машина обнаружила разделяемые диски. Для этого требуется выполнить следующие действия.

    1. Открыть второй экземпляр VMware.
    2. В главном окне VMware щелкнуть правой кнопкой мыши на второй VM и выбрать пункт Settings.
    3. Щелкнуть на кнопке Add вкладки Hardware.
    4. Выбрать пункт Hard Disk и щелкнуть на кнопке Next.
    5. Выбрать пункт Use an Existing Virtual Disk и нажать Next.
    6. Щелкнуть на кнопке Browse, отыскать и выбрать файл Shared1.vmdk и щелкнуть на кнопке Open.
    7. Выбрать режим Persistent и нажать Finish.
    8. Повторить шаги 2-8 для файлов Shared2 и Shared3.

    Дисковые конфигурации VM2 и VM1 должны совпадать; уникальным должен быть лишь локальный IDE-диск VM.

    Запись дисковых сигнатур

    1. Загрузить систему и зарегистрироваться.
    2. Щелкнуть правой кнопкой мыши на пиктограмме My Computer и выбрать пункт Manage.
    3. Щелкнуть на папке Disk Management.
    4. Когда на экране появится мастер Write Signature and Upgrade Disk Wizard, следует нажать Next.
    5. В ответ на предложение выбрать диск, для которого нужно записать сигнатуру, требуется установить флажок для каждого нового виртуального SCSI-диска и щелкнуть Next.
    6. Необходимо сбросить флажки для всех трех дисков, чтобы ни один из них не был преобразован в динамический диск, а затем щелкнуть Next.
    7. Щелкнуть на кнопке Finish, чтобы закрыть программу-мастер.
    8. Теперь все три диска имеют сигнатуры, и нужно создать на каждом диске раздел в формате NTFS. Для этого необходимо щелкнуть правой кнопкой мыши на неиспользуемом пространстве диска и выбрать пункт Create Partition. Я присвоил первому тому имя Quorum и символ Q, второму тому — имя Data и символ R, а третьему тому имя Logs и символ S. На Экране 2 показаны три отформатированных диска в папке Disk Management.
    9. Закрыть утилиту Computer Management.
    10. Закрыть и отключить VM1.

    После того как дискам присвоены сигнатуры, необходимо убедиться, что VM2 может обнаружить диски. Для этого нужно включить VM2 и зарегистрироваться. Затем следует открыть Computer Management и убедиться, что диски указаны в Disk Management. На данном этапе символьные обозначения дисков не совпадают с символами, назначенными в VM1, но обозначения будут приведены в соответствие после того, как VM2 войдет в состав кластера. Убедившись в наличии дисков, VM2 следует выключить.

    Последняя задача перед установкой службы Microsoft Cluster на узлах — преобразовать диски на каждой VM из постоянных во временные, чтобы виртуальные машины могли совместно использовать диски. Чтобы изменить состояние дисков, требуется выполнить следующие действия.

    1. В главном окне VMware щелкнуть правой кнопкой мыши на второй VM и выбрать пункт Settings.
    2. На вкладке Hardware редактора Configuration Editor выбрать первый виртуальный SCSI-диск, затем пункт Nonpersistent: Discard changes after powering off.
    3. Повторить шаг 2 для второго и третьего виртуальных дисков.
    4. Щелкнуть OK, чтобы закрыть Configuration Editor.
    5. Повторить действия 1-4 для VM2.

    При преобразовании из постоянных во временные диски не теряют сигнатуры, как видно после загрузки VM1 и установки службы Cluster. Однако нужно иметь в виду, что временные диски теряют данные после выключения. Чуть позже я расскажу, как избежать потери данных.

    Установка Cluster Service

    Далее необходимо запустить VM2 при активной VM1. Требуется зарегистрироваться в VM2 с использованием учетной записи Domain Administrator, а затем выполнить следующие действия.

    Теперь на системе имеется рабочий кластер с двумя узлами. Чтобы убедиться в работоспособности кластера, можно инициировать процесс передачи функций одного узла другому.

    1. На любой VM перейти в меню Start, Programs, Administrative Tools, Cluster Administrator.
    2. Развернуть папку Groups кластера.
    3. Щелкнуть правой кнопкой мыши на Cluster Group и выбрать функцию Move Group.
    4. После этого ресурсы кластера должны переместиться на второй узел (см. Экран 4).

    После передачи функций для Cluster Group и для каждой группы дисков символьные обозначения разделяемых дисков второго узла будут соответствовать обозначениям первого. Если во время первой передачи функций работает утилита Chkdsk, следует предоставить ей возможность выполнить задачу до конца.

    Потеря данных

    Я обнаружил небольшую проблему с кластерными VM и разделяемыми временными виртуальными SCSI-дисками: после отключения VM диски теряют данные. Это происходит только при отключении системы. Чтобы избежать подобной ситуации, следует щелкнуть на кнопке Suspend в окне VM, а затем закрыть окно и завершить работу хост-машины. В результате VM не отключится, а приостановит работу, и при следующем включении системы работу можно будет возобновить с того места, где она была прервана.

    Я пользовался виртуальным кластером на своем ноутбуке более полугода, много раз устанавливая и удаляя Exchange и SQL Server без каких-либо сбоев. Любой администратор может взять кластер с собой в дорогу, избежав расходов и неудобств, связанных с дополнительными аппаратными средствами. Стоимость VMware Workstation 3.2 составляет 299 долларов.

    VMware

    Мы установили новый vCenter 6.7. Создали на нём Datacenter. Что дальше? Создаём Cluster для группы хостов.

    Ссылки

    New Cluster

    Заходим в vCenter через UI. Нажимаем правой кнопкой на Datacenter.

    vmware

    Выбираем в меню New Cluster. Открывается мастер.

    vmware

    Указываем название кластера, при необходимости устанавливаем дополнительные опции, мне они не потребуются. OK.

    vmware

    Кластер создан. На этом можно остановиться, но я хочу ещё заранее настроить VMware EVC Mode.

    У меня все хосты одинаковые, смотрю название процессора. Это Intel Xeon Gold 6132.

    vmware

    Гуглю название поколения. Это Skylake.

    vmware

    vmware

    Configure > Configuration > VMware EVC. Нажимаю Edit.

    vmware

    Включаю EVC — Enable EVC for Intel Hosts. Выбираю VMware EVC Mode — Intel "Skylake" Generation. OK.

    Читайте также: