Рубрика:
Администрирование /
Виртуализация
|
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|
СЕРГЕЙ УРУШКИН, системный администратор ИТЦ Телрос, urusha.v1.0@gmail.com
Кластер виртуализации. Часть 2 Разворачиваем бюджетное отказоустойчивое решение
Настраиваем ресурсы кластера – подсистемы хранения данных, блокировок образов и менеджмента виртуальных машин
Это вторая часть статьи [1], описывающей создание отказоустойчивого кластера виртуализации из двух серверов с применением свободного ПО и бюджетной аппаратной части.
Предлагается использовать два сервера (узла), у каждого по две сетевые карты. Одна обеспечивает связь узлов и виртуальных машин (ВМ) с внешним миром. Вторая – приватная сеть между узлами для обмена данными кластера. Все данные ВМ будут синхронизироваться между узлами в реальном времени, станет возможна живая миграция ВМ с одного узла на другой. При падении одного узла все ВМ, запущенные на нем, автоматически запускаются на другом узле.
Схема реализуемого решения приведена на рис. 1.
Рисунок 1. Схема подключения элементов кластера
В первой части был обоснован выбор ПО и оборудования, осуществлена первоначальная настройка ОС и кластера. По ее итогам имеется запущенный на двух узлах с CentOS 7.0 кластер Corosync + Pacemaker, готовый к настройке ресурсов.
Настройку ресурсов кластера начнем с организации системы хранения данных. Логическая схема, разъясняющая, как будут устроены хранение и использование данных в кластере, изображена на рис. 2
- node1, node2 – узлы кластера.
- /dev/sda – аппаратный RAID-массив.
- /boot – /boot на разделе /dev/sda1.
- LVM – группа томов (VG), физический том (PV) находится на разделе /dev/sda2. Имя vg00
- / – корневой раздел на логическом томе (LV) на vg00.
- swap – раздел swap на LV на vg00.
- DRBD – ресурс DRBD на LV на vg00, данные синхронизируются между узлами.
- CLVM – кластерная VG с PV на ресурсе DRBD. Имя vgv0
- GFS2 – кластерная ФС GFS2 на LV на vgv0. Используется для работы KVM/libvirt.
- VM* LV – образы ВМ, хранящиеся на логических томах vgv0.
- VM* – виртуальные машины, которые могут мигрировать между узлами кластера. На схеме VM1 и VM3 запущены на node1 и используют тома на этом узле, а VM2 – на node2.
Рисунок 2. Схема хранения и использования данных
Статью целиком читайте в журнале «Системный администратор», №12 за 2014 г. на страницах 20-25.
PDF-версию данного номера можно приобрести в нашем магазине.
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|