Кластер виртуализации. Часть 2. Разворачиваем бюджетное отказоустойчивое решение::Журнал СА 12.2014
www.samag.ru
     
Поиск   
              
 www.samag.ru    Web  0 товаров , сумма 0 руб.
E-mail
Пароль  
 Запомнить меня
Регистрация | Забыли пароль?
Журнал "Системный администратор"
Журнал «БИТ»
Наука и технологии
Подписка
Где купить
Авторам
Рекламодателям
Магазин
Архив номеров
Вакансии
Контакты
   

  Опросы
1001 и 1 книга  
12.02.2021г.
Просмотров: 7488
Комментарии: 0
Коротко о корпусе. Как выбрать системный блок под конкретные задачи

 Читать далее...

11.02.2021г.
Просмотров: 7880
Комментарии: 0
Василий Севостьянов: «Как безболезненно перейти с одного продукта на другой»

 Читать далее...

20.12.2019г.
Просмотров: 14668
Комментарии: 0
Dr.Web: всё под контролем

 Читать далее...

04.12.2019г.
Просмотров: 14407
Комментарии: 12
Особенности сертификаций по этичному хакингу

 Читать далее...

28.05.2019г.
Просмотров: 15670
Комментарии: 2
Анализ вредоносных программ

 Читать далее...

Друзья сайта  

Форум системных администраторов  

sysadmins.ru

 Кластер виртуализации. Часть 2. Разворачиваем бюджетное отказоустойчивое решение

Архив номеров / 2014 / Выпуск №12 (145) / Кластер виртуализации. Часть 2. Разворачиваем бюджетное отказоустойчивое решение

Рубрика: Администрирование /  Виртуализация

Сергей Урушкин СЕРГЕЙ УРУШКИН, системный администратор ИТЦ Телрос, urusha.v1.0@gmail.com

Кластер виртуализации. Часть 2
Разворачиваем бюджетное отказоустойчивое решение

Настраиваем ресурсы кластера – подсистемы хранения данных, блокировок образов и менеджмента виртуальных машин

Это вторая часть статьи [1], описывающей создание отказоустойчивого кластера виртуализации из двух серверов с применением свободного ПО и бюджетной аппаратной части.

Предлагается использовать два сервера (узла), у каждого по две сетевые карты. Одна обеспечивает связь узлов и виртуальных машин (ВМ) с внешним миром. Вторая – приватная сеть между узлами для обмена данными кластера. Все данные ВМ будут синхронизироваться между узлами в реальном времени, станет возможна живая миграция ВМ с одного узла на другой. При падении одного узла все ВМ, запущенные на нем, автоматически запускаются на другом узле.

Схема реализуемого решения приведена на рис. 1.

Рисунок 1. Схема подключения элементов кластера

Рисунок 1. Схема подключения элементов кластера

В первой части был обоснован выбор ПО и оборудования, осуществлена первоначальная настройка ОС и кластера. По ее итогам имеется запущенный на двух узлах с CentOS 7.0 кластер Corosync + Pacemaker, готовый к настройке ресурсов.

Настройку ресурсов кластера начнем с организации системы хранения данных. Логическая схема, разъясняющая, как будут устроены хранение и использование данных в кластере, изображена на рис. 2

  • node1, node2 – узлы кластера.
  • /dev/sda – аппаратный RAID-массив.
  • /boot – /boot на разделе /dev/sda1.
  • LVM – группа томов (VG), физический том (PV) находится на разделе /dev/sda2. Имя vg00
  • / – корневой раздел на логическом томе (LV) на vg00.
  • swap – раздел swap на LV на vg00.
  • DRBD – ресурс DRBD на LV на vg00, данные синхронизируются между узлами.
  • CLVM – кластерная VG с PV на ресурсе DRBD. Имя vgv0
  • GFS2 – кластерная ФС GFS2 на LV на vgv0. Используется для работы KVM/libvirt.
  • VM* LV – образы ВМ, хранящиеся на логических томах vgv0.
  • VM* – виртуальные машины, которые могут мигрировать между узлами кластера. На схеме VM1 и VM3 запущены на node1 и используют тома на этом узле, а VM2 – на node2.

Рисунок 2. Схема хранения и использования данных

Рисунок 2. Схема хранения и использования данных

Статью целиком читайте в журнале «Системный администратор», №12 за 2014 г. на страницах 20-25.

PDF-версию данного номера можно приобрести в нашем магазине.


Комментарии отсутствуют

Добавить комментарий

Комментарии могут оставлять только зарегистрированные пользователи

               Copyright © Системный администратор

Яндекс.Метрика
Tel.: (499) 277-12-41
Fax: (499) 277-12-45
E-mail: sa@samag.ru