Кластер виртуализации. Часть 3. Разворачиваем бюджетное отказоустойчивое решение::Журнал СА 1-2.2015
www.samag.ru
     
Поиск   
              
 www.samag.ru    Web  0 товаров , сумма 0 руб.
E-mail
Пароль  
 Запомнить меня
Регистрация | Забыли пароль?
О журнале
Журнал «БИТ»
Подписка
Где купить
Авторам
Рекламодателям
Магазин
Архив номеров
Вакансии
Контакты
   

ЭКСПЕРТНАЯ СЕССИЯ 2019


  Опросы

Какие курсы вы бы выбрали для себя?  

Очные
Онлайновые
Платные
Бесплатные
Я и так все знаю

 Читать далее...

1001 и 1 книга  
28.05.2019г.
Просмотров: 1296
Комментарии: 2
Анализ вредоносных программ

 Читать далее...

28.05.2019г.
Просмотров: 1407
Комментарии: 1
Микросервисы и контейнеры Docker

 Читать далее...

28.05.2019г.
Просмотров: 1083
Комментарии: 0
Django 2 в примерах

 Читать далее...

28.05.2019г.
Просмотров: 829
Комментарии: 0
Введение в анализ алгоритмов

 Читать далее...

27.03.2019г.
Просмотров: 1431
Комментарии: 0
Arduino Uno и Raspberry Pi 3: от схемотехники к интернету вещей

 Читать далее...

Друзья сайта  

Форум системных администраторов  

sysadmins.ru

 Кластер виртуализации. Часть 3. Разворачиваем бюджетное отказоустойчивое решение

Архив номеров / 2015 / Выпуск №1-2 (146-147) / Кластер виртуализации. Часть 3. Разворачиваем бюджетное отказоустойчивое решение

Рубрика: Администрирование /  Виртуализация

Сергей Урушкин СЕРГЕЙ УРУШКИН, системный администратор ИТЦ Телрос, urusha.v1.0@gmail.com

Кластер виртуализации
Часть 3. Разворачиваем бюджетное отказоустойчивое решение

Обеспечиваем контроль целостности данных кластера – настраиваем экстренное выключение сбойного узла (STONITH), мониторинг и управление ИБП

Это третья часть статьи [1, 2], которая описывает создание отказоустойчивого кластера виртуализации из двух серверов с помощью свободного ПО и бюджетной аппаратной части. Предлагается использовать два сервера (узла), у каждого по две сетевые карты. Одна обеспечивает связь узлов и виртуальных машин (ВМ) с внешним миром. Вторая – приватная сеть между узлами для обмена данными кластера. Все данные ВМ синхронизируются между узлами в реальном времени, возможна живая миграция ВМ с одного узла на другой. При падении одного узла все ВМ, запущенные на нем, автоматически запускаются на другом узле. Схема реализуемого решения приведена на рис. 1.

Рисунок 1. Схема подключения элементов кластера из первой части

Рисунок 1. Схема подключения элементов кластера из первой части

В первых двух частях статьи был обоснован выбор ПО и оборудования, осуществлена настройка ОС, кластера и его ресурсов, включая подсистему хранения данных, блокировок образов и менеджмента ВМ. По итогам имеются работающий на двух узлах с CentOS 7.0 кластер Corosync + Pacemaker, система хранения данных, использующая DRBD (сетевой RAID-1) + DLM (менеджер блокировок) + CLVM (кластерный менеджер логических томов), менеджер ВМ libvirt, гипервизор KVM и менеджер блокировок образов virtlockd.

Это завершающая часть статьи, где будут рассмотрены следующие вопросы:

  • контроль целостности данных и согласованности работы кластера. Станет осуществляться с помощью механизма экстренного выключения сбойного узла STONITH, в данном случае будет использоваться распределитель питания судаленным управлением (PDU) Energenie EG-PDU-002.
  • Мониторинг работы кластера, оповещения об экстренных и штатных событиях с помощью встроенных и сторонних средств.
  • Настройка менеджера ИБП для корректного выключения узлов при истекающем заряде аккумулятора.

Статью целиком читайте в журнале «Системный администратор», №1-2 за 2015 г. на страницах 30-33.

PDF-версию данного номера можно приобрести в нашем магазине.


  1. Урушкин С. Кластер виртуализации. Часть 1. Разворачиваем бюджетное отказоустойчивое решение. //«Системный администратор», №11, 2014 г. – С. 18-23 (http://samag.ru/archive/article/2811).
  2. Урушкин С. Кластер виртуализации. Часть 2. Разворачиваем бюджетное отказоустойчивое решение. //«Системный администратор», №12, 2014 г. – С. 20-25 (http://samag.ru/archive/article/2832).
  3. Fence-агент для EG-PGU-002 – https://raw.githubusercontent.com/urusha/cluster/master/fence_energenie.
  4. SMTP-helper для встроенного мониторинга кластера – https://raw.githubusercontent.com/urusha/cluster/master/pcmk_smtp_helper.sh.
  5. Сайт Distributed Replicated Block Device – http://www.drbd.org/docs/about.
  6. Сайт Pacemaker – http://clusterlabs.org/doc.
  7. High Availability Add-On Administration – https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/High_Availability_Add-On_Administration/index.html.
  8. SUSE High Availability Guide – https://www.suse.com/documentation/sle_ha/book_sleha/data/book_sleha.html.
  9. Anvil! Tutorial 3 – https://alteeve.ca/w/Anvil!_Tutorial_3.

Комментарии отсутствуют

Добавить комментарий

Комментарии могут оставлять только зарегистрированные пользователи

               Copyright © Системный администратор

Яндекс.Метрика
Tel.: (499) 277-12-41
Fax: (499) 277-12-45
E-mail: sa@samag.ru