Рубрика:
Администрирование /
Бэкап
|
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|
АЛЕКСАНДР РУДЕНКО, ЗАО «Молдавская ГРЭС», Администратор информационной безопасности, a.rudikk@gmail.com
Георепликация с помощью GlusterFS
Рассмотрим возможности георепликации, реализованные в распределенной файловой системе GlusterFS, с помощью которой можно строить систему катастрофоустойчивого резевного копирования
В предыдущем номере [1] была опубликована статья, посвященная техническим и практическим особенностям распределенной параллельной файловой системы GlusterFS. Разработкой данного продукта занимается Red Hat при активном участии сообщества разработчиков. С помощью этой ФС можно строить практически «бездонные» отказоустойчивые распределенные тома на базе недорогого оборудования. Подобное решение может быть использовано в качестве надежного файлового сервера или хранилища дисков виртуальных машин.
Сегодня рассмотрим еще одну дополнительную возможность GlusterFS – встроенный механизм асинхронной гео-репликации. Данная технология позволяет иметь одну или множество реплик тома на географически удаленных площадках. Единственное техническое требование – наличие между площадками IP-связи. В результате с помощью данного механизма можно строить надежные сети доставки и дистрибьюции контента (CDN) [2] или организовать систему катастрофоустойчивого резервного копирования, используя бюджетное оборудование.
Здесь важно понимать, что из-за интервалов между репликами в случае восстановления из такой резервной копии изменения, произведенные в момент перед аварией, скорее всего будут потеряны.
Архитектура
Архитектура механизма георепликации GlusterFS построена по классической модели. Есть некий главный том (master volume) и один или несколько ведомых (slave volume). Мастер-том может состоять из произвольного количества подтомов, размещенных на множестве серверов. Запись новых данных производится только на мастер-том. Там же (на каждом из узлов мастер-тома) ведется журнал изменений, производимых с данными (changelog xlator). По умолчанию каждую минуту измененные или новые данные отправляются на ведомые тома.
Здесь есть несколько очень важных особенностей:
- Во-первых, репликация производится только в одну сторону, с главного тома на ведомый. Иными словами, данные, записанные на ведомый том, не будут перенесены на мастер-том.
- Во-вторых, такие изменения, как удаление файлов или их переименование, не будут выполнены на ведомом узле. Удаленный файл останется нетронутым, а переименованный будет скопирован еще раз, но уже с новым именем, то есть аналога Dropbox вы не получите. Такая система необходима прежде всего для гарантированной сохранности данных.
Для синхронизации используется rsync через ssh. Кроме этого, в последних версиях добавлен новый метод синхронизации tar+ssh, который эффективен при большом количестве мелких файлов.
Схема репликации может быть простой (см. рис. 1), а может иметь древовидную структуру (см. рис. 2), в которой данные с одного мастер-сервера будут распространяться на десятки географически разнесенных серверов.
Рисунок 1. Простая схема репликации
Рисунок 2. Древовидная схема репликации данных
Примечание. Нужно учитывать, что репликация – это дополнительная нагрузка на каналы связи, и, возможно, стоит предоставить для этой задачи отдельный интерфейс/канал.
Установка и настройка
В предыдущей статье [1], посвященной GlusterFS, была продемонстрирована ее установка, даны описание возможных типов томов и примеры их конфигурирования. По этой причине описание этих моментов в текущей статье не приводится. Предполагается, что все необходимые репозитории подключены, пакеты установлены и система готова к работе и, возможно, даже эксплуатируется.
Во всех примерах я использовал CentOS 7 и GlusterFS 3.5.2. Эта версия, последняя на момент написания, доступна в официальном репозитории.
Примечание. Очень важно, чтобы на всех узлах, обслуживающих главный и ведомый тома, была настроена синхронизация времени [3], так как могут быть проблемы с актуальностью данных.
Статью целиком читайте в журнале «Системный администратор», №12 за 2014 г. на страницах 10-13.
PDF-версию данного номера можно приобрести в нашем магазине.
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|