Рубрика:
Администрирование /
Хранение данных
|
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|
АЛЕКСЕЙ БЕРЕЖНОЙ, независимый консультант, системный архитектор, специалист по системам виртуализации и резервного копирования, alexey.berezhnoy@tech-center.com
Настройка современной системы хранения
В статье рассказывается о базовой настройке системы хранения на основе серверов IBM x3650M4 и дискового хранилища IBM DSC 3700
Ситуация, когда для хранения массива данных используется один файл-сервер с внутренними локальными жесткими дисками, понемногу уходит в прошлое. Современные системы используют сеть хранения данных – SAN [1], и от системных администраторов все чаще требуется умение самостоятельно настраивать подобное оборудование.
При написании этой статьи я не ставил своей целью дать исчерпывающую инструкцию по работе с SAN-сетями и дисковыми хранилищами. Зачастую системному администратору необходимо всего лишь запустить имеющееся оборудование в эксплуатацию и освоить доступные ресурсы, в данном случае объем дискового массива.
Выбор оборудования и программного обеспечения
Рассмотрим оборудование, фигурирующее в данном примере. В качестве основной системы хранения используется одиночный модуль IBM DSC3700 [2]. В него установлено 20 жестких дисков SSD по 300 Гб и 40 HDD SAS по 2 Тб.
Предполагается, что массивы из высокоскоростных жестких дисков SSD будут использоваться для операций кэширования, а для хранения основного объема информации станут применяться обычные SAS-диски, более медленные, но гораздо большего объема.
Для серверов, предоставляющих доступ к системе хранения, была выбрана модель IBM x3650M4 [3]. Что же касается конкретных характеристик сервера, в нашем примере они не играют существенной роли, так как цель статьи – дать представление о методике построения системы хранения на базе данного оборудования.
Примечание. При выборе оборудования для организации системы хранения в первую очередь надо учитывать требования программного обеспечения: развертываемых приложений и операционной системы.
Несмотря на то что в нашем примере используется дорогое оборудование уровня Enterprise, принципы, изложенные в статье, хорошо подходят и для простых решений на базе более скромного набора аппаратного обеспечения.
В качестве операционной системы используется Linux, дистрибутив CentOS. Выбор данной системы осуществлялся не случайным образом. Дело в том, что в дистрибутивах на базе Red Hat: Red Hat Enterprise Linux, CentOS, Oracle Linux и других родственных представителях, драйверы и программное обеспечение для работы с различным SAN-оборудованием уже встроены в саму систему: в ядро и набор сопутствующих программ, и доступны в виде RPM-пакетов. Или, как принято сейчас говорить, «работает сразу из коробки». Я нисколько не принижаю достоинства других операционных систем и различных дистрибутивов Linux, но решение на базе Red Hat наиболее удобное с точки зрения простоты настройки.
В то же время, если читатель захочет использовать, например, Debian или даже MS Windows Server, то ему останется просто адаптировать данное руководство для нужной операционной системы.
Схема взаимодействия оборудования
В нашем примере используются два одиночных сервера, подключенных к хранилищу. Стоит обратить внимание, что это не отказоустойчивая схема кластерного типа, здесь оба сервера могут играть разноплановые роли, и единственное, что их объединяет, – они подключены к одному дисковому хранилищу, хотя и к разным дисковым массивам.
В нашей схеме отсутствует внешний Fibre Channel [4] коммутатор, серверы подключаются напрямую к хранилищу. В принципе такую схему можно отнести к Direct-attached storage [5].
В то же время для обеспечения стабильности используется несколько каналов связи на базе оптоволоконных соединений. У каждого сервера два адаптера FC, оба имеют по два оптоволоконных порта. В свою очередь хранилище имеет два контроллера, у каждого из которых более четырех оптоволоконных портов. Таким образом, реализуется схема соединений «каждый с каждым» (см. рис. 1).
Рисунок 1. Схема подключения дискового хранилища
Так как серверы «не знают», что на самом деле к ним подключено одно и то же хранилище, но несколькими соединениями, система диагностики оборудования будет определять такие подключения как самостоятельные. Каждый подключенный дисковый раздел система будет отображать как четыре независимых. При попытке записи в таком режиме произойдет потеря данных. В рассматриваемом случае, помимо этого, при попытке записи произошло полное зависание системы, от которой спасла только холодная перезагрузка.
Чтобы вывести наш аппаратно-программный комплекс из данного заблуждения, необходимо создать определенные условия (установить дополнительное ПО и выполнить соответствующие настройки), чтобы все компоненты ОС правильно взаимодействовали с подключенным оборудованием.
Такая система называется Multi Pathing [6] (дословно в переводе с английского это означает «много путей»).
Далее пойдет речь о том, как настроить хранилище нужным образом и организовать Multi Pathing для безошибочной работы серверов с дисковыми разделами по Fibre Channel.
Статью целиком читайте в журнале «Системный администратор», №9 за 2014 г. на страницах 32-38.
PDF-версию данного номера можно приобрести в нашем магазине.
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|