[an error occurred while processing this directive]

Создание отказоустойчивых хранилищ во FreeBSD, при помощи HAST
Введение.

HAST (Highly Avalible Storage) технология позволяющая создавать
отказоустойчивые хранилища (Primary-Secondary) используя несколько машин. Эта
технология может помочь при создании кластера высокой доступности (HA). HAST
появился в FreeBSD начиная с 8.1. В текущей версии HAST можно использовать
только две машины. HAST работает на уровне блоков и не зависит от файловой
системы, т.е. можно использовать ZFS или UFS.

Эта технология работает по TCP. Для работы используется демон hastd и утилита
для управления hastctl.

Использование.

Имеем две машины (ноды)
   host1 192.168.1.2
   host2 192.168.1.9

на обоих машинах стоит дополнительный диск ad3.
HAST готов к использованию сразу, без дополнительных установок. Для
конфигурирования создадим файл /etc/hast.conf

   resource my {
       on host1 {
               local /dev/ad3
               remote 192.168.1.9
       }
       on host2 {
               local /dev/ad3
               remote 192.168.1.2
       }
   }

т.е. host1 имеет диск ad3 и синхронизируется с 192.168.1.9 (host2), а для host2
соответственно наоборот.

Сделайте такой же файл на другой машине.

   host1# hastctl create my
   host1# hastd

После этого демон должен запустится, проверим, что все работает

   host1# hastctl status

должно выдать вроде этого

   my:
   role: init
   provname: my
   localpath: /dev/ad3
   extentsize: 0
   keepdirty: 0
   remoteaddr: 192.168.1.2
   replication: memsync
   dirty: 0 bytes [/CODE]

Сделаем такие же действия на другой ноде

   host2# hastctl create my
   host2# hastd [/CODE]

Теперь раздадим роли машинам. Например, host1 будет главным, а host2 - резервным.

   host1# hastctl role primary my
   host2# hastctl role secondary my

После того, как host2 стал secondary, должна начаться синхронизация. В первый
раз она не должна занять много времени.
Проверим, что все работает.

   host1# hastctl status
   my:
    role: primary
    provname: my
    localpath: /dev/ad3
    extentsize: 2097152
    keepdirty: 0
    remoteaddr: 192.168.1.9
    replication: memsync
    status: complete
    dirty: 0 bytes

Для нас важно, чтобы был статус complete. Если статус другой, проверяем, что не так.

Теперь создадим файловую систему. Не смотря на то что можно использовать UFS
лучше использовать ZFS, чтобы не приходилось запускать fsck.

Создадим пул используя появившееся устройство /dev/hast/my

   host1# zpool create mydisk /dev/hast/my
   host1# zpool list
   NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
   mydisk    95G  84.5K    95G     0%  ONLINE  -

На второй машине этого делать не надо.
HAST настроен.

Тестирование.

Создадим несколько файлов в mydisk и протестируем нашу систему. Для
тестирования перезагрузим ноду с primary, т.е. host1.
После перезагрузки посмотрим состяние пула

   host1# zpool list
   NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
   mydisk    -               -             -         -       FAULTED          -

Это случилось потому что пропало устройство /dev/hast/my Экспортируем пул и
поменяем роль host1 на secondary

   host1# zpool export -f my
   host1# hastctl role secondary my

А host2 сделаем основным и импортируем пул.

   host2# hastctl role primary my
   host2# zpool import -f mydisk
   host2# zpool list
   NAME     SIZE   USED  AVAIL    CAP  HEALTH  ALTROOT
   mydisk    95G    84.5K    95G     0%    ONLINE          -

Проверим наши файлы, они должны остаться.

Ошибки.

По умолчанию логи можно посмотреть в /var/log/message.
В результате некоторых действий можно добиться ситуации, когда вы обнаружите в
логах запись Split brain - разделение сознания.

Это означает, что каждая из нод думает, что она главная и живет собственной
жизнью. Такое может произойти если вы умудритесь
записать разную информацию на нодах или поставить обои машины в роль primary.
Исправить эту ситуацию можно выбрав ту машину которая будет у вас secondary, и
нужно сделать на ней:

   hastctl role init my
   hastctl create my
   hastctl role secondary my

После этого должен запуститься процесс синхронизации. Он может занять продолжительное время.


Автоматизация.

Эта система сделана для кластеризации, а именно для кластера высокой
доступности. Например можно воспользоваться CARP
чтобы сделать постоянным. Можно написать собственные скрипты, а можно
воспользоваться стандартными. Автором HAST уже написаны готовые скрипты которые
умеют определять на какой ноде сейчас primary.

Для работы следует установить ucarp:

   cd /usr/ports/net/ucarp
   make && make install clean && rehash

Скрипты находятся в /usr/share/expamles/hast/
Скопируйте их в /домашний каталог/sbin/hastd/ так предлагается по умолчанию и
отредактируйте переменные в начале скриптов

   ucarp.sh, ucarp_down.sh, ucarp_up.sh

Сделайте это на обоих нодах и запустите ucarp.sh на обоих нодах.

Дополнительные возможности.

У HAST существует три типа репликаций. Они различаются тем когда данные считаются записанными.

* memsync - Данные операции записи считаются завершенными когда запись локальна завершена 
и когда удаленный узел принял данные, но до того как записать данные. Данные на
удаленной ноде начинают
писаться, как только отправлен ответ.

* fullsync - Данные операции записи считаются завершенными когда запись завершена локально и на 
удаленной ноде запись тоже завершена.

* async - Данные записи считаются завершенными когда запись завершена локально.
Это наиболее быстрый способ записи.

На момент написания статьи работает только memsync.
Дополнительную информацию можно прочитать на http://wiki.freebsd.org/HAST

Заключение.

HAST только появился, у него богатые возможности для организации хранилища
высокой доступности. В данный момент еще не все работает, но это хорошее начало
для кластеризации на FreeBSD.

Перед тем как работать с HAST в боевых условиях рекомендую потренироваться. У
меня были ситуации, когда secondary не хотел брать данные с primary, было что
неаккуратные движения приводили к "Split Brain". Данные, правда, потеряны не
были, но много времени было потеряно на синхронизации.
 
11.10.2010 , Автор: mef , Источник: http://rubuntu.livejournal.com/4629...
Ключи: hast, freebsd, stogare, replication, disk
Раздел:    Корень / Администратору / Система / Кластерные технологии

[an error occurred while processing this directive]

[an error occurred while processing this directive]