The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]

Использование ZFS в Ubuntu Linux
Установим поддержку ZFS на Ubuntu Server и создадим RAIDZ-хранилище на базе
двух имеющихся жестких дисков.

Создадим на дисках по разделу при помощи утилиты cfdisk, для просмотра таблицы
разделов можно использовать команду "cat /proc/partitions".

Установим пакеты, необходимые для обеспечения работы ZFS:

   sudo apt-get update && sudo apt-get upgrade
   sudo apt-get install python-software-properties bison flex build-essential \\
   libelf-dev zlib1g-dev libc6-dev-i386 libdwarf-dev binutils-dev

Подключим дополнительный PPA-репозиторий zfs-native:

   sudo add-apt-repository ppa:zfs-native/stable

и установим из него пакеты с компонентами для поддержки ZFS:

   sudo apt-get update
   sudo apt-get install ubuntu-zfs

Создадим zpool с именем  zfs-test и типом заркалирования RAIDZ, поместив в
создаваемый RAID разделы на двух имеющихся дисках:

   sudo zpool create zfs-test raidz /dev/sdb1 /dev/sdc1

Посмотрим статус созданного раздела:

   sudo zpool status
   sudo zfs list
   df -h
 
11.06.2012 , Источник: http://liberumvir.com/2012/06/01/zf...
Ключи: zfs, ubuntu, disk, raidz / Лицензия: CC-BY
Раздел:    Корень / Администратору / Система / Диски и файлы / Файловые системы

Обсуждение [ Линейный режим | Показать все | RSS ]
  • 1.1, ragus (ok), 03:19, 13/06/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    лучше так:

    zpool create tank /dev/disk/by-id/scsi-SATA_WDC_WD1600BEVT-_WD-WXE408N54810-part2

     
     
  • 2.2, Аноним (-), 07:40, 13/06/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Плюсую, но не думаю, что в томе не будут содержаться идентификаторы диска.
    В родной среде не пугались написать /dev/c0t0d0s1, вместо уникального имени.
     
     
  • 3.3, ragus (ok), 13:56, 13/06/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Плюсую, но не думаю, что в томе не будут содержаться идентификаторы диска.
    > В родной среде не пугались написать /dev/c0t0d0s1, вместо уникального имени.

    в солярке имя устройства однозначно идентифицирует его положение, т.к. в вашем примере c0 - это контроллер номер 0.
    в linux & freebsd это не так. sda1 - это может быть первый раздел на hdd или на usb-flash, или на блочном устройстве, экспортированном по сети.

     
     
  • 4.4, Аноним (-), 09:23, 14/06/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Во FreeBSD есть опция в ядре "ATA_STATIC_ID" которая нумеровала диски согласно подключению к контроллерам. Т.е. /dev/ad0 = Primary master, /dev/ad3 = Secondary slave (для sata нечетных не бывает) etc. И не так страшно если пропадет диск - нумерация не плывет.
    А вот в Linux я такой опции не нашел сколько не искал. Вот и приходится извращаться с UUID.
     
     
  • 5.5, ragus (ok), 13:16, 14/06/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Во FreeBSD есть опция в ядре "ATA_STATIC_ID" которая нумеровала диски согласно подключению

    AFAIK, это относится только к ata-подсистеме.
    сейчас уже есть AHCI и всех этих master/slave уже нет.

    вообще:
    http://people.freebsd.org/~mav/ata-cam.pdf


    > А вот в Linux я такой опции не нашел сколько не искал.
    > Вот и приходится извращаться с UUID.

    и это правильный путь. т.к. диски можно перепутать.

     
  • 4.6, ананим (?), 12:19, 16/06/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Не однозначно.
    Стоит врубить мултипас и имена в соляре идут лесом.
    Опять же это работает только на спарках с опенбут.
    На интелях таже ситуёвина - это может быть первый раздел на...
     
  • 4.7, Аноним (-), 12:11, 20/06/2012 [^] [^^] [^^^] [ответить]  
  • +/
    >в солярке имя устройства однозначно идентифицирует его положение, т.к. в вашем примере c0 - это контроллер номер 0.
    >в linux & freebsd это не так. sda1 - это может быть первый раздел на hdd или на usb-flash, или на блочном устройстве, экспортированном по сети.

    Во фре всяко игрался с zfs-ом, в том числе переставлял диски и выключал/включал AHCI (при этом массив был создан с использованием не меток, а физических устройств: ad1s1d, ad2s1d...), zfs не запутывалась.

     
     
  • 5.8, Аноним (-), 08:29, 21/06/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Во фре всяко игрался с zfs-ом, в том числе переставлял диски и
    > выключал/включал AHCI (при этом массив был создан с использованием не меток,
    > а физических устройств: ad1s1d, ad2s1d...), zfs не запутывалась.

    Потому что её на это насрать вообще. Хоть вообще все диски в пуле местами поменяй. Это что-то линуксоидное, делать из этого проблему :)

     
     
  • 6.11, Аноним (-), 22:11, 04/07/2012 [^] [^^] [^^^] [ответить]  
  • +/
    В GNU/Linux всяко игрался с lvm-ом, в том числе переставлял диски и
    выключал/включал AHCI, lvm не запутывалась.
     
     
  • 7.12, Аноним (-), 22:14, 04/07/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Потому что ему на это насрать вообще. Хоть вообще все диски в группе томов местами поменяй. Это что-то фряшное, пердеть в лужу не разбираясь в вопросе
     

  • 1.9, Аноним (-), 13:56, 28/06/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Чего это линуксоиды полезли на zfs? брысь в свою btrfs и нефик использовать то что не нужно.
     
     
  • 2.10, ананим (?), 13:44, 04/07/2012 [^] [^^] [^^^] [ответить]  
  • +/
    это чтобы всякие не пиндели, что zfs в линухе нет.

    зыж
    а так да, живёт мой ноут на бтр с декабря 2011 на бтр, всё ок.
    нафиг не нужна эта избыточность жрущая озу на лине.

     

  • 1.13, nagual (ok), 23:52, 07/07/2012 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    бтр тот еще лагомер и ненужно отрицать что бтр не требует такой же обьем памяти под кеш как зфс :-)) да разрабы скромного умолчали, но если гига под кеш не будет то будут лаги ...
     
     
  • 2.14, ананим (?), 14:03, 09/07/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Как об стену горох.
    Говорю ж русским языком, на ноуте, весь винт 500Гб.
    Для меня время тестов прошло, полгода уже как.
    Не, на сервера не ставлю, но судя по ноуту — в сравнении с ext4 некоторые вещи стали медленнее, некоторые быстрее (дерево каталогов например), памяти жрать больше не стал.
    В отличии от zfs.
     
     
  • 3.15, nagual (ok), 23:18, 09/07/2012 [^] [^^] [^^^] [ответить]  
  • +/
    > Как об стену горох.
    > Говорю ж русским языком, на ноуте, весь винт 500Гб.
    > Для меня время тестов прошло, полгода уже как.
    > Не, на сервера не ставлю, но судя по ноуту — в сравнении
    > с ext4 некоторые вещи стали медленнее, некоторые быстрее (дерево каталогов например),
    > памяти жрать больше не стал.
    > В отличии от zfs.

    В том буке памяти не 8 случайно :-)) Вообщето использование памяти зфс и брт в топе не видно ...

     
     
  • 4.16, ананим (?), 15:00, 11/07/2012 [^] [^^] [^^^] [ответить]  
  • +/
    Ну конечно, только вы дартанЯн, а мы все пейзаны.
     

     Добавить комментарий
    Имя:
    E-Mail:
    Заголовок:
    Текст:




    Партнёры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2024 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру