The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Доступен mdadm 4.2, инструментарий для управления программным RAID в Linux

03.01.2022 17:29

Спустя три года с момента формирования прошлой значительной ветки представлен выпуск пакета mdadm 4.2.0, включающего набор инструментов для управления программными RAID-массивами в Linux. Из изменений в новой версии отмечается возможность сборки с использованием GCC 9 и расширение поддержки RAID-массивов IMSM (Intel Matrix Storage Manager), а также используемой в них функциональности Partial Parity Log (PPL), позволяющей сохранять дополнительные избыточные данные для снижения вероятности повреждения информации (Write Hole) в случае рассинхронизации содержимого дисков. В новой версии также улучшена поддержка кластерных RAID1/10 (Cluster MD), позволяющих развернуть программный RAID для всех узлов кластера.

  1. Главная ссылка к новости (https://marc.info/?l=linux-rai...)
  2. OpenNews: Доступен mdadm 4.0, инструментарий для управления программным RAID в Linux
  3. OpenNews: В MD/RAID6 в Linux выявлена проблема, которая может привести к потере данных
  4. OpenNews: Релиз системы управления RAID-массивами Einarc 2.0
  5. OpenNews: Проблема с повреждением разделов Ext4 оказалась в md-raid0
  6. OpenNews: Релиз OpenZFS 2.1 с поддержкой dRAID
Лицензия: CC-BY
Тип: Программы
Короткая ссылка: https://opennet.ru/56450-mdadm
Ключевые слова: mdadm, raid
При перепечатке указание ссылки на opennet.ru обязательно


Обсуждение (56) Ajax | 1 уровень | Линейный | +/- | Раскрыть всё | RSS
  • 1.1, Аноним (1), 18:58, 03/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    RAID6 с сабжем безопасно использовать, или до сих пор проеблемы остаются? Насколько мне известно, его так и не осилили в btrfs.

    Немного не по теме, но у меня после прошлого обновления lvm не маппится в систему автоматически при подключении, надо писать vgchange --available y каждый раз. Что это? Раньше такого не было.

     
     
  • 2.4, ТотСамыйАнонимныйАнонимус (?), 19:22, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    а посмотреть фильтры в lvm.conf? добавить свое устройство в разрешенные?
     
     
  • 3.5, Аноним (1), 19:32, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > а посмотреть фильтры в lvm.conf? добавить свое устройство в разрешенные?

    Можно попробовать. Просто lvm2 месяц назад обновился и до того подключаемые диски всегда мапились сразу. Я немножко попереживал, когда перестали определяться.

     
     
  • 4.11, ТотСамыйАнонимныйАнонимус (?), 21:10, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Мусье любит пить шампанское? Риск это так по нашему, сначала прыгнуть потом кричать - лечу.
     
  • 2.10, Аноним (10), 21:10, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > Немного не по теме, но у меня после прошлого обновления lvm не маппится в систему автоматически при подключении, надо писать vgchange --available y каждый раз. Что это? Раньше такого не было.

    Надо смотреть, что за скрипты у вас в initrd. Это их работа - делать vgchange -ay. Если там вместо -ay будет -aay, то при пустом lvm.conf оно активироваться не будет (разумеется, работает тот lvm.conf)

     
     
  • 3.12, Аноним (10), 21:11, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > (разумеется, работает тот lvm.conf)

    ... который лежит в initrd

     
  • 3.13, ТотСамыйАнонимныйАнонимус (?), 21:12, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • –4 +/
    вообще сначало надо update-initrams -k all -vut сделать и поглядеть грепом что там вообще с лвм.
     
     
  • 4.42, hohax (?), 12:31, 05/01/2022 [^] [^^] [^^^] [ответить]  
  • +1 +/
    > update-initrams -k all

    Нельзя быть таким ограниченным.

     

  • 1.2, Анонимиус (??), 18:59, 03/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Огромное спасибо разработчикам. Выручает в тех случаях, когда для ZFS не хватает ресурсов.
     
  • 1.3, richman1000000 (ok), 19:18, 03/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • +3 +/
    использую только md raid  на линух
     
     
  • 2.25, лютый жабби__ (?), 12:00, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +1 +/
    >использую только md raid  на линух

    сукс... когда начинает чекать в фоне зашифрованное luks-м зеркало, сервак колом встаёт.

     
     
  • 3.39, Аноним (39), 09:53, 05/01/2022 [^] [^^] [^^^] [ответить]  
  • +1 +/
    используйте сервера, а не какие-то серваки.
     

  • 1.6, Аноним (6), 19:38, 03/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • –1 +/
    Чем оно лучше zfs и btrfs?
     
     
  • 2.7, Аноним (7), 20:47, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • +2 +/
    Не такой загадочный. А так, конечно, ZFS получше. :)
     
     
  • 3.8, Аноним (10), 21:05, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Пока не деградирует по скорости (из-за фрагментации, вестимо, потому что пересоздание пула с нуля временно помогает) :)
     
     
  • 4.15, Аноним (15), 23:49, 03/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Привыкли забивать разделы под завязку?
    ZFS этого не любит.
     
     
  • 5.18, Аноним (10), 01:22, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Неа. Я ж понимаю, что zfs - это экспериментальная фигня типа btrfs, которая в любых более-менее сложных условиях ведет себя непредсказуемо, так что мониторинги настроены.
     
     
  • 6.33, OpenEcho (?), 16:29, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Аха... 21 год живет в проде и все экспериментально
     
  • 5.26, Аноним (26), 12:43, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Любит, но под эту ситуацию zfs необходимо тюнить. Иначе во время поиска свободного места будет "тупняк". В свою очередь, это ведёт к ещё большему расходу памяти но до 90% работает нормально.
     

  • 1.9, ТотСамыйАнонимныйАнонимус (?), 21:08, 03/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • –7 +/
    что такое Cluster MD? сколько не читал так и не понял к чему эта поделка?
    какой профит? Цеф уделывает его за обе щеки.
     
     
  • 2.43, Аноним (43), 09:50, 06/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Это когда ты можешь собрать рейд из одних и тех же дисков на 2х разных хостах, и они будут цивилизованно синхронизировать изменение метаданных рейда, а не плевать друг другу (и тебе) в суп при изменениях конфигурации рейда (добавление/удаление дисков, синхронизация, обновления bitmap-а etc)
     
     
  • 3.50, ТотСамыйАнонимныйАнонимус (?), 00:12, 07/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Звучит как репликация в ХыперВи. Не нена, уже в хиперВи пару раз видал факапы....
     

  • 1.14, Аноним (10), 23:44, 03/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • +2 +/
    Вроде бы в версии 4.2 так и не починили баг, из-за которого он убивает корневую ФС при попытке запустить в chroot https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=982459

    Будьте осторожны, инструмент сделан профессиоаналами для профессионалов!

     
     
  • 2.23, onanim (?), 11:41, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • –1 +/
    > in chroot without /proc,/dev,/sys mounted

    нафига, а главное - зачем, заходить в чрут без примонтированных proc dev sys?

     
     
  • 3.35, Аноним (10), 18:37, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Например, установка системы в chroot.
     
     
  • 4.56, onanim (?), 10:02, 08/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > Например, установка системы в chroot.

    очевидно, что половина программ без /dev/ и /proc/ со всякими /sys/  работать не будет.
    особенно программ типа mdadm

     

  • 1.16, Аноним (15), 00:05, 04/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • –5 +/
    md уже умеет не убивать внезапно разделы и/или массив целиком?
    Или по-прежнему годен только для экспериментов?
     
     
  • 2.17, Аноним (10), 01:20, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +6 +/
    Когда надоест экспериментировать, почитайте man mdadm. После этого внезапные убийства должны прекратиться.
     
     
  • 3.46, Аноним (15), 16:09, 06/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Делали всё строго по документацииn mdadm.
    Дохнет, при этом когда не ждёшь, точную дату предстказать невозможно, да и не хочется вообще с этим снова возиться.
    2 раза выручил бэкап с ленты, этого хватило, чтобы выбросить mdadm куда подальше.

    Теперь только аппаратный RAID на отельном контроллере и нормальные брендовые серверы (не российские).
    А софтовые "супер-решения" — это для экстремалов и личного использования за пределами production.

     
     
  • 4.49, ТотСамыйАнонимныйАнонимус (?), 00:06, 07/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Звучит как вброс, дистр, версия, название пакета, сцыль на баг?
    Бекап откуда? С ленты? Дедушка вы откуда вылезли? Какие ленты? На дворе 2022 год!
    Одно из двух:
    1. Банальный пи3**0л
    2. Пи3**0л неосилятор.
     
     
  • 5.51, Аноним (15), 11:58, 07/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Может быть ты сначала прочитаешь про ленточные библиотеки уровня предприятия, какие существуют стндраты, как работают профессиональные системы резервного копирования, а потом уже будешь носиться со своим "высокоумным" мнением?

    Если ты не работал там, где всё это применяется, это не значит, что LTO нигде не используется.

     
  • 3.48, Аноним (15), 16:14, 06/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    * на отдельном котроллере
     
  • 2.19, Вася (??), 02:39, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +1 +/
    Больше 10 лет пользую, ничего внезапно не убивалось. Как вы этого достигли, кого благодарить?
     
     
  • 3.20, Аноним (10), 02:51, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • –1 +/
    Легко.
    for i in {a..z}; do for j in {1..10}; do mdadm --zero-superblock=/dev/md${i}${j} 2>/dev/null; done; done

    Кто хочет - ищет способ, кто не хочет - придумывает оправдания.

     
     
  • 4.21, Аноним (10), 02:52, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > md${i}${j}

    sd${i}${j} конечно же

     
  • 4.28, Ann None (?), 13:06, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +2 +/
    > for i in {a..z}; do for j in {1..10}; do mdadm --zero-superblock=/dev/md${i}${j} 2>/dev/null; done; done

    двоечник.
    ls /dev/sd[a-z]?* | xargs -rl mdadm --zero-superblock

     
  • 4.54, Вася (??), 07:35, 08/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > Легко.
    > for i in {a..z}; do for j in {1..10}; do mdadm --zero-superblock=/dev/md${i}${j}
    > 2>/dev/null; done; done
    > Кто хочет - ищет способ, кто не хочет - придумывает оправдания.

    хули ты мне сделаешь у меня массивы с 127 начинаються ухахаххаха

    поэтому я просто делаю dd if=/dev/zero if=/dev/sd* bs=10M count=1

     
  • 3.52, Аноним (15), 12:24, 07/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Может быть пора уже поискать работу в нормальной компании, у которой есть деньги на аппаратный RAID-контроллер?
     
     
  • 4.55, Вася (??), 07:36, 08/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > Может быть пора уже поискать работу в нормальной компании, у которой есть
    > деньги на аппаратный RAID-контроллер?

    они щас везде есть, как минимум во встройках.

    но лучше б не было

     
     
  • 5.57, Аноним (15), 10:11, 08/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Встроенный контроллер -- это чаще всего fake Raid с усеченными функциями.
    Нормальный аппаратный контроллер на отдельной плате расширения с быстрым кешем на батарейке, со своим АЛУ, чтобы разгрузить процессор и ОС, с интерфейсом управления, с возможностью сохранить-восстановить конфигурацию -- это совсем другое дело. Это профессиональное решение.
     

  • 1.22, InuYasha (??), 11:05, 04/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • +1 +/
    Не пользуюсь, но уважаю! )
     
  • 1.24, Demo (??), 11:55, 04/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Для чего-то мелкого можно и mdadm использовать.
    А вот для дисковых массивов, объёмом от 20 ТБ лучше, конечно же, ZFS. Иначе, малейший сбой — и устанете ждать окончания пересборки массива.
     
     
  • 2.27, Аноним (26), 12:48, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +1 +/
    А ещё лучше - zfs на smr-дисках :)
     
     
  • 3.30, Demo (??), 15:14, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > А ещё лучше - zfs на smr-дисках :)

    Было бы интересно сравнить скорость сборки на SMR-дисках у ZFS и mdadm.

     
  • 3.41, pofigist (?), 10:23, 05/01/2022 [^] [^^] [^^^] [ответить]  
  • –1 +/
    mdadm на smr даст ровно тот же результат - ибо они вообще не предназначены для использовании в raid-массивах.
     
  • 3.53, 50 shades of resilver (?), 05:43, 08/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    О. Месье любит без смазки?
     
  • 2.29, Аноним (29), 13:15, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > устанете ждать окончания

    ...resilver'a // fixed

     
     
  • 3.32, Demo (??), 15:16, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Проверено на собственном опыте на одном и том же железе:

    zfs resilver — ~450 Мегабайт/с.
    mdadm — плавает от 1-го до ~10-ти Мегабайт/с.

     
     
  • 4.34, Аноним (1), 17:24, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Не важно, какая скорость, важно, сколько времени в итоге уйдёт. И это всё равно месяц завершения ждать. Насколько часто придётся выполнять?
     
     
  • 5.36, Demo (??), 18:43, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    > Не важно, какая скорость, важно, сколько времени в итоге уйдёт.

    А теперь прочитайте своё же утверждение.

    Чем больше скорость пересборки, тем меньше "времени в итоге уйдёт".
    Пока mdadm тупит, падает производительность хранилища.

     
     
  • 6.37, Аноним (1), 18:53, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Надо тестить, я так не могу сказать. Но если сабж, допустим, не деградирует, это простительно и лечится адекватным сетапом.
     
     
  • 7.38, лютый жабби__ (?), 21:26, 04/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    >Но если сабж, допустим, не деградирует, это простительно и лечится адекватным сетапом.

    mdadm с бтр/зфс по идее надо вообще сравнивать в виде integritysetup+mdadm vs btrfs и тогда первое вообще в полной Ж

    хотя у меня все серваки под mdadm, увы

     
     
  • 8.40, Demo (??), 10:20, 05/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    На предыдущей конторе, к моему приходу тоже всё было под mdadm Админы половину ... текст свёрнут, показать
     
     
  • 9.45, Аноним (43), 09:58, 06/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    А зачем они mdraid под gluster совали И как, кстати, тебе опыт эксплуатации гла... текст свёрнут, показать
     
  • 2.44, Аноним (43), 09:55, 06/01/2022 [^] [^^] [^^^] [ответить]  
  • +/
    Подозреваю, что ты сталкивался с любителями бахнуть raid6 на десяток дисков, да без bitmap или ppl.
    Мозг включать-то при сборке рейда же надо.
     

  • 1.47, Аноним (15), 16:11, 06/01/2022 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Увы, но это не enterprise решение.
    Хотя для админов малого бизнеса вполне сойдёт.
     

     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    PostgresPro
    Inferno Solutions
    Hosting by Hoster.ru
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2022 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру