The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"zpool import не принимает пул хотя все online"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Открытые системы на сервере (Файловые системы, диски / FreeBSD)
Изначальное сообщение [ Отслеживать ]

"zpool import не принимает пул хотя все online"  +/
Сообщение от interface (ok), 28-Апр-20, 14:12 
root@freenas:~ # zpool import
   pool: pool1
     id: 9864696056934208379
  state: ONLINE
status: The pool was last accessed by another system.
action: The pool can be imported using its name or numeric identifier and
        the '-f' flag.
   see: http://illumos.org/msg/ZFS-8000-EY
config:

        pool1       ONLINE
          mirror-0  ONLINE
            ada1p1  ONLINE
            ada2p1  ONLINE

при этом попытка импорта
zpool import pool1
cannot import 'pool1': pool may be in use from other system, it was last accessed by freenas.local (hostid: 0xcb47e6fc) on Fri Apr 24 11:07:59 2020
use '-f' to import anyway

а если использовать флаг -f то приводит к панике и ребуту.

Кто знает как починить?

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения [Сортировка по времени | RSS]


1. "zpool import не принимает пул хотя все online"  –1 +/
Сообщение от lavremail (ok), 28-Апр-20, 15:38 
> root@freenas:~ # zpool import
>    pool: pool1
>      id: 9864696056934208379
>   state: ONLINE
>  status: The pool was last accessed by another system.
>  action: The pool can be imported using its name or numeric
> identifier and
>         the '-f' flag.
>    see: http://illumos.org/msg/ZFS-8000-EY

верхнее читали?!
пытались работать с пулом из другой OS?
изменился hostid в ZFS label, не дай бог пытались zpool/zfs upgrade делать.

>[оверквотинг удален]
>            
> ada2p1  ONLINE
> при этом попытка импорта
>  zpool import pool1
> cannot import 'pool1': pool may be in use from other system, it
> was last accessed by freenas.local (hostid: 0xcb47e6fc) on Fri Apr 24
> 11:07:59 2020
> use '-f' to import anyway
> а если использовать флаг -f то приводит к панике и ребуту.
> Кто знает как починить?

загрузиться с LiveUSB/CD и import -f

Ответить | Правка | Наверх | Cообщить модератору

2. "zpool import не принимает пул хотя все online"  +/
Сообщение от interface (ok), 28-Апр-20, 16:48 

> верхнее читали?!
> пытались работать с пулом из другой OS?
> изменился hostid в ZFS label, не дай бог пытались zpool/zfs upgrade делать.
> загрузиться с LiveUSB/CD и import -f

Этот пул был создан под другой осью(всмысле экзепляр оси) а вид freebsd.
апгрейд не делал зфс.
вопрос по лайф сиди - версия бсд и зфс на ней любая подойдет?

Ответить | Правка | Наверх | Cообщить модератору

3. "zpool import не принимает пул хотя все online"  +/
Сообщение от lavremail (ok), 28-Апр-20, 17:05 
>> верхнее читали?!
>> пытались работать с пулом из другой OS?
>> изменился hostid в ZFS label, не дай бог пытались zpool/zfs upgrade делать.
>> загрузиться с LiveUSB/CD и import -f
> Этот пул был создан под другой осью(всмысле экзепляр оси) а вид freebsd.
> апгрейд не делал зфс.
> вопрос по лайф сиди - версия бсд и зфс на ней любая
> подойдет?

ХЗ, никогда не пробовал прыгать, по идее, лучше если версия старше.

Ответить | Правка | Наверх | Cообщить модератору

4. "zpool import не принимает пул хотя все online"  +/
Сообщение от lavremail (ok), 28-Апр-20, 18:12 
>>> верхнее читали?!
>>> пытались работать с пулом из другой OS?
>>> изменился hostid в ZFS label, не дай бог пытались zpool/zfs upgrade делать.
>>> загрузиться с LiveUSB/CD и import -f
>> Этот пул был создан под другой осью(всмысле экзепляр оси) а вид freebsd.
>> апгрейд не делал зфс.
>> вопрос по лайф сиди - версия бсд и зфс на ней любая
>> подойдет?
> ХЗ, никогда не пробовал прыгать, по идее, лучше если версия старше.

при загрузке с livecd/usb нужно чтобы были подгружены модули zfs
и вероятно, перед zpool import -f poolname , следует сделать

# /etc/rc.d/hostid onestart

ps. хорошо было бы сделать zpool export poolname перед import'ом,
но это было бы хорошо сделать из той версии под которой пул работал
без проблем.

Ответить | Правка | Наверх | Cообщить модератору

5. "zpool import не принимает пул хотя все online"  +/
Сообщение от interface (ok), 28-Апр-20, 19:22 
> при загрузке с livecd/usb нужно чтобы были подгружены модули zfs
> и вероятно, перед zpool import -f poolname , следует сделать
> # /etc/rc.d/hostid onestart
> ps. хорошо было бы сделать zpool export poolname перед import'ом,
> но это было бы хорошо сделать из той версии под которой пул
> работал
> без проблем.

https://clip2net.com/s/47gsuDn вот что выдает на попытку импорта под лайв сиди. Может есть какие то способы тестирования и исправления?

Ответить | Правка | Наверх | Cообщить модератору

6. "zpool import не принимает пул хотя все online"  +/
Сообщение от lavremail (ok), 28-Апр-20, 20:53 
>> при загрузке с livecd/usb нужно чтобы были подгружены модули zfs
>> и вероятно, перед zpool import -f poolname , следует сделать
>> # /etc/rc.d/hostid onestart
>> ps. хорошо было бы сделать zpool export poolname перед import'ом,
>> но это было бы хорошо сделать из той версии под которой пул
>> работал
>> без проблем.
> https://clip2net.com/s/47gsuDn вот что выдает на попытку импорта под лайв сиди. Может есть
> какие то способы тестирования и исправления?

для начала:

1. проверьте HDD: smartctl short и long test
2. проверьте RAM:

Я правильно понял что FreeNAS грузится, и zfs работает, но import
сделать Вы не можете?
Если FreeNAS грузится и работает, что будет в случае:

# zpool status pool1
если все Ok
# zpool scrub pool1

ps. После чего это произошло? Эти диски с другой FreeNAS?

Ответить | Правка | Наверх | Cообщить модератору

7. "zpool import не принимает пул хотя все online"  +/
Сообщение от interface (ok), 29-Апр-20, 01:07 
> для начала:
> 1. проверьте HDD: smartctl short и long test
> 2. проверьте RAM:
> Я правильно понял что FreeNAS грузится, и zfs работает, но import
> сделать Вы не можете?
> Если FreeNAS грузится и работает, что будет в случае:
> # zpool status pool1
> если все Ok
> # zpool scrub pool1
> ps. После чего это произошло? Эти диски с другой FreeNAS?

после чего произошло сказать не могу. просто после ребута виртуалки с nas она начала вываливаться в отладчик при загрузке по причине паники. С памятью все хорошо ибо рядом еще виртуалки норм пашут. FreeNAS была установлена по соседству и в нее проброшены диски незагружающейся нас.

статус получить не удается ибо как я понимаю он требует предварительного импорта
zpool status pool1
cannot open 'pool1': no such pool

смарт тесты провел. вот вывод одного из дисков - они впринципе похожи для обоих:

root@pve:~# smartctl --all /dev/sdc
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-4.10.17-2-pve] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Toshiba 3.5" DT01ACA... Desktop HDD
Device Model:     TOSHIBA DT01ACA100
Serial Number:    Z5UGYVTNS
LU WWN Device Id: 5 000039 fe7d4e4ce
Firmware Version: MS2OA750
User Capacity:    1,000,203,804,160 bytes [1.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 4
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Wed Apr 29 00:58:01 2020 MSK
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x85) Offline data collection activity
                                        was aborted by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      ( 249) Self-test routine in progress...
                                        90% of test remaining.
Total time to complete Offline
data collection:                ( 7555) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 126) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   140   140   054    Pre-fail  Offline      -       78
  3 Spin_Up_Time            0x0007   136   136   024    Pre-fail  Always       -       160 (Average 176)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       182
  5 Reallocated_Sector_Ct   0x0033   100   100   005    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   118   118   020    Pre-fail  Offline      -       33
  9 Power_On_Hours          0x0012   096   096   000    Old_age   Always       -       31612
10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       181
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       282
193 Load_Cycle_Count        0x0012   100   100   000    Old_age   Always       -       282
194 Temperature_Celsius     0x0002   166   166   000    Old_age   Always       -       36 (Min/Max 17/50)
196 Reallocated_Event_Count 0x0032   100   100   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0022   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       0

SMART Error Log Version: 1
ATA Error Count: 726 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 726 occurred at disk power-on lifetime: 27182 hours (1132 days + 14 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 81 af 5e b5 0a  Error: UNC at LBA = 0x0ab55eaf = 179658415

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 90 58 a0 5e b5 40 08   5d+04:35:24.617  READ FPDMA QUEUED
  60 00 50 00 6a 19 40 08   5d+04:35:24.616  READ FPDMA QUEUED
  60 00 48 e8 95 dc 40 08   5d+04:35:24.614  READ FPDMA QUEUED
  60 00 40 e8 94 dc 40 08   5d+04:35:24.613  READ FPDMA QUEUED
  60 00 38 e8 93 dc 40 08   5d+04:35:24.612  READ FPDMA QUEUED

Error 725 occurred at disk power-on lifetime: 26908 hours (1121 days + 4 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 01 07 20 00 00  Error: UNC at LBA = 0x00002007 = 8199

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 08 c0 00 20 00 40 08      00:04:40.671  READ FPDMA QUEUED
  60 08 b8 f0 5f 70 40 08      00:04:40.671  READ FPDMA QUEUED
  60 08 b0 80 5f 70 40 08      00:04:40.671  READ FPDMA QUEUED
  60 01 a8 00 00 00 40 08      00:04:40.634  READ FPDMA QUEUED
  ea 00 00 00 00 00 a0 08      00:04:36.139  FLUSH CACHE EXT

Error 724 occurred at disk power-on lifetime: 24212 hours (1008 days + 20 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 01 87 5f 70 04  Error: UNC at LBA = 0x04705f87 = 74473351

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 08 c0 80 5f 70 40 08      00:04:31.080  READ FPDMA QUEUED
  60 01 b8 00 00 00 40 08      00:04:31.080  READ FPDMA QUEUED
  60 08 a8 00 20 00 40 08      00:04:30.932  READ FPDMA QUEUED
  60 08 98 08 20 00 40 08      00:04:30.931  READ FPDMA QUEUED
  60 08 90 00 20 00 40 08      00:04:30.927  READ FPDMA QUEUED

Error 723 occurred at disk power-on lifetime: 20433 hours (851 days + 9 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 01 87 5f 70 04  Error: UNC at LBA = 0x04705f87 = 74473351

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 08 58 80 5f 70 40 08      00:04:30.247  READ FPDMA QUEUED
  60 01 40 00 00 00 40 08      00:04:30.211  READ FPDMA QUEUED
  ea 00 00 00 00 00 a0 08      00:04:27.877  FLUSH CACHE EXT
  61 08 28 c8 3f 70 40 08      00:04:27.877  WRITE FPDMA QUEUED
  61 08 20 c8 3d 70 40 08      00:04:27.877  WRITE FPDMA QUEUED

Error 722 occurred at disk power-on lifetime: 19224 hours (801 days + 0 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 01 87 5f 70 04  Error: UNC at LBA = 0x04705f87 = 74473351

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 08 60 80 5f 70 40 08      00:04:21.648  READ FPDMA QUEUED
  60 01 48 00 00 00 40 08      00:04:21.610  READ FPDMA QUEUED
  ea 00 00 00 00 00 a0 08      00:04:21.322  FLUSH CACHE EXT
  61 08 38 30 3f 70 40 08      00:04:21.321  WRITE FPDMA QUEUED
  61 08 30 30 3d 70 40 08      00:04:21.321  WRITE FPDMA QUEUED

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

если я верно понял то вот подобная строчка говорит что с диском все плохо
1 Raw_Read_Error_Rate     0x000b   100   100   016    Pre-fail  Always       -       0

Ответить | Правка | Наверх | Cообщить модератору

8. "zpool import не принимает пул хотя все online"  +/
Сообщение от Licha Morada (ok), 29-Апр-20, 01:39 
> если я верно понял то вот подобная строчка говорит что с диском
> все плохо
> 1 Raw_Read_Error_Rate     0x000b   100  
> 100   016    Pre-fail  Always       -      0

Это один из вариантов.
Есть другие, например что шлейф плохо контачит или прохудился.
Интересно что сразу на обоих дисках. Если предположить что оба шлейфа синхронно из строя выйти не могли, то имеет смысл смотреть на блок питания.

Ответить | Правка | Наверх | Cообщить модератору

9. "zpool import не принимает пул хотя все online"  +/
Сообщение от lavremail (ok), 29-Апр-20, 10:27 
>[оверквотинг удален]
>> сделать Вы не можете?
>> Если FreeNAS грузится и работает, что будет в случае:
>> # zpool status pool1
>> если все Ok
>> # zpool scrub pool1
>> ps. После чего это произошло? Эти диски с другой FreeNAS?
> после чего произошло сказать не могу. просто после ребута виртуалки с nas
> она начала вываливаться в отладчик при загрузке по причине паники. С
> памятью все хорошо ибо рядом еще виртуалки норм пашут. FreeNAS была
> установлена по соседству и в нее проброшены диски незагружающейся нас.

те, FreeNAS - это ВМ в которую через passthrou проброшены диски?

> смарт тесты провел. вот вывод одного из дисков - они впринципе похожи
> для обоих:
> root@pve:~# smartctl --all /dev/sdc
> General SMART Values:
> Offline data collection status:  (0x85) Offline data collection activity            
>       was aborted by an interrupting
> command from host.

^^^^^^^^^^^^^^^^^^^^^^ ???


>       Selective Self-test supported.
> SMART capabilities:          
>  (0x0003) Saves SMART data before entering            
>       power-saving mode.

^^^^^^^^^^^^^^^^^^^^^^^^^^ - на дисках PM?!
Вы серьезно?


>[оверквотинг удален]
> errors)
> Error 726 occurred at disk power-on lifetime: 27182 hours (1132 days +
> 14 hours)
>   When the command that caused the error occurred, the device
> was active or idle.
>   After command completion occurred, registers were:
>   ER ST SC SN CL CH DH
>   -- -- -- -- -- -- --
>   40 51 81 af 5e b5 0a  Error: UNC
> at LBA = 0x0ab55eaf = 179658415

^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^- uncorrectable error!

> Error 725 occurred at disk power-on lifetime: 26908 hours (1121 days +
> 4 hours)
> at LBA = 0x00002007 = 8199

^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
>   Commands leading to the command that caused the error were:
>   After command completion occurred, registers were:
>   ER ST SC SN CL CH DH
>   -- -- -- -- -- -- --
>   40 51 01 87 5f 70 04  Error: UNC
> at LBA = 0x04705f87 = 74473351

^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^- uncorrectable error


>   After command completion occurred, registers were:
>   ER ST SC SN CL CH DH
>   -- -- -- -- -- -- --
>   40 51 01 87 5f 70 04  Error: UNC
> at LBA = 0x04705f87 = 74473351

^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^- uncorrectable

Я ничего не имею против десктопных дисков, это Ваш выбор,
видим что UNC появлялись время от времени и десктопный
диск отработал больше 3'х лет...

Включенный Power Mode, тесты short и long Вы делали?
Накопились некорректируемые сектора - UNC Error.

Однако...

Ответить | Правка | К родителю #7 | Наверх | Cообщить модератору

10. "zpool import не принимает пул хотя все online"  +/
Сообщение от interface (ok), 08-Май-20, 17:09 

> Я ничего не имею против десктопных дисков, это Ваш выбор,
> видим что UNC появлялись время от времени и десктопный
> диск отработал больше 3'х лет...
> Включенный Power Mode, тесты short и long Вы делали?
> Накопились некорректируемые сектора - UNC Error.
> Однако...

всех благодарю за ответы. В общем диски оба померли просто. Проблема походу в том что на блоке питания разбалансировался и начал бить вентилятор и видать вибрацией их убил. с одного вычитал образ и восстановил что смог обычными программами для поиска удаленных файлов.

зы. десктопные диски применялись по бедности да и лежала на них обычная файлопомойка.

Ответить | Правка | Наверх | Cообщить модератору

11. "zpool import не принимает пул хотя все online"  +/
Сообщение от lavremail (ok), 08-Май-20, 17:57 
>> Я ничего не имею против десктопных дисков, это Ваш выбор,
>> видим что UNC появлялись время от времени и десктопный
>> диск отработал больше 3'х лет...
>> Включенный Power Mode, тесты short и long Вы делали?
>> Накопились некорректируемые сектора - UNC Error.
>> Однако...
> всех благодарю за ответы. В общем диски оба померли просто. Проблема походу
> в том что на блоке питания разбалансировался и начал бить вентилятор
> и видать вибрацией их убил. с одного вычитал образ и восстановил
> что смог обычными программами для поиска удаленных файлов.

печально

> зы. десктопные диски применялись по бедности да и лежала на них обычная
> файлопомойка.

понятно что не по богатости, но на будущее, если используете raid'ы или zfs,
отключайте PM на дисках, а для zfs и read/write cache.

Ответить | Правка | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру