Сделал я себе тут каку, надо было добавить диск в систему, хотел систему сделать на трех дисках в миррор, а сторедж уже делать на raidz. И неправильно добавил раздел - не в зеркало, а в страйп. В итоге получил страйп из зеркала двух разделов по 100 гигов плюс еще 100 гигов, ну уже с одного партишина. Теперь сижу думаю как удалить diskid/DISK-WD-WCC7K2ET7N36p2, чтобы не переливать систему. Это реально? system 199G 39,3G 160G - 23% 19% 1.00x ONLINE - pool: system state: ONLINE scan: scrub repaired 0 in 0h37m with 0 errors on Tue Oct 2 19:02:51 2018 config: NAME STATE READ WRITE CKSUM system ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 gpt/system0 ONLINE 0 0 0 gpt/system1 ONLINE 0 0 0 diskid/DISK-WD-WCC7K2ET7N36p2 ONLINE 0 0 0
Добрий вечір Гляньте zpool get feature@device_removal яи є то zfs достатньо свіжа і підтримує ремув диску з device_removal GUID com.delphix:device_removal READ-ONLY COMPATIBLE no DEPENDENCIES none This feature enables the "zpool remove" subcommand to remove top-level vdevs, evacuating them to reduce the total size of the pool. This feature becomes active when the "zpool remove" command is used on a top-level vdev, and will never return to being enabled. Але від себе добавлю - навесні видаленя фічу добавили, але при тестах при відносно невеликій нагрузці на пул (write) Видаленя приводило до паніки. Чи фіксили з тих пір увагі не звертав. Vasiliy P. Melnik wrote: VPM> Сделал я себе тут каку, надо было добавить диск в систему, хотел систему VPM> сделать на трех дисках в миррор, а сторедж уже делать на raidz. И VPM> неправильно добавил раздел - не в зеркало, а в страйп. В итоге получил VPM> страйп из зеркала двух разделов по 100 гигов плюс еще 100 гигов, ну уже с VPM> одного партишина. Теперь сижу думаю как удалить VPM> diskid/DISK-WD-WCC7K2ET7N36p2, чтобы не переливать систему. Это реально? VPM> VPM> system 199G 39,3G 160G - 23% 19% 1.00x ONLINE - VPM> VPM> pool: system VPM> state: ONLINE VPM> scan: scrub repaired 0 in 0h37m with 0 errors on Tue Oct 2 19:02:51 2018 VPM> config: VPM> VPM> NAME STATE READ WRITE CKSUM VPM> system ONLINE 0 0 0 VPM> mirror-0 ONLINE 0 0 0 VPM> gpt/system0 ONLINE 0 0 0 VPM> gpt/system1 ONLINE 0 0 0 VPM> diskid/DISK-WD-WCC7K2ET7N36p2 ONLINE 0 0 0 VPM> _______________________________________________ VPM> uanog mailing list VPM> uanog@uanog.kiev.ua VPM> https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
Спасибо, теперь понял почему не выходит - надо сначала фрю 11.2 накатить.
вт, 2 окт. 2018 г. в 22:35, Vitalij Satanivskij
Добрий вечір
Гляньте zpool get feature@device_removal
яи є то zfs достатньо свіжа і підтримує ремув диску з
device_removal
GUID com.delphix:device_removal READ-ONLY COMPATIBLE no DEPENDENCIES none
This feature enables the "zpool remove" subcommand to remove top-level vdevs, evacuating them to reduce the total size of the pool.
This feature becomes active when the "zpool remove" command is used on a top-level vdev, and will never return to being enabled.
Але від себе добавлю - навесні видаленя фічу добавили, але при тестах при відносно невеликій нагрузці на пул (write)
Видаленя приводило до паніки.
Чи фіксили з тих пір увагі не звертав.
Vasiliy P. Melnik wrote: VPM> Сделал я себе тут каку, надо было добавить диск в систему, хотел систему VPM> сделать на трех дисках в миррор, а сторедж уже делать на raidz. И VPM> неправильно добавил раздел - не в зеркало, а в страйп. В итоге получил VPM> страйп из зеркала двух разделов по 100 гигов плюс еще 100 гигов, ну уже с VPM> одного партишина. Теперь сижу думаю как удалить VPM> diskid/DISK-WD-WCC7K2ET7N36p2, чтобы не переливать систему. Это реально? VPM> VPM> system 199G 39,3G 160G - 23% 19% 1.00x ONLINE - VPM> VPM> pool: system VPM> state: ONLINE VPM> scan: scrub repaired 0 in 0h37m with 0 errors on Tue Oct 2 19:02:51 2018 VPM> config: VPM> VPM> NAME STATE READ WRITE CKSUM VPM> system ONLINE 0 0 0 VPM> mirror-0 ONLINE 0 0 0 VPM> gpt/system0 ONLINE 0 0 0 VPM> gpt/system1 ONLINE 0 0 0 VPM> diskid/DISK-WD-WCC7K2ET7N36p2 ONLINE 0 0 0
VPM> _______________________________________________ VPM> uanog mailing list VPM> uanog@uanog.kiev.ua VPM> https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
participants (2)
-
Vasiliy P. Melnik
-
Vitalij Satanivskij