XenServer 7.2 and HP DL360 G7 - installation on flash disk 64 Gb
Доброго дня. Мучуся вже майже тиждень. Ніяк не вдається провести інсталяцію Citrix XenServer 7.2 НА USB-флешку 64Гб. Підкреслюю - "на" флешку. Сервер - чесний HP DL360 G7. Хоч і нема його в HCL-списку, але народ успішно юзає. Першу причину (XenServer 7.2 не розуміє GPT-структуру - sic!!!) ніби поборов. (Перший boot після інсталяції просто вилітав у grub rescue mode і там нічого не вдавалося зробити. Grub кричав, що unknown filesystem). Почитав що пишуть розумні люди і знайшов ось оцю пораду https://ulrikchristensen.com/xenserver-will-not-boot-after-installation/. Але після цього все-одно інсталяція НЕ МОЖЕ закінчитися вдало. Під самий кінець інсталяції процес закінчується з наступною діагностикою: *Error occured* An unrecoverable error has occured. The error was: Failed to install bootloader: Installing for i386-pc platform. /usr/sbin/grub-install: warning: your embedding area is unusually small. core.img won't fit in it.. /usr/sbin/grub-install: warning: Embedding is not possible. GRUB can only be installed in this setup by using blocklists. However, blocklists are UNRELIABLE and their use is discouraged.. /usr/sbin/grub-install: error: will not proceed with blocklists. Plase refer your to your user guide or contact a Techical Support Representative, for further details. Reboot (button) Ніби зрозуміла причина - але який розділ, яким чином і на скільки ГБ збільшити? Ось які розділи створює процес інсталяції на початковій флешці 64ГБ, коли в процесі вказати *disable-gpt*: root@uhost:~# fdisk /dev/sdd Command (m for help): p Disk /dev/sdd: 57.9 GiB, 62109253632 bytes, 121307136 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x00000000 Device Boot Start End Sectors Size Id Type /dev/sdd1 32 8388639 8388608 4G 83 Linux /dev/sdd2 8388640 16777247 8388608 4G 83 Linux /dev/sdd3 16777248 121307135 104529888 49.9G 8e Linux LVM А ось які вимоги (що створює процес в режимі GPT): - 18GB XenServer host control domain (dom0) partition - 18GB backup partition - 4GB logs partition - 1GB swap partition - 0.5GB UEFI boot partition То як мені підсунути інсталяційному процесу правильні partitions в режимі MBR? Чи я не з тієї сторони підступаюся? Дякую. -- Regards, /oleh hrynchuk
Я ще проконсультуюсь з колегами хто ближче до заліза, але маю наступні міркування.
Ніяк не вдається провести інсталяцію Citrix XenServer 7.2 НА USB-флешку 64Гб. Підкреслюю - "на" флешку. Сервер - чесний HP DL360 G7.
Порада № 0, "ще до всього". Переконайся, що на сервері стоїть найсвіжіший BIOS та весь пакет мікропрограм від HP. Онови до найсвіжішого що є, усе перепроший. У ранніх версіях на тому поколінні серверів була доволі неоднозначна ситуація з підтримкою UEFI Boot на будь-яких ОС окрім windows server. Поле засіяне граблями.
Першу причину (XenServer 7.2 не розуміє GPT-структуру - sic!!!) ніби поборов. (Перший boot після інсталяції просто вилітав у grub rescue mode і там нічого не вдавалося зробити. Grub кричав, що unknown filesystem).
Тут ситуація у моєму розумінні ось яка. Перш за все, щоби воно розуміло GPT нормально, сервер має вмикатись у режимі UEFI Boot. Режим BIOS Boot, який розуміє тільки археологічний DOS MBR, тобі очевидно не підходить, воно не житиме. Далі, які думки виникають при погляді на діагностику нижче.
Ніби зрозуміла причина - але який розділ, яким чином і на скільки ГБ збільшити?
Ось які розділи створює процес інсталяції на початковій флешці 64ГБ, коли в процесі вказати disable-gpt:
root@uhost:~# fdisk /dev/sdd
Command (m for help): p Disk /dev/sdd: 57.9 GiB, 62109253632 bytes, 121307136 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x00000000
Device Boot Start End Sectors Size Id Type /dev/sdd1 32 8388639 8388608 4G 83 Linux /dev/sdd2 8388640 16777247 8388608 4G 83 Linux /dev/sdd3 16777248 121307135 104529888 49.9G 8e Linux LVM
А ось які вимоги (що створює процес в режимі GPT):
18GB XenServer host control domain (dom0) partition 18GB backup partition 4GB logs partition 1GB swap partition 0.5GB UEFI boot partition
То як мені підсунути інсталяційному процесу правильні partitions в режимі MBR?
Мені ідея "режиму MBR" активно не подобається. Утім, якщо з такого боку підходити, я би напевно взяв та руками нарізав на флешці ось такий комплект розділів - від 0 сектора до "2MB мінус 1 сектор" - пусте місце (для вирівнювання розділів з дискретністю 2MB), у partition table нічого не пишемо про це, пропускаємо це місце - від 2MB до "1GB мінус 1 сектор" - UEFI boot partition (у теорії 0.5GB досить, але нехай буде запас) - 1ша позиція partition table, тепер вирівнювання розділів пішло по межі 1GB - від 1GB до "29GB мінус 1 сектор" - перший розділ 28GB під XenServer host control domain (dom0) partition - 2га позиція partition table - від 29GB до "33GB мінус 1 сектор" - Linux swap partition на 4GB і хай довгоносик вдавиться - 3тя позиція partition table три позиції в partition table ми таким чином зайняли, залишилась одна, бо якщо я нічого не плутаю то DOS partition table розуміє рівно 4 позиції - від 33GB до "61GB мінус 1 сектор" - другий розділ 28GB під XenServer backup partition Ідея у тому щоби чорт би з ним, нащо йому окремий logs partition - робимо основну 28GB і хай туди і логи пише. Але тут граблями смердить, бо за такою логікою після UEFI Boot partition ще треба впхати Linux boot partition (де ядро і усі його кишки) а виходить що вже місця нема. Тому другий варіант - від 0 сектора до "2MB мінус 1 сектор" - пусте місце (для вирівнювання розділів з дискретністю 2MB), у partition table нічого не пишемо про це, пропускаємо це місце - від 2MB до "1GB мінус 1 сектор" - UEFI boot partition (у теорії 0.5GB досить, але нехай буде запас) - 1ша позиція partition table, тепер вирівнювання розділів пішло по межі 1GB - від 1GB до "5GB мінус 1 сектор" - Linux boot partition - 2га позиція partition table - від 5GB до "9GB мінус 1 сектор" - Linux swap partition на 4GB і хай довгоносик вдавиться - 3тя позиція partition table - від 9GB до кінця носія - extended partition --- а усередині extended partition уже намалювати 2 x 20GB для XenServer host control domain (dom0) partition та XenServer backup partition, там же поруч log partition скількись то Тут уже питання, вкладені logical partitions всередині extended partition, воно їх узагалі так зрозуміє чи ні? Алхімічний експеримент... Але все це по суті виглядає спробами натягування сови на глобус і скоріш за все результата не дасть. Правильне рішення - безкомпромісно режим UEFI Boot і нормальний чесний GPT. До речі, про який i386 там угорі узагалі мова, воно ж 32bit? як одне з другим змішується, GRUB 32bit та XenServer 64bit? UEFI Boot + GPT це відразу 64bit все повністю, як воно і має бути. Для цього сервер має нормально розуміти UEFI, це (як сказано вище) є питання версії його мікропрограм (умовно кажучи "його BIOS" але це вже не BIOS у розумінні минулих наших звичок). Спробуй, розкажи що буде. Але почни з №0 та переконайся що сервер при увімкненні живлення стартує відразу в UEFI mode. Бажаю перемоги ;) я
І ось тобі ще одна ідея, витратиш годину чи дві, але точно матимеш відповідь на питання "а чи це у принципі можливо". Візьми http://www.freenas.org/download-freenas-release/ дистрибут FreeNAS 11, зроби з нього загрузочну флешку, та з неї інсталюй на свою ту що під XenServer запланована. Переконайся, що FreeNAS інстальований на цю флешку, нормально стартує і працює. Якщо так, інсталювався на флешку і з неї піднімається нормально, значить теорему існування доведено - у принципі ця комбінація сервера, його мікропрограми та твоєї флешки працювати здатна, і питання лише як XenServer нагнути у робочу позицію. А от якщо FreeNAS не ставиться або не піднімається, то треба шукати кореневу причину. По тому подивись, як влаштована таблиця GPT на робочій (не інсталяційній) флешці FreeNAS, що саме туди інсталятор записав і як воно там розташоване. Може перевірена робоча конфігурація GPT тобі щось підкаже. Зрозуміло що потім перед інсталяцією на цю флешку XenServer її треба буде почистити від таблиці GPT яка після FreeNAS залишиться.
Дякую!
Ще зовсім не читав :)
Але маю що сказати по-бистрячку - щойно вдалося інсталювати на флешку
XenServer 6.5. Все-одно трохи шаманити довелося.
Перед тим "за рекомендаціями собаководів" з усіх 8 SAS-дисків поробив 8
окремих RAID0 масивів.
XenServer побачив їх як [sdb] - [sdi]
Зараз гратимуся із software raid.
Хочу спробувати на половині дисків (4 штуки) врубати RAID10 (під DB-server
+ критичні app-servers), на іншій - RAID5 (під всяку іншу фігню типу Samba).
27 листопада 2017 р. о 13:56 Andrii Stesin
Я ще проконсультуюсь з колегами хто ближче до заліза, але маю наступні міркування.
Ніяк не вдається провести інсталяцію Citrix XenServer 7.2 НА USB-флешку 64Гб. Підкреслюю - "на" флешку. Сервер - чесний HP DL360 G7.
Порада № 0, "ще до всього". Переконайся, що на сервері стоїть найсвіжіший BIOS та весь пакет мікропрограм від HP. Онови до найсвіжішого що є, усе перепроший. У ранніх версіях на тому поколінні серверів була доволі неоднозначна ситуація з підтримкою UEFI Boot на будь-яких ОС окрім windows server. Поле засіяне граблями.
Першу причину (XenServer 7.2 не розуміє GPT-структуру - sic!!!) ніби поборов. (Перший boot після інсталяції просто вилітав у grub rescue mode і там нічого не вдавалося зробити. Grub кричав, що unknown filesystem).
Тут ситуація у моєму розумінні ось яка. Перш за все, щоби воно розуміло GPT нормально, сервер має вмикатись у режимі UEFI Boot.
Режим BIOS Boot, який розуміє тільки археологічний DOS MBR, тобі очевидно не підходить, воно не житиме.
Далі, які думки виникають при погляді на діагностику нижче.
Ніби зрозуміла причина - але який розділ, яким чином і на скільки ГБ збільшити?
Ось які розділи створює процес інсталяції на початковій флешці 64ГБ, коли в процесі вказати disable-gpt:
root@uhost:~# fdisk /dev/sdd
Command (m for help): p Disk /dev/sdd: 57.9 GiB, 62109253632 bytes, 121307136 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x00000000
Device Boot Start End Sectors Size Id Type /dev/sdd1 32 8388639 8388608 4G 83 Linux /dev/sdd2 8388640 16777247 8388608 4G 83 Linux /dev/sdd3 16777248 121307135 104529888 49.9G 8e Linux LVM
А ось які вимоги (що створює процес в режимі GPT):
18GB XenServer host control domain (dom0) partition 18GB backup partition 4GB logs partition 1GB swap partition 0.5GB UEFI boot partition
То як мені підсунути інсталяційному процесу правильні partitions в режимі MBR?
Мені ідея "режиму MBR" активно не подобається. Утім, якщо з такого боку підходити, я би напевно взяв та руками нарізав на флешці ось такий комплект розділів
- від 0 сектора до "2MB мінус 1 сектор" - пусте місце (для вирівнювання розділів з дискретністю 2MB), у partition table нічого не пишемо про це, пропускаємо це місце - від 2MB до "1GB мінус 1 сектор" - UEFI boot partition (у теорії 0.5GB досить, але нехай буде запас) - 1ша позиція partition table, тепер вирівнювання розділів пішло по межі 1GB - від 1GB до "29GB мінус 1 сектор" - перший розділ 28GB під XenServer host control domain (dom0) partition - 2га позиція partition table - від 29GB до "33GB мінус 1 сектор" - Linux swap partition на 4GB і хай довгоносик вдавиться - 3тя позиція partition table
три позиції в partition table ми таким чином зайняли, залишилась одна, бо якщо я нічого не плутаю то DOS partition table розуміє рівно 4 позиції
- від 33GB до "61GB мінус 1 сектор" - другий розділ 28GB під XenServer backup partition
Ідея у тому щоби чорт би з ним, нащо йому окремий logs partition - робимо основну 28GB і хай туди і логи пише. Але тут граблями смердить, бо за такою логікою після UEFI Boot partition ще треба впхати Linux boot partition (де ядро і усі його кишки) а виходить що вже місця нема. Тому другий варіант
- від 0 сектора до "2MB мінус 1 сектор" - пусте місце (для вирівнювання розділів з дискретністю 2MB), у partition table нічого не пишемо про це, пропускаємо це місце - від 2MB до "1GB мінус 1 сектор" - UEFI boot partition (у теорії 0.5GB досить, але нехай буде запас) - 1ша позиція partition table, тепер вирівнювання розділів пішло по межі 1GB - від 1GB до "5GB мінус 1 сектор" - Linux boot partition - 2га позиція partition table - від 5GB до "9GB мінус 1 сектор" - Linux swap partition на 4GB і хай довгоносик вдавиться - 3тя позиція partition table - від 9GB до кінця носія - extended partition --- а усередині extended partition уже намалювати 2 x 20GB для XenServer host control domain (dom0) partition та XenServer backup partition, там же поруч log partition скількись то
Тут уже питання, вкладені logical partitions всередині extended partition, воно їх узагалі так зрозуміє чи ні? Алхімічний експеримент...
Але все це по суті виглядає спробами натягування сови на глобус і скоріш за все результата не дасть. Правильне рішення - безкомпромісно режим UEFI Boot і нормальний чесний GPT.
До речі, про який i386 там угорі узагалі мова, воно ж 32bit? як одне з другим змішується, GRUB 32bit та XenServer 64bit? UEFI Boot + GPT це відразу 64bit все повністю, як воно і має бути. Для цього сервер має нормально розуміти UEFI, це (як сказано вище) є питання версії його мікропрограм (умовно кажучи "його BIOS" але це вже не BIOS у розумінні минулих наших звичок).
Спробуй, розкажи що буде. Але почни з №0 та переконайся що сервер при увімкненні живлення стартує відразу в UEFI mode.
Бажаю перемоги ;) я
-- Regards, /oleh hrynchuk http://zmejgorynych.blogspot.com
На загрузочній флешці використовується таки EFI GPT. Так що із цим все ОК.
[root@xen65 ~]# fdisk /dev/sda
WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk
doesn't support GPT. Use GNU Parted.
The number of cylinders for this disk is set to 7521.
There is nothing wrong with that, but this is larger than 1024, and could
in certain setups cause problems with:
1) software that runs at boot time (e.g., old versions of LILO)
2) booting and partitioning software from other OSs (e.g., DOS FDISK,
OS/2 FDISK)
Command (m for help): p
Disk /dev/sda: 62.1 GB, 62109253632 bytes
256 heads, 63 sectors/track, 7521 cylinders
Units = cylinders of 16128 * 512 = 8257536 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 7522 60653567+ ee EFI GPT
Command (m for help):
27 листопада 2017 р. о 14:37 Oleh Hrynchuk
Дякую! Ще зовсім не читав :)
Але маю що сказати по-бистрячку - щойно вдалося інсталювати на флешку XenServer 6.5. Все-одно трохи шаманити довелося.
Перед тим "за рекомендаціями собаководів" з усіх 8 SAS-дисків поробив 8 окремих RAID0 масивів. XenServer побачив їх як [sdb] - [sdi] Зараз гратимуся із software raid. Хочу спробувати на половині дисків (4 штуки) врубати RAID10 (під DB-server + критичні app-servers), на іншій - RAID5 (під всяку іншу фігню типу Samba).
27 листопада 2017 р. о 13:56 Andrii Stesin
написав: Я ще проконсультуюсь з колегами хто ближче до заліза, але маю наступні
міркування.
Ніяк не вдається провести інсталяцію Citrix XenServer 7.2 НА USB-флешку 64Гб. Підкреслюю - "на" флешку. Сервер - чесний HP DL360 G7.
Порада № 0, "ще до всього". Переконайся, що на сервері стоїть найсвіжіший BIOS та весь пакет мікропрограм від HP. Онови до найсвіжішого що є, усе перепроший. У ранніх версіях на тому поколінні серверів була доволі неоднозначна ситуація з підтримкою UEFI Boot на будь-яких ОС окрім windows server. Поле засіяне граблями.
Першу причину (XenServer 7.2 не розуміє GPT-структуру - sic!!!) ніби поборов. (Перший boot після інсталяції просто вилітав у grub rescue mode і там нічого не вдавалося зробити. Grub кричав, що unknown filesystem).
Тут ситуація у моєму розумінні ось яка. Перш за все, щоби воно розуміло GPT нормально, сервер має вмикатись у режимі UEFI Boot.
Режим BIOS Boot, який розуміє тільки археологічний DOS MBR, тобі очевидно не підходить, воно не житиме.
Далі, які думки виникають при погляді на діагностику нижче.
Ніби зрозуміла причина - але який розділ, яким чином і на скільки ГБ збільшити?
Ось які розділи створює процес інсталяції на початковій флешці 64ГБ, коли в процесі вказати disable-gpt:
root@uhost:~# fdisk /dev/sdd
Command (m for help): p Disk /dev/sdd: 57.9 GiB, 62109253632 bytes, 121307136 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x00000000
Device Boot Start End Sectors Size Id Type /dev/sdd1 32 8388639 8388608 4G 83 Linux /dev/sdd2 8388640 16777247 8388608 4G 83 Linux /dev/sdd3 16777248 121307135 104529888 49.9G 8e Linux LVM
А ось які вимоги (що створює процес в режимі GPT):
18GB XenServer host control domain (dom0) partition 18GB backup partition 4GB logs partition 1GB swap partition 0.5GB UEFI boot partition
То як мені підсунути інсталяційному процесу правильні partitions в режимі MBR?
Мені ідея "режиму MBR" активно не подобається. Утім, якщо з такого боку підходити, я би напевно взяв та руками нарізав на флешці ось такий комплект розділів
- від 0 сектора до "2MB мінус 1 сектор" - пусте місце (для вирівнювання розділів з дискретністю 2MB), у partition table нічого не пишемо про це, пропускаємо це місце - від 2MB до "1GB мінус 1 сектор" - UEFI boot partition (у теорії 0.5GB досить, але нехай буде запас) - 1ша позиція partition table, тепер вирівнювання розділів пішло по межі 1GB - від 1GB до "29GB мінус 1 сектор" - перший розділ 28GB під XenServer host control domain (dom0) partition - 2га позиція partition table - від 29GB до "33GB мінус 1 сектор" - Linux swap partition на 4GB і хай довгоносик вдавиться - 3тя позиція partition table
три позиції в partition table ми таким чином зайняли, залишилась одна, бо якщо я нічого не плутаю то DOS partition table розуміє рівно 4 позиції
- від 33GB до "61GB мінус 1 сектор" - другий розділ 28GB під XenServer backup partition
Ідея у тому щоби чорт би з ним, нащо йому окремий logs partition - робимо основну 28GB і хай туди і логи пише. Але тут граблями смердить, бо за такою логікою після UEFI Boot partition ще треба впхати Linux boot partition (де ядро і усі його кишки) а виходить що вже місця нема. Тому другий варіант
- від 0 сектора до "2MB мінус 1 сектор" - пусте місце (для вирівнювання розділів з дискретністю 2MB), у partition table нічого не пишемо про це, пропускаємо це місце - від 2MB до "1GB мінус 1 сектор" - UEFI boot partition (у теорії 0.5GB досить, але нехай буде запас) - 1ша позиція partition table, тепер вирівнювання розділів пішло по межі 1GB - від 1GB до "5GB мінус 1 сектор" - Linux boot partition - 2га позиція partition table - від 5GB до "9GB мінус 1 сектор" - Linux swap partition на 4GB і хай довгоносик вдавиться - 3тя позиція partition table - від 9GB до кінця носія - extended partition --- а усередині extended partition уже намалювати 2 x 20GB для XenServer host control domain (dom0) partition та XenServer backup partition, там же поруч log partition скількись то
Тут уже питання, вкладені logical partitions всередині extended partition, воно їх узагалі так зрозуміє чи ні? Алхімічний експеримент...
Але все це по суті виглядає спробами натягування сови на глобус і скоріш за все результата не дасть. Правильне рішення - безкомпромісно режим UEFI Boot і нормальний чесний GPT.
До речі, про який i386 там угорі узагалі мова, воно ж 32bit? як одне з другим змішується, GRUB 32bit та XenServer 64bit? UEFI Boot + GPT це відразу 64bit все повністю, як воно і має бути. Для цього сервер має нормально розуміти UEFI, це (як сказано вище) є питання версії його мікропрограм (умовно кажучи "його BIOS" але це вже не BIOS у розумінні минулих наших звичок).
Спробуй, розкажи що буде. Але почни з №0 та переконайся що сервер при увімкненні живлення стартує відразу в UEFI mode.
Бажаю перемоги ;) я
-- Regards, /oleh hrynchuk http://zmejgorynych.blogspot.com
-- Regards, /oleh hrynchuk http://zmejgorynych.blogspot.com
Немного собственного опыта:
1. После того, как VMWare ESXi простояла на флешке около 8 лет, флешка стала читаться и писаться с очень низкой скоростью. Сервер вывели для upgrad’а на XenServer до того, как флешка умерла совсем.
2. В отличии от VmWare, XenServer "из коробки" пишет немало логов. Бывает, забивает свою файловую систему. Нужно tun’ить.
3. Установка на флешку для XenServer в любом случае - танцы с бубном.
4. В серверах, обычно, используют какой-то RAID.
5. Установка XenServer "из коробки" занимает примерно 20-30 минут.
6. IMHO ценным на host't XenServer являются, как раз, данные на RAID массиве, а не сам host OS.
Из пунктов выше сделал два вывода:
1. Либо "забить" и ставить XenServer прямо на RAID (если он на уровне контроллера или BIOS, а не soft в одной из виртуальных машин). В таком варианте - данные и сам хост в одинаковой ситуации. Нужно следить за RAID массивом.
2. Либо ставить XenServer на отдельный небольшой винт (SATA или SSD - дело вкуса).
Все IMHO.
WBR,
Alex Cherevko
From: uanog [mailto:uanog-bounces@uanog.kiev.ua] On Behalf Of Oleh Hrynchuk
Sent: Monday, November 27, 2017 2:38 PM
To: Andrii Stesin
Ніяк не вдається провести інсталяцію Citrix XenServer 7.2 НА USB-флешку 64Гб. Підкреслюю - "на" флешку. Сервер - чесний HP DL360 G7.
Порада № 0, "ще до всього". Переконайся, що на сервері стоїть найсвіжіший BIOS та весь пакет мікропрограм від HP. Онови до найсвіжішого що є, усе перепроший. У ранніх версіях на тому поколінні серверів була доволі неоднозначна ситуація з підтримкою UEFI Boot на будь-яких ОС окрім windows server. Поле засіяне граблями.
Першу причину (XenServer 7.2 не розуміє GPT-структуру - sic!!!) ніби поборов. (Перший boot після інсталяції просто вилітав у grub rescue mode і там нічого не вдавалося зробити. Grub кричав, що unknown filesystem).
Тут ситуація у моєму розумінні ось яка. Перш за все, щоби воно розуміло GPT нормально, сервер має вмикатись у режимі UEFI Boot. Режим BIOS Boot, який розуміє тільки археологічний DOS MBR, тобі очевидно не підходить, воно не житиме. Далі, які думки виникають при погляді на діагностику нижче.
Ніби зрозуміла причина - але який розділ, яким чином і на скільки ГБ збільшити?
Ось які розділи створює процес інсталяції на початковій флешці 64ГБ, коли в процесі вказати disable-gpt:
root@uhost:~# fdisk /dev/sdd
Command (m for help): p Disk /dev/sdd: 57.9 GiB, 62109253632 bytes, 121307136 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x00000000
Device Boot Start End Sectors Size Id Type /dev/sdd1 32 8388639 8388608 4G 83 Linux /dev/sdd2 8388640 16777247 8388608 4G 83 Linux /dev/sdd3 16777248 121307135 104529888 49.9G 8e Linux LVM
А ось які вимоги (що створює процес в режимі GPT):
18GB XenServer host control domain (dom0) partition 18GB backup partition 4GB logs partition 1GB swap partition 0.5GB UEFI boot partition
То як мені підсунути інсталяційному процесу правильні partitions в режимі MBR?
Мені ідея "режиму MBR" активно не подобається. Утім, якщо з такого боку підходити, я би напевно взяв та руками нарізав на флешці ось такий комплект розділів - від 0 сектора до "2MB мінус 1 сектор" - пусте місце (для вирівнювання розділів з дискретністю 2MB), у partition table нічого не пишемо про це, пропускаємо це місце - від 2MB до "1GB мінус 1 сектор" - UEFI boot partition (у теорії 0.5GB досить, але нехай буде запас) - 1ша позиція partition table, тепер вирівнювання розділів пішло по межі 1GB - від 1GB до "29GB мінус 1 сектор" - перший розділ 28GB під XenServer host control domain (dom0) partition - 2га позиція partition table - від 29GB до "33GB мінус 1 сектор" - Linux swap partition на 4GB і хай довгоносик вдавиться - 3тя позиція partition table три позиції в partition table ми таким чином зайняли, залишилась одна, бо якщо я нічого не плутаю то DOS partition table розуміє рівно 4 позиції - від 33GB до "61GB мінус 1 сектор" - другий розділ 28GB під XenServer backup partition Ідея у тому щоби чорт би з ним, нащо йому окремий logs partition - робимо основну 28GB і хай туди і логи пише. Але тут граблями смердить, бо за такою логікою після UEFI Boot partition ще треба впхати Linux boot partition (де ядро і усі його кишки) а виходить що вже місця нема. Тому другий варіант - від 0 сектора до "2MB мінус 1 сектор" - пусте місце (для вирівнювання розділів з дискретністю 2MB), у partition table нічого не пишемо про це, пропускаємо це місце - від 2MB до "1GB мінус 1 сектор" - UEFI boot partition (у теорії 0.5GB досить, але нехай буде запас) - 1ша позиція partition table, тепер вирівнювання розділів пішло по межі 1GB - від 1GB до "5GB мінус 1 сектор" - Linux boot partition - 2га позиція partition table - від 5GB до "9GB мінус 1 сектор" - Linux swap partition на 4GB і хай довгоносик вдавиться - 3тя позиція partition table - від 9GB до кінця носія - extended partition --- а усередині extended partition уже намалювати 2 x 20GB для XenServer host control domain (dom0) partition та XenServer backup partition, там же поруч log partition скількись то Тут уже питання, вкладені logical partitions всередині extended partition, воно їх узагалі так зрозуміє чи ні? Алхімічний експеримент... Але все це по суті виглядає спробами натягування сови на глобус і скоріш за все результата не дасть. Правильне рішення - безкомпромісно режим UEFI Boot і нормальний чесний GPT. До речі, про який i386 там угорі узагалі мова, воно ж 32bit? як одне з другим змішується, GRUB 32bit та XenServer 64bit? UEFI Boot + GPT це відразу 64bit все повністю, як воно і має бути. Для цього сервер має нормально розуміти UEFI, це (як сказано вище) є питання версії його мікропрограм (умовно кажучи "його BIOS" але це вже не BIOS у розумінні минулих наших звичок). Спробуй, розкажи що буде. Але почни з №0 та переконайся що сервер при увімкненні живлення стартує відразу в UEFI mode. Бажаю перемоги ;) я -- Regards, /oleh hrynchuk http://zmejgorynych.blogspot.com
On Mon, Nov 27, 2017 at 03:09:03PM +0200, Alex Cherevko wrote:
Немного собственного опыта:
1. После того, как VMWare ESXi простояла на флешке около 8 лет, флешка стала читаться и писаться с очень низкой скоростью. Сервер вывели для upgrad???а на XenServer до того, как флешка умерла совсем. 2. В отличии от VmWare, XenServer "из коробки" пишет немало логов. Бывает, забивает свою файловую систему. Нужно tun???ить.
Логи + флэшка = экстрим. И чего не попробовать заинсталить на SATA, потом воткнуть его в USB, при успехе - просто dd "туда-сюда" (ну с GPT чуть сложнее). -- Best regards, Paul Arakelyan.
Привет ! PA> On Mon, Nov 27, 2017 at 03:09:03PM +0200, Alex Cherevko wrote:
1. После того, как VMWare ESXi простояла на флешке около 8 лет, флешка стала читаться и писаться с очень низкой скоростью.
Флеш память имеет весьма малое число циклов перезаписи, что-то порядка 3000, и то не все модели. Массовые = 1000 циклов. Читать вот тут для просвящения: http://www.outsidethebox.ms/17153/ ... Тип ячеек определяет ресурсы флешки по перезаписи. Маркировка *SLC говорит о 100 тысячах циклов перезаписи, а *MLC всего лишь о 10 тысячах, причём флешки последнего типа в большинстве превалируют в наших магазинах. ... «Для тяжелого ежедневного использования» подходят флэшки с чипами SLC и ресурсом порядка ста тысяч циклов перезаписи на ячейку, но такие сейчас практически не встречаются. Поэтому ищем на чипах MLC, желательно старого техпроцесса (от 20 нм и более). У них ресурс перезаписи 3-5 тыс. циклов на ячейку. Когда-то обещалось 10 тыс., но в продаже таких не видел. Даже у массовых SSD на MLC-чипах сейчас ресурс 3K. Серверные уже используют eMLC (до 20K циклов). Основная же масса флэшек выпускается с чипами TLC. У них ресурс порядка тысячи циклов перезаписи. Косвенно сориентироваться поможет соотношение размеров флэшки к её объёму в гигабайтах. 16 ГБ в крупном корпусе – признак надёжных MLC 25 нм. 32 ГБ и более в корпусе «затычке» – однозначно TLC. Игрушка, которая умрёт очень быстро. Остальные детали касаются контроллеров. Узнать без вскрытия корпуса, какой стоит контроллер и какая память, поможет база iFlash – http://flashboot.ru/iflash/ . Достаточно ввести PID и VID флэшки, чтобы найти её характеристики. Также есть бесплатная программа Flash Drive Information Extractor – http://www.antspec.com/usbflashinfo/. -- Best regards, Alexander V Soroka http://www.svr.ua/ AS106-RIPE mailto:alex@euro.net.ua
Ага, дякую, Саша, за важливу ТОЧНУ інфу.
Бо теоретично ЗНАВ, що кількість перезаписів обмежена.
Але практично - ось ти написав :)
2017-11-28 9:09 GMT+02:00 Alexander V Soroka
Привет !
PA> On Mon, Nov 27, 2017 at 03:09:03PM +0200, Alex Cherevko wrote:
1. После того, как VMWare ESXi простояла на флешке около 8 лет, флешка стала читаться и писаться с очень низкой скоростью.
Флеш память имеет весьма малое число циклов перезаписи, что-то порядка 3000, и то не все модели. Массовые = 1000 циклов.
Читать вот тут для просвящения: http://www.outsidethebox.ms/17153/ ... Тип ячеек определяет ресурсы флешки по перезаписи. Маркировка *SLC говорит о 100 тысячах циклов перезаписи, а *MLC всего лишь о 10 тысячах, причём флешки последнего типа в большинстве превалируют в наших магазинах. ...
«Для тяжелого ежедневного использования» подходят флэшки с чипами SLC и ресурсом порядка ста тысяч циклов перезаписи на ячейку, но такие сейчас практически не встречаются. Поэтому ищем на чипах MLC, желательно старого техпроцесса (от 20 нм и более). У них ресурс перезаписи 3-5 тыс. циклов на ячейку. Когда-то обещалось 10 тыс., но в продаже таких не видел. Даже у массовых SSD на MLC-чипах сейчас ресурс 3K. Серверные уже используют eMLC (до 20K циклов). Основная же масса флэшек выпускается с чипами TLC. У них ресурс порядка тысячи циклов перезаписи. Косвенно сориентироваться поможет соотношение размеров флэшки к её объёму в гигабайтах. 16 ГБ в крупном корпусе – признак надёжных MLC 25 нм. 32 ГБ и более в корпусе «затычке» – однозначно TLC. Игрушка, которая умрёт очень быстро. Остальные детали касаются контроллеров. Узнать без вскрытия корпуса, какой стоит контроллер и какая память, поможет база iFlash – http://flashboot.ru/iflash/ . Достаточно ввести PID и VID флэшки, чтобы найти её характеристики. Также есть бесплатная программа Flash Drive Information Extractor – http://www.antspec.com/usbflashinfo/.
-- Best regards, Alexander V Soroka http://www.svr.ua/ AS106-RIPE mailto:alex@euro.net.ua
_______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
-- Regards, /oleh hrynchuk http://zmejgorynych.blogspot.com
Васильич, ну зачем вводить народ в заблуждение какими-то левыми источниками кривыми переводами неизвестно какой давности. И не все там так просто. См. например http://www.storagesearch.com/ssdmyths-endurance.html да масса копий сломано вокруг вопроса. Тот же sia@ не так давно упоминал, что у них на фирме SSD много лет эксплуатируются, и случаев умирания "по износу" он кажись не припоминает ;) контроллеры выгорают/умирают раньше, чем начинают сыпаться ячейки. Друго вопрос что в принципе swap over USB это изврат покруче чем стоя в гамаке в лыжах и акваланге, да
Привет ! Tuesday, November 28, 2017, 2:04:35 PM, Andrii Stesin stesin@gmail.com you wrote: AS> Васильич, ну зачем вводить народ в заблуждение какими-то левыми AS> источниками кривыми переводами неизвестно какой давности. И не все там AS> так просто. См. например AS> http://www.storagesearch.com/ssdmyths-endurance.html ну и сам то читал? я написал про 2-3к перезаписей а тут что пишут: вот: ...Today's commodity 2D MLC flash has raw wear-out in the 2,000 to 3,000 write cycle range. (Later - a news story in March 2016 suggested that 2D QLC (x4 nand - which has double the virtual density of TLC) will have endurance in the range of 500 write cycles.) ... ...лишь бы со мной поспорить... и слова "3x to 4x better than 2D " вообще ниочем, просто "вот Армяне лучше чем Грузины"... Данные испытаний где? СЕО чето там сказал... Причем в твоей ссылке данные по "стойкости" по 2014 году., сейчас 2017 конец. AS> Тот же sia@ не так давно упоминал, что у них на фирме SSD много лет AS> эксплуатируются, и случаев умирания "по износу" он кажись не припоминает "кажись не припоминает" это очень точное научное доказательство, даааа... Статистка где? Марка привода, статистика чтения-запись блоков, %% отказа ? ...одна бабка сказала... -- Best regards, Alexander V Soroka http://www.svr.ua/ AS106-RIPE mailto:alex@euro.net.ua
Hi! On Tue, Nov 28, 2017 at 16:18 +0200, Alexander V Soroka wrote:
Привет !
AS> Тот же sia@ не так давно упоминал, что у них на фирме SSD много лет AS> эксплуатируются, и случаев умирания "по износу" он кажись не припоминает
"кажись не припоминает" это очень точное научное доказательство, даааа... Статистка где? Марка привода, статистика чтения-запись блоков, %% отказа ? ...одна бабка сказала...
Кстати вот тут https://3dnews.ru/938764 что-то SSDшное постоянно мучают, на тему как быстро ресурс перезаписи закончится.
Есть ли у sia@ обработанная статистика по отказам SSD, это лучше
спросить у него самого, может он тут читает и что-то скажет?
2017-11-28 16:29 GMT+02:00 Andrey Blochintsev
Кстати вот тут https://3dnews.ru/938764 что-то SSDшное постоянно мучают, на тему как быстро ресурс перезаписи закончится.
Они, вообще говоря, ссылаются все на тот же http://techreport.com/review/27436/the-ssd-endurance-experiment-two-freaking... для начала. И явно пишут, "контроллеры решают", не в ресурсе к-ва циклов перезаписи состоит проблема живучести. Но все же они пишут об SSD, а Олег просто ставит гипервизор на просто USB flash, и я почему-то ни капли не сомневаюсь, что оно у него на эту флешку писать не будет ничего в принципе ;) так что вопрос по сути не в "умирании" по к-ву циклов перезаписи, а "за сколько лет флешка в режиме read only деградирует до непристойности, либо у нее контроллер сгорит". Опять же, Олега считать недалеким человеком я бы не решился, и я почему-то полностью уверен, что когда он все настроит - то образ флешки с гипервизором сохранит например на Google drive, после чего сделать клон этой флешки будет вопросом минут 15-ти ;)
On Tue, Nov 28, 2017 at 09:45:28PM +0200, Andrii Stesin wrote:
Есть ли у sia@ обработанная статистика по отказам SSD, это лучше спросить у него самого, может он тут читает и что-то скажет?
Она бессмысленна - ты ж не побежишь на барахолку за старьём? Начинали тама с SLC X-25E, их сотовые операторы только убивали (слухи представителя кингстона, они офигевали от замен). Ну и MLC X-25M - я такие чуть не убил, но с тех пор они пережили ZFS с 2КБ recordsize (да, не 4!) и сжатием, БД на почти весь объём, тесты на "как и кто быстрее перестроит zfs mirror" (против дешевого кингстона 120ГБ) и ещё живут дома... Сколько там лет-то...
2017-11-28 16:29 GMT+02:00 Andrey Blochintsev
: Кстати вот тут https://3dnews.ru/938764 что-то SSDшное постоянно мучают, на тему как быстро ресурс перезаписи закончится.
Они, вообще говоря, ссылаются все на тот же http://techreport.com/review/27436/the-ssd-endurance-experiment-two-freaking... для начала. И явно пишут, "контроллеры решают", не в ресурсе к-ва циклов перезаписи состоит проблема живучести.
Но все же они пишут об SSD, а Олег просто ставит гипервизор на просто USB flash, и я почему-то ни капли не сомневаюсь, что оно у него на эту Что бессмысленно с т.з. времени и мучения флэхи. USB hdd/ssd для поставить-настроить (если таки есть моменты с ЮСБ) и потом залить образ на флэшку. У меня R/O FS+ram fs для конфигов с сбросом образа её на флэху по необходимости.
флешку писать не будет ничего в принципе ;) так что вопрос по сути не в "умирании" по к-ву циклов перезаписи, а "за сколько лет флешка в режиме read only деградирует до непристойности, либо у нее контроллер сгорит". Сюрприз китайского сандиска microsd - перестаёт читаться через месяц. Местами и зависимо от кардридера. Т.е. модель эксплуатации - идеально похожа, грабли - удивительны неожиданностью, записывать можно, читать часть ячеек можно только с месяц (стояла в телефоне и в кардридере компа - т.е. постоянно есть питание, объём честный). Теперь ищу как с неё данные (фоточки-видео) снять :).
-- Best regards, Paul Arakelyan.
On Nov 28, 2017 16:29, "Andrey Blochintsev"
On Tue, Nov 28, 2017 at 02:04:35PM +0200, Andrii Stesin wrote:
Тот же sia@ не так давно упоминал, что у них на фирме SSD много лет эксплуатируются, и случаев умирания "по износу" он кажись не припоминает ;) контроллеры выгорают/умирают раньше, чем начинают сыпаться ячейки.
Нередко зависит от "как именно": засунуть Intel X25M в условия "круглосуточно пишем журнал ФС, 6МБ/с" - и побежали ремапы, очень быстро. При обычной эксплуатации ровно тех же железок - ничего не происходит, независимо от объёмов.
Друго вопрос что в принципе swap over USB это изврат покруче чем стоя в гамаке в лыжах и акваланге, да
Я вообще без свопов обходиться стараюсь - память нынче недорога, а скорость свопа такова, что "нужные данные загрузятся никогда". Сокрость дисков не растёт адекватно скорости памяти. По этой же причине и эксплуатация дофигатерабайтных разделов = экстрим, это бэкапить сутками. -- Best regards, Paul Arakelyan.
Привет ! Thursday, November 30, 2017, 3:34:03 AM, Paul Arakelyan unisol@cs.kiev.ua you wrote: PA> Я вообще без свопов обходиться стараюсь - память нынче недорога, а скорость PA> свопа такова, что "нужные данные загрузятся никогда". Сокрость дисков не PA> растёт адекватно скорости памяти. По этой же причине и эксплуатация PA> дофигатерабайтных разделов = экстрим, это бэкапить сутками. в тему или нет, но вот есть память FRAM у Texas Ins. : http://www.ti.com/lit/an/slaa526a/slaa526a.pdf 10 в 15 степени перезаписей со скоростью SRAM... 100 лет работы при температуре 25 градусов. вот если на этом-бы построить "загрузку системы"... самое прикольное ч то загрузка то один раз потребуется - потом данные на местах, заснул процессор и питание выкл - вкл питания - ничего грузить не надо, все данные там где их застало включение питания. -- Best regards, Alexander V Soroka http://www.svr.ua/ AS106-RIPE mailto:alex@euro.net.ua
Hi,
G7 не поддерживает UEFI, это точно:)
Не знаю за Xen, но ESXi ставится на флешку только для загрузки, своп и дата
- на DAS RAID/SAN устройстве. Соответственно, нагрузка на запись минимальна
и ресурс высок.
Dell делает в серверах два слота SD, которые могут работать в режиме
стенбайного зеркала - сдохла одна SD-ка - сервер крешнулся и загрузился со
второй.
У HPE к последним поколениям есть dongle на 2xSD, который работает как
полноценный RAID - нет прерывания работы при выходе из строя одной SD-ки.
SD-ки плохи тем, что фиг промониторишь, сколько ей жить осталось, в отличие
от более-менее энтерпрайзных SSD, которые дают доступ к информации о
ресурсе.
И да, XenServer 7.2 c G7 формально со стороны HPE не поддерживается:)
Последняя версия для G7 - 6.1
2017-11-30 8:54 GMT+02:00 Alexander V Soroka
Привет !
Thursday, November 30, 2017, 3:34:03 AM, Paul Arakelyan unisol@cs.kiev.ua you wrote: PA> Я вообще без свопов обходиться стараюсь - память нынче недорога, а скорость PA> свопа такова, что "нужные данные загрузятся никогда". Сокрость дисков не PA> растёт адекватно скорости памяти. По этой же причине и эксплуатация PA> дофигатерабайтных разделов = экстрим, это бэкапить сутками.
в тему или нет, но вот есть память FRAM у Texas Ins. : http://www.ti.com/lit/an/slaa526a/slaa526a.pdf 10 в 15 степени перезаписей со скоростью SRAM... 100 лет работы при температуре 25 градусов.
вот если на этом-бы построить "загрузку системы"... самое прикольное ч то загрузка то один раз потребуется - потом данные на местах, заснул процессор и питание выкл - вкл питания - ничего грузить не надо, все данные там где их застало включение питания.
-- Best regards, Alexander V Soroka http://www.svr.ua/ AS106-RIPE mailto:alex@euro.net.ua
_______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
Люто підтримую Василя.
UEFI в HP DL3x0 G7 нема. Але якесь незрозуміле GPT - є :)
На USB флеху SanDisk USB 64GB нормально вдалося встановити лише XenServer
6.5. Та й то з шаманськими танцями.
Проте добре подумав і вирішив з флехами не бавитися.
За порадою Андрія Стесіна зробив на 8-ми SAS HDD 146GB 2 рейди-5 (по 4
вінта в кожному). За допомогою HP Smart Array 410i Contoller з 512 MB BBWC.
(А може треба було заюзати пропрієтарний HP'шний RAID-6 AGV? Проте з
дитинства пропрієтарні речі викликають в мене не дуже добрі почуття :))
І на перший логічний диск (перший рейд-5) встановив XenServer 7.2. Котрий
встав прекрасно. Як, гм..... Кароч, встав :)
Викинув з його fstab swap-розділ 1 ГБ...
Заапдейтив потрібними патчами. Після кожного Xen вимагав reboot - задовбав.
Другий рейд-5 додав як окремий Storage Resource.
І в результаті отримав два SRи:
- Перший: 369 ГБ (41 ГБ відгриз сам XenServer)
- Другий: 410 ГБ.
Тепер, знову ж таки за порадою Андрія, мануально балансуватиму навантаження
поміж цими SR з боку VMs. Їх і так будуть одиниці - не більше 6-ти.
Якісь VM житимуть на першому SR, якісь - на другому.
Тут ще цікавинка одна. By default XenServer 7 в якості дискового простору
для VM виділяє не файл, а блочний пристрій - LVM.
Може так і краще, але з точки зору адміністрування (наприклад, бекапів)
простіше було би, звісно, мати справу із файлами.
Але вже бачив десь як обійти цю поведінку і примусити XS 7 таки
представляти дисковий простір VM у виляді файлу.
Ще раз красно дякую усім, колеги.
Допомогли сильно.
Особливо Андрій.
2017-11-30 14:18 GMT+02:00 Basil Vizgin
Hi,
G7 не поддерживает UEFI, это точно:) Не знаю за Xen, но ESXi ставится на флешку только для загрузки, своп и дата - на DAS RAID/SAN устройстве. Соответственно, нагрузка на запись минимальна и ресурс высок. Dell делает в серверах два слота SD, которые могут работать в режиме стенбайного зеркала - сдохла одна SD-ка - сервер крешнулся и загрузился со второй. У HPE к последним поколениям есть dongle на 2xSD, который работает как полноценный RAID - нет прерывания работы при выходе из строя одной SD-ки. SD-ки плохи тем, что фиг промониторишь, сколько ей жить осталось, в отличие от более-менее энтерпрайзных SSD, которые дают доступ к информации о ресурсе.
И да, XenServer 7.2 c G7 формально со стороны HPE не поддерживается:) Последняя версия для G7 - 6.1
2017-11-30 8:54 GMT+02:00 Alexander V Soroka
: Привет !
Thursday, November 30, 2017, 3:34:03 AM, Paul Arakelyan unisol@cs.kiev.ua you wrote: PA> Я вообще без свопов обходиться стараюсь - память нынче недорога, а скорость PA> свопа такова, что "нужные данные загрузятся никогда". Сокрость дисков не PA> растёт адекватно скорости памяти. По этой же причине и эксплуатация PA> дофигатерабайтных разделов = экстрим, это бэкапить сутками.
в тему или нет, но вот есть память FRAM у Texas Ins. : http://www.ti.com/lit/an/slaa526a/slaa526a.pdf 10 в 15 степени перезаписей со скоростью SRAM... 100 лет работы при температуре 25 градусов.
вот если на этом-бы построить "загрузку системы"... самое прикольное ч то загрузка то один раз потребуется - потом данные на местах, заснул процессор и питание выкл - вкл питания - ничего грузить не надо, все данные там где их застало включение питания.
-- Best regards, Alexander V Soroka http://www.svr.ua/ AS106-RIPE mailto:alex@euro.net.ua
_______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
_______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
-- Regards, /oleh hrynchuk http://zmejgorynych.blogspot.com
On Nov 30, 2017 15:08, "Oleh Hrynchuk"
30 листопада 2017 р. о 17:50 Andrii Stesin
On Nov 30, 2017 15:08, "Oleh Hrynchuk"
wrote: А може треба було заюзати пропрієтарний HP'шний RAID-6 AGV?
Тобі пригод не вистачає? 410 просто слабкий для RAID6, не потягне банально по обчислювальній потужності. Це ж тобі не LSI MegaRAID (там і ціна зовсім інша).
Ну, в мене ліцензія якась там "посилена" на RAID Controller. То цей ADG RAID6 і появився. Почитав про нього... ті ж яйця, що й RAID6, лише вигляд збоку. Ефективний коли дофіга дисків, а не 8 як у мене. Викинув з його fstab swap-розділ 1 ГБ...
А у чому смисл? Ото був би собі. Чи заважає? Чим, як?
От лежить у тебе в наплічнику шматочок цеглини, відбитий якраз з її кутка. Нафіга він тобі? Взяв і викинув :)
Тут ще цікавинка одна. By default XenServer 7 в якості дискового простору для VM виділяє не файл, а блочний пристрій - LVM. Може так і краще, але з точки зору адміністрування (наприклад, бекапів) простіше було би, звісно, мати справу із файлами.
Та той самий хвіст, тільки вигляд збоку. LVM суттєво ефективніший, а з точки зору backup я жодної різниці не вбачаю, що образ VM у вигляді файла, що у вигляді LVolume, один біс.
От не шукай собі пригод, дуже раджу. Любить Xen свій LVM палко? То і нехай, не треба з ним сперечатися та гнути його об коліно. А то ще злякається, та дибки стане...
Ну так і вчинив. Тобто, поки-що "забив" і зосередився на основній задачі. Але я не пригод шукаю, а реалізую природню людську допитливість, котра, як відомо, рушій прогресу 8-) Тому відклав в пам'ять "розібратись детально, коли буде час". Сьогодні, до речі, запустив тестову CentOS в якості VM. Крутиться собі... Але подивитися на різні там workload reports не встиг. Вже з понеділка, бо завтра із 6-00 ранку на 3 дні в ліс, де навіть GSM нема 8-) -- Regards, /oleh hrynchuk
On Nov 30, 2017 18:55, "Oleh Hrynchuk"
А у чому смисл? Ото був би собі. Чи заважає? Чим, як?
От лежить у тебе в наплічнику шматочок цеглини, відбитий якраз з її кутка. Нафіга він тобі? Взяв і викинув :) От буде смішно, якщо Xen без нього у якийсь момент працювати не захоче... ти поки не пізно RTFM чи можна його видаляти та які будуть неочевидні наслідки, а то мало шо. Сьогодні, до речі, запустив тестову CentOS в якості VM. Не люблю центоса. Мені він якийсь незручний. Ubuntu Server наше усьо.
Не люблю центоса. Мені він якийсь незручний. Ubuntu Server наше усьо.
А в чем неудобство? Ну, кроме того, что версии много какого софта "из коробки" совсем не самые последние? Типа dovecot, nginx или openssl. Реально интересно? Т.к. мне было почти пофигу c FreeBSD на CentOS или на Ubuntu Server переходить. Выбрал CentOS. Повелся на "типа" большую серверную стабильность и поддержку enterprise железок (последнее ни разу не сыграло). С уважением, Александр
Привет! Смотрю вот, Alex Cherevko пишет как-то (Четверг, 30 Ноябрь, 19:45):
Не люблю центоса. Мені він якийсь незручний. Ubuntu Server наше усьо.
А в чем неудобство? Ну, кроме того, что версии много какого софта "из коробки" совсем не самые последние? Типа dovecot, nginx или openssl.
Ну я там как-то ковырялся. Пакеты там делаются так: берётся исходный код 5-8-летней давности, на него накатываются пару тысяч патчей (берутся те коммиты, на которые были открыты тикеты в центоси), этому присваивается какая-то условная версия и выпускается enterprise релиз. Совместимость не гарантируется, зато поддержка есть, при наличии тикета быстренько ещё из исходников вытягивается коммит и накладывается очередным 4279-м патчем. Когда патчи перестают накладываться, находится последняя версия, которая уже не поддерживается разработчиком, часть патчей удаляется и весь цикл повторяется. Что мы делали - херили оригинальный пакет, создавали свой на основе оригинальных исходников и радовались жизни. Формально оставалось центось, но половина пакетов была заменена на нормальные версии. Иначе что-то своё собрать просто нереально, разве что некрофилией заниматься и находить версии интересующего софта, которые собираются на этом старье. Андрей.
Власне, колеги вже все сказали по суті. З мого досвіду, якщо продукт себе позиціонує як "стабільність для enterprise" то це зводиться до гіперконсерватизму, фіксації на позаминулих версіях софта та дотримання зворотної сумісності дірок та багів. Але і це не головне. Серверні системи зазвичай ставляться з прицілом на строк експлуатації від 3 років і більше. Якщо ти ще у момент інсталяції ставиш систему, яка уже рік тому застаріла, це означає що через три роки ти матимеш на руках дірявого архаїчного корча, якого простіше знести і замінити, ніж постійно латати, щоб підтримувати у бадьорому стані. А коли тобі у спадок від попередників дістається цілий зоопарк версій навіть однієї системи, але різних років, кожна з яких ще і латалася у свій окремий самобутній спосіб, експлуатація цього сарая з нормальної роботи перетворюється на радіоаматорство для народних умільців типу Лєвшєй. Експлуатувати це у промисловому (комерційному) режимі нереально, а для керівника служби експлуатації це додатково ще й кадровий та управлінський головний біль. Мій особисто підхід такий. Коли я розгортаю серверну систему, я беру звичайно не бету, але найсвіжішу актуальну версію. І роблю серверні системи уніфікованими по максимуму. Тоді ще три роки воно не перетвориться на архаїку та закам'яніле гівно мамонта, і на регулярні, єдинобразні (і головне -своєчасні!) оновлення та патчі розраховувати можна упевнено. Також бажано мати обгрунтовану надію на безболісний апгрейд до нової стабільної LTS версії через наприклад 5 років. Єдиний виробник дистрибутива, який на мою думку реалізує саме цю - тверезу, реалістичну філософію промислової експлуатації без тріскотливих понтів про "enterprise" - це Ubuntu. І недарма їх продукт наразі є "стандартний лінукс де-факто" у світі. Якось так.
Андрей, Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Если я правильно понял - у Ubuntu Server с этим все хорошо? Штатно идут все последние версии пакетов и прочие вещи из коробки, типа нормального iptables? Спасибо, Александр -----Original Message----- From: uanog [mailto:uanog-bounces@uanog.kiev.ua] On Behalf Of Andriy Grytsenko Sent: Thursday, November 30, 2017 10:30 PM To: uanog@uanog.kiev.ua Subject: Re: [uanog] XenServer 7.2 and HP DL360 G7 - installation on flash disk 64 Gb Привет! Смотрю вот, Alex Cherevko пишет как-то (Четверг, 30 Ноябрь, 19:45):
Не люблю центоса. Мені він якийсь незручний. Ubuntu Server наше усьо.
А в чем неудобство? Ну, кроме того, что версии много какого софта "из коробки" совсем не самые последние? Типа dovecot, nginx или openssl.
Ну я там как-то ковырялся. Пакеты там делаются так: берётся исходный код 5-8-летней давности, на него накатываются пару тысяч патчей (берутся те коммиты, на которые были открыты тикеты в центоси), этому присваивается какая-то условная версия и выпускается enterprise релиз. Совместимость не гарантируется, зато поддержка есть, при наличии тикета быстренько ещё из исходников вытягивается коммит и накладывается очередным 4279-м патчем. Когда патчи перестают накладываться, находится последняя версия, которая уже не поддерживается разработчиком, часть патчей удаляется и весь цикл повторяется. Что мы делали - херили оригинальный пакет, создавали свой на основе оригинальных исходников и радовались жизни. Формально оставалось центось, но половина пакетов была заменена на нормальные версии. Иначе что-то своё собрать просто нереально, разве что некрофилией заниматься и находить версии интересующего софта, которые собираются на этом старье. Андрей. _______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
On Sat, Dec 02, 2017 at 01:30:07PM +0200, Alex Cherevko wrote:
Андрей,
Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Чисто интересно - а смысл? В чем грабли с тем, что есть?
Если я правильно понял - у Ubuntu Server с этим все хорошо? Штатно идут все последние версии пакетов и прочие вещи из коробки, типа нормального iptables? ubuntu lts и просто "последний ubuntu" - отличаются...
-- Best regards, Paul Arakelyan.
Кстати, да, хотел спросить - какие рекомендации по версии Ubuntu Server для production? 16.04? Или нормально пробовать и 17.10?
_____________________________
From: Paul Arakelyan
Андрей,
Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Чисто интересно - а смысл? В чем грабли с тем, что есть?
Если я правильно понял - у Ubuntu Server с этим все хорошо? Штатно идут все последние версии пакетов и прочие вещи из коробки, типа нормального iptables? ubuntu lts и просто "последний ubuntu" - отличаются...
-- Best regards, Paul Arakelyan.
Привет! Смотрю вот, Alex Cherevko пишет как-то (Воскресенье, 3 Декабрь, 20:10):
Кстати, да, хотел спросить - какие рекомендации по версии Ubuntu Server для production? 16.04? Или нормально пробовать и 17.10?
В принципе, у Ubuntu в последнее время подавляющее большинство софта берётся из Debian unstable, заморозка делается примерно за месяц до релиза, после этого фиксятся в основном только критические проблемы, "простые" баги достаточно редко. Разница между LTS и не-LTS при этом состоит в сроке поддержки, так что, если надо софт посвежее, то 17.10, если хочется "поставил и забыл", то 16.04 самое оно, там за это время самые проблемные места уже подфиксили.
On Sat, Dec 02, 2017 at 01:30:07PM +0200, Alex Cherevko wrote:
Андрей,
Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Чисто интересно - а смысл? В чем грабли с тем, что есть?
Если я правильно понял - у Ubuntu Server с этим все хорошо? Штатно идут все последние версии пакетов и прочие вещи из коробки, типа нормального iptables? ubuntu lts и просто "последний ubuntu" - отличаются...
Андрей.
LTS будет 18.04 в апреле. Если ставить прямо сегодня, я б брал 17.10 с
пониманием что летом 18 года его проапгрейдить до 18.04 и на нем потом жить
долго и счастливо.
On Dec 3, 2017 22:10, "Alex Cherevko"
Кстати, да, хотел спросить - какие рекомендации по версии Ubuntu Server для production? 16.04? Или нормально пробовать и 17.10? _____________________________ From: Paul Arakelyan
Sent: Sunday, December 3, 2017 10:05 PM Subject: Re: [uanog] XenServer 7.2 and HP DL360 G7 - installation on flash disk 64 Gb To: Alex Cherevko Cc: On Sat, Dec 02, 2017 at 01:30:07PM +0200, Alex Cherevko wrote:
Андрей,
Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Чисто интересно - а смысл? В чем грабли с тем, что есть?
Если я правильно понял - у Ubuntu Server с этим все хорошо? Штатно идут все последние версии пакетов и прочие вещи из коробки, типа нормального iptables? ubuntu lts и просто "последний ubuntu" - отличаются...
-- Best regards, Paul Arakelyan.
_______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
Всім доброго ранку.
Наскільки я зрозумів (на даний момент), то усі [нові] версії OS VMs, котрих
нема в шаблонах XenCenter, інсталюються лише в режимі HVM. Правильно?
І так потім покинути в production? Чи відразу самому ліпити новий шаблон і
переводити VM в PV-mode? На практиці це складно здійснити?
Конкретно: ось для Ubuntu 17.10 XenCenter 7.2 не має шаблону.
Які мої дії повинні бути для її розгортання в production і пізнішого
адміністрування (апгрейд до 18.04)?
Дякую.
2017-12-04 1:22 GMT+02:00 Andrii Stesin
LTS будет 18.04 в апреле. Если ставить прямо сегодня, я б брал 17.10 с пониманием что летом 18 года его проапгрейдить до 18.04 и на нем потом жить долго и счастливо.
On Dec 3, 2017 22:10, "Alex Cherevko"
wrote: Кстати, да, хотел спросить - какие рекомендации по версии Ubuntu Server для production? 16.04? Или нормально пробовать и 17.10?
On Sat, Dec 02, 2017 at 01:30:07PM +0200, Alex Cherevko wrote:
Андрей,
Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Чисто интересно - а смысл? В чем грабли с тем, что есть?
Если я правильно понял - у Ubuntu Server с этим все хорошо? Штатно идут все последние версии пакетов и прочие вещи из коробки, типа нормального iptables?
Щодо PV vs. HVM mode. Чим тобі HVM не подобається? Тим більш що Ubuntu вони рекомендують саме HVM mode і є готовий шаблон під 16.04, то я б його взяв за основу, трішки напилком пройшовся по ньому під свої потреби, і щоб він 17.10 сервер ставив. І так, з нього і production віртуалки робив. Щодо PV, то особисто мені він не подобається, можливо що і дарма, але справа звички, напевно.
4 грудня 2017 р. о 11:27 Andrii Stesin
Щодо PV vs. HVM mode. Чим тобі HVM не подобається?
- Ви любите помідори? - Їсти - люблю. А так - не дуже :)
Тим більш що Ubuntu вони рекомендують саме HVM mode і є готовий шаблон під 16.04, то я б його взяв за основу, трішки напилком пройшовся по ньому під свої потреби, і щоб він 17.10 сервер ставив. І так, з нього і production віртуалки робив.
Щодо PV, то особисто мені він не подобається, можливо що і дарма, але справа звички, напевно.
Та отож... Звичка Xen'a. Колись він, наскільки я зрозумів, був _особливо_ заточений під PV. Не знаю як зараз - не дивився аж так детально. P.S. Дякую. Заспокоїв :) -- Regards, /oleh hrynchuk http://zmejgorynych.blogspot.com
On Dec 5, 2017 06:57, "Oleh Hrynchuk"
До речі :) Отримавши Meltdown, ті, хто зробив вибір на користь HVM, мабуть, із задоволенням почухали себе по пузу :) On 12/4/17 11:27 AM, Andrii Stesin wrote:
Щодо PV vs. HVM mode. Чим тобі HVM не подобається? Тим більш що Ubuntu вони рекомендують саме HVM mode і є готовий шаблон під 16.04, то я б його взяв за основу, трішки напилком пройшовся по ньому під свої потреби, і щоб він 17.10 сервер ставив. І так, з нього і production віртуалки робив.
Щодо PV, то особисто мені він не подобається, можливо що і дарма, але справа звички, напевно.
_______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
-- Volodymyr Litovka "Vision without Execution is Hallucination." -- Thomas Edison
Ну... в мене усі VM - HVM. Нема PV.
І дійсно, я не помітив якоїсь performance деградації.
Та й load в мене - всього нічого. Навіть якби мав PV VMs, то навряд чи щось
змінилося при моїх потребах.
Єдине - дійсно неприємно було після, здається, 13-го патч-апдейта побачити
informational message щось на зразок "Amount of your XenServer CPU features
has been decreased".
23 січня 2018 р. о 12:38 Volodymyr Litovka
До речі :)
Отримавши Meltdown, ті, хто зробив вибір на користь HVM, мабуть, із задоволенням почухали себе по пузу :)
On 12/4/17 11:27 AM, Andrii Stesin wrote:
Щодо PV vs. HVM mode. Чим тобі HVM не подобається? Тим більш що Ubuntu вони рекомендують саме HVM mode і є готовий шаблон під 16.04, то я б його взяв за основу, трішки напилком пройшовся по ньому під свої потреби, і щоб він 17.10 сервер ставив. І так, з нього і production віртуалки робив.
Щодо PV, то особисто мені він не подобається, можливо що і дарма, але справа звички, напевно.
_______________________________________________ uanog mailing listuanog@uanog.kiev.uahttps://mailman.uanog.kiev.ua/mailman/listinfo/uanog
-- Volodymyr Litovka "Vision without Execution is Hallucination." -- Thomas Edison
-- Regards, /oleh hrynchuk http://zmejgorynych.blogspot.com
історія з meltdown та Linux здається іще тільки починається... https://techcrunch.com/2018/01/22/linus-torvalds-declares-intel-fix-for-melt...
Ок, наверное так и сделаю. Спасибо всем за комментарии.
From: Andrii Stesin [mailto:stesin@gmail.com]
Sent: Monday, December 4, 2017 1:23 AM
To: Alex Cherevko
Андрей,
Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Чисто интересно - а смысл? В чем грабли с тем, что есть?
Если я правильно понял - у Ubuntu Server с этим все хорошо? Штатно идут все последние версии пакетов и прочие вещи из коробки, типа нормального iptables? ubuntu lts и просто "последний ubuntu" - отличаются...
-- Best regards, Paul Arakelyan. _______________________________________________ uanog mailing list uanog@uanog.kiev.ua mailto:uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Чисто интересно - а смысл? В чем грабли с тем, что есть?
С FreeBSD? Машинка живет в DigitalOcean, там большие проблемы с network performance в 10.x и 11.x версиях FreeBSD. Разница между performance сетевого интервейса linux VM и FreeBSD VM в 100 (!) раз. Меньше 1MB/s и около 100MB/s. Александр
On Sat, Dec 09, 2017 at 03:30:27PM +0200, Alex Cherevko wrote:
Спасибо. Как раз нужно FreeBSD VM заменить на Linux VM для почтовых целей. И запнулся на том, что dovecot какой-то совсем уж старый в centos. Чисто интересно - а смысл? В чем грабли с тем, что есть?
С FreeBSD? Машинка живет в DigitalOcean, там большие проблемы с network performance в 10.x и 11.x версиях FreeBSD. Разница между performance сетевого интервейса linux VM и FreeBSD VM в 100 (!) раз. Меньше 1MB/s и около 100MB/s.
В kvm и на живом железе я только на странный жор dummynet'ом проца нарывался, достаточно только вписать в конфиг ядра :), даже без правил в ipfw. Я к тому, что должна быть устранимая причина. -- Best regards, Paul Arakelyan.
2017-11-30 17:50 GMT+02:00 Andrii Stesin
А може треба було заюзати пропрієтарний HP'шний RAID-6 AGV?
Тобі пригод не вистачає? 410 просто слабкий для RAID6, не потягне банально по обчислювальній потужності. Це ж тобі не LSI MegaRAID (там і ціна зовсім інша).
Да ладно, для механических дисков его с головой хватит, это ж не SSD. 60К IOPS на чтение. На запись, естественно, меньше, но там нормальная RAID-считалка для того времени (уже не помню, там ещё LSI-ый чип или уже PMC-Sierra). С механикой так: [image: Inline image 1] [image: Inline image 2] RAID6 with ADG там не сильно проприетарный, практически обычный RAID60, вопрос в лицензировании, насколько я помню, лицензия на "обычный" RAID6 была у IBM, Compaq же делал свой, чуть отличнающийся по внутренней реализации вариант. https://h50146.www5.hpe.com/products/storage/whitepaper/pdfs/c00386950.pdf Я когда-то видел спеки фирмваре Smart Array, там всё есть для того, чтобы считать матрицы и для striped RAID-ов более высокого уровня, просто не реализовали. Для параноиков в текущих Smart Arrays есть RAID ADM (RAID10 triple mirror).
Угу, я о всем этом "в курсе". Но количество циклов перезаписи - это все теория.
На практике же все зависит от конкретного варианта использования.
Именно для этого я и описал конкретный практический кейс.
А моем варианте - это была "большая" флешка Transcend на 8GB где-то 2008-2009 года выпуска.
Именно после изучения теории и описанного кейса на практике для себя сделал вывод больше с флешками в серверах для Host Hypervisor OS не экспериментировать.
О чем и сообщил топикстартеру.
С уважением,
Александр
-----Original Message-----
From: uanog [mailto:uanog-bounces@uanog.kiev.ua] On Behalf Of Alexander V Soroka
Sent: Tuesday, November 28, 2017 9:10 AM
To: 'List, Uanog'
1. После того, как VMWare ESXi простояла на флешке около 8 лет, флешка стала читаться и писаться с очень низкой скоростью.
Флеш память имеет весьма малое число циклов перезаписи, что-то порядка 3000, и то не все модели. Массовые = 1000 циклов. Читать вот тут для просвящения: http://www.outsidethebox.ms/17153/ ... Тип ячеек определяет ресурсы флешки по перезаписи. Маркировка *SLC говорит о 100 тысячах циклов перезаписи, а *MLC всего лишь о 10 тысячах, причём флешки последнего типа в большинстве превалируют в наших магазинах. ... «Для тяжелого ежедневного использования» подходят флэшки с чипами SLC и ресурсом порядка ста тысяч циклов перезаписи на ячейку, но такие сейчас практически не встречаются. Поэтому ищем на чипах MLC, желательно старого техпроцесса (от 20 нм и более). У них ресурс перезаписи 3-5 тыс. циклов на ячейку. Когда-то обещалось 10 тыс., но в продаже таких не видел. Даже у массовых SSD на MLC-чипах сейчас ресурс 3K. Серверные уже используют eMLC (до 20K циклов). Основная же масса флэшек выпускается с чипами TLC. У них ресурс порядка тысячи циклов перезаписи. Косвенно сориентироваться поможет соотношение размеров флэшки к её объёму в гигабайтах. 16 ГБ в крупном корпусе – признак надёжных MLC 25 нм. 32 ГБ и более в корпусе «затычке» – однозначно TLC. Игрушка, которая умрёт очень быстро. Остальные детали касаются контроллеров. Узнать без вскрытия корпуса, какой стоит контроллер и какая память, поможет база iFlash – http://flashboot.ru/iflash/ . Достаточно ввести PID и VID флэшки, чтобы найти её характеристики. Также есть бесплатная программа Flash Drive Information Extractor – http://www.antspec.com/usbflashinfo/. -- Best regards, Alexander V Soroka http://www.svr.ua/ AS106-RIPE mailto:alex@euro.net.ua _______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
2017-11-28 14:10 GMT+02:00 Alex Cherevko
Именно после изучения теории и описанного кейса на практике для себя сделал вывод больше с флешками в серверах для Host Hypervisor OS не экспериментировать.
Ну это, при нормальном радиусе кривизны рук на флешку с гипервизором после его инсталляции не пишет никто ничего и никогда. И работает годами без вопросов.
Вы практических кейсов напишите из своей практики, про "годы работы без вопросов". Тогда и сравним.
А то, может оказаться, что вы про 2-3 года. Ну и о чем речь идет - об одном сервере c локальным storage или о сотнях серверов с внешними storages.
Я написал, что в моем случае, флешка отработала без проблем 9 лет. Скорость флешки значительно деградировала.
На момент выведения сервера из ротации флешка работала штатно, но со скоростью 1-2 MB/s.
Работала под VmWare ESXi.
Логи на нее не писались. Тем более в том объеме, в котором их пишет XenServer (повторю "из коробки").
В случае текущего вопроса, насколько я понял, речь идет об одном сервере, который нужно настроить со свежей версией XenServer, а не о сотнях серверов, которые логи отправляют на remote машинки.
Не вижу, чем могут быть оправданы затраты по времени установки и дальнейшего обслуживания, включая последующие обновления, кастомной конфигурации загрузки с флешки в "данном конкретном" случае.
И куда логи писать, при нормальном радиусе кривизны рук? Отправлять на другой сервер в виртуальной машине? На RAID сторадж?
Если, по сути, на RAID сторадж, то в чем разница с тем, чтобы откусить кусочек под сам hypervisor?
XenServer настолько беспроблемный hypervisor, что за последние 5 лет я в логи ходил смотреть 2 раза.
Один раз из которых, когда они забили его собственную файловую систему на версии 6.5.
Второй раз, когда я большую часть из них отключил.
-----Original Message-----
From: Andrii Stesin [mailto:stesin@gmail.com]
Sent: Tuesday, November 28, 2017 2:55 PM
To: Alex Cherevko
Именно после изучения теории и описанного кейса на практике для себя сделал вывод больше с флешками в серверах для Host Hypervisor OS не экспериментировать.
Ну это, при нормальном радиусе кривизны рук на флешку с гипервизором после его инсталляции не пишет никто ничего и никогда. И работает годами без вопросов.
2017-11-28 15:20 GMT+02:00 Alex Cherevko
Вы практических кейсов напишите из своей практики, про "годы работы без вопросов". Тогда и сравним. А то, может оказаться, что вы про 2-3 года. Ну и о чем речь идет - об одном сервере c локальным storage или о сотнях серверов с внешними storages.
В основном 2-3, пару штук 4-5 лет. Периодически же серверы того... морально устаревают, их снимают, чистят, меняют диски, апгрейдят память, сетевухи, оптику. Потом переставляют например на новую версию VMWare (на ту же флешку ;) и включают обратно. Редко когда больше 5 лет сервер вот так в автопилоте работает. Рано или поздно приходит время что-то менять.
Я написал, что в моем случае, флешка отработала без проблем 9 лет. Скорость флешки значительно деградировала.
9 лет это дохрена. Я только пропустил, деградировала на чтение или на запись?
На момент выведения сервера из ротации флешка работала штатно, но со скоростью 1-2 MB/s. Работала под VmWare ESXi. Логи на нее не писались. Тем более в том объеме, в котором их пишет XenServer (повторю "из коробки").
Да вообще ничего туда писать не надо в принципе, она там не для того. Тогда все норм и будет.
В случае текущего вопроса, насколько я понял, речь идет об одном сервере, который нужно настроить со свежей версией XenServer,
Именно.
а не о сотнях серверов, которые логи отправляют на remote машинки. Не вижу, чем могут быть оправданы затраты по времени установки и дальнейшего обслуживания, включая последующие обновления, кастомной конфигурации загрузки с флешки в "данном конкретном" случае.
Могут быть требования, не связанные с техническими.
И куда логи писать, при нормальном радиусе кривизны рук? Отправлять на другой сервер в виртуальной машине? На RAID сторадж? Если, по сути, на RAID сторадж, то в чем разница с тем, чтобы откусить кусочек под сам hypervisor?
Есть некоторая разница ;)
XenServer настолько беспроблемный hypervisor, что за последние 5 лет я в логи ходил смотреть 2 раза.
О, я думаю Олега этот кейс порадует :)
Один раз из которых, когда они забили его собственную файловую систему на версии 6.5.
С этого места чуть подробнее если можно, мне вот интересно, это имеется в виду что они собственный log partition не умеют контролировать и засрали своими же логами?
Второй раз, когда я большую часть из них отключил.
Что в общем логично в такой ситуации :) Спасибо, интересный фидбэк, реально. С ув. Андрей
-----Original Message----- From: Andrii Stesin [mailto:stesin@gmail.com] Sent: Tuesday, November 28, 2017 2:55 PM To: Alex Cherevko
Cc: List, Uanog Subject: Re: [uanog] XenServer 7.2 and HP DL360 G7 - installation on flash disk 64 Gb 2017-11-28 14:10 GMT+02:00 Alex Cherevko
: Именно после изучения теории и описанного кейса на практике для себя сделал вывод больше с флешками в серверах для Host Hypervisor OS не экспериментировать.
Ну это, при нормальном радиусе кривизны рук на флешку с гипервизором после его инсталляции не пишет никто ничего и никогда. И работает годами без вопросов. _______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
Редко когда больше 5 лет сервер вот так в автопилоте работает. Рано или поздно приходит время что-то менять.
Ну, там тоже кое-что менялось. 4 винта, например, умерло в RAID'е за 9 лет. Один раз умер один винт, а после замены винта на новый при rebuild'е до его успешного окончания - умер второй винт. Был RAID 6 с 6 дисками - повезло.
9 лет это дохрена. Я только пропустил, деградировала на чтение или на запись?
Сейчас ее под руками нет. Помню, что вытащил и хотел на нее накатить инсталляху XenServer, а оно показало, что ждать минут 30... Так, что на запись - точно.
Да вообще ничего туда писать не надо в принципе, она там не для того. Тогда все норм и будет.
Согласен.
XenServer настолько беспроблемный hypervisor, что за последние 5 лет я в логи ходил смотреть 2 раза. О, я думаю Олега этот кейс порадует :)
Да, выдерживает даже извращения. В качестве тестового сервера XenServer 7.2 стоит на ноутбуке Dell Precision M4700 с 16GB памяти и на нем крутятся 12 виртуальных машин под centos с 512MB/1GB/2GB памяти
Один раз из которых, когда они забили его собственную файловую систему на версии 6.5.
С этого места чуть подробнее если можно, мне вот интересно, это имеется в виду что они собственный log partition не умеют контролировать и засрали своими же логами?
Это было скорее даже на 6.2. Давно было. Все, что помню - написал. Что-то типа такого: https://discussions.citrix.com/topic/351235-low-disk-space-dom0/ https://discussions.citrix.com/topic/355787-file-system-on-control-domain-fu... С 7.2 таких проблем не было ни разу. С уважением, Александр
2017-11-30 14:54 GMT+02:00 Alex Cherevko
Редко когда больше 5 лет сервер вот так в автопилоте работает. Рано или поздно приходит время что-то менять.
Ну, там тоже кое-что менялось. 4 винта, например, умерло в RAID'е за 9 лет. Один раз умер один винт, а после замены винта на новый при rebuild'е до его успешного окончания - умер второй винт. Был RAID 6 с 6 дисками - повезло.
Чо там "повезло". Ніфіга собі "повезло". Мабуть така реданденсі була задумана, нє? :)
9 лет это дохрена. Я только пропустил, деградировала на чтение или на запись?
Сейчас ее под руками нет. Помню, что вытащил и хотел на нее накатить инсталляху XenServer, а оно показало, что ждать минут 30... Так, что на запись - точно.
Да вообще ничего туда писать не надо в принципе, она там не для того. Тогда все норм и будет.
Согласен.
Вирішив не тр.хатися з флешкою. Хоча й поставив на неї 6.5. Але... За лишніх 50 ГБ + не вельми вже й такі космічні advantages потенційно мати гемор - подумав що ну його нах.
XenServer настолько беспроблемный hypervisor, что за последние 5 лет я в логи ходил смотреть 2 раза. О, я думаю Олега этот кейс порадует :)
Ще й як :) Я в 2011 мав невеликий досвід експлуатації Xen, здається, 4.x. Сподобалося.
Да, выдерживает даже извращения. В качестве тестового сервера XenServer 7.2 стоит на ноутбуке Dell Precision M4700 с 16GB памяти и на нем крутятся 12 виртуальных машин под centos с 512MB/1GB/2GB памяти
Один раз из которых, когда они забили его собственную файловую систему на версии 6.5.
С этого места чуть подробнее если можно, мне вот интересно, это имеется в виду что они собственный log partition не умеют контролировать и засрали своими же логами?
Это было скорее даже на 6.2. Давно было. Все, что помню - написал. Что-то типа такого: https://discussions.citrix.com/topic/351235-low-disk-space-dom0/ https://discussions.citrix.com/topic/355787-file-system- on-control-domain-full/
С 7.2 таких проблем не было ни разу.
Ясен-красен. В XS7 під /var/log окрема FS виділена. Ось її нехай і засирає аж під зав'язку. А на інші - не впливає.
Был RAID 6 с 6 дисками - повезло.
Чо там "повезло". Ніфіга собі "повезло". Мабуть така реданденсі була задумана, нє? :)
Ну как сказать... RAID 6 настраивал я в далеком 2008 году. Хотелось оставить больше полезного места (по сравнению с RAID 10), но при этом сильно в скорости не потерять (по сравнению с RAID 10 и RAID 5). Но еще и реального опыта с рейдами на тот момент не было - страшно было RAID 5 конфигурить. Вот и поставил RAID 6. О чем потом несколько раз сожалел, все возвращался мысленно к тому, что хотел то RAID 5, то RAID 10... Ровно до того, момента, пока два винта не умерли. Так что такие "повезло". Позже перестроил сервер на замену такие на RAID 10, но как его судьба - не знаю. Там тоже 2 винта могут вылетать, но только в одном из strip'ов. Если в друх сразу - труба. Зато скорость :)
Согласен. Вирішив не тр.хатися з флешкою. За лишніх 50 ГБ + не вельми вже й такі космічні advantages потенційно мати гемор - подумав що ну його нах.
Вот и правильно. Поддерживаю. Не забудьте почитать про автозагрузку виртуальных машин после reboot'а. https://www.punyal.com/2016/08/11/auto-start-a-virtual-machine-at-xenserver-... А reboot'ить прийдется, если хочется ставить обновления. Вот это место - единственное, которое до сих пор слегла напрягает. Еще можно минимальные требования по пямяти для VM опустить, скажем, в 512MB. https://www.27partners.com/2011/11/force-lower-memory-limit-in-xenserver-vms... Мне было актуально, поскольку тестируем конфигурации, которые потом на слабеньких VPS'ках живут. С уважением, Александр
On Nov 30, 2017 14:54, "Alex Cherevko"
On Nov 30, 2017, at 17:34, Andrii Stesin
wrote: On Nov 30, 2017 14:54, "Alex Cherevko"
wrote: Один раз умер один винт, а после замены винта на новый при rebuild'е до его успешного окончания - умер второй винт.
Ну, когда ставятся на сервер пачка винтов с завода из одной партии, то оно совершенно предсказуемо что будет именно так - жить будут долго и счастливо, а умирать будут в один день, часто в прямом смьісле слова. Потому что нагрузка и износ идентично на всех.
У нас на большинстве машин собраны RAID'ы, и понятно, что там стоят одинаковые диски. Вылета двух дисков не видел ни разу (и не хочу! :) ).
Тут лекарство ровно одно. Плановая замена 1го из 4 винтов в год, или 1 из 3х если массив длинньій 6+ дисков.
Год отработал массив новеньких дисков из 6 шт? Планово купи 2 новьіх и поставь в массив, а снятьіе 2 слегка поношенньіе сложи в резерв в сейф. Еще год? Еще два. Еще год? Смотря как оно себя чувствует, 4 поюзанньіх в запасе есть и 6 в работе, можно и не докупать еще один.
А вот о такой схеме на задумывался, но она мне нравится -- спасибо. Нужно будет для особо критических машин обдумать такую схему.
А если 2 старейших уже S.M.A.R.T. намекает, что вот скоро, то можно один и докупить. Иди их знай, шоб посреди ночи в праздники не пришлось лететь в ДЦ...
Для массива из 4 дисков первьіе 3 года планово докупать и ставить по одному новому в год, дальше по ситуации.
Как-то так.
С ув. Андрей
_______________________________________________ uanog mailing list uanog@uanog.kiev.ua https://mailman.uanog.kiev.ua/mailman/listinfo/uanog
-- Taras Heichenko tasic@academ.kiev.ua
On Dec 3, 2017 19:12, "Taras Heichenko"
Ну, когда ставятся на сервер пачка винтов с завода из одной партии, то оно совершенно предсказуемо что будет именно так - жить будут долго и счастливо, а умирать будут в один день, часто в прямом смьісле слова. Потому что нагрузка и износ идентично на всех.
У нас на большинстве машин собраны RAID'ы, и понятно, что там стоят одинаковые диски. Вылета двух дисков не видел ни разу (и не хочу! :) ). В прошлом году мне удалось поднять без потерь информации массив RAID6 из 12 дисков после отказа трех(!!!)4TB винтов. От папірєдників такой достался. Содержимое массива - информация критичная совешенно и полностью, самая важная в стране, в единственном єкземпляре оригинале. Резервньіх копий не бьіло. Получилось. Но на самом деле просто повезло. Думаю тьі понимаешь, почему я стригусь под машинку 3 мм. Чтоб не так бьіло заметно, что я совсем нецензурно седой. Понятно что потом уже мьі переделали все по уму и стало нормально, и бекапьі, и все шо надо, но то вже потом, а на тот момент... Посему рекомендую мои советьі по организации технической єксплуатации хранилищ все же принимать к сведению хотя б слегка. Грабли топтанньіе, такого цирка я и врагу не пожелаю. Коллегам и друзьям само собой тем более.
On Nov 27, 2017 14:38, "Oleh Hrynchuk"
HP G7 на думку колег не вміє UEFI у принципі, незалежно від версії мікропрограм. Тобто XenServer 6.* це вірний вибір.
On Mon, Nov 27, 2017 at 10:20:13AM +0200, Oleh Hrynchuk wrote:
Мучуся вже майже тиждень. Ніяк не вдається провести інсталяцію Citrix XenServer 7.2 НА USB-флешку 64Гб. Підкреслюю - "на" флешку. Сервер - чесний HP DL360 G7. Хоч і нема його в HCL-списку, але народ успішно юзає. настоятельно рекоммендую задуматься о движении в сторону proxmox либо ovirt (по факту - centos linux+qemu). если есть желание выжать из raid'а максимум производительности - freenas+virtualbox ( = freebsd+qemu) либо openmediavault+virtualbox (linux+qemu), но это если ваша raid-карточка умеет jbod. кормить её raid0 массивами из одного диска - то ещё извращение. из всего вышеперечисленного, openmediavault в моих руках сделал почти всё без cmdline - gui инсталятора, дальше в веб-интерфейсе мышкой тыцать.
если проект стыкуется с железом через какую-то мать - то рано или поздно он от этого железа отпадёт, и это произойдёт настолько невовремя, что матери будет много. mbr, -- Igor "CacoDem0n" Grabin
Усім доброго ранку.
Шановні колеги, дуже всім дякую за допомогу та цінні поради.
Вивчаю помалу усі можливості.
Пріоритет №1: зробити надійну систему віртуалізації (з розряду "запустив і
забув") без надмірного функціоналу та розраховану на помірні нагрузки.
2017-11-27 15:04 GMT+02:00 Igor Grabin
On Mon, Nov 27, 2017 at 10:20:13AM +0200, Oleh Hrynchuk wrote:
Мучуся вже майже тиждень. Ніяк не вдається провести інсталяцію Citrix XenServer 7.2 НА USB-флешку 64Гб. Підкреслюю - "на" флешку. Сервер - чесний HP DL360 G7. Хоч і нема його в HCL-списку, але народ успішно юзає. настоятельно рекоммендую задуматься о движении в сторону proxmox либо ovirt (по факту - centos linux+qemu). если есть желание выжать из raid'а максимум производительности - freenas+virtualbox ( = freebsd+qemu) либо openmediavault+virtualbox (linux+qemu), но это если ваша raid-карточка умеет jbod. кормить её raid0 массивами из одного диска - то ещё извращение. из всего вышеперечисленного, openmediavault в моих руках сделал почти всё без cmdline - gui инсталятора, дальше в веб-интерфейсе мышкой тыцать.
если проект стыкуется с железом через какую-то мать - то рано или поздно он от этого железа отпадёт, и это произойдёт настолько невовремя, что матери будет много.
mbr, -- Igor "CacoDem0n" Grabin
participants (12)
-
Alex Cherevko
-
Alexander V Soroka
-
Andrey Blochintsev
-
Andrii Stesin
-
Andriy Grytsenko
-
Basil Vizgin
-
Igor Grabin
-
Oleh Hrynchuk
-
Paul Arakelyan
-
Stesin
-
Taras Heichenko
-
Volodymyr Litovka