On Fri, Dec 23, 2016 at 03:59:22PM +0200, Serge Negodyuck wrote:
Я пришел к выводу, что все современные контролеры (брали на тест несколько Adaptec, и LSI) очень плохо работают с большим количеством SSD. Почему, так и не удалось понять. Может они не рассчитаны на такую низкую latency. Может еще что. Оптимально получилось использовать набортные 6 SATA + простенькие контроллеры на 4 диска (часто на серверных материнках сразу делают 6 базовых + 4 доп. контроллер на материнке),
И софтварный raid на SSD по всегда получался быстрее аппаратного.
Для LSI нужен Fastpath (раньше это был отдельный feature license key, последнее время часто сразу включен). Без него было совсем плохо. Ну и 16-ю SSD вполне можно забить PCIe шину, в зависимости от их скорости и версии/рядности шины. --igor
23 декабря 2016 г., 15:41 пользователь Vladimir Melnik
написал: On Fri, Dec 23, 2016 at 12:56:45PM +0200, Andrii Stesin wrote:
На самом железном хосте, что крутится? Виртуалки на нем же или по NFS?
Там CentOS-6.8, образы дисков живут там же, на /dev/sda.
Всё никак не могу понять, как выкупить, дело в ограниченной пропускной способности PCI, RAID-контроллера или самих дисков. Статистика, которую даёт контроллер, мягко говоря, не шибко-то информативна.
Насчёт дисков немножко сомневаюсь, что затык в них, кстати. Почему - потому что одна половина от этих виртуалок до того жила на хосте с 4-мя SSD-накопителями в RAID10, вторая - на похожем хосте с 4-мя похожими накопителями в RAID10. Оба хоста чувствовали заметно более уверенно в этой жизни. В хосте, на который переехали эти виртуалки, 16 накопителей, стало быть - нагрузка на каждый из них теоретически стала в 2 раза меньше. Потому и думаю, что, возможно, если я разделю диски между 2-мя контроллерами и затем объединю оба диска в один LVM, производительность хранилища радикально возрастёт. Только нет уверенности, вот и интересуюсь, вдруг кто имел подобный опыт.
-- V.Melnik