HA там уровня check availability, т.е. скорость диска не сильно его должна мучать, ведь переключение произойдет когда нода с контейнерами отвалицо и сработает cluster availability timeout. Замедление надо компенсировать "шириной" рейда, т.е. 10-12 быстрых сасов в raid6, например будут очень быстро отдаваться по любой среде. Я имел опыт со всякими - qnap неплохой бюджетник, Oracle круто и дорого, всякие EMC2 и Netapp тоже без нареканий работали. Более всего мне нравился Sun Open Storage (Oracle ZFS), но это чит, т.к. я был в команде разработки ). Но если это проект "за свои" или в ограниченном бюджете - а на это указывает выбор kvm и проксмокс )), то пара серверов+корзина с дисками и сасом (например Supermicro), немного настроек линукса или готовая сборка типа openfiler, и будет отличное решение для наса под виртуалки.
On 5 июля 2013, at 14:39, Max Speransky <speransky@gmail.com> wrote:Ну там HA уровня ноды, т.е. образА виртуалок лежат на общем сторадже, поверх которого должна быть кластерная файлуха типа gfs2, когда со всех участников видно все. Кмк в этом случае лучше что-бы NAS отдавал сразу NFS, раз они умеют в него ходить, будет проще админить. Используют судя по всему Clustering Suite от редхата, не лучшее решение, но если есть гуйня которая конфигурит сразу то ок.Схема вполне типовая, можно взять любой NAS, главное что-бы raid6, nfsv4 и много скоростных портов.Меня больше всего смущает в этой схеме скорость доступа к дискам. Т.е. вот каждая фраза "поверх всего этого"говорит о очередном замедлении реальной скорости работы с диском, который уже будет видеть виртуальная машина.Ну и собственно остается вопрос о надежности qnap'овских дивайсов. И может кто еще с какими raid'ами имел персональныйопыт общения и может что присоветовать или отсоветовать.5 июля 2013 г., 14:31 пользователь Taras Heychenko <tasic@academ.kiev.ua> написал:
On 5 июля 2013, at 14:18, Max Speransky <speransky@gmail.com> wrote:Хм, iSER фигачит на скорости 2xIB QDR, файберченнел нервно плачет, даже 16 гбитный, уже не хватает скорости pci. Для дома и семьи на 10гбе эзере можно запилить вполне себе быструю SAN, но Тасик наверняка хочет что-то готовое, qnap тот же линукс продает в коробке, iser/iscsi стек оченна хорош в той версии соляриса, которая на Oracle ZFS storage живет (оно же в девичестве Sun Open Storage), можно у того же оракла посмотреть Pillar Axiom. И база - будет ли поверх этих лунов кластеризация типа как в оракле кластере ? Если да, то iscsi слишком высокое латенси имеет для кворумирования через диск если инстансов более 6-ти.
Я пытаюсь разобраться. В данном случае я выступаю не как "настоящий сварщик", т.е. своими ручками я это вряд ли буду делать.Но разобраться нужно. Интересует установка Proxmox high availability cluster. http://pve.proxmox.com/wiki/High_Availability_ClusterЯ вот еще почитал немножко -- по требованиям, которые там нарисованы, там вообще не iSCSI, а SAN or NAS/NFS for Virtual DiskImage Store for HA KVM. И я немножко перестал понимать, как "наш пилот будет поднимать всю эту фигню в воздух". Т.е. с однойстороны они вроде как обещают high availability, ну и что оно будет работать. А с другой стороны соединение поверх предложенногокак-то мне кажется не быстрое получается. Кто-нибудь такое делал?5 июля 2013 г., 14:10 пользователь Igor Grabin <violent@death.kiev.ua> написал:On Fri, Jul 05, 2013 at 01:51:00PM +0300, Taras Heychenko wrote:х его з. мой опыт показывает, что если полка не отдаётся по оптике -
> > Под какие задачи нужен внешний RAID ?
> Работа с базой данных через iSCSI.
то по скорости точно будет уступать софтрейду из sata дисков.
быстрого iSCSI что не видел, что даже не слышал про такое.
--
Igor "CacoDem0n" Grabin
--
Yours, Max
http://about.me/speransky--Taras Heychenko
--
Yours, Max
http://about.me/speransky--Taras Heychenko