Thu, Oct 21, 2010 at 14:39:41, vvelychko wrote about "Re: [uanog] InfiniBand":
Какие именно цели применения? Обеспечить высокоскоростную связанность: между сетевым(и) хранилищем(ями) и серверами приложений; между сервером виртуализации и SAN, на котором живут сами виртуалки (с поддержкой multipath).
У нас специфика - HPC. Поэтому подходы соответствующие. Из вендоров активно применяем только Mellanox, про другие ничего не скажу. Для дисков транспорт - RDMA SCSI. Multipath работает, но насколько требуются подпорки, я ещё не изучил. Вообще, заводясь работать с IB, надо понимать его специфику. Это никак не просто "как Ethernet, но быстрее" - надо знать, например, что в L2 сегменте нет просто отправки пакета "в воздух", он всегда доставляется или приходит недоставка (а пока не доставлен - хранится для возможной перепосылки). У него свой стек протоколов с оптимизацией на свою специфику и свои задачи. IP over IB работает, но является значительно более накладным решением по сравнению со специализированными, а попытка завести, например, NFS over IP over IB чревата дикими тормозами. Тем не менее, RDMA SCSI работает очень хорошо и является штатным подходом (более, чем альтернативные). Но приготовьтесь выложить денег, может, больше, чем за 10G Ethernet. -netch-