Привет!

Всегда интересовало: а как Linux делает load balancing? Мне всегда казалось что главная идея при разработке Linux bonding была redundancy а про load balancing никто не думал

Best wishes,
Maksym

On 17 Jul 2013, at 14:08, "Vladimir Sharun" <vladimir.sharun@ukr.net> wrote:

Уточните возможность использования механзма хэширования round-robin на всех участках link aggregation'а. Модерновые устройства это умеют. Это в свою очередь решает проблему с упиранием в-  или забиванием одной из веревок и последующими каками в случае такого типа стыков от аксесс свичей в аггрегатор и от аггрегатора в core/edge.


Переход на 10G - это круто, только не всегда оправдано и/или необходимо чисто финансово. Среднестатистический веб сервер с трудом может высрать 2-3Гбит контента, который он жмет на лету и как-то пре� �обр� �батывает (про медиа не говорим, ок), соотв. вопрос линк-аггрегации такого типа, как спрашивает тёзка очень в тему.

--- Исходное сообщение ---
От кого: "Vladimir Melnik" <v.melnik@uplink.ua>
Дата: 17 июля 2013, 14:40:24

Всем привет!



Есть, скажем, коммутатор, который умеет 802.3ad.



Есть несколько серверов (Linux), которые подключены к нему гигабитными картами. Некоторые сервера подключены 2-мя картами, некоторые – 4-мя.



На всех этих серверах используется бондинг с mode=4 (это и есть 802.3ad).



Замечено, что скорость передачи данных между любым произвольным сервером и любым другим произвольным сервером не превышает 1 Гбит/с.



При этом, когда сервер обменивается данными с несколькими серверами одновременно, суммарная нагрузка на bond-интерфейс таки говорит о том, что используются все карты.



Вопрос в том, как получить 2 Гбит/с между сервером X и Y.



Использовать другой тип бондинга? Если да – какой будет лучше?



Что-то подкрутить в настройках на коммутаторе или на самих серверах? Если да – что?



Заранее благодарен за советы и подсказки.



Вова.