А Linux умеет per flow with hashing? т.е. на основе src/dst mac/IP addresses, MPLS label, UDP/TCP ports, etc строится хеш и весь траффик по этому хешу посылается в один и тот же порт?

Best wishes,
Maksym

On 17 Jul 2013, at 15:04, Max Speransky <speransky@gmail.com> wrote:

Лоад балансинг бывает разный - per packet или per destination. На linux bonding мона разные методы внедрять - balance-rr просто пакеты кидает в разные дырки 5 и 6 поумнее. balance-xor по дестинейшену балансирует. Ну и failover есть. Для задачи топикстартера кмк balance-rr самый раз

17 июля 2013 г., 15:52 пользователь Maksym Tulyuk <maksym@tulyuk.com> написал:
Привет!

Всегда интересовало: а как Linux делает load balancing? Мне всегда казалось что главная идея при разработке Linux bonding была redundancy а про load balancing никто не думал

Best wishes,
Maksym

On 17 Jul 2013, at 14:08, "Vladimir Sharun" <vladimir.sharun@ukr.net> wrote:

Уточните возможность использования механзма хэширования round-robin на всех участках link aggregation'а. Модерновые устройства это умеют. Это в свою очередь решает проблему с упиранием в-  или забиванием одной из веревок и последующими каками в случае такого типа стыков от аксесс свичей в аггрегатор и от аггрегатора в core/edge.


Переход на 10G - это круто, только не всегда оправдано и/или необходимо чисто финансово. Среднестатистический веб сервер с трудом может высрать 2-3Гбит контента, который он жмет на лету и как-то пре� �обр� �батывает (про медиа не говорим, ок), соотв. вопрос линк-аггрегации такого типа, как спрашивает тёзка очень в тему.

--- Исходное сообщение ---
От кого: "Vladimir Melnik" <v.melnik@uplink.ua>
Дата: 17 июля 2013, 14:40:24

Всем привет!



Есть, скажем, коммутатор, который умеет 802.3ad.



Есть несколько серверов (Linux), которые подключены к нему гигабитными картами. Некоторые сервера подключены 2-мя картами, некоторые – 4-мя.



На всех этих серверах используется бондинг с mode=4 (это и есть 802.3ad).



Замечено, что скорость передачи данных между любым произвольным сервером и любым другим произвольным сервером не превышает 1 Гбит/с.



При этом, когда сервер обменивается данными с несколькими серверами одновременно, суммарная нагрузка на bond-интерфейс таки говорит о том, что используются все карты.



Вопрос в том, как получить 2 Гбит/с между сервером X и Y.



Использовать другой тип бондинга? Если да – какой будет лучше?



Что-то подкрутить в настройках на коммутаторе или на самих серверах? Если да – что?



Заранее благодарен за советы и подсказки.



Вова.







--
Yours, Max
http://about.me/speransky