Приветствую коллеги! Как обычно, заранее прошу прощения, что не о политике Каковы причины роста дропов на Gi интерфейсе C3560E. Железка с виду вовсе не перегруженна, втом числе и трафик на порту: GigabitEthernet0/19 is up, line protocol is up (connected) Hardware is Gigabit Ethernet, address is 001e.bed9.d613 (bia 001e.bed9.d613) Description: interface_description MTU 9198 bytes, BW 1000000 Kbit, DLY 10 usec, reliability 255/255, txload 135/255, rxload 3/255 Encapsulation ARPA, loopback not set Keepalive set (10 sec) Full-duplex, 1000Mb/s, media type is 10/100/1000BaseTX input flow-control is off, output flow-control is unsupported ARP type: ARPA, ARP Timeout 04:00:00 Last input 00:00:06, output 00:00:09, output hang never Last clearing of "show interface" counters never Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 154377217 Queueing strategy: fifo Output queue: 0/40 (size/max) 5 minute input rate 13816000 bits/sec, 23674 packets/sec 5 minute output rate 530857000 bits/sec, 44732 packets/sec Здесь "Total output drops" растет с завидной регулярностью. show process cpu показывает 10-20% Куда копать?
IMHO, при сумарному трафіку по портах більше за 8G на 3560E починають
спостерігатись "спецефекти"
:-)
----- Original Message -----
From:
Попробуйте проанализировать sh controllers utilization sh int cou err на данных каталистах , как писал Олесь , действительно наблюдается аномальное кол-во output drops ... Предположил что не хватает буфера sh buffers failures или трафик первышает физ. предел интерфейса попробуйте переместить порт с бОльшим трафом на другой асик , мне немного помогло :) , цифра дропов уменьшилась на 2 порядка. Oles Girniak wrote:
IMHO, при сумарному трафіку по портах більше за 8G на 3560E починають спостерігатись "спецефекти" :-)
----- Original Message ----- From:
To: Sent: Thursday, April 14, 2011 9:29 AM Subject: [uanog] Дропы на интерфейсе каталисты C3560E Приветствую коллеги!
Как обычно, заранее прошу прощения, что не о политике
Каковы причины роста дропов на Gi интерфейсе C3560E. Железка с виду вовсе не перегруженна, втом числе и трафик на порту:
GigabitEthernet0/19 is up, line protocol is up (connected) Hardware is Gigabit Ethernet, address is 001e.bed9.d613 (bia 001e.bed9.d613) Description: interface_description MTU 9198 bytes, BW 1000000 Kbit, DLY 10 usec, reliability 255/255, txload 135/255, rxload 3/255 Encapsulation ARPA, loopback not set Keepalive set (10 sec) Full-duplex, 1000Mb/s, media type is 10/100/1000BaseTX input flow-control is off, output flow-control is unsupported ARP type: ARPA, ARP Timeout 04:00:00 Last input 00:00:06, output 00:00:09, output hang never Last clearing of "show interface" counters never Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 154377217 Queueing strategy: fifo Output queue: 0/40 (size/max) 5 minute input rate 13816000 bits/sec, 23674 packets/sec 5 minute output rate 530857000 bits/sec, 44732 packets/sec
Здесь "Total output drops" растет с завидной регулярностью. show process cpu показывает 10-20% Куда копать?
Добрый день! Года четыре назад я по подобным граблям проходился (google: "cisco-nsp OutDiscards"). Традиционно возникает при вливании из десятки или etherchannel в один гигабитный порт. Осложняется вклченным "mls qos" и отсутствием тонкой подстройки размера egress очередей на порту. Это, собственно, легко увидеть: switch# sh mls qos int g0/19 stat | beg dropped Универсальный рецепт лечения только один - мигрировать на что-то получше, так как нехватка размера буфера никак не лечится. Тюнинг очередей только продлит агонию, но не решит проблему. Мутноватое описание настройки как обычно в мануале: http://www.cisco.com/en/US/docs/switches/lan/catalyst3750e_3560e/software/re... -- Dmitry Kiselev On Thu, Apr 14, 2011 at 09:29:11AM +0300, valik@naverex.net wrote:
Приветствую коллеги!
Как обычно, заранее прошу прощения, что не о политике
Каковы причины роста дропов на Gi интерфейсе C3560E. Железка с виду вовсе не перегруженна, втом числе и трафик на порту:
GigabitEthernet0/19 is up, line protocol is up (connected) Hardware is Gigabit Ethernet, address is 001e.bed9.d613 (bia 001e.bed9.d613) Description: interface_description MTU 9198 bytes, BW 1000000 Kbit, DLY 10 usec, reliability 255/255, txload 135/255, rxload 3/255 Encapsulation ARPA, loopback not set Keepalive set (10 sec) Full-duplex, 1000Mb/s, media type is 10/100/1000BaseTX input flow-control is off, output flow-control is unsupported ARP type: ARPA, ARP Timeout 04:00:00 Last input 00:00:06, output 00:00:09, output hang never Last clearing of "show interface" counters never Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 154377217 Queueing strategy: fifo Output queue: 0/40 (size/max) 5 minute input rate 13816000 bits/sec, 23674 packets/sec 5 minute output rate 530857000 bits/sec, 44732 packets/sec
Здесь "Total output drops" растет с завидной регулярностью. show process cpu показывает 10-20% Куда копать?
Добрый день!
Года четыре назад я по подобным граблям проходился (google: "cisco-nsp OutDiscards"). Традиционно возникает при вливании из десятки или etherchannel в один гигабитный порт. Осложняется вклченным "mls qos" и отсутствием тонкой подстройки размера egress очередей на порту. Это, собственно, легко увидеть:
switch# sh mls qos int g0/19 stat | beg dropped
Универсальный рецепт лечения только один - мигрировать на что-то получше, так как нехватка размера буфера никак не лечится. Тюнинг очередей только продлит агонию, но не решит проблему. Мутноватое описание настройки как обычно в мануале:
По всему выходит, что свитч не в состоянии раздавать поток, принятый через Te интерфейс, по Gi интерфейсам. Даже если прием по Te не превышает пары-тройки гиг. Хотя обратный процесс никаких трудностей не вызывает. А на что мигрировали?
http://www.cisco.com/en/US/docs/switches/lan/catalyst3750e_3560e/software/re...
-- Dmitry Kiselev
On Thu, Apr 14, 2011 at 09:29:11AM +0300, valik@naverex.net wrote:
Приветствую коллеги!
Как обычно, заранее прошу прощения, что не о политике
Каковы причины роста дропов на Gi интерфейсе C3560E. Железка с виду вовсе не перегруженна, втом числе и трафик на порту:
GigabitEthernet0/19 is up, line protocol is up (connected) Hardware is Gigabit Ethernet, address is 001e.bed9.d613 (bia 001e.bed9.d613) Description: interface_description MTU 9198 bytes, BW 1000000 Kbit, DLY 10 usec, reliability 255/255, txload 135/255, rxload 3/255 Encapsulation ARPA, loopback not set Keepalive set (10 sec) Full-duplex, 1000Mb/s, media type is 10/100/1000BaseTX input flow-control is off, output flow-control is unsupported ARP type: ARPA, ARP Timeout 04:00:00 Last input 00:00:06, output 00:00:09, output hang never Last clearing of "show interface" counters never Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 154377217 Queueing strategy: fifo Output queue: 0/40 (size/max) 5 minute input rate 13816000 bits/sec, 23674 packets/sec 5 minute output rate 530857000 bits/sec, 44732 packets/sec
Здесь "Total output drops" растет с завидной регулярностью. show process cpu показывает 10-20% Куда копать?
On 04/15/11 21:03, Valentyn Klindukh wrote:
Добрый день!
Года четыре назад я по подобным граблям проходился (google: "cisco-nsp OutDiscards"). Традиционно возникает при вливании из десятки или etherchannel в один гигабитный порт. Осложняется вклченным "mls qos" и отсутствием тонкой подстройки размера egress очередей на порту. Это, собственно, легко увидеть:
switch# sh mls qos int g0/19 stat | beg dropped
Универсальный рецепт лечения только один - мигрировать на что-то получше, так как нехватка размера буфера никак не лечится. Тюнинг очередей только продлит агонию, но не решит проблему. Мутноватое описание настройки как обычно в мануале: По всему выходит, что свитч не в состоянии раздавать поток, принятый через Te интерфейс, по Gi интерфейсам. Даже если прием по Te не превышает пары-тройки гиг. Хотя обратный процесс никаких трудностей не вызывает.
Интересно, на новых 3560-X эта проблема осталась ?
А на что мигрировали?
http://www.cisco.com/en/US/docs/switches/lan/catalyst3750e_3560e/software/re...
-- Dmitry Kiselev
On Thu, Apr 14, 2011 at 09:29:11AM +0300, valik@naverex.net wrote:
Приветствую коллеги!
Как обычно, заранее прошу прощения, что не о политике
Каковы причины роста дропов на Gi интерфейсе C3560E. Железка с виду вовсе не перегруженна, втом числе и трафик на порту:
GigabitEthernet0/19 is up, line protocol is up (connected) Hardware is Gigabit Ethernet, address is 001e.bed9.d613 (bia 001e.bed9.d613) Description: interface_description MTU 9198 bytes, BW 1000000 Kbit, DLY 10 usec, reliability 255/255, txload 135/255, rxload 3/255 Encapsulation ARPA, loopback not set Keepalive set (10 sec) Full-duplex, 1000Mb/s, media type is 10/100/1000BaseTX input flow-control is off, output flow-control is unsupported ARP type: ARPA, ARP Timeout 04:00:00 Last input 00:00:06, output 00:00:09, output hang never Last clearing of "show interface" counters never Input queue: 0/75/0/0 (size/max/drops/flushes); Total output drops: 154377217 Queueing strategy: fifo Output queue: 0/40 (size/max) 5 minute input rate 13816000 bits/sec, 23674 packets/sec 5 minute output rate 530857000 bits/sec, 44732 packets/sec
Здесь "Total output drops" растет с завидной регулярностью. show process cpu показывает 10-20% Куда копать?
-- Andrey Lakhno, land-ripe
participants (6)
-
Alexandr Turovsky
-
Andrey Lakhno
-
Dmitry Kiselev
-
Oles Girniak
-
Valentyn Klindukh
-
valik@naverex.net