Всем доброго дня! Наверное, очень простой вопрос, но всё же буду рад подсказкам и советам. Есть вот, скажем, хост, у которого 16 SSD-накопителей WDC WDS100T1B0A-00H9H0, они все подключены к контроллеру AVAGO 3108 MegaRAID и работают в RAID10. Есть достаточно свирепая нагрузка, создаваемая несколькими дюжинами виртуалок. И есть желание увеличить производительность дисковой подсистемы. Обычно iostat даёт что-то типа вот такого: Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 11.00 0.00 1186.00 205.00 96398.00 11464.00 77.54 4.66 3.17 2.90 4.74 0.72 99.90 dm-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 dm-1 0.00 0.00 9.00 0.00 72.00 0.00 8.00 0.07 7.33 7.33 0.00 7.33 6.60 dm-2 0.00 0.00 1188.00 209.00 95688.00 11539.00 76.76 5.46 3.73 3.57 4.65 0.72 100.00 Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 45.00 1.00 660.00 310.00 65892.00 23484.00 92.14 5.67 5.71 4.91 7.41 1.03 100.10 dm-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 dm-1 0.00 0.00 40.00 0.00 320.00 0.00 8.00 2.14 53.60 53.60 0.00 4.25 17.00 dm-2 0.00 0.00 667.00 308.00 66474.00 23425.00 92.20 6.22 6.17 5.45 7.72 1.03 100.00 Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 21.00 308.00 628.00 696.00 89385.00 44079.00 100.80 6.25 4.95 5.29 4.65 0.75 99.90 dm-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 dm-1 0.00 0.00 14.00 313.00 112.00 2504.00 8.00 22.95 70.17 57.93 70.72 0.79 25.70 dm-2 0.00 0.00 633.00 692.00 88881.00 41695.00 98.55 6.47 5.16 6.25 4.16 0.75 100.00 Иногда, когда нагрузка становится немного меньше, это выглядит примерно так (я, кстати, так и не понял, почему иногда %util равен 100%, но количество операций, вроде, даже несколько меньше, чем когда %util явно ниже): Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 26.00 393.00 618.00 677.00 96618.00 50869.00 113.89 3.30 2.69 2.96 2.44 0.64 82.50 dm-0 0.00 0.00 7.00 0.00 128.00 0.00 18.29 0.02 3.14 3.14 0.00 1.57 1.10 dm-1 0.00 0.00 29.00 399.00 232.00 3192.00 8.00 14.59 34.09 45.41 33.27 0.53 22.50 dm-2 0.00 0.00 605.00 668.00 95362.00 47493.00 112.22 2.92 2.44 2.78 2.13 0.65 82.40 Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 43.00 550.00 621.00 244.00 146329.00 10989.00 181.87 1.25 1.43 1.19 2.03 0.75 64.90 dm-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 dm-1 0.00 0.00 40.00 561.00 320.00 4488.00 8.00 11.63 19.34 10.85 19.95 0.18 10.60 dm-2 0.00 0.00 628.00 233.00 146585.00 6501.00 177.80 1.07 1.22 1.24 1.18 0.72 61.80 Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await r_await w_await svctm %util sda 62.00 172.00 707.00 316.00 113067.00 10133.00 120.43 3.96 3.61 3.02 4.94 0.83 84.70 dm-0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 dm-1 0.00 0.00 123.00 181.00 984.00 1448.00 8.00 17.45 55.71 8.26 87.96 0.91 27.80 dm-2 0.00 0.00 644.00 312.00 111699.00 8727.00 125.97 3.20 3.13 3.45 2.47 0.86 82.10 Как считаете, будет ли разумно добавить ещё один RAID-контроллер и перебросить половину накопителей на него, а оба RAID10 объединить уже в один LVM на уровне операционки, даст ли это какой-то существенный прирост производительности? Заранее благодарен за подсказки! -- V.Melnik