tps какой-то нездоровый кстати, у себя под DB планирую отказаться от журнала Ибо все равно метаданные меняются afaik достаточно редко, а лишний раз дергать flash переписыванием журнала как-то не хочется Да и производительность растет раза в полтора на рандомных операциях ps. kingstone 29 устраивает шоу с показыванием новых дисков и тестами меня пригласили, так что схожу посмотрю, чем они похвастаться могут ps2. хорошо бы поиграться с sandforce + slc, но больно уж цены нездоровые ps3. ждем-с 20нм флеш обещают дешевле, прозводительные и долговечнее On Tue, Oct 26, 2010 at 12:34:56AM +0300, Paul Arakelyan wrote: PA> On Mon, Oct 11, 2010 at 01:43:35PM +0300, Alexander Trotsai wrote: PA> > Потестировал SSD с контроллером sandforce PA> > Результаты очень понравились PA> > Для ext4 без журнала получит суммарно 345 MB/s и порядка PA> > 3500-4000 tps PA> 2х80ГБ intel X-25G2, opensolaris/ZFS mirror, gzip-3 compression PA> (бедный проц :) ) и zil device (зеркало) на них же. Рядом PA> напрягаются 4х500ГБ SATA (показаны 2). PA> Вот цифирьки iostat, собственно (угадайте, кто есть ху :) ): PA> sd6 sd9 sd10 sd11 PA> kps tps serv kps tps serv kps tps serv kps tps serv PA> 22931 9157 0 33462 5661 2 628 199 158 537 215 146 PA> 19591 10132 0 33244 7044 2 583 125 279 3838 336 81 PA> 17388 9216 0 26292 6712 1 3245 109 185 0 0 0 PA> 10785 5128 0 13560 4325 1 1570 451 37 1330 459 37 PA> бывает даже так: PA> 43866 14787 0 44743 14730 0 1028 272 129 903 313 112 PA> 41048 15236 0 41742 14783 0 353 131 267 354 146 240 PA> В основном read, а вот увидел "затык" (iostat -D 2): PA> sd6 sd9 PA> rps wps util rps wps util PA> 5947 3 68.3 10285 3 44.0 PA> 2621 475 77.2 4858 1079 49.4 <\ PA> 8 1410 99.5 25 846 18.6 <-- вон как sd6 заклинило PA> 2443 305 57.3 4372 195 44.8 PA> Диски уже 11 месяцев в работе, на один изначально нагрузка была PA> больше (zil был только на нём, и писалось вначале туда что-то PA> дофига - 6МБ/с ровным потоком и сутками, не помню почему, не PA> считая остальной нагрузки. По идее он и был sd6). Вот, значит PA> вылезать проблема фрагментации начала... надо забэкапиться - PA> вынуть из зеркал, обнулить, обратно втулить... PA> К вопросу "а сколько ж читается": PA> capacity operations bandwidth PA> pool used avail read write read write PA> ssdp 48.0G 23.5G 30.1K 0 19.6M 0 PA> mirror 48.0G 23.5G 30.1K 0 19.6M 0 PA> c8t4d0p1 - - 5.08K 0 25.4M 0 PA> c8t5d0p1 - - 5.40K 0 26.8M 0 PA> Видим странную бяку: для "прочитать 20МБ" дёргается 50МБ, 10К iops. PA> (по идее - следствие того, что файлы таблиц изначально записаны с PA> большим recordsize пула) PA> Бывает и лучше, но не в 2 раза: PA> ssdp 48.0G 23.5G 34.4K 61 26.8M 167K PA> mirror 48.0G 23.5G 34.4K 61 26.8M 167K PA> c8t4d0p1 - - 7.99K 43 17.9M 169K PA> c8t5d0p1 - - 8.37K 45 19.1M 169K PA> на пуле - mysql databases, myisam наверно. PA> ssdp/co used 47.9G - PA> ssdp/co available 22.3G - PA> ssdp/co referenced 47.9G - PA> ssdp/co compressratio 2.25x - PA> ssdp/co mounted yes - PA> ssdp/co recordsize 4K local PA> ssdp/co checksum on local PA> ssdp/co compression gzip-3 local PA> ssdp/co atime off local PA> Мучаясь с ZFS на FreeBSD (google: ZFS slowdown), придумалось вот чего: PA> За@#$%ская файловая система. Во какая расшифровка :). PA> А то "зетта-байт"-"просто ZFS" - сразу видно, "русским не владеет" :) PA> ( http://blogs.sun.com/bonwick/en_US/entry/you_say_zeta_i_say ) PA> -- PA> Best regards, PA> Paul Arakelyan. -- Best regard, Aleksander Trotsai aka MAGE-RIPE aka MAGE-UANIC My PGP key at ftp://blackhole.adamant.ua/pgp/trotsai.key[.asc] тише Танечька не плачь, а то будешь там где мячь!