Привет ! а почему никто вот такое устройство не использует ??? http://www.gigabyte.com/products/product-page.aspx?pid=2678#ov http://www.hwp.ru/articles/Gigabyte_I-RAM_%28GC-RAMDISK_1.3%29%3A_chtobi_kom... http://www.3dnews.ru/news/foto_dnya_obnovlennaya_i_ram/ http://www.3dnews.ru/news/gigabyte_i_ram_skrestili_s_noutbukom/ Tuesday, October 26, 2010, 9:58:07 AM, you wrote: AT> tps какой-то нездоровый AT> кстати, у себя под DB планирую отказаться от журнала AT> Ибо все равно метаданные меняются afaik достаточно редко, а AT> лишний раз дергать flash переписыванием журнала как-то не AT> хочется AT> Да и производительность растет раза в полтора на рандомных AT> операциях AT> ps. kingstone 29 устраивает шоу с показыванием новых дисков AT> и тестами AT> меня пригласили, так что схожу посмотрю, чем они AT> похвастаться могут AT> ps2. хорошо бы поиграться с sandforce + slc, но больно уж AT> цены нездоровые AT> ps3. ждем-с 20нм флеш AT> обещают дешевле, прозводительные и долговечнее AT> On Tue, Oct 26, 2010 at 12:34:56AM +0300, Paul Arakelyan wrote: PA>> On Mon, Oct 11, 2010 at 01:43:35PM +0300, Alexander Trotsai wrote: PA>> > Потестировал SSD с контроллером sandforce PA>> > Результаты очень понравились PA>> > Для ext4 без журнала получит суммарно 345 MB/s и порядка PA>> > 3500-4000 tps PA>> 2х80ГБ intel X-25G2, opensolaris/ZFS mirror, gzip-3 compression PA>> (бедный проц :) ) и zil device (зеркало) на них же. Рядом PA>> напрягаются 4х500ГБ SATA (показаны 2). PA>> Вот цифирьки iostat, собственно (угадайте, кто есть ху :) ): PA>> sd6 sd9 sd10 sd11 PA>> kps tps serv kps tps serv kps tps serv kps tps serv PA>> 22931 9157 0 33462 5661 2 628 199 158 537 215 146 PA>> 19591 10132 0 33244 7044 2 583 125 279 3838 336 81 PA>> 17388 9216 0 26292 6712 1 3245 109 185 0 0 0 PA>> 10785 5128 0 13560 4325 1 1570 451 37 1330 459 37 PA>> бывает даже так: PA>> 43866 14787 0 44743 14730 0 1028 272 129 903 313 112 PA>> 41048 15236 0 41742 14783 0 353 131 267 354 146 240 PA>> В основном read, а вот увидел "затык" (iostat -D 2): PA>> sd6 sd9 PA>> rps wps util rps wps util PA>> 5947 3 68.3 10285 3 44.0 PA>> 2621 475 77.2 4858 1079 49.4 <\ PA>> 8 1410 99.5 25 846 18.6 <-- вон как sd6 заклинило PA>> 2443 305 57.3 4372 195 44.8 PA>> Диски уже 11 месяцев в работе, на один изначально нагрузка была PA>> больше (zil был только на нём, и писалось вначале туда что-то PA>> дофига - 6МБ/с ровным потоком и сутками, не помню почему, не PA>> считая остальной нагрузки. По идее он и был sd6). Вот, значит PA>> вылезать проблема фрагментации начала... надо забэкапиться - PA>> вынуть из зеркал, обнулить, обратно втулить... PA>> К вопросу "а сколько ж читается": PA>> capacity operations bandwidth PA>> pool used avail read write read write PA>> ssdp 48.0G 23.5G 30.1K 0 19.6M 0 PA>> mirror 48.0G 23.5G 30.1K 0 19.6M 0 PA>> c8t4d0p1 - - 5.08K 0 25.4M 0 PA>> c8t5d0p1 - - 5.40K 0 26.8M 0 PA>> Видим странную бяку: для "прочитать 20МБ" дёргается 50МБ, 10К iops. PA>> (по идее - следствие того, что файлы таблиц изначально записаны с PA>> большим recordsize пула) PA>> Бывает и лучше, но не в 2 раза: PA>> ssdp 48.0G 23.5G 34.4K 61 26.8M 167K PA>> mirror 48.0G 23.5G 34.4K 61 26.8M 167K PA>> c8t4d0p1 - - 7.99K 43 17.9M 169K PA>> c8t5d0p1 - - 8.37K 45 19.1M 169K PA>> на пуле - mysql databases, myisam наверно. PA>> ssdp/co used 47.9G - PA>> ssdp/co available 22.3G - PA>> ssdp/co referenced 47.9G - PA>> ssdp/co compressratio 2.25x - PA>> ssdp/co mounted yes - PA>> ssdp/co recordsize 4K local PA>> ssdp/co checksum on local PA>> ssdp/co compression gzip-3 local PA>> ssdp/co atime off local PA>> Мучаясь с ZFS на FreeBSD (google: ZFS slowdown), придумалось вот чего: PA>> За@#$%ская файловая система. Во какая расшифровка :). PA>> А то "зетта-байт"-"просто ZFS" - сразу видно, "русским не владеет" :) PA>> ( http://blogs.sun.com/bonwick/en_US/entry/you_say_zeta_i_say ) PA>> -- PA>> Best regards, PA>> Paul Arakelyan. -- Best regards, Alexander V Soroka http://www.unet.net.ua AS106-RIPE http://www.spacegate.kiev.ua mailto:alex@euro.net.ua