Добрый день! On Tue, Oct 10, 2006 at 12:52:09PM +0300, Vladimir Litovka wrote:
Конечно, если пользователь не статичен, тогда проще делать обработку онлайн, но при NKusers , могут возникнуть хорошие требования к железу, которое это будет считать :)
ну железо нынче не проблема :)
А если нужна будет детализация до байтов, отосланных на ХХХ по протоколу УУУ во время периода N-K, тогда можешь себе представить размеры базы? :)
обычно данные хранятся в двух видах -
1) обработанная аггрегированная статистика в соответствии с user profile. Это то, что включается в счет, выводится на Web для пользователя, занимает немного места и храниться может вечно;
2) необработанная статистика - на случай, если клиент будет несогласен с выставленным счетом. Как правило, хранится от 3 до 6 месяцев raw netflow records. Не в SQL-базе, а в gzipped файлах и потому - тоже не представляет сложности.
Все верно, но если маркетологи захотят таки какую-то часть трафика таки тарифицировать по другим расценкам, то удовольствие идентификации таких flows ляжет как раз на realtime часть. Это весьма ощутимый CPU impact. В ту же realtime часть лучше и вставить всю информацию о end-users, что бы в SQL писалась только готовая (и проаггрегирования с нужным интервалом) информация. Иначе с ростом количества пользователей не будете успевать железо под sql апгредить. P.S. Готовое решение вряд ли найдешь. Один нормальный програмист пишет такое на "c" за пару месяцев максимум. Со всеми шашечками и рюшечками конкретного случая. -- Dmitry Kiselev =================================================================== uanog mailing list. To Unsubscribe: send mail to majordomo@uanog.kiev.ua with "unsubscribe uanog" in the body of the message