29 июня 2016 г., 21:41 пользователь Michael Bochkaryov <misha@rattler.kiev.ua> написал:

2016-06-29 11:31 GMT-07:00 Serge Negodyuck <petr@petrovich.kiev.ua>:

Hi All,

А не в курсе ли кто, какие нынче существуют вменяемые решения для сбора и анализа большого количества логов (а-ля Splunk)?

Хотелки:
* импорт логов в разном формате (apache, json, tsv, etc)
* возможность делать поиск/агрегацию по этим самым логам
* масштабируемость (логов по несколько ГБ с сервера, серверов - 1000+)
* возможность генерить алерты по агрегированным данным
* open source или вменяемая ценовая политика
* (желательно) выбор между деплойментом у себя или SaaS

Сейчас смотрю в сторону ElasticSearch+Logstach+Kibana  плюс складирование архивов в AWS S3. Но вдруг какие-то альтернативы имеются, о которых я не в курсе ?

Хотел написать про ELK, но ты уже в курсе.
Эластик, кстати, почти штатно на  s3 умеет себя экспортировать
Вот, кстати,  скриншот живого решения.Кушает всего по 1GB памяти на ноду, почти не есть CPU, и это "фоновый" сервис, ноды заняты другой основной работой.

Да, пока что ELK выглядит похоже на то, что требуется (потому туда и копаю в первую очередь).
Кстати, как там с задержками при индексировании большого потока логов?
А то у нас с тем же спланком возникали проблемы при пиковой нагрузке.
Ну как сказать, все же зависит от ресурсов, как всегда.

Потолок logstash где-то 200-2000Kb/sec на ядро, в зависимости от характера логов. И где-то столько же нужно эластику за ним.