Это может быть очень общий вопрос типа «зависит от вашей среды», но я хотел бы узнать о передовой практике, основанной на вашем опыте работы с logstash и агрегацией журналов в целом.
Итак, я пытаюсь интегрировать logstash в нашу производственную среду, и у нас есть большое количество событий журнала (65 КБ в минуту), которые будут собираться в одном центральном месте. У меня есть 10 виртуальных машин, которые размещены на разных физических машинах, и все они будут отправлять соответствующие журналы на сервер logstash, который находится в другом физическом поле. Чтобы сделать некоторую аналитику и очистить, я добавляю еще несколько полей в каждое событие журнала (5 полей/событие). Вопрос в том, где я должен фильтровать и добавлять поля к событию? на агентах logstash, работающих на 10 виртуальных машинах, или на сервере, который каждую минуту будет собирать 650 тыс. сообщений?
Несмотря на то, что я выделил серверу достаточно памяти (32 ГБ) и он может обрабатывать все эти события, было бы «нормально» обрабатывать такое большое количество событий на сервере или мне следует обрабатывать их на стороне клиента с гораздо меньшим объемом памяти, но нести расходы на отправку этих событий по сети, что может привести к перегрузке сети.
Любая помощь и/или предложения/опыт приветствуются!