Email or username:

Password:

Forgot your password?
Shura

Есть у меня впска, на которой крутится некий nginx, который пишет логи. Обычно за сутки набегает сотня-другая мегабайт, всё это раз в сутки логротейтом сжимается, всё хорошо. Но иногда бывают ddos атаки, при которых лог растёт на несколько гигабайт в час и на сервере кончается место. Есть ли какой-то способ сделать логи постоянной длины, чтобы там хранились последние скажем 100 тыс. записей и более новые вытесняли бы старые? #Linux #nginx #logs #?

4 comments
Kurator Peaceful

@Shura если я правильно понял то тебе нужен logrotate

hardworm ☭

@Shura logrotate умеет по размеру opennet.ru/base/sys/logrotate_

Сам запуск это обычный cron

Шуро
@Shura logrotate по-моему чаще раза в день не отрабатывает, да это и не нужно.

Я в таких ситуациях применяю ручной костыль, ставлю в планировщике раз в n минут скрипт "если места на диске меньше ... %, то ..."
Shura

@Shura, Всем спасибо, получается за неимением лучшего буду использовать старый — добрый logrotate

Go Up