Что-то сегодня адуха какая-то.
Как будто бы рейд посыпался.
Пока я сегодня спал, пришло уведомление, что из массива выпал один диск, к моменту как я дополз до компьютера - уже недоставало двух.
При этом диски не были помечены сбойными, а просто пропали из массива. При этом находясь в системе и показывая по mdadm --examine, что они часть рейда. Причём ещё и в статусе "active". Когда в это же время в mdadm --detail было минус два диска как будто их просто не существует.
В итоге один вернулся сам после того как я этих двоих физически вынул и вернул обратно.
Второй вернулся после mdadm <array> --add. Выглядело всё это так как будто mdadm - слепой, а я его носом ткнул и он такой: "Да вот же он!".
Вот только в следующий ребут ФС, которая находится поверх LUKS на этом массиве не подмонтировалась с ошибкой "fsconfig system call failed: Structure needs cleaning", а e2fsck нашёл какую-то ебАную кучу всякой хрени (пока просто в режиме без изменений).
Оставил на ночь mdadm провести проверку целостности массива с пересчётом и ...
Заказал дисков, на которые планировал обновляться в самом конце года.
Короче говоря, астрологи объявили неделю приключений, танцев с бубном, незапланированных трат и потенциальной потери 30 терабайт данных 🎉
Предлагаю делать ставки на исход.
#hardware #server #soft #mdadm #Linux #RAID #log #storage #WTF #shit
Poll
Voting ended 5 October at 23:17.
@skobkin а почему нет варианта где ты уверенно все восстановишь без потерь ?
как хорошо с zfs где два диска отданы в жертву богам