On Fri, Dec 25, 2015 at 09:39:09AM +0200, Vasiliy P. Melnik wrote:
C обычной ФС вылезет потребность в костылях "файл не нашелся" и вообще непонятно как определять "файлы все есть?" и "а в них всё ок, картинка сломалась или такой залили?"
Поэтому, учитывая "надо этим управлять" я бы подумал над запихиванием файлов в контейнеры "управляемого" размера - грубо говоря, зип-архивы по 500М - это и "раз плюнуть" вычитать-проверить-пропихнуть по сети, и 1ТБ - это 2000 файлов.
Т.к. сомневаюсь, что файлы там "оч нужно" часто удалять - решение выглядит весьма удобным. Удаление - это будет просто отметка в БД, и по мере достижения "удалить Х% в контейнере" - нужно будет распаковать - грохнуть - упаковать. 500М - легко распаковываются на рамдиск и пакуются обратно.
та не - доступ нужен сразу, а не "распаковать раз плюнуть". Проверка на
Зип или другой формат без сжатия - практически "прочитать заголовок+прочитать чуть больше". Идея в контейнере с чексумами, в принципе - .iso+checksum или вообще что-то своё - это аж ни разу не сложно написать. Просто zip - к нему есть куча библиотек и всё такое.
наличие - ну это больше вопрос к обслуживанию , потому как потеря некоторых файлов не критична в принципе, просто нужен некий механизм бесперебойности Это так кажется. Пока "нужное" не посеется/не исказится.
с условным падением на уровне пары часов. А бесперебойность нынче - это больше чем один сервер, да и масштабируемость горизонтальная тоже будет не лишней Дык куда проще - "отзеркалить" несколько "тостых" файлов с гарантией целостности и на скоростях линейного чтения-записи-канала.
-- Best regards, Paul Arakelyan.