Привет.
На эту тему меня натолкнула соседняя темя из раздела работа.
Приходилось ли вам сталкиваться с лимитом Data Storage и как вы решали эту проблему?
Вот конкретно мне приходилось на одном проекте сталкиваться (пару остальных близки к лимиту, но это не моя пока проблема и вина) - приходилось пилить интеграцию с внешним сервисом и колхозить слив "устаревщих" данных на внешний php сервис со своей базой данных. Было конечно не сильно приятно разочаровывать клиента, но вроде бы не сильно большой поток данных сжирал свободный Data Storage за пару недель.
Привет. На эту тему меня натолкнула соседняя темя из раздела работа. Приходилось ли вам сталкиваться с лимитом Data Storage и как вы решали эту проблему? Вот конкретно мне приходилось на одном проекте сталкиваться (пару остальных близки к лимиту, но это не моя пока проблема и вина) - приходилось пилить интеграцию с внешним сервисом и колхозить слив "устаревщих" данных на внешний php сервис со своей базой данных. Было конечно не сильно приятно разочаровывать клиента, но вроде бы не сильно большой поток данных сжирал свободный Data Storage за пару недель.
Конечно о расширении за деньги вопрос не стоял.
Конечно о расширении за деньги вопрос не стоял.
Я всегда сначала делаю аудит того, что занимает большое количество места, потом выясняю нужно ли это вообще, зачастую чатью таких данных никто не пользуется.
Также проблема решается переводом части функциональности на On-demand.
+ теперь можно подключить Odata, но опять же это дорого стоит.
+ синхронизация с Heroku.
Я всегда сначала делаю аудит того, что занимает большое количество места, потом выясняю нужно ли это вообще, зачастую чатью таких данных никто не пользуется. Также проблема решается переводом части функциональности на On-demand. + теперь можно подключить Odata, но опять же это дорого стоит. + синхронизация с Heroku.