Docker が何かとかそういう話は全部抜きにして書きます。
Docker においてよくある運用は
という感じではないかと思います。 3. の後にリバースプロキシだのなんだのいろいろ設定しないといけませんから、それは各種自動化フレームワークが用いられます。
ここまではいいのですが、問題は 2 です。
Docker は 2 をやるごとにほぼフルの Linux 環境をネットワーク経由でアップロードするということになります。これが案外バカにならなくて、測定してみたところこの二週間でこれでのアップロードの合計は 350GB ほどになっていました。
もうちょっと激しくなるとプロバイダの設定する帯域規制だったり強制解約要件にひっかかってしまいますし、単純に自宅の帯域を圧迫して他の通信を阻害しかねません。
この問題の解決策は
というのが個人レベルでは考えられます。僕は最近は 2 を選択しました。ローカルで毎日 CPU をぶんまわしまくってノートが発熱するという問題も無くなって快適。