目次
RunPodでLoRAを回す操作手順は、SAKASA AIさんの記事「RunPodの料金と使い方」が最も丁寧にまとめられている。環境構築からKohya_ss GUIの立ち上げまで、迷わず進められる良記事だ。
本記事はその次のステップ——「どのGPUを選び、どんな設定で回せばコストと品質のバランスが取れるか」の判断基準を書く。特に、質感LoRA(マチエールをAIに刻むためのLoRA)を学習させる場合に焦点を絞る。
1. 質感LoRAとキャラクターLoRAの学習要件の違い
LoRA学習と一口に言っても、「何を学習させるか」で要求されるリソースは大きく変わる。
キャラクターLoRAは、顔の造形・体型・髪型など「形状」の特徴を学ぶ。輪郭やパーツの配置関係が主な学習対象であり、512〜768pxの解像度でも十分に特徴を捉えられる。dim=16〜32で形状の特徴が収束することが多い。
質感LoRAは、筆触・マチエール・素材の物性を学ぶ。金箔の微細なクラック、厚塗りのパレットナイフの痕跡、漆の深い光沢——これらはピクセルレベルの微細な情報の集積だ。テクスチャの微細な情報を拾うためには、解像度とバッチサイズの要求が一段階上がる。
判断の起点
同じLoRA学習でも、質感LoRAは「より大きなVRAM」と「より長い学習時間」を必要とする。ここが、GPU選択の判断基準が変わる根拠になる。
2. GPU選択の判断基準——VRAM × コスト × 学習時間のトレードオフ
GPU別コスト比較(2026年2月時点・RunPod Community Cloud)
| GPU | VRAM | 1時間コスト | 学習時間(目安) | 1回コスト(目安) |
|---|---|---|---|---|
| RTX 4090 | 24GB | $0.44/hr | 40〜60分 | $0.30〜$0.44 |
| RTX A5000 | 24GB | $0.36/hr | 50〜70分 | $0.30〜$0.42 |
| A6000 | 48GB | $0.76/hr | 35〜50分 | $0.44〜$0.63 |
なぜVRAM 24GB以上が必要なのか
質感LoRAでは768px以上の解像度での学習が前提になる。解像度を上げるとVRAM消費が急増する。
- 512px学習:VRAM 12GBでも可能
- 768px学習:VRAM 16〜20GB必要
- 1024px学習:VRAM 24GB以上推奨
RTX 4090 vs A5000 vs A6000の判断基準
RTX 4090(24GB)——コストパフォーマンス最優先の場合の第一選択。CUDAコア数が多く学習速度が速い。24GBのVRAMは768px学習に十分。ただし1024pxでバッチサイズを上げたい場合はギリギリになる。
RTX A5000(24GB)——4090より1時間あたりのコストが安いが、学習速度はやや遅い。長時間回す場合のトータルコストは4090と大差ない。可用性(空きやすさ)で選ぶ場面もある。
A6000(48GB)——1024px×バッチサイズ4以上で回したい場合の選択肢。VRAMに余裕があるため、gradient checkpointingをオフにできる分、学習速度が上がる。「コストより品質」の実験フェーズで使う。
fp8 vs bf16の品質差
精度設定も判断基準のひとつ。fp8(8bit浮動小数点)はVRAM消費を大幅に削減できるが、微細なグラデーションの再現性がbf16(bfloat16)に劣る場合がある。
精度の判断基準
VRAM 24GBで768px学習 → bf16推奨(VRAMが許す限り精度を上げる)。VRAM 24GBで1024px学習 → fp8で回し、品質に問題があればA6000に切り替える。
3. dim/alphaと学習率の判断基準
dimの判断基準——キャンバスの物理構造から逆算する
dim(network dimension)はLoRAの表現力を決めるパラメータだ。質感LoRAでdim=64〜128が必要になる場面があるのは、素材の物性が「構造的」ではなく「統計的」だからだ。
| 素材 | 推奨dim | 理由 |
|---|---|---|
| 金箔 | 64〜96 | クラックパターンの複雑さ、酸化むらの多様性 |
| 厚塗り | 64〜128 | 絵具の盛り上がりの方向性、筆触のランダム性 |
| 草木染 | 32〜64 | 色彩のグラデーションが主。形状的複雑さは低い |
| 漆 | 64〜96 | 光沢の深さ、塗り重ねの層構造の表現 |
学習率の判断基準
dimを上げたら学習率を下げ、dimを下げたら学習率を上げる——が基本。質感LoRAではもう一段階慎重になるべきだ。
- dim=64、alpha=32の場合:学習率 1e-4 前後
- dim=128、alpha=64の場合:学習率 5e-5 前後
高dimで学習率が高すぎると、質感の「平均化」が起きる。金箔のクラックパターンが均一化され、のっぺりした金色になってしまう。
4. コスト最適化の実践——金箔LoRA学習の実験記録
実験条件
| 項目 | 設定値 |
|---|---|
| GPU | RTX 4090(24GB) |
| ベースモデル | SDXL 1.0 |
| 解像度 | 768px |
| 学習画像数 | 20枚(自作撮影) |
| dim / alpha | 64 / 32 |
| 学習率 | 1e-4 |
| エポック数 | 15 |
| 精度 | bf16 |
結果
| 指標 | 数値 |
|---|---|
| 学習時間 | 約45分 |
| RunPodコスト | $0.33 |
| 最終loss値 | 0.089 |
| VRAMピーク | 21.3GB / 24GB |
コスト最適化のポイント
1回の学習が$0.30〜$0.50に収まる。10回の実験を繰り返してもわずか$3〜$5。Community Cloudを使い、学習画像は20〜30枚に厳選し、エポック数は15〜20で十分。
5. まとめ
| 判断項目 | 質感LoRAの推奨 |
|---|---|
| GPU | RTX 4090(24GB)がコスパ最良 |
| 解像度 | 768px以上 |
| 精度 | bf16推奨。VRAM不足時のみfp8 |
| dim | 64〜128(素材の複雑さに応じて) |
| alpha | dim/2を基準に調整 |
| 学習率 | 1e-4(dim=64時)〜5e-5(dim=128時) |
| 1回あたりコスト | $0.30〜$0.50 |
GPU選択に迷ったら、まずはRTX 4090でbf16・768px・dim=64から始めてほしい。1回$0.30程度で回せるのだから、まずは実験を重ねることが最短の道だ。