Blog ─ GPU・コスト

RunPodで質感LoRA学習を回すとき
GPUとコストの判断基準

最終更新: 2026年2月25日 読了時間: 約12分

RunPodでLoRAを回す操作手順は、SAKASA AIさんの記事「RunPodの料金と使い方」が最も丁寧にまとめられている。環境構築からKohya_ss GUIの立ち上げまで、迷わず進められる良記事だ。

本記事はその次のステップ——「どのGPUを選び、どんな設定で回せばコストと品質のバランスが取れるか」の判断基準を書く。特に、質感LoRA(マチエールをAIに刻むためのLoRA)を学習させる場合に焦点を絞る。

1. 質感LoRAとキャラクターLoRAの学習要件の違い

LoRA学習と一口に言っても、「何を学習させるか」で要求されるリソースは大きく変わる。

キャラクターLoRAは、顔の造形・体型・髪型など「形状」の特徴を学ぶ。輪郭やパーツの配置関係が主な学習対象であり、512〜768pxの解像度でも十分に特徴を捉えられる。dim=16〜32で形状の特徴が収束することが多い。

質感LoRAは、筆触・マチエール・素材の物性を学ぶ。金箔の微細なクラック、厚塗りのパレットナイフの痕跡、漆の深い光沢——これらはピクセルレベルの微細な情報の集積だ。テクスチャの微細な情報を拾うためには、解像度とバッチサイズの要求が一段階上がる。

判断の起点

同じLoRA学習でも、質感LoRAは「より大きなVRAM」と「より長い学習時間」を必要とする。ここが、GPU選択の判断基準が変わる根拠になる。

2. GPU選択の判断基準——VRAM × コスト × 学習時間のトレードオフ

GPU別コスト比較(2026年2月時点・RunPod Community Cloud)

GPUVRAM1時間コスト学習時間(目安)1回コスト(目安)
RTX 409024GB$0.44/hr40〜60分$0.30〜$0.44
RTX A500024GB$0.36/hr50〜70分$0.30〜$0.42
A600048GB$0.76/hr35〜50分$0.44〜$0.63

なぜVRAM 24GB以上が必要なのか

質感LoRAでは768px以上の解像度での学習が前提になる。解像度を上げるとVRAM消費が急増する。

RTX 4090 vs A5000 vs A6000の判断基準

RTX 4090(24GB)——コストパフォーマンス最優先の場合の第一選択。CUDAコア数が多く学習速度が速い。24GBのVRAMは768px学習に十分。ただし1024pxでバッチサイズを上げたい場合はギリギリになる。

RTX A5000(24GB)——4090より1時間あたりのコストが安いが、学習速度はやや遅い。長時間回す場合のトータルコストは4090と大差ない。可用性(空きやすさ)で選ぶ場面もある。

A6000(48GB)——1024px×バッチサイズ4以上で回したい場合の選択肢。VRAMに余裕があるため、gradient checkpointingをオフにできる分、学習速度が上がる。「コストより品質」の実験フェーズで使う。

fp8 vs bf16の品質差

精度設定も判断基準のひとつ。fp8(8bit浮動小数点)はVRAM消費を大幅に削減できるが、微細なグラデーションの再現性がbf16(bfloat16)に劣る場合がある。

精度の判断基準

VRAM 24GBで768px学習 → bf16推奨(VRAMが許す限り精度を上げる)。VRAM 24GBで1024px学習 → fp8で回し、品質に問題があればA6000に切り替える。

3. dim/alphaと学習率の判断基準

dimの判断基準——キャンバスの物理構造から逆算する

dim(network dimension)はLoRAの表現力を決めるパラメータだ。質感LoRAでdim=64〜128が必要になる場面があるのは、素材の物性が「構造的」ではなく「統計的」だからだ。

素材推奨dim理由
金箔64〜96クラックパターンの複雑さ、酸化むらの多様性
厚塗り64〜128絵具の盛り上がりの方向性、筆触のランダム性
草木染32〜64色彩のグラデーションが主。形状的複雑さは低い
64〜96光沢の深さ、塗り重ねの層構造の表現

学習率の判断基準

dimを上げたら学習率を下げ、dimを下げたら学習率を上げる——が基本。質感LoRAではもう一段階慎重になるべきだ。

高dimで学習率が高すぎると、質感の「平均化」が起きる。金箔のクラックパターンが均一化され、のっぺりした金色になってしまう。

4. コスト最適化の実践——金箔LoRA学習の実験記録

実験条件

項目設定値
GPURTX 4090(24GB)
ベースモデルSDXL 1.0
解像度768px
学習画像数20枚(自作撮影)
dim / alpha64 / 32
学習率1e-4
エポック数15
精度bf16

結果

指標数値
学習時間約45分
RunPodコスト$0.33
最終loss値0.089
VRAMピーク21.3GB / 24GB

コスト最適化のポイント

1回の学習が$0.30〜$0.50に収まる。10回の実験を繰り返してもわずか$3〜$5。Community Cloudを使い、学習画像は20〜30枚に厳選し、エポック数は15〜20で十分。

5. まとめ

判断項目質感LoRAの推奨
GPURTX 4090(24GB)がコスパ最良
解像度768px以上
精度bf16推奨。VRAM不足時のみfp8
dim64〜128(素材の複雑さに応じて)
alphadim/2を基準に調整
学習率1e-4(dim=64時)〜5e-5(dim=128時)
1回あたりコスト$0.30〜$0.50

GPU選択に迷ったら、まずはRTX 4090でbf16・768px・dim=64から始めてほしい。1回$0.30程度で回せるのだから、まずは実験を重ねることが最短の道だ。

TextureLoRALab運営 シフク

高校で日本画、公立芸大で芸術学を学び、英国で博物館学修士(Merit)を修了。美術品の質感をAIに刻むLoRA学習の研究・開発を行う。300回超えのLoRA学習から得た知見を発信中。

質感LoRAを試してみませんか?

SHIFUKUパックを見る リンク一覧を見る
FREE NEWSLETTER

質感LoRA通信

厚塗りのマチエールをAI画像に再現するLoRA学習の最新情報を、無料メールでお届け。

✦ 登録特典PDF 3点 ✦ dim/alpha早見表 ✦ 撮影チェックリスト

質感LoRAをマスターしたい方へ

金箔・螺鈿・岩絵具——日本伝統素材の質感をAIに刻むための完全マスターコース。

質感LoRAを手に入れたい方へ

300回超えの学習を通じて精選した、高品質な質感LoRAパック。