導入:「何もしていない感じ」の計算性
岡山県の備前地域で焼かれる備前焼を見たことがあるだろうか。
一見すると、装飾がほぼない。光沢もない。色も、深い赤褐色から黒に近い灰色まで、かなり渋い。「何もしていない焼き物」という印象を受ける人も多い。
だが、その「何もしていない感じ」が、実は非常に計算された美学に基づいていることを知ると、見え方が変わる。
備前焼が700年以上続いているのは、その本質が「時代を超えた美学」だからだ。同じことは、現代のAI技術にも言える。足し算に執着した設計ではなく、何を削るかという戦略の中に、本当の品質向上がある。
備前焼の製法——「何をかけないか」の美学
備前焼は、非常にシンプルな製法で知られている。粘土を成形して、登窯(のぼりがま)で1300度以上の高温で焼く。ここで重要なのは、釉薬(ゆうやく)をかけないことだ。
通常の陶芸では、成形した後に釉薬を塗ることで、表面に光沢や色合いを持たせる。丹波焼や有田焼といった有名な焼き物の多くが、釉薬によって初めて完成する。
備前焼は、その釉薬工程をスキップする。その代わり、窯の中で何が起こるか。登窯で焼成する際、窯の中の灰が素地に降り積もり、高温下で溶融する。この溶融灰が自然な釉になる——これを「自然釉」という。さらに、炎が直接当たった部分は、非常に硬く焼き締まり、特有の色合いを呈する。これを「胡麻(ごま)」という。
つまり、備前焼の美しさは、「何を足さないか」という引き算と、「焼成環境そのものが作り出す現象」という運命的な出会いによって成立しているのだ。
引き算という美学——古今東西の共通言語
ここで重要な視点は、この美学が東洋のみに限定されるものではないということだ。
西洋美術にも、同様の伝統は存在する。ミニマリズムの美術家たちは、意図的に要素を削ることで本質的な表現を求めた。カール・アンドレの金属板のインスタレーション、ドナルド・ジャッドの極限的な幾何形態——これらは「足さない」ことで深さを生み出す思想だ。
バウハウスの「形態は機能に従う」という原則も、装飾を排除して本質に到達する引き算の美学である。また、彫刻家ブランクーシの作品は「削ること」を本質とし、最小限の形態から最大限の詩情を引き出している。
つまり、「引き算」は東洋の専売特許ではなく、古今東西の美術に存在する普遍的な美学なのだ。日本美術には「余白」という概念がある。茶道では「引く」という美学がある。その潔さが、逆説的に深い豊かさを生む。
この感性が、単なる美学的な遊びではなく、エンジニアリングの本質に直結していることが、これから示す内容の核心である。
AIが「足す」方向へ偏倚する理由
現代のジェネレーティブAIは、基本的に「足す」ことに最適化されている。
テキスト生成モデルは、プロンプトに対して「より多くの、より詳細な、より複雑な」テキストを生成することで、ユーザーを満足させる。画像生成モデルは、詳細なプロンプトに応じて「より多くの色、より多くの要素、より複雑な構成」の画像を出力する。
これはテクノロジーの本質に由来する。機械学習は「データから特徴を抽出し、それを足し合わせて表現する」というプロセスで機能する。そのため、自動的に「足す」方向へ、「加える」方向へ、「複雑化させる」方向へと偏倚する。
AIが生成した画像が、時に「やり過ぎ感」を持つのは、これが理由だ。何度も何度も「詳細を加えてほしい」というプロンプトを入力すると、結果はますます過飾になり、視覚的なノイズが増加する。
つまり、AIは「引き算」を本質とする美学に、極めて不向きなテクノロジーなのだ。
LoRA学習における「足し算の落とし穴」
一般的なLoRA学習の指南では「良いデータをたくさん集めよう」「パラメータを細かく調整しよう」という足し算アプローチが推奨されることが多い。これは機械学習の初心者向けには理に適っている。全体的なパフォーマンスを上げるには、データ量とパラメータの最適化が有効だからだ。
しかし質感LoRAでは、この方法がより適切に最適ではないことに気づいた。
なぜか。質感という概念は、単なる「見た目の特徴」ではなく「限定的で、精密な表現」だからだ。例えば、金箔の質感を学習させるとき、100枚の統一された金箔画像は、200枚の「金箔っぽいもの」よりも、ずっと精密なLoRAを作る。
類似した画像、微妙なバリエーション、外部条件の変化を含むデータを増やすほど、モデルは「金箔の本質」ではなく「金箔に見えるもの全般」を学習しようとする。パラメータの細かい調整も同じ問題を持つ。学習率を上げれば、より微細な特徴をキャッチするが、同時にノイズにも反応しやすくなる。結果として「ぼんやりした質感」になってしまう。
「何を入れないか」の具体的な判断基準
実際の学習データセット設計の中で、具体的にどのような「引く」判断をしたか。以下は、実践的な判断の例である。
左右反転データの削除
最初は、学習データを左右反転させて倍にしようとしていた。これは一般的な水増し技法だ。しかし質感に関しては、光の当たり方に方向性がある。金箔も墨も、照明の方向性を持っている。左右反転は、その方向性を曖昧にしてしまう。
結果として、方向性を持つ質感であるほど、反転データはノイズになる可能性が高い。外すことで、精度が上がった。
類似画像の間引き
同じ被写体を異なるカメラで撮影した画像、撮影角度が微妙に異なるものなど、統計的には別物だが視覚的には「ほぼ同じ」という画像が多く存在する。これらを「冗長」と判断し、代表的なものだけを残した。
すると、多様性は下がるかもしれないが、学習の信号対雑音比は上がった。モデルが、同じことを何度も学習する無駄が削減されたからだ。
背景統一による文脈の削除
背景や周辺環境まで含めた学習も試したが、質感LoRAの目的には不要だと判断した。質感そのものに集中させるため、背景が統一された、対象物だけがフォーカスされた画像セットを作り直した。
これにより、モデルは「背景の見た目も学習する」という分散を避け、純粋に質感の特性だけに学習リソースを集中させることができた。
処理済み画像の除外
フィルターや色補正が強く入った画像は、「加工されたもの」というメタ情報を含んでしまう。LoRAが「加工方法」も学習してしまう可能性がある。できるだけ生のセンサーデータに近い状態の画像のみを使用することで、純粋に質感だけを学習させるようにした。
これらの判断は、すべて「何を入れるか」ではなく「何を入れないか」という軸で行われたものだ。
アーカイブ学からの理論的裏付け——「選択的廃棄」という原則
これらの実践的判断の背後には、アーカイブ学における「選択的廃棄」という概念がある。
アーカイブ学では、次のような原則が存在する:「アーカイブとは、何を保存するかではなく、何を廃棄するかを決めるプロセスである」
企業の文書館、国家の公文書館、大学の資料室——こうしたアーカイブ機関は、毎日、膨大な量の文書を受け取る。全てを保存することは、物理的に不可能である。だから、必要に「選別」が生じる。
その選別は、通常、以下のような基準で行われる——
- 歴史的重要性: この文書は、未来の世代にとって、歴史を理解する上で重要か。
- 独自性: この文書は、他の文書では代替できない情報を持っているか。
- 利用可能性: この文書は、実際に研究者や市民に使われるか。
- 物質的状態: この文書は、長期的な保存に耐え得るか。
公文書館の学芸員たちは、こう考える——「今の私たちが『重要でない』と思う文書が、50年後、100年後に、極めて重要な歴史的証拠になるかもしれない。そのリスクを負いながら、同時に、全てを保存することは不可能である」と。
これはLoRA学習にも完全に適用できる。学習データを「全部入れる」と、過学習(overfitting)に陥る。適切なボリュームのデータで、適切に学習されたLoRAは、高い品質を持つ。だが、ノイズやコンテキストを失ったデータを、むやみに増やすと、モデルは、その「ノイズ」まで学習してしまい、結果として、出力品質は低下する。
つまり、「何を外すか」が、LoRAの品質を決める要因なのである。
「全部残す」ことは「何も残さない」こと
ここで重要な洞察は次の通りだ:「全部残すことは、実は何も残さないことと等価である」
100個の統一されたデータで学習したモデルと、10,000個の雑然としたデータで学習したモデルを比較したとき、前者の方が、より精密で再現性の高い出力をもたらす。これは、「多いほどよい」という直感的な理解が、機械学習では成立しないことを意味する。
「目利き」が必要なのはこのためだ。何を削るかは、単なる知識ではなく、むしろ「どの情報が、どのような文脈で、どの時間スケールで、重要になるか」を予測する、一種の直感的な能力である。それは、経験を通じてのみ磨かれる。
博物館の学芸員が何十年もの経験を通じて目利きを鍛えるように、LoRA学習の実践者も、繰り返しの試行を通じて、「何を外すべきか」という判断を磨く必要がある。
その判断は、常に暫定的である。「今の私たちの判断が正しい」という確信を持つことはできない。だが、その不確定性を引き受けながら、なお判断を下す——それが、引き算というアプローチの真の意味である。
TextureLoRALabの視点——「引き算のAI」という発想
こうした美学的な考察と、実践的なLoRA設計の経験から、TextureLoRALabに到達したのが「引き算のAI」という発想である。
LoRAの学習段階で「何を足さないか」を徹底する。不要な背景を学習させない、撮影環境の癖を排除する、矛盾した要素を混在させない——こうした「省くこと」の実践が、最終的により純粋な質感表現を生み出すのだ。このアプローチは、WD14が拾えない質感情報をどうLoRAに教えるかという問いへの、一つの回答でもある。
また、生成時にも「足す」ではなく「削ることで洗練させる」という思考を持つ。プロンプトは必要最小限、LoRAのweightも控えめに、余計なプロンプト要素は排除する——備前焼の職人が釉薬を塗らないのと同じように。
その結果として生まれるのは、「AIが生成したとは思えない、素朴で深い質感」だ。
現在地と今後の課題
現在、AIを巡る議論では「より高度な」「より複雑な」「より多機能な」という言葉が溢れている。だが、本当に価値のあるAI活用は、むしろ「何をAIに学習させないか」「何をプロンプトに含めないか」「何を削るか」という引き算の中に隠されているのではないか。
LoRA学習を通じて、われわれは単なる技術の習得ではなく、古典的な美学と最先端技術が出会う地点で何かを学び直すことになる。そこには、LoRAが「個性」を学習できるのかという問いも含まれている。
それは、テクノロジーが必要としている知見である同時に、人間の営みの根底にある知恵でもある。何を足すかではなく、何を削るか。その問いに真摯に向き合うことで、初めてAIの真の可能性が開かれるのだ。