AI画像生成で螺鈿を試みたことがある人なら、知っているはずだ。「iridescent」「mother of pearl」「abalone shell」と書いても、出てくるのは「なんとなく虹色の何か」である。
本物の螺鈿のような、あの立体的で、角度で色が大きく変わる虹色ではない。ただ、RGB値で虹色を表現した、平坦な何かだ。
なぜそうなるのか。その理由は、螺鈿の表現原理そのものが、デジタル画像と相容れないものだからだ。
螺鈿とは何か——1300年の技術史
螺鈿は、日本の漆工芸における最高峰の技法の一つだ。真珠層(アバロニア貝など、貝の内層)を薄く削り、その断片を漆地に貼り付ける方法である。
記録では、この技法は奈良時代には既に日本に伝わっていた。正倉院宝物の中にも、螺鈿細工が存在する。つまり、1300年以上にわたり、職人たちはこの技法を磨き続けてきたのだ。
螺鈿の仕事は、単なる装飾ではない。貝を削る厚さ、角度、配置——すべてが計算される。一般的には、厚さは0.2〜0.5ミリメートル程度だ。貝の層を削る際には、光が通すぎないように、また破損しないように、非常に精密な加減が必要である。
削られた貝の片は、漆地に配置される際に、わざと角度を変えて貼り付けられることがある。同じ図柄でも、各片の角度が異なれば、見る者の目線の変化に応じて、色が変わって見える。これはデザイン上の意図的な選択であり、単なる工程上の変動ではない。
完成した螺鈿工芸品は、博物館の展示ケースの中で、静止していながらも、観者が足を運んで角度を変えて見ると、色が刻々と変わる。それは「見た瞬間の色」ではなく、「どこから見るかで色が変る物質」としての存在感を放つ。この経験は、写真では記録できない。
構造色とは何か——顔料の色ではなく、物理構造が生む色
螺鈿の虹色の正体は、顔料ではない。貝の層構造が光を干渉させることで生じる「構造色」である。
構造色は、自然界に幾つも例がある。シャボン玉の虹色は、石鹸の膜の厚さによる光の干渉(薄膜干渉)だ。モルフォ蝶の翅の青さは、顔料ではなく、微細な柱状構造が光を散乱させることで生じる(回折格子)。孔雀の尾羽の緑色も、同じく構造色だが、メカニズムはモルフォ蝶と異なる。螺鈿は前者の薄膜干渉に分類される。
これらに共通するのは「色が、物理構造の形状と大きさに依存する」ということだ。シャボン玉の膜が厚くなれば色が変わる。モルフォ蝶の柱構造の間隔が変われば色が変わる。
真珠層も同じだ。貝殻の内層には、アラゴナイト(真珠層の主成分)とコンキオリン(有機タンパク質)が層状に積み重なっている。この層の厚さは、数百ナノメートル程度だ。光がこの層を透過・反射する際に、異なる層からの反射光が干渉し、特定の波長の光を強調する。その強調される波長が、見る角度によって変わるため、「角度が変わると色が変わる」という現象が起きるのだ。
つまり、螺鈿の虹色は「この角度からの光がこの波長を強調する」という、物理的な必然なのだ。「虹色である」ことは、貝の層構造との直接的な因果関係を持つ。
なぜ静止画では構造色が失われるのか
ここが、AI画像生成の根本的な限界である。
AI画像生成のための学習データは、すべて静止画だ。一枚の画像には、一つの視点、一つの照度条件、一つの時刻における見た目しか記録されない。
螺鈿の場合、「虹色である」という特性を完全に表現するには、複数の視点からの見た目が必要だ。45度の角度から見たときの色、90度から見たときの色、逆光の条件での色——これらがすべて必要だ。しかし、単一の静止画には、一つの視点の色しかない。
学習データに「角度を変えた螺鈿の写真」を複数枚含めたとしても、AIはどうするか。それぞれの画像を個別に処理し、「これはiridescent」「これもiridescent」と、ラベルを付けるだけだ。複数の画像に共通する「角度によって色が変わるという規則性」を、単一の静止画生成モデルが習得することは、本来的に難しいのだ。
その結果、生成されるのは「平均的なiridescent」であり、「角度に応じた色変化の規則性」ではない。つまり、構造色の本質——「見る角度で色が変わる」という動的な特性——が失われるのだ。
静止画には、動的な情報が記録されない。構造色は本質的に動的な現象である。したがって、特定の角度での構造色の「見え方」は習得可能だが、角度変化に伴う色変化の規則性を完全に習得することは、原理的な制約を持つ。
LoRAでどこまで近づけるか——正直な限界開示
では、LoRAを使って螺鈿を再現することは、できるのか。できない、と言うべきだろう。
より正確には「完全な螺鈿の再現はできない。しかし、ある程度の近似は可能だ」というのが、現実だ。
現在のLoRA学習で実現できるのは、「静止画から観測可能な範囲での色の再現」である。例えば、螺鈿が「やや青緑がかった虹色」に見える写真が学習データの大多数であれば、生成されるLoRAも「やや青緑がかった虹色」を指向する。単一の視点での見た目は、ある程度まで再現可能である。
しかし「見る角度によって色が赤から青に変わる」という動的な特性は、再現できない。これは学習データの次元が足りないからだ。複数視点からの画像データを同時に学習させるマルチビュー学習により、理論的には改善の余地がある。しかし、現在の多くのLoRA実装では、そうした多次元的な学習には対応していない。
また、プロンプト工夫による補完もある程度可能だ。「viewing angle」「iridescent at different angles」といった、より詳細な描写を加えることで、モデルの出力に影響を与えられる。しかし、それでも「静止画として見たときの虹色」が改善されるだけで、「角度変化による色変化の規則性」が付与されるわけではない。
さらに正直に言えば、現在のスタンダードな画像生成モデル(Stable Diffusionなど)は、単一フレームの出力に最適化されている。複数フレームの生成や、ビデオ生成への拡張は、まだ発展途上だ。したがって、構造色という「本質的に多フレーム的な現象」を、単一フレームモデルで再現することは、根本的な限界を抱えている。
それでも、わたしたちは試み続けている。なぜなら「完全な再現は不可能だが、近似は可能」という領域で、美術的な価値を模索することには、意味があるからだ。