Stable Diffusionの背景生成に関する課題解決法:背景削除・合成
  • 背景をすばやく自動的に認識して除去自動
  • 髪の毛などの複雑な対象をきれいに切り抜くAI
  • ワンクリックで背景変更・ぼかし加工が可能

Stable Diffusionで理想の背景を生成する完全ガイド:プロンプトのコツから透過・差分生成まで

Stable Diffusionでの背景生成

Stable Diffusionなどの生成AIにおいて、「キャラクターは上手くいくのに、背景が歪む」「書き込みが足りない」「指定した場所に建物が来ない」といった悩みはつきものです。

現在、AIのモデルや拡張機能は飛躍的に進化しており、以前は難しかった「背景の完全なコントロール」や「最初から背景がない(透過)画像の生成」も簡単に行えるようになっています。

この記事では、初心者から中級者に向けて、Stable Diffusionで思い通りの背景を生成するための最新テクニック、プロンプトの法則、そして必須の拡張機能について徹底解説します。

(1)【Stable Diffusion】背景プロンプトの黄金律って?

背景は画像のクオリティ(書き込み量)を底上げする重要な要素です。SDXLやStable Diffusion 3(SD3)、Fluxなどの最新モデルでは、単語の羅列よりも「自然な文章」や「構図の指定」が重要視されます。

プロンプト構成の5大要素

以下の順序を意識して記述すると、AIが構成を理解しやすくなります。

  • @ アートスタイル(画風)
  • 例:Oil painting style(油絵風), Cyberpunk city, photorealistic, 8k(サイバーパンク、実写系)

  • A メインの環境(場所)
  • 例:Inside a cozy cafe(居心地の良いカフェの店内), Ruins of an ancient castle(古城の廃墟)

  • B 具体的なオブジェクトと配置
  • 例:Wooden tables and chairs arranged neatly(整然と並んだ木のテーブルと椅子)

  • C 光源とライティング(重要)
  • 例:Cinematic lighting(映画のような照明), Natural sunlight streaming through the window(窓から差し込む自然光)

  • D 大気感・エフェクト
  • 例:Dust particles in the air(空気中の塵), Morning mist(朝霧)

ネガティブプロンプトの活用

背景をクリアにするために、以下の要素をネガティブプロンプト(除外したい要素)に入れるのが定石です。

  • People, pedestrians, crowd(人物、通行人、群衆)※背景のみ出力したい場合

  • Blurry, depth of field, out of focus(ピンボケ)※背景までくっきり描きたい場合

(2)【Stable Diffusion】背景のみの高画質画像を生成する手順

ゲーム制作や合成素材として「誰もいない背景」が必要な場合の手順です。

  • STEP1. 「人物除外」を徹底する

    プロンプトの冒頭に Scenery only(風景のみ)や No humans を入力します。

    ➡️ Positive:Scenery only, an empty classroom, sunset...

    ➡️ Negative:Girl, boy, human, character, people

  • STEP2. アスペクト比を調整する

    背景画像は広がりを見せるため、横長のアスペクト比(16:9など)に設定するのが基本です。

    ➡️ 設定例:1216 x 832 (SDXL推奨サイズ)

  • STEP3. アップスケール(高解像度化)を行う

    背景素材は細部の書き込みが命です。「Hires.fix」や「Tiled Diffusion」を使用して、解像度を上げて生成することで、木の葉や建物のテクスチャが潰れるのを防ぎます。

(3)【Stable Diffusion】特定の画像の背景「だけ」を変える方法

「キャラクターはそのままに、場所だけ移動させたい」というケースでは、以下の3つの機能を使い分けます。

手法 おすすめの用途 難易度
Inpaint(インペイント)
一部分だけ修正したい、違和感を消したい時
★☆☆
ControlNet(Depth/Canny)
構図や奥行きを維持したまま雰囲気を変えたい時
★★☆
IP-Adapter
別の画像の「雰囲気」や「スタイル」を強力に反映させたい時
★★★
  • 最強の組み合わせ:Inpaint + ControlNet
  • @. Inpaint:背景部分をマスク(塗りつぶし)します。
  • A. ControlNet(Inpaint model):処理の整合性を高めるために併用します。
  • B. プロンプト:新しい背景の指示(例:Snowy mountain)を入力して生成します。 これにより、キャラクターの輪郭を崩さずに、背景だけを自然に差し替えることが可能です。

(4)【Stable Diffusion】背景透過(切り抜き)画像を生成する方法

ここが近年の最大の進化ポイントです。以前のように「緑背景で作ってPhotoshopで消す」必要はほとんどなくなりました。

  • 方法1:LayerDiffusion(レイヤーディフュージョン)を使う【推奨】
  • 2024年に登場した革新的な技術です。生成段階で「透明な背景」を持った画像を直接出力できます。
  • メリット:髪の毛や半透明な布などの透過処理が非常に綺麗。
  • 使い方:拡張機能(sd-webui-layerdiffusionなど)を導入し、設定を有効にするだけです。プロンプトでの指示は不要な場合が多いです。

※「white background」などの単色背景を指定する方法は、色が被写体に反射(色被り)してしまうため、現在ではあまり推奨されません。

(5)生成された不安定な背景の完璧な差し替え(ポストプロセス)

近年、Stable Diffusion(特にSDXLやSD3などの最新モデル)の進化により、背景の生成能力は劇的に向上し、パースの狂いや異物の混入といった問題の発生頻度は大幅に減少しました。

しかし、複雑な構図や被写体(キャラクターや商品)のクオリティを優先して生成した場合、背景の一部にまだ不自然さが残る、またはプロンプト通りではない場合に、ポストプロセスとして背景の「修正」や「差し替え」が必要になります。

この課題を解決するための最新のワークフローは、「Inpainting / Outpaintingによる修正」と「高精度な切り抜きと合成による差し替え」の2通りです。

@、Stable Diffusion WebUI内での修正・拡張(主流)

背景の不自然な部分を再生成したり、背景を広げたりする場合に最も使われる手法です。

Inpainting(塗りつぶし再生成)による修正

役割:背景の「指示していない異物が混ざる」「パースがわずかに狂う」といった、部分的な失敗を直す際に最適です。

  • STEP.1

    WebUIの「img2img」タブ内にある「Inpaint」機能を使用します。

  • STEP.2

    修正したい背景部分をマスクブラシで塗りつぶします。

  • STEP.3

    新しい背景のプロンプト、または元の背景のプロンプトを再入力し、「Generate」で再生成します。マスクした部分のみがAIによって周囲の画像と整合性をもって再生成されます。

高精度な切り抜きと外部合成による完璧な差し替え

役割:生成された画像の外側にもっと背景を追加したい場合に利用します。

A、高精度な切り抜きと外部合成による完璧な差し替え

被写体(キャラクターなど)のクオリティは完璧で、背景全体を全く別のものにしたい場合に有効です。ここでは、現在主流の高精度な切り抜き技術を紹介します。

課題:WebUI標準の「Remove Background」拡張機能(Rembgなど)は、複雑なアニメ髪や半透明な衣装のエッジ処理に課題が残る場合があります。

解決策:Aiarty Image Matting(切り抜き)特化AIの利用

Aiarty Image Mattingは、高度なAI (切り抜き)技術により、ピクセル単位の精度で被写体だけを切り抜くことが可能です。この技術は、髪の毛一本一本や、ベール・レースといった半透明な部分も自然に残したまま、背景だけを透過処理できます。

  • STEP.1

    Aiarty Image Mattingを起動し、画像をアップロードします。

  • STEP.2

    AIモデルが自動で被写体を検出・切り抜きできます。輪郭やエッジが不自然な場合は、手動で修正・調整を行います。

  • STEP.3

    新しい背景画像を用意し、切り抜き画像を上に重ねて合成します。この際、影の追加や色調調整(カラーマッチング)を行うと、より自然な仕上がりになります。

  • Aiarty Image Matting:背景透過手順
  • STEP.4

    右下の「書き出し」ボタンをクリックして、背景が変更された最終画像を保存します。

(6)まとめ:技術の組み合わせで表現は無限大

Stable Diffusionでの背景生成は、単に「森」と入力するだけでなく、「構図(ControlNet)」「スタイル(IP-Adapter)」「透過(LayerDiffusion)」といった拡張機能を組み合わせることで、プロレベルの作品に仕上がります。

最初は難しく感じるかもしれませんが、まずは「Scenery only」で風景だけの生成を楽しみ、徐々にInpaintなどの編集技術に挑戦してみてください。あなたの頭の中にある世界が、モニターの中に鮮明に現れる感動をぜひ体験してください。

編集者:小林浅

この記事を書いた人:小林浅

好きな仕事を追い求めるうちにweb業界へと流れ着く。AI(人工知能)に関する技術や、製品・サービスなどの紹介記事を提供しています。