2.

Stable Diffusion ローカル環境構築|AUTOMATIC1111 / SDXL / 無料・商用可

編集
この記事の要点
  • Stable Diffusion (SD): オープンソースの画像生成 AI、ローカル PC で動かせる
  • 無料・商用利用可・カスタマイズ自由が最大の強み
  • 主要 UI: AUTOMATIC1111 (定番) / ComfyUI (ノード型) / Forge (高速版)
  • 必要環境: NVIDIA GPU (VRAM 6GB+ 推奨), Python 3.10
  • モデル: SDXL / SD 1.5 / Flux / Civitai のカスタムモデル多数

Stable Diffusion とは

Stable Diffusion (SD) は、Stability AI が開発しオープンソース化した画像生成 AI モデル。Midjourney や DALL-E がクラウドサービスなのに対し、SD は自分の PC にダウンロードして動かせるのが最大の特徴です。

無料・商用利用可(モデル次第)・カスタマイズ自由のため、クリエイター・開発者・研究者に最も愛用されている画像生成 AI です。

必要環境

項目最低推奨
OSWindows 10/11、Linux、macOS (Apple Silicon)同左
GPUNVIDIA GPU VRAM 4GB+VRAM 8〜12GB+ (RTX 3060 / 4060 以上)
VRAMSD 1.5: 4GB / SDXL: 8GB / Flux: 12GB+16GB+
RAM16GB32GB
ストレージ50GBSSD 200GB+ (モデル + 出力)
Python3.10.x同左

Apple Silicon (M1/M2/M3) でも動作するが NVIDIA より遅い。AMD GPU は Linux のみ対応(DirectML 経由で Windows 動作も可だが遅い)。

UI の選択

UI特徴初心者度
AUTOMATIC1111 WebUI定番、機能豊富、拡張多数★ 初心者向け
ForgeA1111 を高速化したフォーク、低 VRAM 対応初心者向け
ComfyUIノードベース、柔軟だが学習コスト高い中〜上級者
FooocusMidjourney 風 UI、超シンプル★ 超初心者向け
InvokeAI洗練された UI、商業利用も意識中級者

インストール手順 (AUTOMATIC1111, Windows)

1. 前提ソフトのインストール

# Python 3.10.x をインストール(公式サイトから)
# https://www.python.org/downloads/release/python-31011/
# インストール時に "Add Python to PATH" にチェック

# Git をインストール
# https://git-scm.com/download/win

2. AUTOMATIC1111 のクローン

cd C:\
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui

3. モデルをダウンロード

以下のいずれかを stable-diffusion-webui/models/Stable-diffusion/ に配置:

4. 起動

# Windows
webui-user.bat をダブルクリック

# 初回は依存ライブラリのダウンロードに数十分

# 起動完了すると以下が出る:
# Running on local URL:  http://127.0.0.1:7860

ブラウザで http://127.0.0.1:7860 にアクセス。

基本的な使い方

プロンプト (Positive Prompt):
masterpiece, best quality, a beautiful japanese garden,
cherry blossoms, golden hour, photorealistic, 8k

Negative Prompt:
worst quality, low quality, blurry, deformed,
extra fingers, watermark, text

設定:
- Sampling method: DPM++ 2M Karras
- Sampling steps: 20〜30
- CFG Scale: 7
- Width × Height: 1024 × 1024 (SDXL) / 512 × 512 (SD 1.5)
- Seed: -1 (ランダム)

→ Generate ボタンで生成

主要なモデル種類

モデル用途
SD 1.5軽量、低 VRAM、アニメ調モデルが豊富
SDXL★ 高解像度・写実性、現代の主流
Flux.1★ 写実性・テキスト精度で最高峰(2024〜)
SD3Stability AI 公式の最新世代
Pony Diffusionアニメ・キャラクター生成特化
RealisticVision写実的人物
AnythingV5日本アニメ風

拡張機能(A1111)

  • ControlNet: 構図・ポーズを指定して生成(劇的に精度向上)
  • LoRA: 軽量ファインチューニング(特定キャラ/スタイル学習)
  • Tagger: 既存画像から自動でプロンプト抽出
  • Regional Prompter: 画像内の領域ごとに別プロンプト
  • ADetailer: 顔・手を自動再生成して精度向上

クラウド代替

「GPU を持ってないけど SD を使いたい」場合:

  • RunPod: A1111 入りの GPU をレンタル ($0.5/時間〜)
  • Replicate: API 経由で SD を従量課金
  • Playground AI: Web 版 SD を無料で使える
  • Leonardo.ai: SD ベースの SaaS

Midjourney との比較

Stable Diffusion (ローカル)Midjourney
料金★ 無料(電気代のみ)$10〜$120/月
導入難易度△ Python 環境構築★ ブラウザだけ
カスタマイズ★ 完全自由△ パラメータのみ
商用利用★ モデル次第で可有料プランで可
品質○ モデル次第★ 安定して高い
プライバシー★ 完全ローカルクラウド送信

注意点

  • 初回セットアップに時間がかかる(数時間〜)
  • GPU の消費電力: 高負荷で 300W+、電気代に注意
  • モデルのライセンス: Civitai のモデルは個別にライセンス確認が必要
  • キャラ・人物: 著作権・肖像権に配慮
  • NSFW フィルタ: モデルによってフィルタの有無が異なる

関連リンク

  • Midjourney の使い方
  • 画像生成 AI カテゴリ
  • ローカル LLM カテゴリ
編集
Post Share
子ページ

子ページはありません

同階層のページ
  1. Midjourney の使い方
  2. Stable Diffusion ローカル環境構築