Stable Diffusion web UIでControlNetを使う
0 Stable Diffusion web UIをアップデート
フォルダを右クリック
git bash
して git pull
bush?

bash!!

画像つきのページで作ってしまおう
yamlファイルも必要
ダウンロードしたモデルは以下に置く
stable-diffusion-web-ui/extensions/sd-webui-controlnet/models
$ ~~/stable-diffusion-webui/models/ControlNet
3 とりあえず使う
txt2imgタブ or img2imgタブ
この設定が増えているはず
Q. 増えていません
A. web UIを再起動
Enableに✅
image
ベースとなる画像
Preprocessor
下準備としてimageをopenposeの棒人間や深度マップへ変換する
最初からopenposeの棒人間やcannyで使えるエッジ抽出画像をimageに入れる場合は none
にする
Model
Preprocessorに合わせて2でダウンロードしたモデルの中から選ぶ
ほかは通常通り設定して Generate
作者いわく、Negative promptに
$ longbody, lowres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality
を入れたほうが良いらしい
4 各種設定
プロンプトを入れずに形だけを与えて、ControlNetに中身を考えさせるモード
プロンプトは(Negativeも含めて)なにも書かない
Guidance Start(End)
ControlNetで制御をかけるタイミングを調整できる
img2imgで使った例(ちょっとわかりにくい)
手だけをControlNetに従わせて書きたい
潜在空間である程度形ができた後に制御をかけることで、特定部位だけ編集できる
やってみた

OpenPose
5歳でもわかるControlNetの使い方