generated at
(Archive)ComfyUIノードレシピ集
baseで生成したものをrefinerでimage2imageする

SDXL 1.0でのtext2image応用型(推奨https://comfyanonymous.github.io/ComfyUI_examples/sdxl/)
基本形だと一度生成したものを更にimage2imageするため、単純にstep数が二倍になり時間がかかる
Denoising Strengthが0.5だったとき、step数は実は半分で良い
それを回避するためサンプリングの途中でモデルをbaseからrefinerに切り替える
上の例では25ステップの内、最初の20ステップをbaseで、残りの5ステップをrefinerで処理する

image2image
画像をリサイズ、latentに変換して放り込む

方法が2種類ある
生成した画像をlatentの状態でアップスケールして、再度Ksamplerに放り込む
デフォルトのアップスケーラーよりもNNLatentUpscaleノードがオススメ
一度ピクセル画像に変換したものをアップスケール
vaeでlatentに戻してKsamplerに放り込む
デコードもピクセル画像のアップスケールも処理に時間がかかるのでほとんど使わないnomadoor

ここのgyazoの動画タヒんでる?nomadoor
普通に読み込めますねwogikaze
再生ボタンではなく動画の画面のところをクリックすれば再生できる
Braveだと見れるけどEdgeだと真っ黒だnomadoor
治った
MaskEditor等でマスクを作ってSet Latent Noise Maskノードに繋ぐ
VAE Encode (for Ipainting)ノードというものがあるが、これは罠

画像の外側にマスクを作っているだけで基本はinpaintingと同じ
上で罠といっておきながらoutpaintingではVAE Encode (for Inpainting)ノードを使う
inpaintingと違って元の画像の情報を持っているわけではないので大抵うまくいかない
それを補強するためにControlNet inpaintやIP-Adapter、inpaintingモデルを使う

ComfyUI\models\embeddings にembeddingsファイルを置く
プロンプトには embedding:TI-quaria-san.pt のように書く
.ptは省略できる
注目度記法も使える (embedding:TI-quaria-san.pt:1.2)
embeddingだけはシンボリックリンクに反応しないので ComfyUI\models\embeddings に直接置こう

strength model/clip と2つ強度の設定ができる
web UIでは両方同じ値が入る