generated at
AUTOMATIC1111版Stable Diffusion web UI

Outpainting:背景拡張
Inpainting:特定の部分の描き直し
・Prompt matrix:特定のプロンプトの有無による差がわかる比較画像の作成
・Stable Diffusion upscale:最も良い結果を得られる512×512からきれいに拡大するRealESRGANを適用する「txt2imghd」の実装
・Attention:プロンプトで特に強調したい部分を()で、弱めたい部分を[]で囲い指定できる
・Loopback:「img2img」でベース画像から作成した画像をさらにベースにして作成という繰り返しを自動実行して絵のクオリティを向上させる
・X/Y plot:パラメーターの数値を変更するとどうなるのかという比較画像を作成
Textual Inversion:自分で用意した学習データをもとにした絵柄で画像生成
・Resizing:複雑な条件でのリサイズ
Sampling method selection:サンプリングアルゴリズムの選択(絵柄の変更)
$ Euler a,Euler,LMS,Heun,DPM2,DPM2 a,DPM++ 2S a,DPM++ 2M,DPM fast,DPM adaptive,LMS Karras,DPM2 Karras,DPM2 a Karras,DPM++ 2S a Karras,DPM++ 2M Karras,DPM++ SDE Karras,DDIM,PLMS,UniPC
・Interrupt:画像生成途中での停止
・4GB videocard support:512×512をビデオメモリ4GBの環境でも生成
顔補正
GFPGANCodeFormerで顔を補正する
・Saving:特定のフォルダーを指定して保存&生成条件をCSVファイルで出力
・Correct seeds for batches:構図などを指定する要素の「シード値」を1ずつずらす
・Loading:ちょっとでも早くするためローディングをカット
・Prompt validation:プロンプトが長すぎる場合に警告
・Png info:プロンプトやパラメーターをPNG画像に埋め込む
・User scripts:ユーザースクリプトで変更や拡張が可能
CLIPでpromptを探す
prompt editing
>たとえば "a girl [wearing a onepiece:naked:0.5] " とすると、服が透けている表現になる。これはステップ数が 50 とすると、最初の 1~25 ステップは "a girl wearing a onepiece" を実行し、26~50 ステップは "a girl naked" を実行する。

初めての人にはとりあえずこれを見せればいい感じの資料

デフォルト値を設定する
こんな時便利
masterpiece とかを常に入れておきたい時
stable-diffusion-webui-dockerでは data/ui-config.json でデフォルト値を指定できる
Docker版での位置がここなのはこのコードからわかる

いろんな機能がある
loopback




課題

--