generated at
ComfyUIで遊ぶ
インストール /work4ai/ComfyUIのセットアップの通りにやればできる

モデルを入れる


とりあえず動いた

ノードの追加が改装構造でincremental searchできないのがかなりつらい
Houdiniみたいにしてほしい
ダブルクリックでできた


i2i
別途VAEないとだめなの?
VAEないとlatent spaceにおとせないからVAE自体は必要
Anime Illust Diffusion XLの場合の推奨VAE
>No need to use any refiner model. Use VAE of the model itself or the sdxl-vae.
つまりこれでいいってことだ
> CLIPTextEncode も SDXL に対応していますが、CLIPTextEncodeSDXL では更に細かい指定が可能です。
> SDXL base model では、学習元画像のサイズ (original size) や、学習バッチ内の (resize & crop 済み) 画像サイズ (target size あるいは bucket size)、target size に揃えるために行なった crop 量も学習の入力になっていて、推論時のコンディショニングで指定することができます。



TODO
生成した画像にデフォルトでworkflowが入るらしいのを試す
D&Dしたらworkflowを再現できる
Openposeをどう使うか調べて実行する
> @koguGameDev: SD3 Medium動かし方
>
> 1.ComfyUIを最新にアップデート
> 2.https://huggingface.co/stabilityai/stable-diffusion-3-medium/tree/main から 「sd3_medium.safetensors」をComfyUIのmodels/checkpoints/にダウンロード
> 3.同じくHFのtext_encoders/から 「clip_g.safetensors, clip_l.sa..., t5xxl_fp8_e4m3fn.sa...」をmodels/clipにダウンロード
全体入れるの試す
チュートリアルシリーズ
機能解説