ComfyUIで遊ぶ
モデルを入れる
とりあえず動いた
ノードの追加が改装構造でincremental searchできないのがかなりつらい
ダブルクリックでできた
i2i
別途VAEないとだめなの?
VAEないとlatent spaceにおとせないからVAE自体は必要
>No need to use any refiner model. Use VAE of the model itself or the sdxl-vae.
つまりこれでいいってことだ
> CLIPTextEncode も SDXL に対応していますが、CLIPTextEncodeSDXL では更に細かい指定が可能です。
> SDXL base model では、学習元画像のサイズ (original size) や、学習バッチ内の (resize & crop 済み) 画像サイズ (target size あるいは bucket size)、target size に揃えるために行なった crop 量も学習の入力になっていて、推論時のコンディショニングで指定することができます。
TODO
生成した画像にデフォルトでworkflowが入るらしいのを試す
D&Dしたらworkflowを再現できる
> 3.同じくHFのtext_encoders/から 「clip_g.safetensors, clip_l.sa..., t5xxl_fp8_e4m3fn.sa...」をmodels/clipにダウンロード
全体入れるの試す
チュートリアルシリーズ
機能解説