🦊Flux
SDXLとの違いとしてUNetがtransformerに置き換えられていることと、プロンプトを理解する部分にT5というLLMが使われていることがありますが、ありがたいことにComfyUIIではあまり気にしなくても使えます
ややこしい方のやり方
モデルのダウンロード
CLIPとT5
$ path\to\ComfyUI_windows_portable2\ComfyUI\models\clip
FLUX
devのほうが高性能ですが、その分マシンパワーが必要です
$ path\to\ComfyUI_windows_portable2\ComfyUI\models\unet
Flux.1-dev/schnellはCFGを蒸留したため1.0に固定、つまりNegaitve Promptがありません
ただし、モデルがどの程度条件に従うかのパラメータは欲しいので、ComfyUIでは
FluxGuidanceというパラメータで似たようなことができます
Negative Promptに関しては、FluxはT5というLLMでプロンプトの理解力を上げているので、書かせたくないものは"not 〇〇"という風に書かせれば良いということになっています
が、ChatGPT相手ですら否定形のプロンプトはやめろとOpenAIが言っている(出典忘れた)ので、多分あまり意味ないです
簡易版のやり方
Stable Diffusionと同じ様にweight/CLIP/vaeをcheckpointにまとめて、KSamplerを使ったシンプルなworkflowで推論できるようにしたのがこちら
モデルのダウンロード
GGUF
LLMで使われていた技術ですが、これをFluxに応用してSDXL-Turboのように高速・計量で画像生成できるようにします
LoRA
ControlNet
重すぎるのでGGUFと併用
inpainting/outpainting (ControlNet Inpaint)
ControlNetモデル
🟨
BiRefNetで作ったマスクを少し拡張してControlNetとSet latent Noise Maskノードに接続
ControlNetが異常に強く効くので
end_percent
を0.1にしているけれど、これが正しい動作かは自信ない
