generated at
🦊Flux


FluxはStability.aiのメンバーが独立して立ち上げたBlack Forest Labsが発表したStable Diffusion 3と似たようなアーキテクチャの画像生成モデルです
SDXLとの違いとしてUNetがtransformerに置き換えられていることと、プロンプトを理解する部分にT5というLLMが使われていることがありますが、ありがたいことにComfyUIIではあまり気にしなくても使えます


ややこしい方のやり方
モデルのダウンロード
CLIPとT5
clip_l.safetensors
t5xxl_fp16.safetensors or t5xxl_fp8_e4m3fn.safetensors
$ path\to\ComfyUI_windows_portable2\ComfyUI\models\clip
FLUX
devのほうが高性能ですが、その分マシンパワーが必要です
$ path\to\ComfyUI_windows_portable2\ComfyUI\models\unet
Flux.1-dev/schnellはCFGを蒸留したため1.0に固定、つまりNegaitve Promptがありません
ただし、モデルがどの程度条件に従うかのパラメータは欲しいので、ComfyUIではFluxGuidanceというパラメータで似たようなことができます
Negative Promptに関しては、FluxはT5というLLMでプロンプトの理解力を上げているので、書かせたくないものは"not 〇〇"という風に書かせれば良いということになっています
が、ChatGPT相手ですら否定形のプロンプトはやめろとOpenAIが言っている(出典忘れた)ので、多分あまり意味ないです


簡易版のやり方
Stable Diffusionと同じ様にweight/CLIP/vaeをcheckpointにまとめて、KSamplerを使ったシンプルなworkflowで推論できるようにしたのがこちら
モデルのダウンロード


GGUF
LLMで使われていた技術ですが、これをFluxに応用してSDXL-Turboのように高速・計量で画像生成できるようにします


LoRA


ControlNet
重すぎるのでGGUFと併用
対応しているのはInstantXから出ているモデルのみ
XLabs AI版のモデルは非対応


inpainting/outpainting (ControlNet Inpaint)
ControlNetモデル
基本的には🦊outpainting#65a1174ae2dacc0000312207と同じ形
🟦ただし、ControlNetInpaintingAliMamaApplyノードという、このControlNetモデル専用のノードを使う
🟨BiRefNetで作ったマスクを少し拡張してControlNetとSet latent Noise Maskノードに接続
ControlNetが異常に強く効くので end_percent を0.1にしているけれど、これが正しい動作かは自信ないnomadoor