VRAM
グラフィックスメモリ=VRAM
生成AIにおいては処理速度よりもVRAMの値のほうが重要
4GB
あらゆる手を尽くせばStable Diffusionが動く
6GB
Stable Diffusionが動かせる最低ライン
8GB
512×512の画像を安定して生成できるようになる
12GB
巷で人権ありといわれているのがこのライン
768×768の画像を安定して生成できるようになる
16GB
RTX 4060Tiの一部モデルやRTX 4070 Ti SUPERなど、40XX番台では割と限定的
RTX 50XX番台では割と増えそうなカテゴリ
ローカルなLLMを使う場合の最低ラインとも
24GB
神
画像生成においては
Fluxなどの大型モデルもある程度正面から
Lora学習が可能になる
基本的に新モデルはこのVRAMをベースラインに最適化されるため早い段階で学習まで手を出したいならほしい容量。
最近ではLLMも動かせるとか…?
ただしLLMの世界においてはこれでも最低ラインよりはマシな程度…猛者たちは4090を複数挿したりする、コワイ
とはいえ7bなどモデルサイズを選べばLLMも普通に動かしたりできるので…ローカルLLMコワクナイヨ
32GB
RTX 5090によって新設される予定のカテゴリ
基本的にLLMの世界に首をつっこない限りはオーバースペック
ただ、動画生成などVRAM要求が上がる用途は日々増えつつある、最新技術にいち早く追従したいなら神すら超える力が必要となるのだ…
複数挿しの世界へようこそ❤
真面目な話、32GBより上の世界…青天井なLLMの世界に本気で首を突っ込むつもりなら腹くくって
NVIDIA Project DIGITSでも狙うほうが良いかもしれない…これでも(相対的に)安い時期の4090複数枚よりは遥かに安いので……
(40GB)
(80GB)
ソース: