generated at
高解像度化手法

なぜ必要なのか基素
今主流の生成解像度は512×512や1024×1024
予算と使い勝手のバランスでこうなってるのだと思う
もっと大きくしたい
印刷するなら例えばB5 350dpiなら2,508×3,541px
Twitterのヘッダーの推奨画像サイズは1500x500px
DLsiteの推奨解像度は画像の縦横比4:3の場合1600×1200
顔だけならいいけれど、全身絵を書こうと思ったら512pxくらいだと解像度が全く足りないnomadoor
もっと広い視野の絵を書こうと思ったらなおさら
大きな画像を生成するためには大きなVRAMが必要
と、いうよりも画像生成モデルが512✕512(+α)の画像で学習させているのでそもそも大きい画像はキレイに生成できないnomadoor
これも課題ですが、課題としては並列の別項目だと思う基素
しかし、大きなVRAMはコンシューマ向けのGPUにのっていない
このため小さい画像を高解像度がする必要がある

ちょうどうちの学科がやってたtakker
高解像度のアルベドデータが高すぎるので、低解像度のオープンデータの高解像度化を試みた
超解像というらしい

ちょっと違う話かもしれないけれど、簡単に解像度を上げられるのなら、オリジナルのコンテンツは低解像度で作るのが推奨されるかもしれないnomadoor
解像度問題から開放されるし、ストレージにもPCへの負担にも優しい


高解像度化の手法の例
Stable Diffusion
高解像度画像を生成すると破綻する問題を回避する
計算量が増えすぎて動かない問題を回避する
AIモデル

https://www.reddit.com/r/StableDiffusion/comments/13pa2uh/a_simple_comparison_of_4_latest_image_upscaling/A Simple Comparison of 4 Latest Image Upscaling Strategy in Stable Diffusion WebUI