controlnetからアニメーション
>reference_onlyが動画の時間的一貫性に役立ちそうだという良さげなワークフロー!
>🇯🇵語手順は(2枚めを)Bard邦訳なので誤訳ご免
>

>ControlNetのボーン動画を入力するとアニメーションを生成できるAutomatic1111の拡張機能を作りました!
>もう少しテストして今日か明日にgitに公開します!
一貫性たけーな

なぜこんなに安定しているのか?

video to videoをしているはず
出力結果のモデルはNAI系に見える
元のvideoと利用モデルわからない
LoRA等でキャラクターを学習してプロンプトでそれが出るように調整してる?
Denoising strengthがそもそも低そう

OpenposeとCannyかDepthの併用はしてるのかな
>@xianienie: sorry for I forget about the credits:
mihoyoは原神ではMMDモデルを配布しているけど、今回はまだじゃない?
本国だとしてるのかなあ
してなさそう
全ての動画がmodelの出典が雑すぎるw
でモーション配布してる
PUBGのモーションをぶっこぬいているっぽい...
うーん、
Live3Dを使うならControlNetいらなくない?使ってないんじゃないかな?
こう作ってるのかな?

MMDの3Dモデルでダンスを踊らせて出力
openpose + cannyでnoiseを低めにしてVideo Loopback
利点
viode loopbackを使っているので普通のimage2imageよりちらつきが抑えられる
>モデルをAOM3からDeffmix2に変えたのでしっかり顔の雰囲気変わった
>100枚位のキーフレームにだけCannyかければいいから圧倒的に作成時間短縮されるしチラつきほぼ無いし凄ない????