generated at
controlnetからアニメーション
>Reference-Only ControlEBSynth のv2vが良いって!
>video2videoTemporalKit使わない方法‼
>reference_onlyが動画の時間的一貫性に役立ちそうだという良さげなワークフロー!
>
>ジャクニコ版Godfatherの作例w
>
>🇯🇵語手順は(2枚めを)Bard邦訳なので誤訳ご免
>

>AIを使ったアニメーションの実験。
>
>①適当なパラパラ漫画を描く(今回は5枚)
>scribbleで生成
>③AIでフレーム間を補完(計25枚)
>LoRAとかで補正したらもっと精度上がりそう。
>Reference-Only Controlを使うことで線や絵柄の安定感が飛躍的に向上。アニメの制作時間の普通が分からないけど、色々模索しながら素人が一時間ちょっとで出来たから慣れた人ならもっと早くできそう。
>個人的なやばポイントは大部分がtext2imageMultiControlnet等によるものでimage2imageを殆ど使わずに完結したこと。 鈴木ヒトツ

>ControlNetのボーン動画を入力するとアニメーションを生成できるAutomatic1111の拡張機能を作りました!
>もう少しテストして今日か明日にgitに公開します!

>#ControlNet #✖stableDifusion nike 🤤use video loop back and controlnet with canny Charles
一貫性たけーなwogikaze
なぜこんなに安定しているのか?基素
video to videoをしているはず
出力結果のモデルはNAI系に見える
元のvideoと利用モデルわからない
LoRA等でキャラクターを学習してプロンプトでそれが出るように調整してる?
controlnetからアニメーション#63fb512d774b1700008be05bのようなモデルを使っていると思うので、多分してない
Denoising strengthがそもそも低そうnomadoor
OpenposeとCannyかDepthの併用はしてるのかな
>@xianienie: sorry for I forget about the credits:
>Model:绝区零 妮可 Welton miHoYo #ZenlessZoneZero
https://zenless.hoyoverse.com/ja-jp の妮可(Nicole)というキャラらしい
mihoyoは原神ではMMDモデルを配布しているけど、今回はまだじゃない?
本国だとしてるのかなあ
してなさそう
全ての動画がmodelの出典が雑すぎるw
>Motion:JohnyL
でモーション配布してる
PUBGのモーションをぶっこぬいているっぽい...
>Audio:Roll'n Rock
うーん、Live3Dを使うならControlNetいらなくない?使ってないんじゃないかな?
こう作ってるのかな?基素
MMDの3Dモデルでダンスを踊らせて出力
openpose + cannyでnoiseを低めにしてVideo Loopback
利点
viode loopbackを使っているので普通のimage2imageよりちらつきが抑えられる

>EbSynthで作ってみた
>モデルをAOM3からDeffmix2に変えたのでしっかり顔の雰囲気変わった
>100枚位のキーフレームにだけCannyかければいいから圧倒的に作成時間短縮されるしチラつきほぼ無いし凄ない????
>