
2025年9月18日。
最新のAIモデルとデータが公開されているHugging Faceというプラットフォームに、新たな論文が公開されていました。
論文のタイトルは「Wan-Animate: Unified Character Animation and Replacement with Holistic Replication」
https://huggingface.co/papers/2509.14055
この論文で提案されているモデルを使うことで、キャラクター画像と、動きを参照するための動画から、動画の動きを任意のキャラクターがしてくれる画像を生成してくれるのです。
つまり、好きなキャラクターを、好きなように動かすことができる。
言い換えれば、自分がアニメーションキャラクターになったような体験をすることができます。
実際のデモ動画がこちらに掲載されていますので、ぜひにもご覧ください。
https://humanaigc.github.io/wan-animate/
しかも、アニメーションだけでなく実写映画においても登場人物を変えることができていて、上手く使えばハリウッドスターになった気分を味わうことができることができるかもしれません。
ちなみに元になった映画が少し古めなのか、AIで生成した動画だと人物の画質だけが良くなっていて、ほんの少しの違和感がある気がします。
逆に、それ以外の違和感が見当たらず、AI恐るべしです。
このAIモデルで行われている工夫の一つに、生成した登場人物を背景に馴染ませるために照明を再調整する機構が導入されています。
こちらの図がわかりやすいのですが、この照明の再調整を行わないと、暗い空間に急に赤い照明で照らされた人が登場することになってしまいます。(図は論文より引用しています。)
上の元の画像を元として、一番左の列の画像に登場する女性で生成してくれています。
w/o Relightingの画像が照明の再調整を行なっていないもの。
Relightingの画像は、照明の再調整を行なっているものです。
(元の画像を知らないと、これはこれでそういうものかと納得してしまいそうな気はしますが、それはさておき。)
確かに、自然なのはどちらか?と言われると一目瞭然です。
そしてこの論文では、これまで存在している手法との比較のために、人間が「どちらを自然に感じるか?」という指標を用いています。
人間の「なんとなくそれっぽい」という評価を得るには、照明のような一見気にならないようにも思える細部まで気を配らなければいけないようです。
私もきちんと細部に気を配らねば、とAIに教えられてしまいました。
P.S.
↓メルマガの新規登録はこちらから↓
https://48auto.biz/keieijinji/touroku/sp/scenario13.htm
(スマートフォンよりご登録いただけます)