摘要
>具备可绘制的骨骼和皮肤权重的三维资产是交互式图形、具象主体和动画制作的基础。 虽然近期的三维生成模型可以从图像中合成可视上的形状,但所得结果通常是静态的。 通过后序自我架构(post-hoc auto-rigging),获取可用骨架往往脆弱并经常生成不具备与生成几何体相一致的拓扑性骨架。 我们提出了AniGen,一种统一框架,能够直接根据单幅图像生成可动的三维资产。 我们的关键见解是,以三个相符的S^(3)域(形状、骨骼和皮肤)来表示形状、骨骼和皮肤。 为了使这些域的学习变得更加可靠,我们引入了两项技术创新:(1)一种自信减弱的骨骼域(confidence-decaying skeleton field),它对骨骼预测在Voronoi边界上的几何模糊问题进行了明确处理;(2)一种双皮肤功能域(dual skin feature field),它将皮肤权重与特定关节数量分离,使固定架构网络能够预测复杂性不定的骨架。 AniGen基于一种基于流动度匹配的两阶段管线。 首先,AniGen合成一个稀疏结构框架,然后在一个有结构的模糊空间中产生密集几何和相结构。 广泛的实验表明AniGen显著优于state-of-the-art分段基线的骨骼有效性和动画质量,并对来自各个类别,包括动物、人类、机械等的图像进行了有效泛化。
论文:https://arxiv.org/abs/2604.08746
项目页面:https://yihua7.github.io/AniGen_web/
评论 (0)