各位:

我正在为 Unreal Engine 设计一个口齿同步解决方案,这个方案可以在完全离线模式下,直接从音频生成实时动画,不需要使用人工智能服务或互联网连接。

它可以与 MetaHumans 以及使用形状目标的任何角色使用,我的目标是为了保持对游戏对话、NPC 互动或电影场景的整合简便。

我最初构建这个解决方案是为了我的个人项目,因为我需要一个可靠的运行时解决方案,近期我建立了一份短短的教程,展示了它如何在实际用途中工作。

如果你对 Unreal Engine 的实时口齿同步工作流感兴趣,这可能会对你有所帮助:

教程:

https://youtu.be/O3-oCNvc97E?si=ZRkWW2iuXmzuB2Cb

我在 FAB 上发布了这个教程,希望对想要集成它的人有所帮助。

https://preview.redd.it/xp2pyik6gkrg1.png?width=2752&format=png&auto=webp&s=e971f18e9a9ee3aeee21ae5fffd0b7cdc9f60dc5