大家好 👋
我正在开发 \*\*Companion AI\*\*, 一种基于UE5 + MetaHuman的体现式AI系统,通过对话、身体语言、动作和存在感来实现交互。
相比于打开一个普通的聊天窗口,用户会看到一个真实的MetaHuman伴侣在一个房间里。该角色可以通过文本、语音准备的回复、手势、情绪和身体动作来回应——长期目标是让其感觉像一个与你共享空间的数字人。
GitHub:
https://github.com/12ziyad/companionai
当前/计划中的系统包括:
\- Unreal Engine 5 + MetaHuman
\- AI对话管道
\- Cloudflare Worker后端
\- LLM API集成
\- 上下文相关的手势和动作系统
\- 动作/动画指挥系统
\- 语气泡式回复
\- 语音准备的架构
\- 未来支持舞蹈、歌唱、表达式动作和代理工作流
主架构思想很简单:
\- AI理解对话和意义
\- 本地行为逻辑处理冷却、重复、状态和动作安全
\- Unreal执行最终行为通过MetaHuman动画
这避免了硬编码的行为,如 \`如果用户说 hi → wave\`。
相反,伴侣应该选择适合当下的动作——问候、倾听、思考、欢笑、庆祝、安慰或保持沉默,当沉默更自然时。
我也正在接受早期用户/测试者。可以在 exchange for诚实的反馈、设置反馈、错误和想法免费预览整个系统。
对于早期访问、问题或合作:
你也可以在这里询问设置问题。
如果这个项目对你有用,GitHub上的星星会真正地帮助项目更好地接触更多的开发者 ⭐
评论 (0)