大家好 👋

我正在开发 \*\*Companion AI\*\*, 一种基于UE5 + MetaHuman的体现式AI系统,通过对话、身体语言、动作和存在感来实现交互。

相比于打开一个普通的聊天窗口,用户会看到一个真实的MetaHuman伴侣在一个房间里。该角色可以通过文本、语音准备的回复、手势、情绪和身体动作来回应——长期目标是让其感觉像一个与你共享空间的数字人。

GitHub:

https://github.com/12ziyad/companionai

当前/计划中的系统包括:

\- Unreal Engine 5 + MetaHuman

\- AI对话管道

\- Cloudflare Worker后端

\- LLM API集成

\- 上下文相关的手势和动作系统

\- 动作/动画指挥系统

\- 语气泡式回复

\- 语音准备的架构

\- 未来支持舞蹈、歌唱、表达式动作和代理工作流

主架构思想很简单:

\- AI理解对话和意义

\- 本地行为逻辑处理冷却、重复、状态和动作安全

\- Unreal执行最终行为通过MetaHuman动画

这避免了硬编码的行为,如 \`如果用户说 hi → wave\`。

相反,伴侣应该选择适合当下的动作——问候、倾听、思考、欢笑、庆祝、安慰或保持沉默,当沉默更自然时。

我也正在接受早期用户/测试者。可以在 exchange for诚实的反馈、设置反馈、错误和想法免费预览整个系统。

对于早期访问、问题或合作:

[email protected]

[email protected]

你也可以在这里询问设置问题。

如果这个项目对你有用,GitHub上的星星会真正地帮助项目更好地接触更多的开发者 ⭐