我正在实验一个用于持久化AI角色的小型开源运行时,并且很好奇游戏开发者如何建模这个问题。 设计假设是: - 内存、关系、情绪和状态变化应该是可预测的和可检查的 - LLM shouldn’t 是游戏状态的权威 - 大多数运行时事件不应该调用 LLM - LLM 在后期作为可选的自然语言表达层很有用 例如: - “健康值小于或等于0意味着角色死亡” - “尤娜看到玩家给米娜送花,于是妒忌增加” - “道歉会减少紧张度,只要信任度超过某个阈值” 这些看起来像游戏/运行时规则,而不是应该由提示改编的事实。 当前原型非常小:事件通过可预测的规则进行,更新状态,创建记忆,并发射结构化输出。 LLM 可以在后期将这些输出渲染为对话,但它不决定状态变化是否发生。 我在这里构建了一个早期的alpha版本,主要是测试这个想法:https://github.com/simulacre7/aethrion 当前演示是基于CLI的,不是游戏引擎的集成。 我很想知道你如何在游戏中结构化这个问题: - 世界级模拟? - 每个角色状态机? - 行为树? - ECS 组件/系统? - 行为者/进程模型? - 其他什么? 我特别感兴趣的是你在可预测的游戏状态和LLM生成表达之间划分界限的地方。