在开发了两年的 AI 角色扮演游戏后,我终于觉得系统达到了我最初的设想,不过老实说,这比我预期的要困难得多。
最大挑战之一是阻止 AI 幻觉。刚开始时,模型会不断编造背景、地点、物品、关系,甚至改写已确定的事实,只是为了让对话持续下去。对于这款游戏来说,我们不能有任何幻觉,核心在于详细的人类设定,如果 AI 开始自行创作,质量必然下降,且无法契合整体框架。
世界中的一切都必须来源于人工撰写的内容。每座城市、派系、NPC、关系、历史事件以及地点描述都必须事先编写并结构化。如果数据库/世界设定中没有相应信息,AI 就不能随意编造。
我设法让这点运作起来,但当我置身于世界中时,显而易见如果 AI 不自行生成地点,就需要大量的内容。如果书面地点出现任何漏洞,玩家必定会发现,玩家会提出随机问题并喜欢测试边界。
另一个棘手的问题是失败。大多数 AI 模型都强烈倾向于帮助用户成功。在游戏中,这会彻底破坏紧张感。AI 自然会想要拯救玩家、减轻后果,或将情境导向积极的结果。
我们希望构建一个玩家真的会失败、失去关系、做出糟糕决定、被自己锁在任务之外,甚至因自己的行为而死亡的世界。让 AI 停止像一个支持性的即兴伙伴,而是表现为一个公正的世界模拟器,出乎意料地困难。
大部分时间基本上都在构建约束。
现在一切终于开始成形,我想知道其他使用 AI 系统的开发者是否也遇到过类似的问题。尤其是自由度与一致性之间的矛盾。
有没有人也在让 AI 在游戏中真正按你希望的方式行为时感到苦恼?
评论 (0)