我知道这种嗜好可能很奇怪,但是我在阅读专利申请以了解 Industries 的方向。是的,我是一名软件工程师,而不是游戏开发者,所以我想和做这方面实际工作的人沟通一下。

上个月,微软提交了六个专利,全部集中在同一个领域:使用 ML 检测玩家沮丧 并将游戏状态传递给 AI 代理,让它们在某些情况下执行游戏过程。索尼也提交了一个类似的专利,用于 AI "ghost player"。Roblox 专利基于 ML 的游戏状态分析。

此外,我也在跟踪几个 AI 代理开发者,他们可以实际执行游戏并找出Bug。Nunu.ai 从 a16z 和 YC 收了800万美元,目前与华纳兄弟和 Scopely 合作。Modl.ai 让你可以提交程序包,并且可以得到截图和严重性评分的报告。ManaMind 从零开始构建自己的视觉语言模型,因为没有现成的工具可以可靠地解释游戏环境。 SQUARE ENIX 公开表示,他们打算到2027年将测试工程70%化成机器测试。

从外部看来,行业似乎在朝着AI代理的方向发展,代理可以在游戏中被释放并且在其中玩耍,然后标本出那些看起来不该发生的问题:缺失的纹理,剪辑问题,物理学失灵,碰撞问题。但看起来不该发生的东西(那是明显的是人的决定),但是标示出看起来不应该发生的事情是可以做的。(这和判定玩的游戏是否好趣和无趣的意思是不一致的)

似乎很难验证。机器知道在地图上飞升的裳娃是Bug还是特性?然而每一家公司我都找到了都会有自己针对这一方面的解决方案,但是告诉我这一问题比较难

我的猜想是这种事情最终会变得便宜且可以被更小的独立团队使用。而且小型独立团队可以将他们的程序包上载,并且从机器端获得一个非常有价值的测试报告。然而,我可能大大低估了时间表或技术可靠性

现在,对 QAS 处于此刻,真实测试过程和工作内容是什么样子的?看起来是如此的疼痛和麻烦吗?如果这个 AI 代理执行你的程序并标识视觉/物理问题听起来是那么有用吗?还是我理解的水平根本就低了?