当前引擎(UE5,Unity,Godot)通过 4至5 个独立系统进行渲染优化:LOD,视心绞渲染,遮挡剔除,VRS和RT漩涡。这几个系统会重叠,会互相矛盾,NONE考虑了人类感官的实际限制。

我已经为此起草了一个概念文档,提出了一个不同的方法:一个依据科研数据调整的单一退化曲线(皮质放大,Fletcher-Munson 等值线,JND阈值),来统一管理所有元素(几何体,纹理,照明,阴影,音频,物理)。关键点为:

  • 一个基于“感知立方体”和“数学区域”与“休眠数据”的 三带架构,使得渲染成本与世界大小无关。
  • 一个由 开发者放置的预准备工具作为参考点,而不是与摄像机关联。
  • 视觉,音频,物理都适用这个原则。
  • 将会因为组合了视心绞,连续LOD,遮挡渲染,同在一个系统中实现GPU效能提升50倍。
  • 49个可验证的科研和工业参考。

我并不是在一大厂家工作,只是觉得这个想法值得共享,所以我将它放入了 公共领域:没有版权,没需要注意权利,任何人都可以使用它,这里有我对其的描述和说明。github上有PDF和完整README文档:https://github.com/warofwar2011-dev/unified-perception-engine
我想请教一些做渲染引擎的人,还是有一些地方存在问题,你觉得哪些是过于简单的?哪些缺乏?哪个部分最容易出错?