当前3D场景从玩家角度看。

大家好,目前我正在优化Sci-Fi地图,地图用于我的VR迷你高尔夫游戏。远处的外星环境在3D效果很好,但在我身上引起了我对绘制调用的大量消耗。

我已经决定采用用于远处背景的2D偏atrix表板,但我想确保当玩家移动头部时,过渡不太突然。

我看到一种工作流程是:

  • 将资源导出到Blender并匹配游戏的摄像机视角
  • 渲染Albedo和深度图像(RGBA/Alpha)
  • 在平面上使用缩放包装修饰器,以获取mesh它 '环抱' 憎恨的图样
  • 带回Unity并用于Parallax/Depth着色器

说实话,这感觉像是一个沉痛的时间投入,仅仅是为了对迭代进行小的改进。另外,我担忧VR技术可能会使玩家移动头部时3D和平面之间的过渡产生混淆感。

有没有人能够找到一种更具Unity本地化或自动化的方法处理这个问题?我想在保持光照一致的情况下,只在引擎内部保持,并且尝试找到一种可以更好地处理深度偏移而无需不断穿梭在Blender之间的方法。

你该如何处理大型景观而不使 Oculus Quest 2硬件化妆?

这些是需要转换为背景的复杂3D结构,同时保持立体深度。

鸟瞰视图的孤立资源。它显示了尺寸并解释了为什么Blender手动烘培会感觉如此麻烦。](https://preview.redd.it/r2o7mdp7dwwg1.png?width=1271&format=png&auto=webp&s=812f5441d59d8a083ce4a49b34af53ed9cebcfc3)