一个由英国、美国和葡萄牙的研究人员组成的国际团队认为,他们已经找到了解决光线追踪性能要求过高的答案。据他们说,答案在于经典光线追踪 算法 量子 计算的混合。根据研究论文(目前在预印本中),在量子计算的帮助下,光线追踪的工作负载可以通过削减每条光线所需的计算数量来提供高达190%的性能改进,从而大大降低了对技术的要求。

在图形技术中引入光线追踪,标志着我们渲染游戏的方式发生了重大演变。然而,与

这项技术的开创性相比,它的采用和性能却相对有限。部分原因是光线追踪对硬件和计算的要求很高,即使是世界上最强大的GPU也会因此而屈服。此外,对专用硬件的需求将大多数用户挡在了这项技术之外,除非有独立的GPU升级可以处理这种工作负载。

目前,所有GPU供应商的升级技术都在激增。Nvidia的DLSS,AMD的FSR 1.0和FSR 2.0,以及英特尔即将推出的XeSS,主要是为了抵消启用光线追踪所带来的极端性能损失。这些技术通过降低渲染像素的数量来降低特定场景的计算复杂性,然后再应用一种算法将图像重建到目标输出分辨率。尽管自这些软件套件推出以来,图像质量不断得到改善,但这种方法并非没有注意事项。

打开网易新闻 查看精彩图片

(图片来源:《迈向量子光线追踪》论文)

这篇研究论文提供了另一种大幅降低光线追踪计算费用的方法。研究人员最终通过用三种方法渲染一个128x128的小型光线追踪图像来证明他们的主张:经典渲染、非优化量子渲染和优化量子渲染。结果不言而喻:经典的渲染技术需要在这个微小的3D图像上计算26.78亿个光线交叉点(每条光线64个)。未经优化的量子技术几乎将这一数字减半,每条光线只需要33.6个交点的评估(总共13.66亿个光线交点)。最后,优化后的量子-经典混合算法只用89.6万次相交评估就成功地渲染了相同的图像,平均每条光线22.1次--与目前的渲染技术所达到的每条光线64次相差甚远。

由于今天的量子计算机的性能相对较低(用量子体积指标表示),对渲染场景的复杂性有一个硬性限制。渲染每张图片需要每张图片数小时的计算时间。出现这种情况的部分原因是,量子计算设备仍在NISQ(嘈杂的中尺度量子)产品类别下开发--足以用于量子模拟,但不适合部署量子混合渲染器。

但考虑到近年来量子计算的发展节奏--有些人可能会说是爆炸性的,研究人员对中期混合渲染的设想可能有助于将物理学上的精确渲染带到更广泛的人群中。IBM公司的目标是在未来几年内大幅扩大量子体积,加速超越我们在该领域看到的每年翻倍的量子体积。

虽然这项研究为未来经典和量子渲染之间的混合方法打开了大门,但目前的量子计算状态可能使研究人员的成果在实际应用出现之前的几年时间里(研究人员表示为中期)。

此外,该算法的整合是否需要专门的量子能力电路还有待观察。如果是这样,这可能会将这些发展的成本和时间框架进一步推向未来。

然而,对云游戏的推动--以及基于云的量子计算的改进--可能会使这种新的渲染系统更快地进入市场,将硬件成本抵消在大型游戏公司而不是最终用户身上。量子xCloud,任何人都能享受高性能光追?