2021年量子计算的研发现状与未来展望

2022-01-19 11:04:25 AI科技评论
0人跟贴

从硬件、软件和算法以及各国政策等方面展现量子技术最新进展。

作者丨杏花

编辑丨青暮

超导量子计算过去宣称实现的量子霸权在最新的获得戈登贝尔奖被宣告打破,但谷歌和IBM依然在这一领域有着雄心勃勃的计划。

离子阱则凭借高保真的量子比特,在稳步前行,探索多样化的技术路线;中性原子与之类似,但具有更好的可扩展性,这也是离子阱一直无法与超导量子比特相比的地方。硅量子点作为硅基技术的自然进阶,2021年也实现了目前为止最低的量子噪声。

2021年表现最为亮眼的当属光量子比特,“九章二号”实现了比全球最快超算快10^24倍的计算速度,达成“量子计算优越性”里程碑。下一步,中科大团队已经开始朝量子纠错进发,而量子纠错正是量子计算机迈向实用的一大障碍。

以上技术路线都要求接近绝对零度的环境,而金刚石NV色心可以在环境温度下工作,在快速落地上也被寄予厚望,比如生物医疗等领域就出现了颇为可喜的进展。

2021年至今,全球量子计算的当下现状如何,形成了什么局面,未来会如何发展?且看本文从硬件、软件和算法以及各国政策等方面展现的量子技术最新进展。

1

量子计算简介

量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。在理解量子计算的概念时,通常将它和经典计算相比较。

经典计算使用二进制进行运算,每个计算单元(比特)总是处于0或1的确定状态。量子计算的计算单元称为量子比特,它有两个完全正交的状态0和1。

同时,由于量子体系的状态有叠加特性,能够实现计算基矢状态的叠加,因此不仅其状态可以有0和1,还有0和1同时存在的叠加态,以及经典体系根本没有的量子纠缠态,即在数学上的多量子比特体系波函数不能进行因式分解的一种状态。

一台拥有4个比特的经典计算机,在某一时间仅能表示16个状态中的1个,而有4个量子比特的量子计算机可以同时表示这16种状态的线性叠加态,即同时表示这16个状态。

随着量子比特数目的递增,一个有n个量子比特的量子计算机可以同时处于2^n种可能状态的叠加,也就是说,可以同时表示这2的n次方数目的状态。

在此意义上,对量子计算机体系的操作具有并行性,即对量子计算机的一个操作,实现的是对2的n次方数目种可能状态的同时操作,而在经典计算机中需要2的n次方数目的操作才能完成。因此,在原理上,量子计算机可以具有比经典计算机更快的处理。

  1. 量子计算机

经典计算机体积缩小和性能提升来源于计算机芯片集成度的提高。随着计算机元器件从电子管到晶体管再到大规模集成电路的快速发展,如今的计算机可以薄如一张纸,运算速度也能很好地满足需求。

然而,大数据和互联网时代的来临以及人工智能的发展,使得经典计算机的能力越来越不能满足海量数据处理的需求,目前主要有两个方面制约经典计算机发展:能耗问题和芯片高集成化的极限。

1961年,IBM 的 Rolf Landauer 提出了信息和能量的方案,这就是著名的 Landauer 原理:每删除一比特的信息,需要消耗一定的能量。消耗的能量随后会成为热量,因此散热问题是制约芯片集成化程度的一个重要问题。若要解决热量耗散问题,则必须在计算过程中采用可逆计算避免信息的擦除。

同时,经典体系与量子体系服从不同的规律,经典计算机无法满足量子体系的计算需要。现在对量子体系的计算都是在经过大量简化后才得以进行。因此,物理学家 Richard Phillips Feynman 提出使用量子计算机进行量子模拟。

再者,微处理芯片的密度日趋极限,其中晶体管的密度越来越大,每个晶体管的体积越来越小,已经接近物理上所允许的极限,摩尔定律失效。当晶体管只由少数原子组成时,经典物理学规律不再适用,量子效应将导致晶体管无法正常工作。基于以上原因,量子计算机概念被提出。

从应用范围的角度,量子计算机可分为通用量子计算机和专用量子计算机。通用机用于解决普遍问题,需要上百万甚至更多物理比特,并具备容错能力、以及各类软件算法的支撑,其实用化将是长期渐进过程。专用机用于解决特定问题,只需相对少量的物理比特和特定量子算法,实现相对容易且存在市场价值。业内专家预测,未来五年左右量子专用机有可能在模拟、优化等领域率先取得突破。

  1. 量子计算应用领域

目前普遍预测量子计算有望在以下三个场景较早落地。第一个领域是模拟量子现象,量子计算可以为蛋白质结构模拟、药物研发、新型材料研究、新型半导体开发等提供有力工具生物医药、化工行业、光伏材料行业开发环节存在对大量分子进行模拟计算的需要,经典计算压力已经显现。

第二个领域是人工智能相关领域。人工智能对算力需求极大,传统CPU芯片越来越难以胜任。通过开发新的量子算法,构建优秀的量子机器学习模型,促进相关技术的应用。

第三个领域是密码分析。加密和破译密码是历史长河中的不间断主题。量子计算破译了RSA等公开密钥体系,而密码学家又构造了新的公开密码体系,而现在的密码体系的绝对安全性还没有得到证明。

因此,基于算法的密码体系的安全性一直受到可能被破译的威胁。开展密码破译具有重要的战略意义和实际应用价值。应对量子计算对通信安全攻击的另外一种手段是量子保密通信,主要包括量子密钥分发、量子直接通信。

自量子计算机概念提出,科学家就开始致力于研制量子计算机的物理实体。至今已经提出了多种可能实现通用量子计算的物理平台,如超导量子计算机、离子阱量子计算机、固态核自旋量子计算机和拓扑量子计算机等等。这些物理平台各有优势和缺点,一些方案已被淘汰,而大浪淘沙后剩下的几种主要方案,如超导量子计算、离子阱量子计算、中性原子量子计算等等近年来发展较快。

2

量子计算机硬件进展

实现量子计算的物理平台要有编码量子比特的物理载体,使不同量子比特之间可以可控地耦合,并对噪声环境影响有一定的抵抗力。目前研发的主要方案有超导、离子阱、中性原子、硅量子、光量子和金刚石色心等。

  1. 超导量子计算

超导量子计算利用超导系统的量子态实现量子计算。它的优点是与现有的半导体工业技术兼容,但是,超导量子系统工作对物理环境要求较高,需要超低温。许多科研机构和国际大公司采用这一系统,如谷歌、IBM 等。

谷歌:在持续重金投入量子计算多年以后,2018 年 3 月,谷歌宣布推出 72 量子比特超导量子计算机,他们发布的主要指标是单比特操作的误差是 0.1%,双比特门操作的误差是 0.6%。

2019年10月,谷歌在《自然》上发表一篇文章,称其开发出一款 54 量子比特数的超导量子芯片Sycamore。基于该芯片,谷歌对一个53比特、20深度的电路采样一百万次只需200秒。而目前最强的经典超级计算机 Summit 要得到类似的结果,则需要一万年。基于这一突破,谷歌宣称其率先实现了「量子霸权」。

在今年的量子夏季研讨会上,谷歌再次强调了其计划的连续性,并概述了他们计划在 2029 年前建立一个拥有 100 万个物理超导量子比特的「小型」FTQC 的里程碑。虽然谷歌首选的可调谐量子比特和快速逻辑门提供了极大的灵活性和性能,但是 Sycamore53Q 设备的校准显然是一个挑战。

有了额外的控制,就需要在芯片上和芯片外路有额外的控制线。缩放比例会自动增加布线的挑战和元件数量与总体故障率之间的关系。此外,谷歌在2020年报告的大部分工作都使用了Sycamore的23Q配置,因为自动校准最初无法在较大的设置中提供可接受的2Q门性能。谷歌将材料研究作为提高量子比特相干时间的一种方法。尽管前景很好,但这需要科学的进步,而不仅仅是工程上的进步。

值得一提的是,2021年11月18日,中国团队在2021戈登贝尔奖上夺冠,获奖应用超大规模量子随机电路实时模拟(SWQSIM),可在304秒内得到百万更高保真度的关联样本,在一星期内得到同样数量的无关联样本,打破谷歌所宣称的「量子霸权」。参见:

谷歌路线图:从现在到 2029 年:102Q(逻辑量子比特原型)、103Q(一个逻辑量子比特)、104Q(可平铺逻辑模块)、105Q(工程扩大)、106Q(纠错量子计算机)。通过表面代码协议进行错误纠正。

图注:谷歌路线图

IBM:IBM 很早就开始为其路线图打下基础。2016 年,IBM 推出 5 个量子比特的超导量子计算平台,打破了从 1998 年以来超导量子比特体系研究一直徘徊在 2 个量子比特的局面,开启了国际上量子计算机研发的第二次高潮。2017年11月,IBM 宣布研制成功 50 量子比特的量子计算机原理样机,并在 2018 年初的 CES 大会现场展示。

IBM 是推动教育更广泛的社区先行者,重要的不仅是量子比特数量,还有量子比特连接、门集和可实现的电路深度。基于这些属性,IBM 引入衡量量子计算机性能的指标——量子体积(QV)。2017 年以来,IBM 已交付了 28 款性能稳步提高的系列设备。每年 QV 翻一番的既定目标,他们在过去一年中实现两次。

2021 年 11 月 15 日,IBM 推出全球首个超过100量子比特的超导量子芯片——Eagle,该量子芯片拥有 127 个量子比特,采用了全新的芯片架构,基于 IBM 之前公布的六边形量子芯片,堆叠了多层芯片,但减少了之间的链接,链接越少,干扰就越少,这是量子计算机研发中的重要难点之一。

目前的 Eagle 量子芯片实现了 127 量子比特,但还只是个开始,IBM计划在未来两年中分别推出 433 量子比特的 Osprey 芯片及 112 量子比特的 Condor 芯片,届时他们量子芯片将实现量子霸权。

IBM路线图:2021 年 127Q(Eagle)、2022年433Q(Osprey)、2023年 1121Q(Condor),从而形成 100 万量子比特的大规模系统。通过颜色代码协议进行纠错。

图注:IBM路线图

至于国内进展,中国科学技术大学潘建伟团队研制出 66 比特的可编程超导量子计算原型机祖冲之2.0,通过操控其上的 56 个量子比特,在随机线路采样任务上实现了量子计算优越性,所完成任务的难度比 Sycamore 高 2—3 个数量级。前段时间,潘建伟研究团队又有了新的进展,通过操控其上的 60 个量子比特,祖冲之2.1所完成任务的难度比祖冲之2.0 又高出了 3 个数量级。

  1. 离子阱

离子阱体系的优势在于其有较好的封闭性,退相干时间较长,制备和读出效率较高,离子阱体系在一定程度上可以满足量子计算机的多个条件,而可扩展性问题是基于离子阱系统的量子计算的主要障碍。国际上开发该系统的研究组有霍尼韦尔、IonQ等等。

霍尼韦尔:2020 年,霍尼韦尔成为第一个用其 6Q H0 和 10Q H1 处理器达到 QV 64 和 QV 128 的厂商。有些人可能会想,10Q 处理器怎么能声称自己和 IBM 的 27Q 处理器一样强大呢?这恰恰凸显了离子阱研究者长期以来所阐述的两个优势:与超导量子比特方法相比,它有优越的连接性和更高的门保真度。这两个优势可以保证更高的 QV。霍尼韦尔处理器也是首款实现中间电路测量的处理器,进一步提高了灵活性。

霍尼韦尔路线图(不同的量子比特布局):2020-2030年,H1(线性离子阱),H2(跑道布局),H3(网格布局),H4(集成光学元件),H5(大规模平铺)。

图注:霍尼韦尔路线图

IonQ:2018 年 12 月,IonQ 推出了一个离子阱体系量子计算机原型系统,其主要技术指标如下:量子比特数目方面,最多可以加载160个量子比特,能够进行单个比特操作的是79个量子比特,能够进行双比特操作的是11个量子比特。可编程量子计算方面,实现了5个比特的可编程计算,在5比特上实现了4种量子算法。

2020年,IonQ 宣布了一款 32Q 设备,他们希望获得比以前高得多的 QV,尽管他们现在更喜欢谈论一种新的衡量指标——算法量子比特(AQ)。算法量子位比特(AQ)——IonQ 定义为可用于计算的有效量子比特的数量(注意:可用逻辑门深度仍有限)。在没有纠错编码的情况下,AQ = log 2(QV)。

图注:IonQ路线图

离子阱系统的一个缺点是,与超导量子比特相比,它们提供的门速度要慢得多(通常慢100到1000倍)。他们希望通过更长的量子比特寿命和更高的保真度来弥补这一点,从而减少纠错成本。

IonQ 相信,高保真的物理量子比特足以使得离子阱比其他方法更快实现量子优势。对于离子阱系统而言,真正的长期挑战是再次扩大规模,尤其是在它们依赖精细调谐的激光系统来驱动其高保真量子比特门的情况下。就像超导量子比特方法不同一样,离子阱也不尽相同。

例如,奥地利公司 AQT ,他们没有使用霍尼韦尔和 IonQ 使用的在超精细跃迁上定义的量子比特,而是使用在光学跃迁上定义的量子比特。虽然保真度稍低,但这种量子比特的工作波长是集成光子组件易于制造的波长,因此有望实现更容易的扩展。2020 年,这种集成设备在实验室中以这些波长进行了演示。AQT 与欧洲量子技术(QT)旗舰计划、AQTION 合作,首次构建完整的「机架系统」。

其他离子阱初创公司的目光也不再局限于激光驱动的门。Universal Quantum、NextGenQ 和 QT 旗舰计划的 MicroQC 正在寻求将远场微波门带出实验室,并应用到商业设备。与激光驱动门的许多关键性能记录密切相关的 Chris Balance 和 Thomas Harty,已选择以自己的初创公司作为基础,建立近场微波门,如 Oxford Ionics。

离子阱架构通常使用模块之间的光子互连进行扩展。最近已经出现了更快的互连,但似乎仍然是一个性能瓶颈。另一方面,Universal Quantum 已经证明他们的离子穿梭方法原则上可以提供类似于全连接的 QV。

  1. 中性原子

中性原子又叫作冷原子,因为它使用激光冷却和高度真空来达到毫开(mK)的温度,远低于低温冷却的范围。该技术与离子阱有许多相同的特性,它们的优点是中性原子可以被包裹得更紧密。这意味着可以更快地扩展到 1000Q 模块。

ColdQuanta 是采用这种方法的知名公司,已经推出了 QuantumCore 作为一个基本单元,以瞄准许多量子领域的机会。它也是云上的量子物质系统 Albert 的基础。ColdQuanta 已经被 DARPA(美国国防高级研究计划局)选中,作为 ONISQ 计划的一部分,参与 1000Q 处理器的开发工作,该奖项的价值高达 740 万美元。

ColdQuanta 路线图:到 2021 年达到 100Q,到 2022 年达到 300Q,到 2024 年达到 1000Q。其他选择中性原子的公司还有 QuEra、Paswal 和 Atom Computing 等。

  1. 硅量子点

2020 年,QuTech 和新南威尔士大学(UNSW)在 1K 的温度下用金属氧化物半导体(MOS)量子点演示了量子比特操作。这有望成为一个操作和扩大设备规模明显更容易的机制,尽管在这些更高的温度下,相干时间和保真度是否具有竞争力仍有待观察。

澳大利亚初创公司 Silicon Quantum Computing 一直是硅量子比特的早期推动者。2020 年,它宣布了其路线图的重点,放弃了 MOS 量子点,并加码了磷原子量子比特。这些设备使用超尖端制造技术,提供了超越传统 CMOS 技术的原子精度方法。

在描述 SQC 的制造技术时,其创始人Michelle Simmons指出不仅能够以原子精度设计量子比特,而且同样的技术可以在同一器件衬底内创建稳定、简单和原始的控制线路。2021年,他们报道了硅量子比特实现迄今为止最低的噪声。

2020 年,加拿大初创公司 Photonic Inc 发表了早期的研究,承诺给硅量子比特「军械库」增加一个重要的新工具。这有望改善基于硅中 T-centre 缺陷的光子的界面。

  1. 光量子比特

中国的九章实验能够证明光量子比特可以实现比迄今为止在任何其他平台上实现的都要复杂的计算。九章通过实现一种被称为高斯玻色取样的算法来实现这点,成功构建了 76 个光子 100 个模式的高斯玻色采样量子计算原型机。在 200 秒的时间里产生的输出样本,声称世界上最强大的超级计算机 Fugaku 需要 6 亿年才能实现。它的复杂程度大大超过了 Sycamore 最初的量子优势(量子霸权)演示。

九章并非凭空而来。至少从 2006 年起,中国就一直在增加对量子技术的投资。2019 年,潘建伟团队首次实现 20 个光子 60 个模式干涉线路的玻色取样量子计算。2021 年 10 月,他们又宣布了一则令人激动的消息:量子计算原型机“九章二号”研制成功。这意味着我国已成为世界上唯一在两种物理体系达到“量子计算优越性”里程碑的国家。

与目前全球最快的超级计算机相比,“九章二号”求解高斯玻色取样数学问题要快 10 的 24 次方倍(亿亿亿倍)。陆朝阳教授解释称,团队把之前九章光量子计算机的光子增加至 113 个,从而实现质的飞跃,“我们主要有三大突破,首先显著提高了量子光源的产率、品质和收集效率,将光源关键指标从 63% 提升到 92%。其次,将多光子量子干涉线路从 100 维度增加到 144 维度,操纵的光子数从 76 个增加到 113 个。第三,新增了可编程功能”。

图注:“九章二号”整体装置图

潘建伟院士表示,团队的下一步任务是实现量子纠错,并在这个基础上,借助一些专用的量子计算机或量子模拟机解决一些具有重大应用价值的科学问题。

  1. 金刚石 NV 色心

金刚石 NV 色心可以在环境温度下操作,虽然灵敏度不高,但却可以实现小型化,并且其毒性质使其特别适合现场生物测量。Qnami 受益于量子技术旗舰项目 ASTERIQS 的参与。该项目的合作伙伴还包括泰雷兹集团、博世、NVision 和比利时微电子研究中心,他们各自在金刚石技术上寻求不同的应用。

HP-MRI 是一种先进的核磁共振诊断技术,可以追踪注入人体的糖分并显示糖分变成什么。例如,在报告胸痛的患者中区分有生命或无生命的心脏组织时很有用。但是,由于生产该方法消耗的超极化分子缓慢且昂贵,因此该技术未被广泛采用。使用金刚石 NV 色心有望实现更快、成本效益更高且可部署的解决方案。

量子技术旗舰项目 MetaboliQs 正在寻求开发基于 NV 金刚石的 HP-MRI 技术。他们最近从概念验证转变为性能提高了 1000 倍的原型。政府计划将在加速该技术适应各种应用方面发挥重要作用。

3

量子计算软件进展

软件是连接人与机器的桥梁,通过软件才能发挥机器的作用。在数字革命中,软件被认为是至关重要的商业竞争领域,许多人期望在新的量子革命中同样如此。各种各样的参与者正在研究不同的策略。如今,早期的量子社区和生态系统已经初步形成。

  1. 量子计算云服务

IBM Q:过去四年中,IBM Cloud 上部署了 28 个量子计算系统,其中 8 个系统的量子体积达到 32。IBM Q Network 拥有 115 家客户、政府、初创企业、合作伙伴及高校成员。IBM Quantum Experience 注册用户数超过 25 万,用户定期通过 IBM Cloud 在 IBM 量子系统运行电路超过 10 亿。研究人员利用 IBM 量子系统已发表 250 多篇学术论文。IBM 用于商业的量子计算机服务 IBM Q 取得了阶段性的成功。

当其他竞争者开始建立自己的量子社区时,IBM 也不例外。他们指出在不断发展的供应商生态系统中,可以提供与 Qiskit 兼容的库和工具,而不只是 IBM 硬件。2021 年 11 月 1 日,IBM 提出了一个度量量子性能的新指标-CLOPS(Circuit Layer Operations Per Second),称之为每秒线路层操作数,即衡量处理器可以执行与用于测量量子体积的相同类型的参数化模型线路层的速度。

除 IBM 外,D-Wave在 2018 年 10 月推出了 Leap 云平台,基于 D-Wave 量子退火处理器提供量子计算云服务。量子计算先驱Rigetti Computing推出了Rigetti 量子云服务(QCS),一个利用 Rigetti 的混合量子及经典方法开发和运行量子算法的完整平台。

量子优势是使用量子计算技术解决重要或有价值的业务问题。最近,越来越多实力雄厚的量子公司开始投入量子云服务平台的研发当中。亚马逊 AWS 发布量子计算服务 Braket,此外,AWS 还将启动 AWS 量子计算中心和亚马逊量子解决方案实验室,推动更多量子计算的合作。

  1. 高性能模拟器

对于量子开发来说,高性能模拟是关键一环。随着要模拟的量子比特数量增加,量子模拟器的开发迫在眉睫。IBM Quantum 支持一系列离线和在线模拟器。谷歌的高性能开源量子电路模拟器 Qsim 已证明能在 111 秒内在一个谷歌云节点中以 14 栅极深度模拟一个 32 量子比特量子电路。Amazon Braket 和 Azure Quantum 则非常重视灵活配置传统云硬件以满足用户需求的能力。Amazon Braket 提供完全托管的高性能张量网络模拟器 (TN1),这种基于张量网络的电路模拟器可以支持高达 50 个量子比特的量子计算模拟。

Atos 是数字化转型的全球领导者,同时也是第一个成功模拟量子噪声的公司。其开发的量子模拟器Atos 量子机器学习机(Atos QLM)被称为世界上性能最好的商用量子模拟器,该模拟器将高功率、超紧凑的机器与通用编程语言相结合,使研究人员和工程师能够开发和试验量子软件。Atos 已在奥地利、丹麦、法国、德国、荷兰和美国等国家安装了量子学习机,量子模拟器能够模拟多达 40 个量子比特。

国内云产品目前强调研发量子计算模拟器。华为的 HiQ 2.0(出于监管原因仅在亚洲使用)最多可模拟 42 量子比特 。阿里巴巴的 AC-QDP 声称即使在 50 量子比特时也可用于某些应用。本源量子最近通过访问 6 比特量子处理器之一(计划扩展到 24 比特,正在进行中)推出了基于真实量子计算机的云。

  1. 量子编译器

与传统编译器相比,优化量子编译器是量子研发阶段的一大挑战。量子计算设备存在物理量子比特之间的有限连接,使得只能在有限的量子比特对上应用双门。现实世界中的量子设备是存在噪音的,但是可以研发一种用于表征大型量子计算机噪声的算法以解决这一问题。从技术上讲,我们实际上经常在谈论转码操作,因此互操作性是一个有用的功能。

编译器市场中出现了几个富有前景的方向,都是建立在深厚的专业知识基础上,这些专业知识在许多情况下是互补而不是竞争。随着在早期在量子硬件上实施纠错代码的竞争日渐激烈,编译器创新又将迎来新的浪潮。

  1. 量子操作系统

量子软件行业的前景令人印象深刻,但是在量子计算机硬件高速增长的今天,如果没有操作系统,量子计算机的实用性将会大打折扣。

Deltaflow.OS是一个新的全栈量子操作系统。由量子计算软件开发商 Riverlane 牵头的财团从英国政府获得 760 万英镑的拨款,用于部署高度创新的量子操作系统 Deltaflow.OS。与其他旨在吸引早期用户的软件平台形成鲜明对比的是,Deltaflow.OS 解决了一个非常重要的问题:实现硬件和软件的交互,并充分利用量子计算性能。为此,它提供了加速开发、低延迟以及在应用程序和控制层之间进行灵活交互的潜力。

Deltaflow.OS:量子处理器通常由常规主机处理器驱动。在这两者之间,设想一个由全局和本地控制节点组成的网络。Deltaflow.OS 简化了将自定义代码获取到由 FPGA 实现的控制节点上的任务,强调了简化的指令集实现,这些实现更易于调试。这种方法有望缩短研发周期。它还使用分布式而不是分层的网络节点概念,并公开了整个量子计算堆栈的不同元素,这些功能有望最大程度地减少运行时的延迟。

Deltaflow.OS现已发布第一个版本,该版本与 ARTIQ(一种流行的离子阱控制系统)集成为「Deltaflow-on-ARTIQ」。这是该公司开发支持量子计算的技术的最新里程碑,标志着 Riverlane 朝着构建高性能、可移植于所有量子比特技术、可扩展到数百万量子比特的量子操作系统的目标迈出了重要一步。

  1. 量子算法

随着 IonQ 和霍尼韦尔推出的量子技术新设备,人们也在努力探索量子计算的具体实现路径。QC Ware 在 IonQ 的 11 量子比特设备上展示了他们最近使用的质心算法和 Forge 数据加载器;Zapata 建了企业级、量子赋能的软件,可以针对大量行业和用户,允许用户建立量子工作流,并在一系列量子和经典设备上自由执行;Rahko 展示 VQE 和 QML 技术的有趣组合,在霍尼韦尔 HS0 量子计算机上发现了 2Q 和 4Q 分子的第一个激发态。

VQE(变分量子特征值求解算法):用于模拟化学反应过程——分子级电子能量的 HartreeFock 计算上。尽管所执行的计算也可以在经典计算机上运行,但该实验构建了许多用于量子化学模拟的关键构建模块,为实现针对化学问题的量子计算铺平了道路。

化学公式(Trotterisation):用于模拟 8 位 1D Fermi-Hubbard 模型在材料科学中很受欢迎。令人惊讶的是,Google 能够成功实现量子算法所需的量子电路深度接近 500,比当前设备所期望的深度还要深得多。在多次化学量子模拟的情况下,Google 展示基于 N 表示性的错误缓解决策,极大地改善了实验的有效保真度。

随机数和抽样:作为早期的量子计算服务产品,许多学者正在研究随机数。

▪ 可证明的随机数——Google 报告了通过质询和响应协议提供随机数的进展。这是 Google 第一个用于商业领域的量子设备,主要缺点在于成本较高。

▪ 可验证的随机数——CQC 展示如何使用现有的量子设备来实施基于云技术的 QRNG 服务。通过 Bell 测试,可验证产生的随机数来自量子源。beta 版 QRNG 服务已可用于 IBM Quantum 网络。但在该协议中,用户仍然必须信任云服务提供商,因此该应用程序目前正在与其他拥有 QRNG 解决方案的公司进行竞争。

▪ 高斯玻色取样——九章提出了「量子优越性」这一定义,再次吸引了人们对高斯玻色取样的关注,并将其作为早期量子设备的候选算法。

伯克利的 Umesh Vazirani 将经典密码学与量子领域进行结合,解决了量子计算中最根本的问题之一,即如果你让一台量子计算机为你执行一个计算,那么你如何确定它确实执行了你的指令,甚至如何得知它是否做了与量子相关的事情。

优化基准测试 :早期的优化算法有 QUBO 和 QAOA 以及在传统硬件上运行的量子启发算法。BBVA已完成一系列针对金融领域应用的前期项目,其中包括初创公司 Multiverse Computing 和 Zapata。BBVA 与 Multiverse 的合作是动态投资组合优化的一个经典案例,该投资组合现在已用于各种早期量子硬件的评估中,包括对 NISQ、量子退火解决方案和量子启发算法的测试。BBVA 的结果表明,量子退火解决方案和量子启发算法可以很好地解决投资组合问题。

  1. 量子机器学习算法

许多人认为 AI 和机器学习是量子计算的关键。量子计算的未来,就像量子状态本身一样, 仍然是不确定的。但量子计算的前景是光明的。

IBM 的最新理论工作首次证明,即使仅访问经典数据,也可以在某些受监督的机器学习应用程序中实现指数级加速。QC Ware QC Ware 开发了两种类型的数据加载器,即并行数据加载器和优化数据加载器,它们都将经典数据转换为量子状态以用于机器学习应用,而且还可以使用一种优化的距离估计算法。微软提出了一个普遍的观点,为避免「输入瓶颈」,应着眼于「小数据,大计算」。例如,CQC成立了一个团队来研究量子自然语言处理的相关问题。

迄今为止,量子机器学习的大部分成功的实验都采用了一种不同的方法,那些实验里量子系统不仅只是模拟了网络;它们本身就是网络,每个量子比特代表一个神经元。尽管缺乏指数化的力量,但是这样的装置可以利用量子物理学的其他特性。

4

全球竞逐量子信息技术高地

当前,量子技术研究已成为世界科技研究的一大热点,世界各主要国家高度关注量子信息技术发展,纷纷加大政策和资金支持,力争抢占新兴信息技术制高点。

  1. 欧盟

欧洲国家很早就意识到量子信息处理和通信技术的潜力。2014 年英国已启动「国家量子技术计划」,计划投资超过10亿英镑建立量子通信、传感、成像和计算四大研发中心,推动产学研合作。2016 年德国提出「量子技术——从基础到市场」框架计划,并预计投资 6.5 亿欧元。

2016 年,欧盟推出的「量子技术旗舰计划」,并通过调整其他计划(例如其数字和太空计划)的支出,增加其可用资金,为实现未来的「量子互联网」远景奠定基础。2020 年 5 月,欧盟「欧洲量子技术旗舰计划」官网发布了《战略研究议程(SRA)》报告。估计 10 年内欧盟在整个量子技术旗舰计划中的相关量子支出为 30-40 亿欧元。

「旗舰计划」——在拓展阶段,这个计划中的 19 个项目遍及量子计算、通信、模拟、传感和计量以及基础科学。2020 年,这些项目通过了中期审查,同时启动了两个新项目——QLSI 将硅自旋量子比特添加到已经成为目标的超导和离子阱量子比特的行列中;NEASQC 专门针对 NISQ 应用程序,解决许多人认为缺乏软件重点的程序的平衡问题。

  1. 北美

加拿大在现代量子科学方面有着杰出的贡献,尤其是 Gilles Brassard 1984 年提出的著名的 BB84 量子密码协议。2002 年,加拿大首创的量子计算研究所(IQC)在滑铁卢大学成立。在 2008-2018 年,量子科学和技术投资超过10 亿加元。

2017 年,加拿大国家研究委员会(NRC)发起了一个名为「Quantum Canada」的计划。对于加拿大来说,总部位于加拿大或与加拿大有紧密联系的知名量子公司的数量众多。例如 D-Wave、Xanadu、1QBit、Quantum Benchmark、evolutionQ、Zapata 和 ISARA。其中,创意破坏实验室(CDL)一直是量子行业初创企业的标杆。

2020 年,加拿大量子产业通过成立新的产业联盟,来巩固这一地位。2020 年,温哥华的数字技术超级集群也宣布共同投资资金达 1.53 亿加元。

美国在量子科学方面的投资历史悠久,从 20 世纪 90 年代即开始将量子信息技术作为国家发展的重点,在量子相关学科建设、人才梯队培养、产品研发及产业化方面进行大量布局,联邦政府机构对量子计算领域的支持在每年 2 亿美元以上。近两年来,美国政府频繁参与量子计算布局。

2018 年 12 月,美国政府正式颁布《国家量子计划法案》,制定长期发展战略,计划在未来 5 年向相关领域投入 12 亿美元研发资金。2019 年 2 月,白宫发布未来工业发展规划,将量子信息科学视为美国未来发展的四大支柱之一。

2020 年是美国国家量子倡议(NQI) 计划的第二年,并且随着该计划的真正成形,人们也看到了量子科技发展的亮点。NQI 将在 2019-2023 年支出 13 亿美元,大量私人资金也已投入其中,在美国国家科学基金会设立了 3 个新的量子飞跃研究所。这些以学术为主导的研究所将支持不同领域的研究。在美国能源部启动量子战略之后,美国国防部根据美国能源部的 17 个国家实验室的初始骨干网络,提出了量子互联网的战略蓝图。

  1. 中国

「五年规划」(尤其是2006年)以来,中国一直推动着科技领域的发展,中央和省级资金已经投入超 15 亿美元,中国科学技术大学已经成为世界上主要的量子研究中心。迄今为止,中国拥有全球最大的已部署 QKD 网络,并在先进空间量子通信技术方面继续保持世界领先地位。「墨子号」卫星和九章量子处理器是该计划成功的标志。

据官方媒体报道,到 2022 年,对量子科学领域的投资将达到近 150 亿美元(1000 亿元人民币)。目前,正在建立量子信息科学国家实验室(NLQIS)的网络:

▪ NLQIS 合肥:将成为世界上最大的量子研究机构以及该计划的总部。将重点关注光子、金刚石 NV 色心和硅自旋量子比特技术以及量子通信和量子感测。

▪ NLQIS 北京:该分支将专注于理论、离子阱和拓扑量子比特。

▪ NLQIS 上海:该分支将专注于超导量子比特和超冷原子以及自由空间量子通信。

阿里巴巴、百度、腾讯和华为都在量子技术上进行了量子投资。国盾量子和本源量子是著名的创业公司。「十四五规划」详细介绍了该计划,计划将于 2021 年正式通过。一个关键概念是「双循环」,包括减少对外国高科技的依赖,同时增加对外国投资的开放度。同时,创新也是一个关键主题。

http://www.rmlt.com.cn/2021/0818/622293.shtml

https://news.mydrivers.com/tag/liangzijisuanji.htm

https://mp.weixin.qq.com/s/IuHO44NX6ietEfcklZ7MBA

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐

10:02