AI之后的下一个风口:量子计算与它的Transformer时刻

关注
科技巨头的路径之争

编者按:本文来自微信公众号 硅谷101(ID:TheValley101),作者:一皓,编辑:杜秀,创业邦经授权转载。

“先进半导体是传奇的过去,AI是蓬勃的当下,量子计算是不可避免的未来。”

曾长期被视为“未来技术”的量子计算正在加速从实验室走向现实。2月11日,量子计算公司QuEra宣布获得2.3亿美元投资,这是量子计算领域迄今最大的单笔投资之一。

这家从哈佛大学和麻省理工学院分拆出来的公司,使用原子和激光来制造量子比特,此前这种技术被认为误差过高,但与谷歌、IBM等巨头采用的超导电路和离子阱路线相比,这种中性原子技术不需要超导电路,具有稳定性高、无需笨重制冷系统等优势。

就在三个月前,谷歌宣布基于Willow芯片的新一代量子计算机仅需不到5分钟就完成了一项传统计算机需要“10的25次方”年才能算完的标准数学运算,并且克服了高错误率的难题。这一突破被业界称为量子计算的“Transformer时刻”。

然而,行业内对真正实现“有用的量子计算”的时间存在不同的预测。英伟达CEO黄仁勋预测,量子计算的大规模商业应用至少需要二十年,而谷歌的目标是五年内推出可用的量子计算服务。

本期硅谷101,主理人泓君邀请到Roger Luo,Anyon Technologies 创始人兼CEO,加州理工博士与伯克利大学的博士后,和Jared Ren(任恒江),Anyon Technologies 创始人兼CTO,加州理工博士与博士后深一起讨论黄仁勋关于量子计算的时间预测,谷歌Willow芯片的重要性,硅谷公司在量子计算领域的布局和技术路径,以及它将如何影响加密货币、银行体系,以及整个密码学领域。

以下是部分访谈精选

01 理解量子计算,量子比特的叠加态与纠缠态

泓君:我们或许可以先从一个通识性的问题入手。能否用尽可能通俗的语言向听众解释一下,什么是量子计算?它是用来做什么的?

Jared: 理解量子计算可以用经典计算机来做类比。我们现在市面上几乎所有的计算设备——无论是CPU、GPU、手机,还是简单的计算器——本质上都属于经典计算机。

我们可以把经典计算机理解为一长串由 0 和 1 组成的字符串,也就是所谓的 比特(bit)。比特只能处于 0 或 1 的状态,而所有计算,无论设备多复杂或多简单,本质上都是在处理这些 0 和 1 组成的字符串。类比于量子计算器的话,它也是一长串的字符串,不过它的基本单元是 量子比特(qubit)。

那量子比特跟比特的区别是什么呢?区别在于,它不仅可以是 0 或 1,还可以同时处于 0 和 1 之间的 叠加态。也就是说,量子比特可以在多个状态之间共存,而不像经典比特那样只能在 0 和 1 之间二选一。

图片来源: devopedia.org

量子比特还有另外一个特性,那就是量子的另外一个原理,也就是它的纠缠态。它不仅仅是说每一个量子比特是单独的量子比特,而是不同的量子比特之间可以纠缠在一起,同时发生改变。这两个一起发生作用,就产生了跟经典计算机显著的不同。

经典计算机的状态是由比特(bit)组成的,比如一个只有三位比特的经典计算机,它的所有可能状态就是 000、001、010、011、100、101、110、111,总共有 8 种 可能的组合。如果想要进行运算的话,它只能一个一个地去改变每一个位数。如果它要去到这八个不同的状态的话,要进行八次运算。

但量子计算机不同,如果有一个三个量子比特构成的量子计算机,由于叠加原理和纠缠原理,它可以同时存在在这八个状态里面,然后同时对这八个状态进行计算。如果只有三位数的话,他们的差距可能不这么明显,一个要进行八次运算,一个进行一次运算就可以完成。

但是如果比特的数量继续加倍的话,那量子计算机它其实是一个指数增长的过程。如果有四位的话,经典计算机就要进行16次计算才能穷尽16个状态,但是量子计算机还是只需要一次就可以穷尽所有的16次状态,这就是所谓的量子计算机相对于经典计算机的计算来说的话指数的加速过程。

泓君:我可不可以理解成量子计算机非常适合去解决复杂高难度的计算,越难的计算它越有优势。

Jared: 我们可以理解为它的核心优势在于能够在某些特定的问题上实现指数级的加速。量子计算机它不是经典计算机的代替品,就像GPU不能像是完全是CPU的代替品一样。他们两个是共同存在、相互协同的作用。量子计算机特别擅长某些特定问题上实现指数级的加速,像是矩阵运算因数分解、量子化学、模拟和组合优化等领域,它会在这些高复杂度计算的任务中发挥非常重要的作用。

图片来源:popsci.com

泓君:哪些领域会运用到这些高复杂度的计算?如果你们能想象未来量子计算的应用场景,它相比传统计算机,最具优势的场景和问题是什么呢?能不能举一个具体场景的例子。

Jared: 它有几种特殊的算法。有的特殊算法对矩阵运算有特别好的指数级的加速效果,有的运算对因数分解有特别好的加速效果。这个世界本身是量子的,用经典计算机对量子世界进行模拟本身是非常困难的。比如一些化学运算,它本身是量子的,所以用量子计算机进行这方面的运算将会更加容易。我刚才提到的三个例子所对应的其实就非常明显,我们现在所有的人工智能学习,本质上就是矩阵运算。

因式分解的话,能想到的就是Shor算法(Shor's algorithm) 所对应的安全问题、加密问题。现在大部分的加密手段都是通过类似的情况进行加密的,那量子计算对于破解这样的加密就非常有优势。

量子化学模拟很明显就可以想到油气、化工、药物的研发等等,是一个非常直接的作用。

还有一个领域就是量子计算机对组合优化的求解过程是非常的迅速,也有指数级的加速作用。所以说对于一些物流之类的需要优化的内容,这些领域也是非常有帮助的。

泓君:刚刚提到了好几个点,比如说在矩阵运算方面,它对人工智能的加速表现在哪里?比如说有了量子计算机,大家再去训练大模型的时候,它会有特别的优势吗?还是说它只能在一个极小的领域里面,针对某一个特定问题,可能会有一些特定的解法。

Jared: 我理解的是人工智能无论模型是什么,它的本质是矩阵运算。这就回到了根本的问题:为什么GPU比CPU在处理人工智能模型时的速度快这么多?

本质上就是GPU对矩阵运算的速度会比CPU快很多。CPU擅长比较复杂的问题和比较少线程的运算,而矩阵的运算不需要特别复杂和重复的过程,而需要特别多的核心同步运算,这就是GPU的作用。所以在人工智能上,GPU上比CPU上优势更大,就是因为GPU对矩阵运算会比CPU快很多。

像量子计算机中用到了HHL(Harrow-Hassidim-Lloyd)之类的算法,对矩阵的运算也能加速的话,可以类比为人工智能大模型的开发,实现了从CPU到GPU的这样一种跨越式的加速发展。

图片

来源:yanwarfauziaviandi.com

Roger: 量子计算在这个具体的问题上,通过加速矩阵求逆算法相关的算法,可以总体加速整个人工智能学习和inference(推理)的进度。比如说一个模型有1000亿的参数,你用GPU去跑的话,对应的大概是1000亿乘以1000亿的算法复杂度。对于量子计算机来说,就是一个求指数底数的方式,相当于log 1000亿的复杂度。相对来说在处理巨大的模型的时候,它的操作数量会指数级下降,那可以以更少的能量和资源付出计算一个巨型模型。

02 明贬暗捧的英伟达:表面保守预测,暗地快速布局

泓君:量子计算现在到底能不能实现,比如说我们说的训练人工智能,这个能力发展到哪个阶段了?这个问题是由英伟达的创始人黄仁勋在今年的CES上提出来的。我记得他说,如果说十五年内能实现"非常有用"的量子计算,他觉得这个是一个非常偏早的预测;如果说是三十年时间,又可能偏稳,所以他觉得一个合理的区间是在二十年。但是他这个话一说,有一批量子计算股票的股价就纷纷下跌。所以也是想听一下两位,你们怎么去看黄仁勋说的量子计算的实现时间。

图片来源:The Quantum Insider

Roger: 首先黄仁勋在NVIDIA的投资者会议上也被问到了,他正面回答了这个问题, 已经把这个时间说到了远不止二十年了。

因为一旦在这种会议上开始回答这个问题,就意味着投资者会考虑是否要将量子计算在未来十年对公司股价的影响计入定价(price in)。众所周知,华尔街计算股价时会将未来十年的预期增长(assumed growth)和垄断地位(monopoly)计入定价。

所以这对他来说实际上存在利益冲突。如果他表现出量子计算在未来十年可能会对 GPU 产生影响,那么第二天英伟达的股价就会下跌。相比让英伟达股价要跌来说的话,那量子计算的股价跌对他来说是一个非常合理的决定,毕竟坐在哪个位置上回答哪样的问题。

从另一个角度来看,我很尊敬黄仁勋,他确实是位很厉害的人物。但是不要只看他说什么,要看他做什么。英伟达在量子计算领域已经是一条大鱼了,他们也是我们的合作伙伴。他们在各个方面都表现得非常主动,包括我们即将参加的超算会议,我们还要一起做demo。所以整体上来说,这个就代表一个逻辑。

从他“做”的角度来看,我们可以回顾一下历史。CUDA 发布于 2007 年,CUDA DNN 发布于 2014 年,Transformer 发布于 2016 年,GPT-3.5 则是在 2022 年。即使从 CUDA 算起,从英伟达开始布局这个方向到技术完全落地,总共也不过十五年时间。

从逻辑上讲,在 21 世纪的技术发展速度下,如果一项技术还需要十五年才能成熟,那我可能连它一半的发展历程都没听说过。所以任何需要二十年才能实现的技术都不太现实,至少纳斯达克市值前三的公司 CEO 不太可能正面回应这种长期技术,更不用说让公司正式参与其中,这个有点违背逻辑。当然,还是那句话,他做什么比他说什么更重要,因为他“说”什么要考虑二级市场的影响,他自己也有英伟达的股票的利益。

图片

来源:NVIDIA

第三点,他用词非常精准,说的是“very useful quantum computer”,在这个语境下,这可以理解为“Large-scale fault-tolerant quantum computer(大规模容错量子计算机)”,也就是量子计算的最终形态。这有点类似于 AI 领域中我们讨论的 AGI (通用人工智能),是一个非常长远的目标。如果它能够实现,基本上就会重新定义人类文明的下一个阶段,因为我们将能够开发出无数新材料,以及可能出现远超人类能力的人工智能系统。

所以他这个“very useful”的意思就是量子计算彻底站在了当下GPU所处的核心位置,这个的确我个人不认为在十五年之内有比较大的概率能出现。我觉得工业界共识来说,就是Large-scale fault-tolerant quantum computer(大规模容错量子计算机)这种处在垄断阶段的量子计算,可能也要十五年的时间。我觉得他的说法本质上没有偏离他们自己公司内部调研和工业界的公式。他只是把它讲成了一个可能投资者听起来会更加友好的说法。

泓君:是不是可以这样理解:如果量子计算真的实现了,它可能不需要那么多 GPU 就能完成运算,所以对 GPU 和芯片的需求会减少?我想知道这对 NVIDIA 股价的冲击,以及大家是怎么思考这个逻辑的。

Roger:对,NVIDIA 现在将自己定位为“a supercomputer infrastructure company”(超级计算机基础设施公司)。他们认为未来的超级计算(supercomputing)将涵盖 AI、天气预报,以及化学模拟等高复杂度的计算问题。从他们的角度来看,这将是未来的核心业务。但有趣的是,量子计算(Quantum Computing)也是这么说的。

图片

来源:AZoQuantum

但实际上,量子计算在一定程度上确实会侵蚀,或者说参与英伟达在复杂运算领域的市场份额。比如在进行极其复杂的蛋白质反应模拟时,不是像 AlphaFold 那样的预测,而是用第一性原理进行模拟,精准地发现新药。对于这类任务,英伟达去算显然是不现实的。

泓君:对公司来说,成本太高了。

Roger:如果有个中心愿意买100万个NVIDIA未来的GPU芯片去算这个问题,对他们来说股价肯定是好的。但这个时候如果量子计算给到一个预期,说不需要100万个GPU,差不多1万个GPU就能实现这些目标。这个相当于它的市场就得不到了,就是说你的量子计算任务基本上不需要跟GPU分担工作量,就能完整的去处理这些复杂的问题。

所以我觉得黄仁勋把量子计算放到十五年二十年这个时间段,相当于是告诉华尔街不要将未来的不确定性计入当前定价。从 NVIDIA 的角度来看,未来十年计算需求会持续上升,公司的股价应该是水涨船高,这个逻辑是合理的。

在未来十年,量子计算本身也需要 GPU 来做混合量子计算,这也是为什么我们要跟英伟合作。所以,未来十到十五年其实是一个共同存在、共同增长的阶段,并不存在谁取代谁的问题。严格来说,这是一个增量市场的扩展,而不是存量市场里相互争夺份额的竞争。

图片

来源:moneycheck

泓君:你们跟英伟达的合作是什么样的?

Roger:我们更加重视的是产品和技术层面,作为一家硬件公司,我们主要关注两个方向。

首先是利用 GPU 的软件系统和算法来优化量子计算机的芯片设计和量子测控,以及使用 GPU 来优化量子计算机的运行。其次是通过量子计算机结合 GPU 来增强 AI 模型的泛化能力(generalizability),即使用更少的参数(parameters)和数据(data)来训练出具有更强泛化性的 AI 模型。这就是所谓的量子增强 AI (quantum-enhanced AI)路径。

大家也听到有一些非常知名的AI公司,最近也在招募量子机器学习的人才去做相应的开发。其实这也是一个趋势。比如大家听说过的SSI(Safe Super Intelligence),Ilya的那家公司。另一方面,我们和他们的合作当然不是在软件层面,而是更侧重于构建计算平台。

图片

来源:Medium

从另一个角度看,我们与英伟达的合作不在软件层面,而是在构建计算平台。我们将他们的 CUDA Quantum 软件作为胶水,把他们的 GPU 和我们的 QPU (量子处理器)黏合成一个完整的量子计算平台。通过高速直接互联,我们让量子处理器和 GPU 能够进行实时数据交互,从而增强计算能力。在量子计算机运行的同时,还可以提升它在人工智能学习等领域的解决方案。

相当于在这个体系中,我们在英伟达的生态系统中被定位为“quantum backend provider”(量子后端提供商)。他们自称为“GPU and backend provider”(GPU 和后端提供商),所以我们实际上是一种并行关系,同时把它变成一个完整的量子增强计算平台。我们是有自己的量子芯片,有自己完整的量子计算机,只是将我们的量子计算机跟NVIDIA的GPU系统进行了一个互联,然后用他们的软件去协同两边的工作,通过量子硬件去增强GPU在人工智能学习问题中的一些作用。

泓君:你们的芯片是自己造的,还是市场上有专门针对量子计算设计的芯片?

Roger:这个问题很好,我们的芯片是我们自己造的,因为我们自己的独立的设计和专利和制程。但是实际上有公司在卖量子芯片,好不好我不评价。但是基本上美国的公司都是自己造芯片。或者这么说,很多技术要在一个快车道的计算面进行突破,如果你这么早的就给到一些可能并没有那样技术积累的团队去给造芯片,是有点不算明智的。

03 Willow芯片与量子计算的“Transformer时刻”

泓君:你怎么看谷歌新发的Willow芯片?

Roger:他们从2014年一直以来都在向这个方向走,就是公开路线图,实现量子纠错,证明这个可扩展性的情况下去实现黄仁勋口中的“very useful quantum computer”,这是他们一直以来的目标。

为什么大家可能有点困惑,因为不同公司目标不太一样。比如有些公司的目标就是AGI,而有些公司就像OpenAI一样,能发布一个GPT3.5就认为可以了。

所以谷歌推出 Willow 这个芯片,作为 Sycamore 的继任者,从我们的角度来看是个延续性工作。谷歌在 Sycamore 之前的一些demo中发现,无论是规模还是芯片性能,Sycamore 都不足以真正验证量子计算,特别是机遇量子纠错计算的可扩展性。

要证明可扩展性,就意味着 “The more, the better” ,也就是芯片造得越来越大,计算机的可靠性和计算能力应该越强。以前我们的实验发现,当你芯片造得越大,整体性能并不会相应提升,原因是总体错误率也会上升。

所以要把量子计算机做到所谓的“very useful quantum computer”,量子纠错成为了一个至关重要的前置技术。所以Willow相当于是谷歌基于过去十年的发展,终于证明了量子计算加上纠错机制的可扩展性。

图片

来源:谷歌

泓君:Willow芯片是在一个什么样的阶段?开始制造了吗?

Roger:是的,他们也有论文了。他们用的不是全世界最领先的量子比特和保真度,但是加上各种工程提升,让这个芯片做到了能验证量子计算在硬件层面,在实验实现上的一个可扩展性。

这一点我要强调实验的可扩展性。因为量子计算本身能做到复杂超级计算,这个本身不是个问题。从算法层面,从原理层面,大概十几二十年就搞得很清楚了。过去十年谷歌、IBM和整个工业界干了什么事儿呢?就是从实验、物理可实现的设备层面去证明这一点,证明我们真正能做出一个足够理想化的芯片去做到可扩展性,做到大规模运算。所以谷歌 Willow芯片的意义就在于从实际的物理层面把它做出来。

泓君:他会开放给第三方的合作伙伴采购吗?还是他们只自己用。

Roger:谷歌从来都不是个硬件公司,从来都不靠卖硬件。所以他们最早做出的TPU也没有卖,基本上都是自己用。对他们来说,这就是这是一个非常好的验证,能做到就是在十年内做到所谓的“very useful quantum computer”的一个阶段证明。

泓君:那你觉得它的芯片造出来了,会加速整个量子计算的研究吗?

Roger:从加速层面来说的话,肯定会的。但是更多来说就是他们证明了能做出来。这个情况下来说,就能促使他们这个隶属于谷歌 AI的部门获得更多的资源,将芯片做的越来越大,越来越能解决一些实际问题。

所以加速层面不是说用这个芯片加速他们别的发展,而是用这个芯片去作为一个活生生的证明,然后去获得更多的资源,把这个东西扩大到成为一个商业化,或者成为一个“very useful quantum computer”的形态。加速肯定会加速的,因为管理层现在被说服了。

泓君:被说服了什么?就是效果是ok的。

Roger:谷歌 CEO也发了帖子,因为管理层需要看到这个概念得到验证。当你说你可以扩展(scale),那就扩展给我看。现在从谷歌管理层的角度来看,这种可扩展性(scalability)在基础层面已经得到了验证。

这有点类似于 Transformer moment:你证明你的机器学习模型可以扩展,然后通过扩展到足够大的规模,看能不能做出类似 GPT 这样的模型。

图片

来源:medium

泓君:所以Willow芯片相当于量子计算界的Transformer moment。

Roger:对,我这有点拾人牙慧了。因为是有一个投资人问过我,这是不是Transformer moment,我想了想好像有点像。因为的确是谷歌做出了一个活生生的验证,这玩意能扩展(scale),那好的我们就来扩展它。如果从AI的路径上来说的话,实际上我更加乐观地认为就是未来十年以内的事情,我对黄仁勋的这个评价觉得有点过于保守。

泓君:你的估计比黄仁勋的这个估计更乐观, 而且尤其是在谷歌的Willow芯片发布以后,你觉得它对真正实现的非常有用的量子计算,它能够加速到多少年?比如说没有这个芯片跟有了这个芯片的本质区别是什么?

Roger:其实我觉得如果没有这个芯片的话,大家会更加倾向于像黄仁勋的预测,大概十五到二十年。但是有这个活生生的验证后,大家对未来时间线收敛的预测会缩短到十五年以内。当然这个可能也是为什么他会在这个会议上被投资人正式地问到这个问题,因为他们就要开始考虑是不是要将这个事情考虑在股价定价里。

泓君:关于Willow芯片,之前提到它解决的是量子纠错在实验实现的可扩展性。能不能解释一下,它解决了量子计算中哪一个最核心的问题,它的原理是什么?

Jared:我大概谈一下量子纠错的基本原理。我们知道量子计算的使用最大的障碍之一就是噪音。同样也可以用经典计算机来类比量子计算机中的噪音。

所谓的经典计算机也是噪音非常严重的。现在我们正常的使用日常生活中的电子产品、手机、电脑,不会感受到这些噪音,是因为他们在很早以前就有底层的经典领域的纠错算法,已经在硬件和软件的衔接层面把这些噪音或者说错误给纠错了。

图片

来源:Q-CTRL

打个比方,在GPU中,如果有一个1.2伏特的GPU,那理想情况下1.2伏就代表逻辑1,然后0伏就代表逻辑0。但是在实际操作中,由于量产的GPU芯片不可能是完全一样的,每一次运算它所施加的电压也是有一定的不同的。所以说这个电压并不一定一直是1.2伏或者是0伏。不同的晶体管之间,不同的时间,不同的输出会有不同,那计算机的底层就会把一个范围内的误差都算作0或者1。比如说出来一个1伏的电压,那也会被认为是1.2伏,也就是逻辑1,那1.5伏也会归类为逻辑1。这样来说对经典计算机是一个相对比较简单的纠错过程。

但是回到量子计算中,这个就非常不一样了。因为不像经典计算中,它可以达到1伏这样相对来说比较大的一个数值,来方便进行纠错。量子比特的能量是非常小的,像我们所用的超导系统中,它只有一个光子的能量。量子比特非常脆弱,也极易受到环境的干扰和内部误差的影响,从而导致量子信息的丢失。

还有一些跟经典比特之间的对比的例子,比如说经典比特只会出现0或者1的翻转错误。而量子比特像之前描述的,它其实是一个叠加的状态,不仅仅包括0和1的翻转,它可能还会包括一些相位上的偏移的错误。这也会对计算结果或者计算过程造成噪音的影响。

由于量子比特有纠缠的特性,所以它不可以像经典计算中每个比特可以单独拎出来进行纠错。如果要对量子集团进行纠错,需要对所有纠缠在一起的量子比特统一进行纠错。这也就是为什么量子纠错会被认为是实现量子计算,然后推动量子计算真正走向实用化的一个核心技术。

泓君:所以谷歌的Willow芯片是极大地解决了这个问题。

Jared:我认为Willow用现在最主流的一个量子纠错的方案,这个纠错的方案叫做表面码,也是源自于加州理工的量子纠错的技术。通过利用表面码的纠错码和比较优化的量子硬件,谷歌向世界证明了我们可以用这种方法,用这条以前已经规划好的路线继续走下去。

只要是按照这个路线继续走下去,我们就能逐渐扩大量子计算机的规模和运算能力,而同时不会使错误率随着规模的更大而变得更加的严重,反而是随着规模的更加扩大,它的错误率反而是下降的,也就是说计算能力整体是提升的。按照我们这条路线继续走下去,最终我们是可以实现像刚才描述的非常有用的量子计算。也就是我们业内人士叫的叫做完全纠错的量子计算机。

04 科技巨头的路径之争

泓君:大家觉得谷歌有了这个芯片以后——刚刚你们也提到了,其实你们之前也是跟亚马逊有过这样的工作交集——它会对其他做量子计算的公司形成显著优势吗?比如说 IBM、微软、亚马逊、英特尔,还有一些创新型公司如 D-Wave、IonQ 和 Rigetti。

Roger:从这个层面来说,谷歌其实是一个很好的公司。为什么呢?因为他们首先有愿景,愿意花费早期的时间和精力,像发明Transformer那样,给大家证明这个大方向是对的,然后大家就可以沿着这个路子走下去,相当于扫清了很多不确定性。

我们可以看一下其他大公司的回应。比如说IBM以前从来没有把量子纠错放在他们的路线图里面,至少没有明确放过,但在前几个月却放上去了。因为谷歌这个东西也不是立刻出来的,说实话我们内部早就能看到论文了,因为这些都是需要同行评议的,大家都能看到。

泓君:所以论文它只要发出来,它就开源了,大家可能都知道这个方法了。

Roger:首先,谷歌的路线图一直是明牌。他们要通过scale和量子纠错算法来实现目标。这个算法来自于Caltech,叫做表面码(surface code),是由Caltech的Alexei Kitaev发明的纠错算法。

硬件公司与软件公司有一个很大的不同点:在硬件领域,我可以把物理过程(physical process)这个大方向指清楚,因为具体的物理实现在哪里都是一样的,这样大家就可以根据这个大方向去努力。IBM之所以不放弃,是因为它认为量子纠错的实现时间线会拉得更长。它认为通过暴力增加量子比特数量的方式,能够更早地实现商业价值,或者实现所谓的"very useful quantum computer"。

换一个角度来说,为什么IBM作为这个行业最早的参与者,在这方面反而显得有点保守?这是因为大公司往往倾向于更保守,更坚定地遵循其早期路线图。IBM之前更多地在思考如何用现有的、不需要纠错的技术就能做出有用的应用,这是它的路径。所以它不停地在探索商业化途径 - 虽然在做技术,但也在做商业化。相比之下,谷歌完全不做商业化,专门去做纠错。

图片

来源:Quantum Zeigeist

IBM的策略已经经历了几次演变。现在大家都知道,IBM认为量子纠错是可行的,因为这方面的改进是可以实现的。而且关键是谷歌的团队比IBM的人员要少得多。所以IBM就一直在做这些事情。作为行业先锋,有时候年轻企业反而比它更有效率。比如另外一家大公司(因为这是非公开信息,我就不具体说是哪家),也在把自己的路线图转向量子纠错,要对标谷歌。一看到其他大公司取得突破,他们也想突然倒戈,转向这个方向。因为他们以前认为可能要很晚才能做出东西,但现在做的反而是最早的。

D-wave 有点难,因为他们的路径一直是做量子退火计算,这就意味着他们的路径是跟量子纠错完全是背道而驰的。但是也有历史原因,为什么D-wave是最早的纯量子计算公司?说实话,在那个年代大家认为可编程通用计算机是不存在的,所谓的数字计算机是不存在的,或者很难造出来的。

所以他们的公司创始初衷就是通过简单易实现的退火量子计算去做专一化的量子计算机,它不能被用来编程来做所谓的量子纠错,也不能通过编程去做通用量子算法。但是他们认为通过做专业化的量子计算机可以更早的实现商业化价值。现在回头看,这是一个错误的选择。

泓君:你不认可这条路线?那他们现在有转变吗?

Roger:他们公司的创始到现在都是走量子退火方向,所以他们要转变也是要有过程的,相当于要彻底换方向了。我不是完全不认可,他们也许能找到很多使用案例,但是会发现之前认为很难实现的量子计算的路径,反而现在可能更早实现,而且关键实现之后的影响还更大。

图片

来源:Scientific American

泓君:所以纠错现在看起来是一个比较主流,更受大家认可的方向?

Roger:对,因为已经做出来了,活生生的例子也摆在那里了。就像黄仁勋或者说很多人说张口闭口就是什么要十五年、二十年、三十年。但是大家仔细想一想,有什么技术人类开发了十几、二十年,或者说到现在这个阶段还要开发十几二十年的?

泓君:可控核聚变?

Roger:可控核聚变它本质上并不完全是个技术实验问题。因为想当年人类做核物理,从证明做出了第一个裂变反应,就真的只是做了一个实验室的很小规模,裂变反应是分下来几个原子弹的规模,到最后产生一个两代产品直接“落地”,字面意义的“落地”,用了三年的时间,再跨越一个世代,用了可能不到十年的时间。

所以实际上会发现可控核聚变,本质上它在市场需求上并不是那么迫切,因为人类有大量的可裂变反应堆可以用。说白了一定要用的话,还有氢弹可以用,其实也是可以发电的,苏联有相关的方案。如果要实现可控核聚变的话,那是一个非常优雅且非常理想的目标。但是坦率来说,ROI可能还没有把第一遍做大点高,就人类现在的能量需求的话。所以我觉得如果还要几十年的话,这种技术大概率已经前置成熟了。

比如说核聚变,已经有氢弹了,所以聚变这个反应其实已经落地了,它相当于是第二代或者更先进的改进过程。如果是量子计算,我们谈的更多是第一代落地的本身。我觉得并不存在有这样的技术是还要十几二十年去做出来的。

图片

来源:ResearchGate

泓君:亚马逊现在的路线是怎么样的?

Roger:他们做的是一种比较新颖的超导量子比特来进行scale。

所有大公司都做超导量子比特,包括谷歌、IBM、亚马逊,只是不同的超导量子比特。从公开信息来说,亚马逊做的是一种比较新的超导量子比特,叫Cat Qubit(猫量子比特), 但是谷歌显然是产生了(更大的)影响。

泓君:微软呢?

Roger:微软当年觉得量子计算很遥远,他们其实开始的很早,应该不比谷歌晚,但是他们走的一个是叫拓扑量子比特的路子,就是一个完全到现在为止都没有能证明的东西,他们八成已经放弃了。

所以他们现在更多的是想去做跟别的量子计算公司进行深度合作。比如说他们现在之前跟Honeywell的分拆公司叫做Quantinuum合作了所谓的逻辑量子比特计算。最近又跟UC Berkeley的一个分拆公司做基于原子的逻辑量子比特计算。

图片来源:Advanced Television

微软其实一开始也很像谷歌一样重视容错量子计算,谷歌其实更保守。谷歌为什么选超导量子的路线?因为这个工程上早就被证明,你可以真的是把芯片造出来能用。所以说从公司层面上来说的话,实际上你只需要对它进行所谓的工程优化,就可以慢慢去产出成果。

至于快和慢,很多时候跟你的投入和市场需求有直接挂钩的关系。就像刚刚说的曼哈顿计划的例子,市场有巨大的需求,那这三年就能交付了。如果市场需求需要等待时机或者证明商业上的合理性的话,那就可能会拖得长一点。但是总体上来说,用超导路径你是可以直接把它给预期做出来的。微软当时就觉得这条路子可能都要走个十几二十年。

就像我说的,最早是大家的对未来的估算都容易有分歧,很容易就会说三十年之后,所以他们选了一个叫拓扑量子比特,这种拓扑比特的好处就是上来就容错。他也对应的开发了很多软件,算是比较早的量子软件开发公司。

现在硬件废了之后,他们就把软件跟别的量子计算公司进行合作,在别的量子硬件上的运行逻辑量子比特。所以实际上它跟谷歌很像,也很重视所谓的容错量子计算。只是最后实现路径的时候,谷歌其实选择一条硬件上更能证实的方式去软硬结合的去做这个事情。而微软因为决策上的一些失误,所以现在只有软件了,跟硬件公司合作。

泓君:所以整个过程大家对技术方向的把控还是需要一些关键决策的。还有几家创业公司呢?比如说IonQ?

Roger:IonQ的路径主要是离子阱。离子阱路径其实曾经很长一段时间,甚至在10年以前,被认为是比超导更有前景的路径。因为基于离子阱的量子实验其实是人类最早的量子实验,拿了不少诺贝尔奖。

超导在很长的时间,在2007年—09年之前被认为是一个非常差的平台。因为当时实验上做出来量子比特都非常差。大概在2009年,耶鲁的研究员开始把量子比特做得越来越好了。然后到了2014年的时候,可以到了纠错的阈值,也是谷歌参加的一个时间点。

IonQ他们路径为什么最好呢?因为这套量子体系是历史最久的,在小规模量的体系里面是最好的操纵的,可动性很强。所以说他们当时的路径就认为离子阱这个路线可能会更早的实现所谓的商业落地和“very useful quantum computer”。但是事实来说,他们公司从创始到上市到现在,量子比特的数量可能就翻了一个倍。

图片

来源: IonQ

泓君:现在是多少个量子比特?

Roger:他们2017年创始的时候,因为是学校出来的,所以从大学实验室搬的那套就有11个量子比特可以相互纠缠和计算了,当年发了很多论文,其实都还不错的工作。但是后来发现离子阱这个路径,当你要超越11个量子比特的时候,工程上面有巨大量的科学调整。一个是工程挑战大家都很大,但是你可以一步一步去实现它,一个是有科学挑战。

泓君:科学挑战会更难,它需要依靠基础的突破。

Roger:就是有更多的不确定性在里面,你需要有更多的创新去驱动他们。

泓君:所以你刚刚说他们翻了一个倍,现在是22个量子比特。

Roger:差不多,在二十多个到三十个之间。

泓君:现在业界最多的是多少个量子比特?

Roger:离子阱最多的应该是Honeywell的32个。但是现在的问题变成了当你的量子比特变多的情况下,其实他们的一个取舍就是现离子阱的性能越来越接近超导了。量子比特变多,它的运行性能,比如说保真度这些指标越来越接近超导了,应该说是超导越来越接近他们。导致一个很有趣的一个跨界,就是以前认为超导不可能做到保真度大于99.9的,现在能做到了。

图片

来源:Honeywell

技术发展其实是一个很有趣的过程,你会发现弯道超车在技术发展早期并不存在可能性。就像AI,怎么从Transformer去到GPT,你不能为了避免用Transformer换一个完全不一样的架构去试错,对吧?很多人以为自己可以弯道超车的例子,反而翻车了。

泓君:这就是“弯道翻车”。

Roger:所以说IonQ的问题在于没有一个清晰的路线去做到现在超导这种scale。他们会说我们有路线图了,但是我们需要看到实际的展示。

泓君:Regetti呢?

Roger:Regetti这个公司很传奇,Regetti本人就是当年在耶鲁把第一个超导比特量子能做出来的人,就是他的毕业论文。然后他把这套带到IBM,所以IBM最早的路径图就是根据他的那一套架构起来的。他后来自己开公司,反正各种原因,他的公司的超导比特的一些小细节也变了。


图片来源:Regetti

Regetti我觉得其实在量子公司创业里面算是前辈了,先驱。但是因为可能有点太早了,他2013年创建。比如你在Transformer之前创建一个AI公司,你可能会变成先驱,可能后面你就会没办法去用最新的技术,最新的信息去做更明智的决定。Regetti整个公司的不论技术层面还是商业层面,其实都现在有点落后,他们CEO现在也退休了。

05 后量子时代的密码学:银行与科技巨头布局新一代加密技术

泓君:今年VC投量子计算,你们有感受到这个市场有在变热,钱在大批的往里面涌吗?

Roger:我觉得现在来说,因为降息也是一个相对近期的时间,并没有明显感觉到传统VC的投资变多。

泓君:那什么样的投资变多?

Roger:战略VC和国家主权VC。比如说John Martinis,就以前谷歌的量子计算的负责人,他的新公司叫Qolab。他这个公司就在去年拿到了1600万美元,从日本的发展银行还有一些别的机构拿的钱。

图片

来源:Qolab

现在处在敏感阶段的三个行业,先进半导体、AI量子。我们可以总结说,先进半导体是一个非常传奇的过去,然后AI是个非常蓬勃的当下,量子计算是不可避免的未来。在一个加息周期里,政府会对这个不可避免的未来更感兴趣。但随着减息周期的开始,我觉得VC对于整个行业会更加关注,特别是Willow的出现,就看下一个加息周期持续到什么时候了。

泓君:你刚刚提到的这家公司就是日本发展银行有投到他们,我理解是不是量子计算如果实现了,它对整个全球的密码系统会要求有一个整体的密码系统的升级,需要在安全层面上有一些布局?

Roger:这个已经开始了,两年前拜登的有个行政命令要求所有联邦机构将自己的加密数改成所谓的抗量子加密。国家标准制定局大概在去年的时候定下了三个标准,进行抗量子加密,所以实际上两三年前就开始了。

去年2月份的时候,新加坡金管局建议所有新加坡的金融机构采用抗量子加密和QKD(量子密钥分发),让应用数据不被泄露出去。这个逻辑其实也是涉及到刚才大家说时间线的问题。为什么从两年前金管局,也就就是新加坡央行,都在做这个事情呢?汇丰其实已经在英国做过抗量子加密和安全通讯的试点网络了。很多银行也在做,像摩根大通, Chase,他们也算是这个领域里面非常大条鱼,他们有活跃的抗量子加密和量子通讯的基础设施和项目发展,都是公开的信息。

图片

来源:The Hill

泓君:所以抗量子算法的密码学也是在蓬勃发展。

Roger:其实这些东西很有趣的。之前说政府在主导,这个可以理解。从去年开始是金融界在这方面的进步非常大的,基本上你听过的银行都有这方面的独立项目和共同项目,甚至央行。所以回到刚才的问题,我觉得很多人就是不要看他说什么,要看他做什么。如果可以破解加密数的量子计算机还有十到十五年出来。为什么现在大家这么急着去改变自己的基础设施。

泓君:所以你觉得量子计算什么时候可以破解银行的密码呢?因为就是在谷歌Willow芯片发布的那一天,我观察了一下比特币的价格是大跌的。其实市场上已经很广泛且很长时间就流行一种说法,量子计算是非常容易去破解比特币的算法的。

因为比特币的算法其实分成两部分,一部分是它挖矿的机制的算法,还有一部分就是它的椭圆曲线签名。在这两部分的算法里面,据说椭圆曲线的签名它是最容易被破解的,甚至它比破解传统银行系统的密码还要更容易。你们理解是这个样子吗?

图片

来源:Screen Rant

Jared:对,比特币确实是分两种加密系统。这里就要提到一种刚才已经聊到的算法,Shor算法。

它是一种专门针对大数分解和离散对数问题的一种量子算法,可以在以多项式时间内破解这个椭圆曲线签名。这种针对的不仅仅是比特币系统,而是针对所有的公钥是公开的加密系统,都会相对轻易地被这个Shor算法所攻破。

这与银行系统不同,银行系统它是没有公开的密钥的,银行系统的密钥它本身也是机密信息,不会暴露在外。但是比特币用户的钱包的公钥是公开的,在链上可查的。任何人都可以通过区块链网络去访问这些公钥。

所以说没有量子计算机的时代,你拿到公钥是绝对不可能算出,也不能说绝对不可能,是一个非常大的成本,可能几万年才能算得出私钥。但是有了量子计算机和Shor算法的情况下,在量子计算机有足够能力的情况下,拿到公钥之后算出私钥是一个非常可行的过程。

泓君:多少量子比特才能破解?有人说需要4000个,但是其实我们现在离4000个量子比特还是有很远的距离的。

Roger:这一点我先更正一下,不管是4000个、3000个比特数量,Shor算法要求的是你的量子比特是没有错误的,就是完全容错量子计算机。你要有一个4000个量子比特,所谓大规模容错量子计算机去跑。所以这个就是黄仁勋那个“very useful quantum computer”。

按照他的预测是在大概在十五年之后,你看大家的动作来说显然不是了,毕竟当这个东西已经开始威胁到自己的钱包的时候,大家的敏感度就变高了。所以我觉得能破解到加密数的这个量子计算机,就是所谓的大规模容错量子计算机的出现,可能还是要十年之后。而很多机构和公司,特别是银行,还有比特币,现在已经自己配置了这套加密数了。原因在于,万一呢?

因为这个不是说一个绝对的,这是一个估计,对吧?就好像GPT Moment,说实话在2022年初的时候,2021年的时候,大家不知道这个进展,当时的普遍认为就是像GPT这种能通过图灵测试的AI还要8到10年的时间,实际上也就几个月的时间。

所以说实际上经过这趟之后,很多人意识到技术突破,有点像技术爆炸,你无法预测它什么时候发现,我只能说我合理推测的10年左右会出来。但是如果五年之后出来,甚至是明年出来,我不会极端的惊讶。没有物理规律说不可能,这个本质上是工程学问题。

泓君:你刚刚提到了可能实现的完全容错的量子计算机,它出现的时间可能是快速的,它不是匀速的,我可不可以理解成现在就变成一场竞赛了,看谁先出来。如果说有这么强的量子计算先实现了,那就会对还没有来得及升级的这些密码系统造成非常大的威胁。另外一端就是大家在抗量子密码学的改善上,大家有很多的升级,那它可能是一个非常平缓的过渡。

Roger:首先密码学的替换,这个相对来说比较简单。抗量子加密数本身是个加密机制的一个替换,这个很大程度上是个软件升级问题,或者是一个硬件的替换问题。比如说你要用高速加密的话,你可能需要一个单独的硬件。但这个包括去年国家标准制定局制定了三个标准抗量子加密算法之后,实际上大家商业化程度角度来讲,你就去符合标准去配置就好了。你会看到像汇丰银行其实去年也发布了他们的crypto,在香港发布的。那个crypto还带了抗量子加密。


来源:HSBC

抗量子加密这个东西,本身并不是一个很慢的过程,你得去做。更复杂的反而是像那个通讯,叫QKD,很多银行也在做QKD,完全不依靠你的加密数本身抗量子加密,而是靠物理层面的格局,这个也是一条路子。

但这个更慢一些,因为它毕竟涉及到光纤网络这些东西。但是很多银行其实也自己在推,甚至我们接触的一个银行合作伙伴,他们说现在很有趣的情况是银行再去要求这些通讯公司,像AT&T去部署,叫光纤QKD网络,来帮助他们在华尔街可以进行安全的通讯。

这个还是挺有趣的。反而是银行倒逼通讯公司做这个事情,因为通讯公司干不出来,大银行也是自己在搞。所以说实际上我不是很担心因为解密的能力的提升导致所谓的金融体系或者虚拟货币体系的崩溃,从技术层面上我不觉得。三体有句话说的很好:“傲慢才是最大的问题。”

泓君:还有“我消灭你,与你无关。”

Roger:我觉得现在大家都搭建得很好,包括银行金融机构,你以为它很傲慢,但他们其实反而是想打安全牌。所以说实际上我觉得包括像加密货币,他们其实也可以再迭代他们的加密方法,是让他们的更加安全。这个我觉得是可以做到的,这不是一个“火箭科学”(Rocket science)的问题。

现在处在一个很有趣的阶段,就像很多大公司和国家都在想,肯定有地方可以攫取第一笔红利。与其别人得到,不如我去得到。所以就给我们这边带来了比较大的一个契机。我们可以给大公司和一些基础设施发展项目计算进行配套量子计算设备或者说增加一些设备,就是我们本质上变成了一个服务器供应商,这一点其实也是我们目前客户的主要的角度。我们最大的收入来自于向这些数据中心提供我们的量子计算机。

泓君:对于普通人而言,量子计算它会去影响普通人的日常生活吗?还是说它其实只是会在高精尖的领域里面去默默运转?

Roger:这个东西就有点像计算机早期诞生的时候,它会服务的是什么呢?就是一个大型跨国机构,或者说甚至是一个国家政府的基础设施的需求。它提供的是更多的后台的需求,为比如说未来的能服务于普通人的化学产品,或者金融产品,或者AI产品提供助力。

有点像GPU。GPU其实很多年以来都是这些游戏玩家在玩,有段时间是给挖矿,现在GPU才慢慢进入到所谓的无论玩不玩游戏,你都得跟我打交道的阶段,但是也是从数据中心的角度来服务大众的。

我觉得量子计算也会经历这样的过程,我们会先去服务一些比较特定的高价值客户,像计算机早期一样、基础设施项目、大型机构,然后通过他们去间接服务普通人。但随着根据老黄的“very useful quantum computer”出现在那个年代,其实不光意味着量子计算机可能到了一个完整的形态。甚至我觉得在那个年代这个产业链更加成熟,生产效率也更高,所以这个成本也会变得越来越低。

图片

来源:the Atlantic

计算机早期很贵的,IBM是最早做计算机产品的公司,造出了Watson计算机,当时的IBM公司主席经典的误判就是说全世界只需要5台计算机。因为他数了数,需要计算机的就是政府、军队、银行,后来发现明显误判了,因为有更多人去用了,发现更多的用途了,就会有更多需求,更多的需求驱动了更多的产量,更多的产量会让成本下降。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

反馈
联系我们
推荐订阅