所有计算机都存在出错的可能性——对于普通的计算机芯片来说,由于其以只能表示0或1的位(Bit)来存储信息,并能够将一些信息复制到冗余的“纠错”位中,因此当错误发生时,芯片可以发现并自动解决问题,这一般也被解释为纠错技术。
不过,量子计算机却无法做到这一点,量子计算机是在量子比特上运算,量子比特可以被设置为0、1,或者同时设置为0和1的任意混合,比如30%的0和70%的1。这意味着量子比特不能被读出,否则它的量子状态将会丢失。因此,量子计算机不能像普通计算机那样,简单地将部分信息复制到冗余量子比特上。
同时,量子计算机更容易受物理系统背景“噪声”(或干扰)影响而出现错误,因而构建大型可靠的量子计算机离不开量子纠错。
然而,谷歌科学家证明,通过增加量子比特的数量,就能降低量子计算的错误率。这是谷歌量子人工智能(Quantum AI)研究团队通往实用量子计算机的第二个里程碑。研究成果登上最新一期《Nature》。
这是继2019年谷歌量子计算机实现“量子霸权”后的又一成果。当时这家科技巨头表示,其 Sycamore 机器在 200 秒内执行了一项计算,而传统超级计算机需要 10,000 年才能完成。
谷歌量子AI团 队(Google Quantum AI)的研究人员使用包含72个量子位的芯片,结果显示,在72个量子位的超导量子处理器上:
distance-5逻辑量子位(基于49个物理量子比特),每周期的逻辑错误为2.914%。
distance-3逻辑量子位(基于17个物理量子比特),每周期的逻辑错误为3.028%。
可以发现前者的量子比特多了,但是错误率却降低了。谷歌量子计算部门负责人表示,尽管他们的方法只能将错误率降低一点,但这意味着谷歌已经突破了“平衡点”。
研究人员指出,尽管需要更多研究才能实现有效计算所需的逻辑错误率,但这项工作展示了未来开发更高效量子纠错技术的基本思路。
2023-03-14 08:38:05
海森大数据