在与Google、IBM的一场关于建立量子计算系统的马拉松比赛中,英特尔通过了一个关键的里程碑。近日,这个科技巨头已经推出了一个49个量子位的超导量子测试芯片——足够的量子使得量子计算开始突破现代经典计算机的限制。
英特尔首席执行官Brian Krzanich在拉斯维加斯举行的2018年消费电子展(CES)上发表了主题演讲,宣布了代号为“Tangle Lake”的新型49-qubit超导量子芯片的设计和制造。这是Google和IBM研究人员所共同瞄准的一个里程碑,因为当量子计算可以超越经典计算时,它可能标志着迎来了所谓的“量子时代”。
但是,英特尔实验室公司副总裁兼董事总经理Michael Mayberry选择用不同的说法来描述量子优势。他说:“从科学的角度来看,50个左右的量子位是一个有趣的分界点,因为此时你已经达到了无法完全预测或模拟芯片量子行为的程度。”
在这场量子计算马拉松比赛里,Intel的这个最新宣布让英特尔跻身于该领域的顶级公司行列之中。 IBM的研究人员宣布,他们已经在2017年11月建立了一个50-qubit的量子芯片原型。同样,Google之前曾经谈到了在去年年底之前实现了49-qubit超导量子芯片的雄心。
在人们意识到利用量子比特可同时代表多个信息状态的特性所能带来商业前景之前,仍有漫长的路要走。英特尔的路线图表明,研究人员可以在五到七年内实现1,000-qubit系统。这听起来很多,但当你知道许多专家认为量子计算机至少需要一百万个量子位才能从商业角度变得有用之后就不会怎么想了。
然而,实际的量子计算也需要比以往更大的量子比特阵列。一个重要的步骤涉及实施“表面编码”误差校正,可以检测和纠正个别量子位的脆弱量子态的破坏。另一个步骤涉及如何将软件算法映射到量子计算硬件。第三个关键问题涉及设计必要的本地电子布局来控制单个量子位并读出量子计算结果。
英特尔的7比特,17比特和49比特的芯片。
这里显示的是英特尔的7比特,17比特和49比特的芯片。
49-qubit的Tangle Lake芯片建立在科技巨头之前的17-qubit阵列的基础之上,该阵列具有进行表面代码纠错所需的最小量子比特数。英特尔还开发了封装以防止射频干扰量子比特,并使用所谓的倒装芯片技术,使更小和更密集的连接获取芯片上的信号。 “我们专注于一个系统,而不仅仅是一个更大的量子比特,”Mayberry解释说。
超导量子体系结构涉及超导金属环路,其需要约20毫((-273℃)的极低温度。英特尔的一个“延伸目标”是提高未来系统的运行温度。
总的来说,英特尔一直在对可能导致实际量子计算的不同路劲进行“对冲赌注”。这家科技巨头与QuTech以及其他许多小公司建立了合作关系,为量子计算构建和测试不同的硬件或软硬件配置。该公司还将量子计算投资在超导量子比特架构和基于硅中自旋量子比特的另一架构之间平均分配。
通常这种自旋量子比特比超导量子比特更小,并且可能以类似于英特尔和其他芯片制造商制造传统计算机晶体管的方式制造。即使在超导量子比特的发展超过自旋量子比特的情况下,这也转化为可扩大到数千或数百万量子比特的潜在巨大优势。在后一个方面,英特尔已经找到了如何根据制造300毫米硅片的工艺来制造自旋量子比特。
英特尔的神经形态研究芯片Loihi。
英特尔一直在测试其神经形态研究芯片Loihi,于2017年10月首次发布。
除量子计算之外,英特尔在开发神经形态计算方面也取得了稳定的进展,目的是模仿生物大脑如何工作。在2018年CES会议期间,英特尔首席执行官Krzanich提供了该公司神经形态研究芯片Loihi的最新信息,该芯片于2017年10月首次亮相。这种芯片可以为支持现代人工智能研究的深度学习算法提供专用硬件。
Mayberry说Loihi是要将深度学习训练和芯片推理相结合,据推测能够以更高的能效实现更快的计算。 这可能是一个大问题,因为深度学习算法通常需要一段时间来训练新的数据集,并从过程中作出新的推论。
英特尔研究人员最近一直在测试Loihi芯片,通过在几秒钟内识别一小组对象的任务进行训练。 Mayberry说,该公司尚未将神经晶片的功能推向极限。 不过,如果客户可以在Loihi芯片上运行他们的
应用程序,而不需要额外的硬件修改,他预计神经形态计算产品可能会在2到4年内投放于市场。
Mayberry说:“量子和神经形态计算都不能取代通用计算。 “但他们可以加强它。”(爱吧机器人网原创编译,禁止转载)