二、先进计算技术
2020年,各国进一步深化超级计算机、量子计算机研究。在超级计算机、量子计算机性能不断提升的同时,高性能计算机网络化成为新的发展趋势。
(一)超级计算机
超级计算机仍符合冯·诺伊曼架构(Von Neumann Architecture),其基本架构与个人计算机基本相同,但计算能力和规模远超个人计算机。超级计算机具有极大的数据存储容量和极快的数据处理速度,因此可以完成普通计算机无法处理的复杂工作。2020年,各国持续研发超级计算机,提升其性能,深化其在不同领域的应用。
1. 美国芝加哥大学使用超级计算机模拟61比特量子计算
2020年1月,美国芝加哥大学(The University of Chicago,UChicago)的研究人员使用具有数据压缩功能的超级计算机成功模拟了61比特量子计算。在使用超级计算机对量子计算进行模拟时,计算机内存需求会随量子比特数的增加而呈爆炸式增长,而现有的硬件水平限制了可运行的模拟规模。芝加哥大学的研究人员借助数据压缩技术,成功在超级计算机中模拟了基于格罗夫算法的61比特量子计算,拟合误差仅为0.4%。该研究进展对于推进量子计算机开发有积极意义。
2. 俄罗斯拟建立超级计算机网络
2020年2月,俄罗斯宣布计划在其境内建设多台新型超级计算机,以改善俄罗斯超级计算机研制水平落后于中国和美国的现状。俄罗斯总统普京表示,俄罗斯计划扩大由超级计算机和数据中心组成的高科技网络的规模,且该网络将不再局限于首都莫斯科。俄罗斯将以“两级体系”建立起超级计算机网络,以增加其容量,并在各中心之间建立通信系统,实现资源的合理分配。
3. 英伟达公司与美国佛罗里达大学联合开发人工智能超级计算机
2020年7月,英伟达公司宣布将与美国佛罗里达大学(The University of Florida,UFL)联合开发人工智能超级计算机。英伟达公司、佛罗里达大学和毕业于佛罗里达大学的英伟达公司的联合创始人克里斯·马拉科夫斯基将共同出资7000万美元,对佛罗里达大学现有的超级计算机进行升级,使其成为学术领域最快的人工智能超级计算机。同时,英伟达公司还将为这一计划提供硬件、软件、培训和服务。
4. 欧盟拟投资80亿欧元开发超级计算机
2020年9月,欧盟通过欧洲高性能计算机(EuroHPC)项目联合承诺书,拟投资80亿欧元研发新一代超级计算机。EuroHPC项目是一项从2021年启动并持续13年的长期计划,其中最重要的一部分是通过欧洲处理器计划(European Processor Initiative,EPI)开发计算机芯片,由欧洲公司主导研发,而不是简单地采购美国公司的产品。EPI也不仅推出一款产品,而是有多代产品规划。其中,法国SiPearl公司基于ARM公司的Neoverse架构研发的Rhea处理器芯片已经曝光,该芯片基于台积电7nm工艺生产,并支持4~6通道的DDR5内存。
5. 美国Cerebras CS-1超级计算机采用晶圆级芯片实现超高性能
2020年11月,美国Cerebras公司与美国国家能源技术实验室(National Energy Technology Laboratory,NETL)的研究人员合作开发出超级计算机Cerebras CS-1,其运行速度比美国超级计算机Joule快200倍。Cerebras CS-1基于Cerebras公司开发的晶圆级芯片打造,该芯片具有1.2万亿个晶体管,尺寸为72平方英寸,是世界上现有最大的芯片,其单片尺寸约为一般处理器的60倍。这种芯片可以提供远超处理器集群的性能,因为多个处理器之间存在一定的通信延迟。在实际测试中,Cerebras CS-1系统可在数分钟内完成以前需要花费数月时间才能完成的人工智能神经网络训练。目前,Cerebras公司已经开始向全球客户交付Cerebras CS-1系统,这些系统将用于显著提升药物设计和天文学等多个领域的前沿人工智能应用的性能。
(二)量子计算
量子计算机遵循量子力学的原理运行,通过量子态的粒子进行运算。相比于传统架构的计算机,量子计算机在计算能力上拥有无法比拟的优势。20世纪80年代以来,经过几次发展浪潮,量子计算重归公众与学术界视野,成为新一轮的研究热门。自2019年谷歌公司宣布“量子优越性”以来,各国竞相开发多量子比特数、高容错率的量子计算机,以期实现通过使用量子计算解决传统架构计算机难以完成的复杂任务。
1. 美国费米国家加速器实验室开发出适用于量子计算的超导射频腔体
2020年2月,美国费米国家加速器实验室(Fermilab)的研究人员开发出适用于量子计算的超导射频腔体,该腔体仅为手掌大小,可在短时间内将粒子加速至极高的速度以用于量子计算研究。研究人员在阿贡国家实验室的高性能计算机上进行仿真实验,从而预测该腔体的性能,以便改进设计,提高该腔体在量子计算机开发中的作用。
2. 国际联合研究团队取得容错量子计算新突破
2020年4月,麻省理工学院、加州大学河滨分校(University of California,Riverside,UC Riverside)、香港科技大学(The Hong Kong University of Science and Technology,HKUST)和印度理工学院(Indian Institute of Technology,IIT)的研究人员首次在金属材料金中观察到马约拉纳费米子(Majorana Fermion),该发现将推进容错量子计算的研究。马约拉纳费米子是一种特殊的粒子,其反粒子与自身的特性完全相同,可用于创建量子计算中的稳定比特。同时,该粒子还使在固体中实现拓扑量子计算成为可能。本次在金材料中发现的马约拉纳费米子,适用于标准的纳米制造技术,可用于容错量子计算机的量子位构建块。该研究成果为量子计算机性能的提升进一步铺平了道路。
3. 美国研究人员开发出新的量子计算控制方法
2020年4月,美国艾姆斯实验室(Ames Laboratory)、布鲁克海文国家实验室(Brookhaven National Laboratory,BNL)和阿拉巴马大学伯明翰分校(The University of Alabama at Birmingham,UAB)的研究人员发现了狄拉克半金属中的光致开关机制。该机制为拓扑材料中电子和原子的运动控制建立了一种新方法,这将使拓扑晶体管和光量子计算机成为可能。借助新的方法,研究人员可通过光线控制狄拉克半金属中的量子态,相比基于电场、磁场和应变场控制的调谐方法,其调谐速率更快,且能耗更低,有利于开发量子计算策略和高速、低能耗的电子产品。
4. 美国研究人员证明室温下量子计算的可行性
2020年5月,美国陆军研究实验室与麻省理工学院的研究人员合作证明了室温下量子计算的可行性。研究人员通过计算机模拟证明,可在非线性光学晶体中制造出空腔并将光子暂时捕获在其内部,以此建立量子位,并用晶体腔是否带有光子表示不同的量子态,进而创建量子逻辑门。这一研究成果表明,结合非线性光学晶体的光子电路已成为目前在室温下使用固态系统进行量子计算最具可能性的方法。研究人员预计,该技术的成功演示还需要约10年的持续研究。
5. 瑞士苏黎世联邦理工学院开发出首套直观的量子编程语言
2020年6月,瑞士苏黎世联邦理工学院(Swiss Federal Institute of Technology Zurich,ETH)的研究人员开发出首套直观的量子编程语言Silq,该语言允许开发者像传统计算机一样简单、可靠且安全地对量子计算机进行编程。Silq语言并未围绕硬件的结构和功能来开发,其主要目标是帮助开发者专注于任务,而不必理解量子计算机体系结构和系统实现的每个细节。研究人员表示,与现有语言相比,Silq语言更紧凑、更快、更直观且更易于理解,能使开发者更好地挖掘量子计算机的潜力。
6. 美国麻省理工学院提出一种可同时用于量子计算和量子通信的架构
2020年7月,美国麻省理工学院的研究人员提出一种量子计算架构,可执行量子计算,同时在处理器之间快速共享量子信息。研究人员基于超导量子位创造出一种人造的“巨型原子”,可以调整量子位与波导相互作用的强度,从而可以保护脆弱的量子位免受量子退相干现象或波导管在执行高保真操作时可能会加速的自然衰减的影响。通过巨型原子执行量子计算,量子比特与波导耦合的强度会重新调整,量子位能够以光子的形式将量子数据释放到波导中。在演示实验中,两量子比特纠缠的保真度达到94%。该研究使量子信息处理和量子通信成为一体,有望为研发完整的量子平台开辟新的道路。
7. IBM公司大幅改进其量子计算机性能
2020年8月,IBM公司宣布将其量子计算机的量子体积(量子体积为IBM公司开发的量子计算性能指标)提升至64,相比于2019年的32提升了一倍。该指标的提升意味着量子计算机能执行更快、更复杂的计算。“量子体积”指标用于衡量量子计算机的性能,其影响因素包括量子比特数、门和测量误差、设备交叉通信,以及设备连接和电路编译效率等。为争夺“量子优越性”,即量子计算机性能的优势,IBM公司为其量子计算机定下“量子体积”每年翻番的目标。随着霍尼韦尔公司、IBM公司不断提升其量子计算机的性能,商业硬件公司在量子计算领域的竞争还将进一步白热化。
8. 美国哥伦比亚大学将牵头开发量子模拟器
2020年9月,美国哥伦比亚大学(Columbia University)获得美国国家科学基金会(National Science Foundation,NSF)拨款100万美元,用于建造量子模拟器。哥伦比亚大学的研究人员将与来自学术界、国家实验室和行业的物理学家、工程师、计算机科学家、数学家和教育家等人士进行合作研究,基于原子的有序阵列构建通用的量子模拟器。该模拟器有望促进通用量子计算机的推出,用于处理传统超级计算机无法运算的复杂问题。
9. 美国IonQ公司推出下一代量子计算机硬件路线图和新型量子计算性能指标
2020年12月,美国IonQ公司描述了其扩展下一代离子阱量子计算机的战略和目标,并推出了一种新的量子计算性能指标。该公司的技术战略包括增加量子比特数量、提高量子比特门保真度、使其芯片和系统小型化、降低制造成本、利用纠错技术有效改善本地量子比特质量,以及使用光子网络将多个模块组合成一个更大的系统。此前,业界通常使用IBM公司提出的“量子体积”指标来衡量量子计算机的性能。然而,IonQ公司认为,量子体积度量标准存在缺陷,当量子计算机的性能足够强大时,这一度量标准将存在局限性。因此,该公司推出了自己的度量标准,并称之为与量子体积相关的“算法量子比特”(Algorithmic Qubits)。IonQ公司的相关规划体现了其自主创新的坚定决心。
(三)新型计算
新型计算包括类脑计算、边缘计算、云计算等技术,随着电子学、光子学等学科的不断发展,新型计算的边界正在被不断拓展。这类计算方式有望提供更强的计算能力和全新的计算模式,进而推动人工智能、大数据和物联网等行业的蓬勃发展。
1. 荷兰特温特大学开发出直接使用硅基材料构建无序类脑网络的方法
2020年1月,荷兰特温特大学(The University of Twente,UT)的研究人员成功使用硅基材料构建无序类脑网络,可执行有序运算。研究人员将高浓度杂质掺杂入硅晶体材料,借助材料特性构建无序类脑网络,使得电子可在其中进行“跳跃传导”,模拟神经元中的电流传导方式。以此构建的处理器可进行类脑运算,执行模式识别功能而无须借助电路设计构建大量模拟神经元,且具有体积小、节能的优势。
2. 英特尔公司推出具有1亿个神经元的神经拟态系统
2020年3月,英特尔公司推出具有1亿个神经元的神经拟态系统Pohoiki Springs,其具备的神经元数量与小型哺乳动物的脑神经元数量相当。该系统是英特尔公司迄今开发的最大规模的神经拟态计算系统,被看作扩展拟态处理器Loihi架构的下一步,可用于评估Loihi架构解决人工智能问题及一系列计算难题的潜力。英特尔公司的研究人员认为,与当今最先进的传统计算机相比,神经拟态系统拥有强大的并行计算能力和异步信号传输能力,可以在明显降低功耗的同时显著提升性能。
3. 美国麻省理工学院在单个芯片上布置数十万个人工突触
2020年6月,美国麻省理工学院的研究人员展示了一种“片上大脑”设计,在小于指甲盖大小的芯片内布置由数十万个忆阻器构成的人工突触。这种全新的设计借鉴了冶金技术的原理,使用银、铜和硅合金制造忆阻器。当芯片在处理视觉任务时,可以“记住”图像并多次复现这些内容。与使用非合金材料制作的忆阻器相比,新版本的记忆更加清晰。研究人员表示,这种“类脑”式的计算方式可在体积较小的设备中实现,有望大幅提高小型设备执行复杂计算任务的能力。
4. 美国物理研究所提出光子张量处理器新设计,使用光执行神经网络计算
2020年7月,美国物理研究所(American Institute of Physics,AIP)的研究人员提出一种新的方法,使用光代替电来执行神经网络所需的计算。在这种方法中,研究人员提出一种光子张量处理器(TPU)设计,用以并行执行矩阵乘法,从而提高深度学习的速度和效率。光子张量处理器具有电光互连功能,能并行存储和处理数据,并高效地读写光学存储器。模拟表明,光子张量处理器的性能可能比电子张量处理器的性能高2~3个数量级。研究人员表示,集成了高效光学存储器的集成光子平台可以获得与电子张量处理器相同的性能,但能耗更小、吞吐量更大,如果经过适当的训练,可以用于执行快速推理任务。此外,光子也可能是计算节点分布式网络和5G边缘网络的理想选择。在网络边缘,数据信号可能已经以来自监视摄像机、光学传感器等来源的光学信号的形式存在。
5. 浙江大学和之江实验室共同开发出新型类脑计算机,神经元数量达到亿级
2020年9月,中国浙江大学和之江实验室的联合研究团队开发出新型类脑计算机,神经元数量达到亿级。类脑计算机的工作原理类似于生物的神经元行为,通过脉冲传递信号,实现高度并行的运算,可以有效地提高效率。联合团队开发的类脑计算机包含792颗浙江大学研制的达尔文二代类脑芯片,共可容纳最多1.2亿个脉冲神经元和近千亿个神经突触,与小鼠大脑神经元的数量规模相当,典型运行功耗仅为350~500瓦。同时,研究人员还研制出面向类脑计算机的专用操作系统“达尔文类脑操作系统”(DarwinOS),可对类脑计算机硬件资源进行有效的管理与调度,支撑类脑计算机的运行与应用。研究人员希望对达尔文芯片和操作系统进行持续迭代升级,使其性能不断升级,以应用于更多场景。
6. 中、美研究团队首次提出“类脑计算完备性”概念
2020年10月,中国清华大学、北京信息科学与技术国家研究中心和美国特拉华大学(University of Delaware)的研究人员首次提出“类脑计算完备性”概念,展示出类脑计算体系结构研究的突破性进展。“类脑计算完备性”概念放宽了对硬件完整性的要求,并提出了相应的系统层次结构,包括“图灵完备”的软件抽象模型和通用的抽象神经形态架构。使用这种层次结构,可将各种程序描述为统一的表示形式,并转换为任何神经形态完整硬件上的等效可执行文件。这意味着,这一体系可以确保编程语言的可移植性、硬件完整性和编译可行性。该研究或将加速类脑计算及通用人工智能等方向的研究。