发布时间:2024-12-27 07:53:19 来源: sp20241227
新华社北京5月30日电(记者魏梦佳)离子阱是通过电磁场将离子限定在有限空间内的设备,被认为是有望实现大规模量子计算的物理系统之一。如何把大量离子稳定“囚禁”于离子阱,再通过激光控制,制造量子计算的基本数据单元“量子比特”,是项国际性难题。
中国科学院院士、清华大学交叉信息研究院段路明教授团队30日在国际学术期刊《自然》上发表一项量子模拟计算方面的突破性成果。该团队首次利用二维离子阵列实现了目前已知国际最大规模、具有“单比特分辨率”的多离子量子模拟计算,为实现大规模量子计算提供了新路径。
以离子阱制造量子比特具有长相干时间和高操控精度的优势,但该技术路径的瓶颈在于很难同时实现大量离子的稳定“囚禁”和准确操控,在集成走向实用化和工程化方面尚存在挑战。如何扩大能准确操控和测量的量子比特数量是该研究的焦点问题。
清华大学交叉信息研究院助理教授吴宇恺说,此前国际上曾基于不同技术路线实现约200个离子的量子模拟计算,但因无法探测区分单个离子的状态、难以提取相关重要信息,无法用于精密的量子模拟计算及更大规模的通用量子计算。
“我们利用低温一体化离子阱等技术,提升离子稳定性,并利用平面状的二维离子阵列方案大幅增加离子量子比特数,在国际上首次对512个离子实现了稳定‘囚禁’和冷却。”吴宇恺说。此外,团队还首次实现300个离子“单比特分辨”的量子态测量,“可区分每个离子的状态并提取其信息”——这是量子计算的基础条件。
量子模拟计算可模拟量子系统的运动与演化过程,是实现通用量子计算前量子计算机主要的应用形式。“这项工作为研究复杂量子系统等基础科学问题提供了强大工具,未来有望应用于材料和药物研发、工程优化、人工智能等多领域。”段路明说。
(责编:杨光宇、胡永秋)