首页 今日头条正文

substitute,通往量子霸权之路:谷歌用强化学习优化量子门操控战略,天蚕土豆

选自性动态谷歌博客

作者:Murphy Yuezhen Niu、Sergio Boixo

量子计好递讯美算机有许多共同的优势,例如前次世界第一超算要算 1 万年的问题,量子核算机 3 分 20 秒就能够完结。可是,量子核算机需求严格操控容错、信息丢掉等差错,这些差错极端杂乱,很难手动仿照扫除,那么咱们为什么不必机器学习来学习并操控它们呢?近来谷歌的研讨者就提出了用深度强化学习极大提高量子核算的功能。

不久前,机器之心曾报导了谷歌的量子霸权论文。完结强壮的量子核算必不可少的苏妙龄便是对量子进行门操控,以此来确保jux518去除搅扰的量子状况,确保正确的量子信息能够精确快速地经过操控门。

量子霸权电路的操控操作。a. 试验中运用的量子电路示例;b. 单量子比特和双量子比特门的操控信号波形图。

以往而言,操控量子的门算法往往不能到达量子核算机需求的精确度和速度要求,而谷歌这回采用了新的机器学习办法,在门操控的精确度和速度上有了数量级的提高。

火箭炉最新制作办法
黄老吉

近来,强化学习在操控优qtuj化问题上显示出很好的效果。强化学习能够从噪声操控轨道中提炼非部分规则(non-local regularities),并在多种使命中进行搬迁。为了将这些优刘易阳戴的太阳镜势运用于量子操控优化问题上,谷歌的研讨者提出了一种新的操控结构,能够一起优化量子核算的速度和精准性,用于补偿走漏和随机操控过错带来的问题。

和随机梯度下降的基线办法进行比照中,研讨者提出的办法完结了两个数量级的均匀门过错数下降,以及一个数量级的优化门同步时刻下降。研讨者以为,这种结合了物理发现和最新机器学习办法的研讨能够推进量子仿照、量子化学,甚至运用近期量子设冀文平备测验量子霸权方面的研讨。

完结近期量子核算机的最主要应战便是其最基本的组成部分:量子比特。量子比特能够和恣意带着能量、且足够近的物体进行相substitute,通往量子霸权之路:谷歌用强化学习优化量子门操控战略,天蚕马铃薯互效果,即 stray 光量子(例如不必要的电磁场)、声子(量子设备的机械震动)、或许量子缺陷(制作进程中构成的芯片基片不规则性),这些都或许形成量子比特状况无法猜测的改动。

更杂乱的问题是,用来操控量子比特的东西也会带来许多应战。操作和读取量子比特是经过经典物理操控完结的,也便是经过将电磁场办法的仿照信号耦合到嵌入量子比特的物理基片上,例如超导回路等。这些电子操控的缺陷是会发生白噪声,此外关于来自外部辐射源的搅扰以及傅莹与天边的故事假的数模转换器,它们甚至会引进更多的随机差错,然后下降量子回路的功能。

为了提高量子核算机的核算才能,铺平通往大规模量子核算的路途,很有必要先树立一个物理模型以精确地描绘这些试验问题。

谷歌和 MIT 的研讨者宣布了一篇名为「Universal Quantum Control through Deep Reinforcement Learning」的论文,该论文现已宣布在 Nature NPJ Quantum Information 在线子刊上。研讨者展现了一种运用深度强化学习生成的新式量子操控结构,它能够经过单个操控本钱函数封装量子操控最优化中的各种实际问题。

论文地址:https://www.nature.com/articles/s41534-019-0141-3.pdf

比较规范的随机梯度下降,研讨者的这个结构均匀将量子逻辑门差错下降了两个数量级,而且明显下降了最优门控组成的门控时刻。研讨者的成果都是运用近期量子设备取得的,它为量子仿照、量子化学、量子霸权供给了宽广的运用空间。

这种新式量子操控范式的新颖性在于,量子操控函数的开展与根据深度强化学习的高效最优化办法。要构建一个全面的本钱函数,那么咱们首要需求为实际量子操控进程开发一个物理模型,咱们能够经过该模型可靠地猜测差错量。量子核算精确性最困难的过错在于量子走漏,即在核算进程中丢掉的量子信息总量。

这种信息信息走漏一般发生在量子比特的量子态被激发到较高能级,或许经过自发辐射衰减到较低能级状况时。走漏形成的差错不只会丢掉有用的量子信息,它们相同还会下降「量子性」,并最终使量子substitute,通往量子霸权之路:谷歌用强化学习优化量子门操控战略,天蚕马铃薯核算机的功能下降到经典核算机水平。

在量子核算进程中精确点评走漏信息的常见办法是仿照整个核算,但这并不利于构建大规模量子核算机,由于量子狡猾仙子闯古代核算的优势在于它能履行经典体系不能很好履行的核算。经过改善物理建模,研讨者的通用丢失函数能针对累substitute,通往量子霸权之路:谷歌用强化学习优化量子门操控战略,天蚕马铃薯计的走漏误substitute,通往量子霸权之路:谷歌用强化学习优化量子门操控战略,天蚕马铃薯差、违背操控边界条件、总门控时刻和门控保真度进行联合优化。

有了新的量子操控损substitute,通往量子霸权之路:谷歌用强化学习优化量子门操控战略,天蚕马铃薯失函数,下一步是用一种高效的优化东西来下降丢失。现有的优化办法无法统筹寻扩张系找高度精准的战略一起确保对操控中的动摇鲁棒。为了处理这一问题,研讨者采用了 on-policy 深度强化学习的办法。这一办法在各种基准测验上都体现很好,关于样本噪声有天然生成的鲁棒性,一起也能够优化硬操控问题,即便有百万等级的参数substitute,通往量子霸权之路:谷歌用强化学习优化量子门操控战略,天蚕马铃薯量。

和以往的 off-policy 强化学习不同,on-policy 强化学习中操控战略和操控丢失是互相独综穿之佳人如斯立的。off-policy 类型的强化学习,如 Q-learning,则运用单一的神经网络表明操控轨道和对应的奖赏。在量子核算中,操控轨道对应的操控信号和成对的量子有着不同的时刻步,而奖赏则用于点评当前步的量子操控办法怎么样。

on-policy 强化学习具有能够从非部分特征中提取操控轨道的才能,在操控办法为高维,且和许多非大局战略结合在一起时,这种才能分外重要。

研蒙特布朗司究者将操控轨道编码为一个三层的全衔接神经网络,称之为战略网络,并将操控丢失函数编码为第二个神经网络,即价值网络。价值网络用于编码未来奖赏。鲁棒性的操控战略是经过强化学习习得的,在练习中两个网络都会运用随机环境进行学习,仿照了实在环境下的噪声状况、研讨者供给了一系列用于操控 two-qubit 量子门的接连参数,他们对量子的化学运用很重要,可是运用传统的通用门控设置本钱很大。

在这一新结构下,研讨人员substitute,通往量子霸权之路:谷歌用强化学习优化量子门操控战略,天蚕马铃薯提出的这种算法减少了 100 倍的量子门过错。

优化量子操控机制和高斯操控噪声方差办法(赤色线)在量子门 N (2.2, 2.2, /2) 下的均匀精确度比照。其间蓝色为增加了练习环境噪声的成果,绿色则没有噪声。小图 a:有无噪声状况下的精确度比照扩大图。小图 b:噪声增大时,精确度的方差陵辱值增关音山长状况。

谷歌的这一作业阐明,运用机器学习东西和近周期量子算法能够提高灵活性,并为通用量子操控机制供给额定的核算才能。当然,作者也供认,他们需求进行更多的试验,以便反派大哥的七秀弟弟将机器学习更好地融入到有用的量子核算流程中,用于全面提高其核算才能。

原文链接:https://ai.googleblog.com/2019/10/improving-quantum-computation-with.html

本文为机器之心编译,转载请联纯情少女火辣辣系本大众号取得授权。

吴小莉老公
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。