CN117642752A - 用于含噪中型量子器件的量子神经网络 - Google Patents
用于含噪中型量子器件的量子神经网络 Download PDFInfo
- Publication number
- CN117642752A CN117642752A CN202180100553.2A CN202180100553A CN117642752A CN 117642752 A CN117642752 A CN 117642752A CN 202180100553 A CN202180100553 A CN 202180100553A CN 117642752 A CN117642752 A CN 117642752A
- Authority
- CN
- China
- Prior art keywords
- circuit
- variable
- encoding
- quantum
- gate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims description 82
- 239000002096 quantum dot Substances 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 238000005457 optimization Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000005283 ground state Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/60—Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/20—Models of quantum computing, e.g. quantum circuits or universal quantum computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Complex Calculations (AREA)
Abstract
一种计算系统(110)使用量子神经网络QNN(50)的编码电路(10)将输入数据编码成多个物理量子位。编码电路(10)包括Y旋转门(60),Y旋转门(60)后面紧跟相位门(70),编码电路(10)的电路深度为2。计算系统(110)在物理量子位上执行变分拟设电路(20)以生成针对至少一些输入数据的分类预测。变分拟设电路(20)包括多个参数化门。
Description
技术领域
本公开一般地涉及量子计算领域,并且更具体地,涉及使用量子计算技术有效地生成分类预测。
背景技术
分类问题是无线电接入网络(RAN)中具有挑战性的问题之一。例如,当用户接近小区边缘时,使用二元分类方法来确定最佳可用频率可以提供更快的切换动作,并且潜在降低掉话率。这种方法还可以被用于微波链路退化的分类。深度神经网络在解决RAN中的分类问题方面越来越受欢迎。但是,这些网络需要大量的图形处理单元(GPU)资源和较长的训练时间。因此,可能需要全新的方法来加快神经网络的训练或评估。
量子计算机具有通过利用诸如叠加和纠缠之类的量子力学概念,在较短时段内求解特定难以计算的问题的潜力。实际上,基于量子现象的算法可以改进当前在神经网络中使用的经典算法。已经提出量子电路的不同变体作为量子神经网络(QNN),以及它们与经典神经网络的关系、关联的问题和提出的解决方案。但是,大多数提议无法在含噪中型量子(NISQ)器件上运行,因为这些器件仍然处于发展的初级阶段,并且缺少有效的量子纠错技术。在已知技术中,仍然难以找到在实践中可以与NISQ器件(而不仅仅是在理想仿真器上)一起使用的QNN算法。
发明内容
本公开的实施例通常旨在增强QNN以增加与更广泛的计算平台的兼容性。在这点上,本公开的特定实施例提供了适合于在NISQ器件上使用的QNN分类电路。
本公开的实施例包括一种由计算系统实现的方法。所述方法包括:使用量子神经网络QNN的编码电路将输入数据编码成多个物理量子位。所述编码电路包括Y旋转门,所述Y旋转门后面紧跟相位门。所述编码电路的电路深度为2。所述方法还包括:在所述物理量子位上执行变分拟设电路以生成针对至少一些所述输入数据的分类预测。所述变分拟设电路包括多个参数化门。
在一些实施例中,所述方法还包括:将所述输入数据编码成所述多个物理量子位包括:针对所述多个物理量子位中的每个量子位,对所述输入数据的两个特征进行编码。
在一些实施例中,所述方法还包括:降低所述输入数据的维度,以使得所述变分拟设电路的电路深度降低到适合度阈值以下。在一些这种实施例中,所述适合度阈值是电路深度阈值,超过所述电路深度阈值,所述变分拟设电路具有不能被含噪中型量子NISQ器件满足的关于所述物理量子位的相干要求。
在一些实施例中,所述方法还包括:通过组合第一变分拟设电路和第二变分拟设电路,构造所述变分拟设电路。在一些这种实施例中,所述变分拟设电路具有分别比所述第一变分拟设电路和所述第二变分拟设电路中的每一个更高的可表达性。附加地或替代地,在一些实施例中,所述变分拟设电路具有分别比所述第一变分拟设电路和所述第二变分拟设电路中的每一个更高的纠缠能力。
在一些实施例中,所述方法还包括:训练所述QNN以增强由所述变分拟设电路的所述参数化门使用以生成所述分类预测的多个参数。在一些这种实施例中,训练所述QNN以增强由所述变分拟设电路的所述参数化门使用的所述多个参数包括:使用梯度下降来迭代更新所述参数以降低所述参数的成本。在一些这种实施例中,所述梯度下降包括不多于三个超参数。
在一些实施例中,所述计算系统包括NISQ器件。
其他实施例包括一种计算系统,其包括处理电路和存储器。所述存储器包含能够由所述处理电路执行的指令,由此所述计算系统被配置为:使用量子神经网络QNN的编码电路将输入数据编码成多个物理量子位,所述编码电路包括Y旋转门,所述Y旋转门后面紧跟相位门。所述编码电路的电路深度为2。所述计算系统还被配置为:在所述物理量子位上执行变分拟设电路以生成针对至少一些所述输入数据的分类预测。所述变分拟设电路包括多个参数化门。
在一些实施例中,所述计算系统还被配置为执行上述方法中的任何一种。
其他实施例包括一种包括指令的计算机程序,所述指令当在计算系统的处理电路上被执行时使得所述处理电路执行上述方法中的任何一种。
其他实施例包括一种载体,其包含这种计算机程序。所述载体是电信号、光信号、无线电信号或计算机可读存储介质中的一个。
附图说明
本公开的各方面通过示例的方式示出并且不受附图的限制,在附图中相同的参考标号指示相同的元素。一般而言,参考标号的使用应当被视为指代根据一个或多个实施例所描绘的主题,而对所示元素的特定实例的讨论将向其附加字母标记(例如,总体上讨论变分拟设电路20,与讨论变分拟设电路的特定实例20a、20b相对)。
图1是示出根据本公开的一个或多个实施例的示例计算设备的示意图;
图2是根据本公开的一个或多个实施例的训练QNN的示例方法的流程图;
图3是示出根据本公开的一个或多个实施例的示例编码电路的示意性框图;
图4和图5是示出根据本公开的特定实施例的示例变分拟设电路的示意性框图;
图6是示出根据本公开的一个或多个实施例的使用不同数量的量子位的拟设的特征的表;
图7是示出根据本公开的特定实施例的示例变分拟设电路的实验评估结果的表;
图8是根据本公开的一个或多个实施例的选择QNN的电路结构的示例方法的流程图;
图9是根据本公开的一个或多个实施例的训练QNN的示例方法的流程图;
图10是根据本公开的一个或多个实施例的测试QNN的示例方法的流程图;
图11是根据本公开的一个或多个实施例的使用QNN来生成分类预测的示例方法的流程图;
图12是示出根据本公开的一个或多个实施例的示例计算设备的示意性框图。
具体实施方式
本公开的实施例提供了相对于传统QNN算法具有更短电路深度的QNN算法,从而增强了它们在NISQ器件上的实际使用。现有的执行分类的量子解决方案已经使用量子计算机的完美仿真进行了验证。但是,如果使用NISQ器件,则这些方法没有准确地描述可以预期的结果。这是因为仿真器不考虑噪声模型,并且由于使用经典计算机来仿真量子计算机所需的处理能力,仿真器也仅限于少量的量子位。当前,NISQ计算机可供使用,但受到量子位的相干时间的限制。这极大地限制了可用于给定量子电路的门的数量。也就是说,根据传统的解决方案,电路深度必须小,以便收集不受退相干误差影响的结果。
图1示出了根据本公开的至少一些实施例的被配置为执行QNN 50的计算系统110(例如NISQ器件)。在该示例中,QNN 50包括三个电路块。第一块是编码电路10。编码电路10将经典数据编码成物理量子位。下一个块是变分拟设电路20,它是可变的,并且在一些配置中通常包括一层单量子位门,后跟一层受控双量子位门。变分拟设电路20的门被参数化。通常,希望找到这些参数的最佳值。第三块是测量电路30。一般而言,这提供了第一量子位的测量。
在理想情况下,当将经典数据编码成物理量子位时,希望保留尽可能多的原始数据,同时还将编码电路10的电路深度保持为最低。当前的编码方案(例如幅度编码、基础编码和角度编码)在某种程度上都存在问题。例如,一些这种编码方案具有太长的电路深度或在特征方面不足。还有证据表明,数据编码方案的选择可以在分类任务可能导致的决策边界类型方面发挥作用。
因此,当选择用于QNN分类任务的编码方案时,编码的选择不仅在NISQ器件上执行电路的可行性方面发挥很大作用,而且还在分类器的潜在预测方面发挥很大作用。当前用于QNN分类的最流行的编码方案是幅度编码,其在理论上可以使用n个量子位对2n维数据进行编码。但是,这种方法的主要问题是编码电路将具有至少2n的电路深度。这使得幅度编码无法用于NISQ器件中,因为数据本身的编码过程已经大到设备无法正确处理。因此,当试图对用于NISQ器件上的分类任务的数据进行编码时,需要其他编码解决方案。
其他编码方案(例如基础编码和角度编码)简单地每量子位编码数据的一个特征,并且因此针对更大维度的数据需要许多量子位。这也是NISQ器件中的一个问题,因为这种器件中的量子位数量是有限的,并且因为量子位的增加会增大变分拟设电路20的电路深度,具体取决于使用的拟设类型。
在近期量子计算机没有实现误差缓解的情况下(例如在门级别、测量相位等),电路深度的减小可以提高从NISQ器件获得的结果的质量。本公开的实施例使用用于编码电路10的替代编码方案(被称为密集角度编码)来提供短深度QNN 50。该编码电路10具有每量子位编码两个特征的优点。这通过利用布洛赫球(Bloch Sphere)的两个自由度来完成。该过程的电路深度设置为2,即,需要两个门。因此,在这种方案下对N维数据进行编码所需的量子位数量是N/2,因为每个量子位对两个特征进行编码。
本公开的特定实施例还将密集角度编码与合适的变分拟设选择相组合。变分拟设的变体可以被选择为增大(例如最大化)拟设的可表达性和纠缠能力,同时将电路深度保持为低(例如最低)。量化可表达性的一种特定方式是参数化量子电路能够从希尔伯特空间生成状态的程度。纠缠能力可以例如使用Meyer-Wallach度量来量化。所得到的密集角度编码与合适的变分拟设的组合提供了具有短深度电路的QNN 50,其在实践中可用于例如NISQ器件上。
附加地或替代地,本公开的其他实施例选择动量梯度下降,例如以在更新参数的优化子例程期间实现超参数的数量与性能之间的良好权衡。
在一些实施例中,所得到的编码方案产生预定门和电路深度,这节省了计算时间,因为例如不需要执行幅度编码的电路的确定。例如,这种编码方法可以是两种或多种先前提到的编码方法之间的折衷。此外,实施例能够避免需要昂贵的双量子位门。尽管如此,当处理大维度的数据时,本公开的特定实施例可能需要某种降维。
根据特定实施例,通过提供一种适用于QNN分类器并减少所需的量子位数量,同时保持恒定电路深度的编码方案,可以在一个或多个NISQ器件上使用短深度QNN分类器。
当观察整体电路的编码部分时,与其他流行的幅度编码方案相比,本文提出的密集角度编码方案能够特别有利(例如在电路深度方面)。密集角度编码电路10的电路深度恒定为2,而已知方法中的幅度编码电路的深度至少在数量级2n,其中n是量子位数量。这使用256维数据进行了实验验证,在这种情况下,密集角度编码的深度为2(如前所述),而幅度编码的深度为503。由于退相干时间较短,NISQ器件根本无法运行如此长深度的电路。
在图7的表中示出了通过实验构造的QNN 50的结果,QNN 50具有与合适的低深度拟设相组合的密集角度编码,下面将对此进行更详细的讨论。使用总深度为20的电路(包括编码电路10和变分拟设电路20)和32个参数,通过实验实现了80.2%的测试精度。可以通过以下方式改进这些结果:增加训练数据集的大小,执行超参数搜索,和/或可能使用另一个优化例程(例如Adam优化器)而不是使用动量梯度下降。所有这些改进都可以在不改变QNN50的深度的情况下实现,这进而保留了在NISQ器件上运行的能力。尽管与本文公开的一个或多个实施例相比,其他QNN方法可以实现更高的测试精度,但是这种替代方法没有短深度,并且因此无法用于NISQ器件上。
明确地说,QNN 50是参数化量子电路,其被定义为对N个量子位的可调酉运算U(θ),该运算被施加于某个量子态|ψ>。一般而言,该量子态是对基态施加编码电路10的编码方案之后的生成态。对量子态|ψ>施加酉运算之后,生成态是:
|φ>=U(θ)|ψ> (1)
其中θ是电路参数的向量。
可以采用三个步骤来描述QNN 50的结构:1)将编码电路10施加于基态;2)将变分拟设电路20施加于编码状态;以及3)对量子位(例如第一量子位)施加测量电路30。
换句话说,QNN 50可以包括将编码电路S(x)施加于基态从而产生:
QNN 50还可以包括将变分拟设U(θ)施加于编码状态|ψ>,从而产生:
|φ>=U(θ)|ψ> (3)
QNN 50还可以包括对第一量子位施加测量门。
本公开的特定实施例包括以下项的组合:产生深度为2的编码电路S(x)的编码方案,以及具有不同电路深度和参数数量的各种变分拟设。总体而言,电路深度保持低(例如最低),这允许在一个或多个NISQ器件上使用。
一旦准备好用于每个数据点的电路,便通过测量计算基础中的第一个量子位,从最终状态中读出预测。期望值可以被表示为:
对于给定数据点,对该值进行阈值化产生二元输出,该二元输出是模型的预测,如下所示:
使用混合量子-经典随机梯度下降算法对QNN 50进行训练。图2示出了根据特定实施例的示例方法200。方法200包括准备阶段205和训练阶段215,这两个阶段中的一个或两个可以由计算系统110实现,计算系统110包括一个或多个经典器件(例如执行量子环境的仿真)和/或一个或多个量子计算器件(例如NISQ器件)。
根据方法200,首先执行准备阶段(方框205)。在准备阶段,首先对经典数据进行预处理,将数据的维度降低到由用户决定的某个维度,同时牢记NISQ器件或仿真器的限制(方框210)。例如,修改后的国家标准与技术研究所(MNIST)数据集的维度通过实验从28×28减少到4×4。接下来,将经典数据编码到量子电路(方框220),并且将变分拟设应用于每个电路(方框230)。
一旦准备好电路,便可以执行训练过程(方框215)。训练过程使用数据集D,该数据集D包括用于m=1,…,M个数据点的多对训练输入xm∈X和ym∈Y,以使得:
D={(x1,y1),…,(xM,yM)} (6)
训练的目标是能够预测新输入x的输出y(方框240)。该示例将专注于二元分类任务的情况,其中并且/>在该示例中,使用最小二乘目标函数来评估参数θ的特定配置的成本,表示如下:
评估力求最小化总成本。使用随机梯度下降方法,其中在每次迭代中不考虑整个训练集D,而是评估每次迭代的单个数据点。换言之,执行单批梯度下降(方框250)。因此,每次迭代的成本可以被表示为:
通过梯度下降来最小化成本,梯度下降通过更新规则来更新每个参数θ:
成本函数的梯度由下式给出:
这转而包括该电路的导数存在几种方法来评估量子梯度,例如使用经典的酉线性组合和参数移位方法。梯度可以被分析地评估,并且可以通过经典仿真来执行(方框260)。
一旦计算了梯度,便更新参数,并且重复用更新后的参数来评估下一个数据点的电路的过程(方框270)。鉴于以上所述,方法200的训练阶段(方框215)可以被概括为:
1.评估数据点m的量子电路(方框240)。
2.使用来自先前数据点的预测来计算成本C(θ,B)(方框250)。
3.评估给定量子电路的量子梯度(方框260)。
4.使用梯度更新规则来更新参数θ(方框270)。
5.在下一个数据点m+1上重复训练阶段(方框215)。
在一些实施例中,可以使用被称为动量梯度下降的方法来执行随机梯度下降优化。动量梯度下降使用超参数m向随机梯度优化添加了动量项。这导致更快地收敛到成本最小值,但增加了要被调整的超参数。这种方法是分类精度与超参数数量之间的良好权衡。优化步骤例如可以如下所示:
θ(t)=θ(t-1)-a(t) (11)
也就是说,其他实施例可以包括其他优化技术,例如在经典神经网络上展现良好效果的技术。例如,在一些实施例中,使用Adam优化器。Adam优化器具有自适应学习率,并且存储过去平方梯度的指数衰减平均值。此优化器具有三个需要调整的超参数。相应地,超参数搜索可能是耗时的。对于Adam优化器,优化步骤可以被表示为:
其中表示梯度的逐元素平方。该优化器具有三个超参数β1、β2和∈。
对经典信息的输入向量执行密集角度编码。该向量可以被表示为:
通过将输入向量映射到量子态,对向量进行编码:
根据一个简单的示例,其中量子态可以被简单地表示为:
然后构造量子电路,该量子电路可以将输入映射到在公式18中描述的量子态。作用于基态的参数化Y旋转门产生以下状态:
RY(θ)|0>=cosθ/2|0>+sinθ/2|1> (20)
围绕Z轴的单量子位旋转由相位门给出:
对公式20中给出的状态施加相位门得到:
P(φ)RY(θ)|0>=cosθ/2|0>+eiφsinθ/2|1> (22)
从上面可以观察到,设置θ=2πx1和φ=2πx2给出了公式18的单量子位情况。因此,可以通过使用Y旋转门60后跟相位门70来执行将经典数据编码到物理量子位,如图3所示。特别地,前两个特征可以被编码到第一量子位,下一组两个特征可以被编码到第二量子位,依此类推。这允许使用N/2个量子位对N个特征进行编码并且门深度恒定为2。
如前所述,变分拟设的选择对于由QNN50执行的分类也可能很重要。在这点上,可以到达希尔伯特空间的大部分而同时保持尽可能小或切实可行的电路深度的拟设的变体是有利的。因此,建议在至少一些当前实施例中使用具有高可表达性和纠缠能力而同时还保持低电路深度的变分拟设电路20。在这点上,图4和图5的示例变分拟设电路20已通过实验被识别为是合适的。
在图4中,变分拟设电路20a包括两个块510a、510b。第一块510a包括单量子位门和双量子位门的第一集合。第二块510b包括单量子位门和双量子位门的第二集合。
每个块510a、510b包括两个层520a、520b。第一层520a是一层参数化单量子位Ry门。第二层520b包括受控双量子位酉CRx门。当添加新块时,第二层520b中的门发生变化。特别地,目标和控件被交换,并且最左侧的双量子位门在电路图中顺时针旋转。
在图5中,变分拟设电路20b包括两个单量子位门Rx和Rz的层520c,后跟受控双量子位CRx门的层520d。
对用于变分拟设电路20a-e的不同星座进行了实验评估,在图6的表中示出了其结果。特别地,图6中的表显示了当在QNN 50中的不同变分拟设电路20a-e中使用时各个块510的相应参数数量和电路深度。量子位数量由变量n给出。加号(即,“+”)被用于表示两个块510的串接。
用于分类目的的低深度电路的效率可以使用QNN 50来示出,QNN 50具有各种拟设以对来自MNIST数据集的数字进行分类。为此,进行了实验,其中选择要分类的两个数字,以便将分类任务转换成二元分类。在该实验中,选择数字0和1以进行分类。接下来,随机选择包含2000个图像的子集作为训练集,并且随机选择包含500个其他图像的子集作为测试集。
MNIST数据集包括28×28个图像,当这些图像被平坦化成向量时,将产生784维向量。为了降低图像的维度,从每个图像的每个边去除6个像素,从而导致维度从28×28降低到16×16。接下来,每隔一行和每隔一列去除行和列,从而针对每个图像产生8×8图像。接下来,执行双线性内插以进一步将维度降低到4×4(例如使用Tensorflow命令“tensorflow.image.resize”)。当被平坦化时,这产生16维向量,该16维向量可通过密集角度编码使用8个量子位进行编码。
在图像被调整大小之后,准备不同的变分拟设电路20(例如,如上所述),并且执行训练(例如,如上面针对图2讨论的训练阶段215)。对于训练过程,学习率η=0.05,并且动量m=0.9。一旦训练完成,便使用从训练过程中获得的参数在测试集上测试QNN 50的精度。在图7的表中示出了通过实验分析不同的变分拟设电路20a-c和20e而获得的特定结果。
如前所述,密集角度编码使用恒定为2的电路深度来每量子位编码两个特征。在实践中,这通常要求执行某种降维。上面提供了一个特定示例,其中维度被降低到4×4,从而产生16维数据,这需要8个量子位以使用密集角度编码进行编码。
实验证明,这些结果优于诸如幅度编码之类的传统方法。例如,已经执行从28×28到16×16的降维(从而产生256维数据),以便准备数据以用于幅度编码。幅度编码能够使用8个量子位对该256维数据进行编码,因为幅度编码每量子位编码2n个特征(即,28=256)。但是,以这种方式进行编码也需要至少256的门深度。在实践中,当实验使用IBM量子软件开发工具包(SDK)qiskit中的内置初始化函数QuantumCircuit.initialize时,得到的电路深度为503。因此,电路深度远远超过了使用本文提出的密集角度编码而获得的结果(例如,如图7所示)。
因此,在实践中,使用幅度编码导致无法在许多平台上运行电路的电路深度。尽管与某些已知技术相比,由于必须更大程度地降低数据的维度而丢失信息,但密集角度编码在近期可访问性方面是优越的,并且提供了例如在NISQ器件上可实际使用的QNN 50。
鉴于以上所述,图8示出了选择用于QNN分类器的电路结构的方法300。如前所述,建议密集角度编码与短深度拟设的组合以实现与NISQ器件的兼容性。方法300包括:针对QNN 50的编码电路10选择密集角度编码(方框310)。如上所述,密集角度编码提供的电路深度为2。
方法300还包括:识别多个变分拟设,每个变分拟设具有高可表达性和纠缠能力(方框320)。方法300还包括:例如从多个变分拟设中选择多个短深度拟设(方框330)。方法300还包括:训练QNN 50(例如,如上面针对图2或下面针对图9所讨论的)(方框340),以及使用一个或多个所选择的短深度拟设来测试QNN 50(方框350)。
方法300还包括:评估所测试的拟设的精度(方框360)。在这点上,例如响应于精度超过阈值,拟设可以被确定为具有令人满意的精度。如果拟设被确定为具有令人满意的精度(方框360的“是”路径),则方法300结束(方框370)。否则(方框370的“否”路径),方法300包括:组合多个短深度拟设(方框380),以及使用该组合来训练QNN 50(方框340)。训练(方框340)、测试(方框350)和评估(方框360)可以被重复执行,直到识别到具有令人满意的精度的组合短深度拟设为止(方框360的“是”路径)。
图9示出了训练QNN 50的另一种示例方法400。鉴于上述示例,方法400包括:选择QNN 50的结构(例如,如上面针对图8所描述的)(方框405),以及准备QNN 50将针对其操作的数据(例如,如上面针对图2所讨论的)(方框410)。方法400还包括:将数据编码成电路深度为2的量子位(方框415),以及将该电路与变分拟设相组合(方框420)。
方法400还包括:用来自所准备的数据的数据点来迭代训练QNN 50以增强变分拟设的参数(方框425和方框430的“否”路径),直到已经用所准备的数据中的所有数据点来训练QNN 50为止(方框430的“否”路径)。一旦所准备的数据中的每个数据点都已经被用于训练QNN,方法400结束(方框430的“是”路径和方框435)。
在一些实施例中,训练QNN 50可以包括训练子例程460。训练子程序460包括执行QNN电路n次并且测量第一量子位(方框440)。训练子例程460还包括计算成本和梯度(方框445),以及用所选择的优化器来更新参数(方框450)。附加地或替代地,其他实施例可以包括上面(例如针对图2)讨论的训练过程的一个或多个方面。
图10示出了测试QNN 50的方法600。鉴于上述示例,方法600包括:选择QNN 50的结构(方框605),以及准备QNN 50将针对其操作的数据(例如,如上面针对图2所讨论的)(方框610)。方法600还包括:将数据编码成电路深度为2的量子位(方框615),以及将电路与变分拟设相组合(方框620)。
方法600还包括:将要被用于评估数据的参数设置为已经通过某个训练过程(例如,如上面所讨论的)而增强的参数(方框625)。方法600还包括:对一个或多个数据执行电路n次,以及测量第一量子位以进行分类预测(例如,如上面所讨论的数据分类)(方框630)。方法600还包括:检查是否存在要测试的更多数据,并且如果存在(方框635的“是”路径),则对一个或多个其他数据执行电路n次,以及测量第一量子位以进行关于该其他数据的分类预测(方框630)。一旦已经针对所有数据进行分类预测(方框635的“否”),则方法600结束(方框640)。
在图11中示出了根据特定实施例的另一种示例方法700。方法700包括:使用QNN50的编码电路10将输入数据编码成多个物理量子位,编码电路10包括Y旋转门60,Y旋转门60后面紧跟相位门70,编码电路10的电路深度为2(方框710)。方法700还包括:在物理量子位上执行变分拟设电路20以生成针对至少一些输入数据的分类预测(方框720)。变分拟设电路包括多个参数化门。
本公开的其他实施例包括计算系统110。计算系统110可以执行上述功能中的一个、一些或全部,具体取决于环境。特别地,计算系统110可以被配置为执行上述方法200、300、400、600、700中的任何一个或多个。
在一个示例中,计算系统110根据图12所示的硬件来实现。图12的示例硬件包括处理电路910和存储器电路920。处理电路910例如经由一个或多个总线以通信方式耦接到存储器电路920。处理电路910可以包括一个或多个微处理器、微控制器、硬件电路、离散逻辑电路、硬件寄存器、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)或它们的组合。
在一些实施例中,处理电路910包括能够并行和/或串行执行功能的第一处理电路和第二处理电路。例如,处理电路910可以包括经典处理电路912和/或量子处理电路917。在一些这种实施例中,在经典处理电路912上执行一个或多个特定功能,而在量子处理电路917上执行一个或多个其他功能。因此,特定实施例可以利用计算系统110的经典和量子处理能力,以适合所提供的特定计算系统110。根据一个特定示例,QNN 50的执行和量子位测量(例如,如图9中的方框440)可以在量子处理电路917上执行,而成本和/或梯度的计算(例如,如图9中的方框445)可以在经典处理电路912上执行。其他实施例包括适当地在量子处理电路917和经典处理电路912上执行特定任务的其他平衡。
处理电路910可以是能够执行例如作为机器可读计算机程序960而存储在存储器电路920中的软件指令的可编程硬件。存储器电路920可以包括本领域已知的或可以开发的任何非暂时性机器可读介质(无论是易失性的还是非易失性的),包括但不限于固态介质(例如SRAM、DRAM、DDRAM、ROM、PROM、EPROM、闪存、固态驱动器等)、可移动存储设备(例如安全数字(SD)卡、迷你SD卡、微SD卡、记忆棒、拇指驱动器、USB闪存驱动器、ROM盒式存储器、通用媒体光盘)、固定驱动器(例如硬磁盘驱动器)等(全部包括或以任何组合而包括)。
根据图12所示的硬件的特定实施例,处理电路910被配置为执行图11所示的方法700。也就是说,处理电路910被配置为:使用QNN 50的编码电路10将输入数据编码成多个物理量子位。编码电路10包括Y旋转门60,Y旋转门60后面紧跟相位门70。编码电路10的电路深度为2。处理电路910还被配置为:在物理量子位上执行变分拟设电路20以生成针对至少一些输入数据的分类预测。变分拟设电路包括多个参数化门。
与传统技术相比,本文公开的各种实施例提供了各种技术优点。例如,与替代编码方案相比,特定实施例通过使用预定门和/或电路深度有利地节省了计算时间。附加地或替代地,与需要昂贵的双量子位门的替代方案相比,特定实施例的实现成本可以更低。值得注意的是,特定实施例提供的QNN分类器能够被用于资源受限的环境,例如NISQ器件。此外,可以获得这些优点中的一个或多个,同时仍然实现高精度。因此,本文公开了一种有效、低成本的分类器,其适合于各种计算环境而基本上不牺牲精度。
当然,除了本文具体阐述的方式之外,本发明可以以其他方式执行而不偏离本发明的基本特性。当前实施例在所有方面都被视为说明性的而非限制性的,并且落入所附权利要求的含义和等效范围内的所有改变都旨在被包含在所附权利要求的含义和等效范围中。
Claims (15)
1.一种由计算系统(110)实现的方法(700),所述方法包括:
使用量子神经网络QNN(50)的编码电路(10)将输入数据编码(710)成多个物理量子位,所述编码电路(10)包括Y旋转门(60),
所述Y旋转门(60)后面紧跟相位门(70),所述编码电路(10)的电路深度为2;
在所述物理量子位上执行(720)变分拟设电路(20)以生成针对至少一些所述输入数据的分类预测,所述变分拟设电路(20)包括多个参数化门。
2.根据权利要求1所述的方法,其中,将所述输入数据编码成所述多个物理量子位包括:针对所述多个物理量子位中的每个量子位,对所述输入数据的两个特征进行编码。
3.根据权利要求1-2中任一项所述的方法,还包括:降低所述输入数据的维度,以使得所述变分拟设电路(20)的电路深度降低到适合度阈值以下。
4.根据权利要求3所述的方法,其中,所述适合度阈值是电路深度阈值,超过所述电路深度阈值,所述变分拟设电路(20)具有不能被含噪中型量子NISQ器件满足的关于所述物理量子位的相干要求。
5.根据权利要求1-4中任一项所述的方法,还包括:通过组合第一变分拟设电路和第二变分拟设电路,构造所述变分拟设电路(20)。
6.根据权利要求5所述的方法,其中,所述变分拟设电路(20)具有分别比所述第一变分拟设电路和所述第二变分拟设电路中的每一个更高的可表达性。
7.根据权利要求5-6中任一项所述的方法,其中,所述变分拟设电路(20)具有分别比所述第一变分拟设电路和所述第二变分拟设电路中的每一个更高的纠缠能力。
8.根据权利要求1-7中任一项所述的方法,还包括:训练所述QNN(50)以增强由所述变分拟设电路(20)的所述参数化门使用以生成所述分类预测的多个参数。
9.根据权利要求8所述的方法,其中,训练所述QNN(50)以增强由所述变分拟设电路(20)的所述参数化门使用的所述多个参数包括:使用梯度下降来迭代更新所述参数以降低所述参数的成本。
10.根据权利要求9所述的方法,其中,梯度下降包括不多于三个超参数。
11.根据权利要求1-10中任一项所述的方法,其中,所述计算系统(110)包括NISQ器件。
12.一种计算系统(110),包括:
处理电路(910)和存储器(920),所述存储器(920)包含能够由所述处理电路(910)执行的指令,由此所述计算系统(110)被配置为:
使用量子神经网络QNN(50)的编码电路(10)将输入数据编码成多个物理量子位,所述编码电路(10)包括Y旋转门(60),
所述Y旋转门(60)后面紧跟相位门(70),所述编码电路(10)的电路深度为2;
在所述物理量子位上执行变分拟设电路(20)以生成针对至少一些所述输入数据的分类预测,所述变分拟设电路(20)包括多个参数化门。
13.根据前述权利要求所述的计算系统,还被配置为执行权利要求2-11中任一项的方法。
14.一种包括指令的计算机程序(960),所述指令当在计算系统(110)的处理电路(910)上被执行时使得所述处理电路(910)执行根据权利要求1-11中任一项的方法。
15.一种包含前述权利要求的计算机程序(960)的载体,其中,所述载体是电信号、光信号、无线电信号或计算机可读存储介质中的一个。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163221146P | 2021-07-13 | 2021-07-13 | |
US63/221,146 | 2021-07-13 | ||
PCT/SE2021/051186 WO2023287333A1 (en) | 2021-07-13 | 2021-11-30 | A quantum neural network for noisy intermediate scale quantum devices |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117642752A true CN117642752A (zh) | 2024-03-01 |
Family
ID=84919572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180100553.2A Pending CN117642752A (zh) | 2021-07-13 | 2021-11-30 | 用于含噪中型量子器件的量子神经网络 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240211725A1 (zh) |
EP (1) | EP4371036A1 (zh) |
CN (1) | CN117642752A (zh) |
WO (1) | WO2023287333A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117435917B (zh) * | 2023-12-20 | 2024-03-08 | 苏州元脑智能科技有限公司 | 一种情感识别方法、系统、装置及介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3619655A1 (en) * | 2017-06-02 | 2020-03-11 | Google LLC | Quantum neural network |
CN111630531A (zh) * | 2018-01-18 | 2020-09-04 | 谷歌有限责任公司 | 使用量子神经网络的分类 |
-
2021
- 2021-11-30 CN CN202180100553.2A patent/CN117642752A/zh active Pending
- 2021-11-30 WO PCT/SE2021/051186 patent/WO2023287333A1/en active Application Filing
- 2021-11-30 US US18/576,213 patent/US20240211725A1/en active Pending
- 2021-11-30 EP EP21949530.6A patent/EP4371036A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023287333A1 (en) | 2023-01-19 |
EP4371036A1 (en) | 2024-05-22 |
US20240211725A1 (en) | 2024-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA3133917C (en) | Simulating errors of a quantum device using variational quantum channels | |
US11354601B2 (en) | Learning classification device and learning classification method | |
Imani et al. | A binary learning framework for hyperdimensional computing | |
KR102545128B1 (ko) | 뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템 | |
Bergmeir et al. | Neural networks in R using the Stuttgart neural network simulator: RSNNS | |
CN110163261A (zh) | 不平衡数据分类模型训练方法、装置、设备及存储介质 | |
WO2019177951A1 (en) | Hybrid quantum-classical generative modes for learning data distributions | |
US20190378046A1 (en) | Learning and discrimination device, and learning and discrimination method | |
US11694111B2 (en) | Learning device and learning method | |
CN115661550B (zh) | 基于生成对抗网络的图数据类别不平衡分类方法及装置 | |
US11966707B2 (en) | Quantum enhanced word embedding for natural language processing | |
CN114519430A (zh) | 一种软量子神经网络系统及模式识别方法 | |
US11373274B1 (en) | Method for super resolution imaging based on deep learning | |
CN117642752A (zh) | 用于含噪中型量子器件的量子神经网络 | |
Altares-López et al. | AutoQML: Automatic generation and training of robust quantum-inspired classifiers by using evolutionary algorithms on grayscale images | |
Guo et al. | Efficient convolutional networks learning through irregular convolutional kernels | |
Mitchell et al. | Deep learning using partitioned data vectors | |
CN115145476A (zh) | 基于紧凑工作负载表示的存储器控制器及其方法 | |
US20200143290A1 (en) | Learning device and learning method | |
Tosun et al. | Assessing diffusion of spatial features in deep belief networks | |
Shang et al. | A novel location-based DNA matching algorithm for hyperspectral image classification | |
KR20240059207A (ko) | 과거 모델 파라미터 재생성을 통한 태스크 점진 학습 방법 및 시스템 | |
CN113887722A (zh) | 神经网络的测试方法、装置、计算机设备及存储介质 | |
Giri et al. | Multivariate Scale mixtures for joint sparse regularization in multi-task learning | |
CN117877611A (zh) | 一种预测分子性质的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination |