CN117273109A - 基于量子神经元的混合神经网络的构建方法及装置 - Google Patents

基于量子神经元的混合神经网络的构建方法及装置 Download PDF

Info

Publication number
CN117273109A
CN117273109A CN202311108669.8A CN202311108669A CN117273109A CN 117273109 A CN117273109 A CN 117273109A CN 202311108669 A CN202311108669 A CN 202311108669A CN 117273109 A CN117273109 A CN 117273109A
Authority
CN
China
Prior art keywords
neural network
quantum
hybrid neural
data set
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311108669.8A
Other languages
English (en)
Inventor
胡孟军
陆长彬
庄伟峰
许宏泽
钱辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute Of Quantum Information Science
Original Assignee
Beijing Institute Of Quantum Information Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute Of Quantum Information Science filed Critical Beijing Institute Of Quantum Information Science
Priority to CN202311108669.8A priority Critical patent/CN117273109A/zh
Publication of CN117273109A publication Critical patent/CN117273109A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/40Physical realisations or architectures of quantum processors or components for manipulating qubits, e.g. qubit coupling or qubit control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Feedback Control In General (AREA)

Abstract

本申请提出一种基于量子神经元的混合神经网络的构建方法及装置,其中,方法包括如下步骤:根据当前任务确定经典神经网络的类型;构造量子神经元;设计混合神经网络,其中所述混合神经网络中的神经元为所构造的量子神经元,所述混合神经网络的网络结构和所确定的经典神经网络的类型相对应;训练得到所述混合神经网络的最佳参数。

Description

基于量子神经元的混合神经网络的构建方法及装置
技术领域
本申请涉及量子神经网络领域,尤其是涉及一种基于量子神经元的混合神经网络的构建方法及装置。
背景技术
量子计算是一种遵循量子力学规律,调控量子信息单元进行计算的新型计算模式。量子机器学习将量子计算原理与机器学习算法相结合,量子神经网络是量子机器学习的一种模型。
目前的量子神经网络一般针对特定的任务及数据集,根据当前任务及数据集设计复杂的变分量子线路,以获得较好的训练测试结果。然而本申请的发明人发现,这种方式使得所设计的量子神经网络过于依赖当前的任务及数据集,通用性较差。
而且本申请的发明人还发现,目前量子计算机的发展处于中等规模含噪量子计算机(NISQ)时代,实验室中的硬件设备可以提供的量子资源有限,即量子比特数有限。又因为对量子神经网络进行扩展会导致每个量子神经元采取的线路所包含的量子门数量多且种类复杂,以及量子线路的层数深。因此,在实现扩展后的量子神经网络的计算时,存在量子双比特门的保真度以及对噪声的鲁棒性低的问题,模型的效果差,难以应用。
发明内容
根据本申请的第一个方面,提出一种基于量子神经元的混合神经网络的构建方法,该方法可以包括如下步骤:根据当前任务确定经典神经网络的类型;构造量子神经元;设计混合神经网络,其中混合神经网络中的神经元为所构造的量子神经元,混合神经网络的网络结构和所确定的经典神经网络的类型相对应;训练得到混合神经网络的最佳参数。
根据上述实施方案,本申请提出的一种基于量子神经元的混合神经网络的构建方法,根据当前的实际任务确定经典神经网络的类型,将量子神经元作为经典神经网络的神经元来设计混合神经网络。根据上述实施方案能够实现构造具有通用性,并且能够在中等规模含噪量子计算机上实现较好的模型训练结果的量子神经网络。
根据一些实施例,当前任务可以包括对应的任务数据集,构造量子神经元可以包括:将任务数据集中的经典数据编码为量子态;设计含参量子线路;选择对含参量子线路中的含参量子比特的测量输出策略。
根据上述实施方案的方法,能够根据当前任务的实际需求设计含参量子线路以及选择对含参量子比特的测量输出策略,使得方法具有通用性并且能够在中等规模含噪量子计算机上实现。
根据一些实施例,任务数据集可以包括一个或多个经典数据,上述方法中的将任务数据集中的经典数据编码为量子态可以包括:对任务数据集中的经典数据进行归一化,得到第一数据集,其中第一数据集的数据限制在[0,π]范围内;生成包括一个或多个量子比特的第二数据集,其中量子比特的数量和任务数据集中经典数据的数量一致;对第二数据集中的每个量子比特应用含参的第一量子逻辑门,以生成量子态数据集,其中第一量子逻辑门的参数和第一数据集中的数据一一对应。
根据上述实施方案的方法,将经典数据编码为量子态数据,每个量子比特应用了一个含参的量子逻辑门,其中量子逻辑门是可选的。根据上述实施方式的方法能够生成和实际任务数据集相对应的量子态数据。
根据一些实施例,第一量子逻辑门可以包括Rx门、Ry门或Rz门中的任意一个。根据一些实施例,含参量子线路可以包括单层的Rx门、Ry门或Rz门中的任意一个。
根据上述实施方案的方法,对每个量子比特应用Rx门、Ry门或Rz门中的任意一个,同时,含参量子线路设计为单层的Rx门、Ry门或Rz门中的任意一个。根据上述实施方案的方法,量子线路的层数浅,不需要耗费大量资源进行量子计算,同时也能实现良好的训练效果。
根据本申请的第二个方面,提出一种基于量子神经元的混合神经网络的构建装置,该装置可以包括:网络类型确定模块,根据当前任务确定经典神经网络的类型;神经元构造模块,构造量子神经元;网络结构确定模块,设计混合神经网络,其中混合神经网络中的神经元为所构造的量子神经元,混合神经网络的网络结构和所确定的经典神经网络的类型相对应;训练优化模块,训练得到混合神经网络的最佳参数。
根据本申请的第三个方面,提出一种电子设备,可以包括:处理器;存储器,存储有计算机程序,当所述计算机程序被所述处理器执行时,使得所述处理器执行如本申请第一个方面所述的方法。
根据本申请的第四个方面,提出一种非瞬时性计算机可读存储介质,其上存储有计算机可读指令,当所述指令被处理器执行时,使得所述处理器执行如本申请第一个方面所述的方法。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图,而并不超出本申请要求保护的范围。
图1为本申请的基于量子神经元的混合神经网络的构建方法1000的流程示意图;
图2为图1的方法1000中步骤S102的流程示意图;
图3为图1的方法1000中步骤S103的流程示意图;
图4为图1的方法1000中步骤S104的流程示意图;
图5为图2的步骤S102中包括的步骤S1021的流程示意图;
图6为图2的步骤S102中所构造的量子神经元的结构示意图;
图7为本申请的基于量子神经元的混合神经网络的构建装置7000的结构示意图;
图8为本申请的基于量子神经元的混合神经网络的构建方法构造的实混合神经网络8000的示意图;
图9为本申请提供的一种电子设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为本申请的基于量子神经元的混合神经网络的构建方法1000的流程示意图。如图1所示,方法1000包括步骤S101到步骤S104。
参见图1,在一些具体实施例中,在步骤S101,根据当前任务确定经典神经网络的类型。
在一些具体实施例中,在步骤S101中,基于量子神经元的混合神经网络的构建装置根据当前任务要解决的实际问题确定一个经典神经网络的类型。可选地,经典神经网络的类型可以是深度神经网络、卷积神经网络、递归神经网络中的任意一种。
在一些具体实施例中,在步骤S102,基于量子神经元的混合神经网络的构建装置构造量子神经元。可选地,当前任务包括对应的任务数据集,任务数据集中的数据为经典数据。基于量子神经元的混合神经网络的构建装置构造量子神经元的步骤可以包括基于量子神经元的混合神经网络的构建装置将任务数据集中的经典数据编码为量子态数据。基于量子神经元的混合神经网络的构建装置对任务数据集中的经典数据进行归一化处理,得到第一数据集,其中第一数据集的数据限制在[0,π]范围内。可选地,第一数据集中的第i个数据可以表示为x=xi,i=1,2,…,n,其中n为不为0的正整数。
在一些具体实施例中,基于量子神经元的混合神经网络的构建装置生成包括一个或多个量子比特的第二数据集,其中第二数据集中的量子比特的数量和任务数据集中的经典数据的数量保持一致。可选地,基于量子神经元的混合神经网络的构建装置对第二数据集中的每个量子比特应用一个含参的第一量子逻辑门,以生成量子态数据集,其中量子态数据集中的每个量子逻辑门的参数和第一数据集中的数据一一对应。
可选地,量子态数据集中的任意一个数据可以表示为|x>=Ud(x)|0>,其中x=xi为第一数据集中的第i个数据,i=1,2,…,n,n为不为0的正整数,表示数据集中的数据个数。
在一些具体实施例中,在步骤S102,基于量子神经元的混合神经网络的构建装置构造量子神经元包括设计含参量子线路。可选地,含参量子线路为单层的Rx门、Ry门或Rz门中的任意一个。
可选地,在步骤S102中,基于量子神经元的混合神经网络的构建装置将含参量子线路作用量子态数据集上,作用后的量子态数据集中的任意一个数据的状态可以表示为|q>=Ud(θ)|x>,其中Ud(θ)为含参量子线路,|x>为量子态数据集中的数据。
基于量子神经元的混合神经网络的构建装置构造量子神经元还包括选择对含参量子线路中的含参量子比特的测量输出策略。可选地,通过测量最终量子态在给定的一个测量算子上的期望值作为输出。可选地,通过在第二数据集中的每个量子比特上使用不同的测量算子测量一次期望值作为输出。可选地,通过在第二数据集中的每个量子比特上使用多个不同的测量算子进行多次测量期望值作为输出。
在一些具体实施例中,在步骤S103中,基于量子神经元的混合神经网络的构建装置设计混合神经网络,其中混合神经网络中的神经元为所构造的量子神经元,混合神经网络的网络结构和所确定的经典神经网络的类型相对应。
基于量子神经元的混合神经网络的构建装置将步骤S102中构造的量子神经元作为混合神经网络中的神经元,构造步骤S101中所确定的经典神经网络的类型相对应的混合神经网络。可选地,混合神经网络的隐藏层数量和每一个隐藏层的神经元数量根据实际任务所确定。
在步骤S103中,基于量子神经元的混合神经网络的构建装置设计混合神经网络包括设计混合神经网络的损失函数。在步骤S103中,基于量子神经元的混合神经网络的构建装置还构建混合神经网络的前向传播网络,即确定前向传播网络中包括的隐藏层数量和每一层包括的神经元数量。
在一些具体实施例中,在步骤S104,基于量子神经元的混合神经网络的构建装置训练得到混合神经网络的最佳参数。可选地,基于量子神经元的混合神经网络的构建装置利用基于梯度的算法迭代混合神经网络的参数值。可选地,基于量子神经元的混合神经网络的构建装置利用基于无梯度的算法迭代混合神经网络的参数值。在满足迭代终止条件的情况下,基于量子神经元的混合神经网络的构建装置将当前的参数值作为混合神经网络的最佳参数值。可选地,迭代终止条件为混合神经网络的输出收敛于一个值。
本申请提出的一种基于量子神经元的混合神经网络的构建方法,根据当前的实际任务确定经典神经网络的类型,将所构造的量子神经元作为经典神经网络的神经元,并进一步设计混合神经网络的结构。本申请提出的方案中构造的量子神经元能够和不同的经典神经网络结合,以解决不同的时机问题,因此所构造的混合神经网络具有通用性;本申请提出的方案中混合神经网络中量子神经元的结构可以根据实际需求进行设计,采用较为简单的量子线路结合经典神经网络结构,能够在中等规模含噪量子计算机上实现较好的模型训练结果。
图2为图1的方法1000中步骤S102的流程示意图。图6为图2的步骤S102中所构造的量子神经元的结构示意图,量子神经元包括输入层1021、量子线路层1022和测量算子层1023。下面结合图6说明图2中的步骤S1021到步骤S1023。
在一些具体实施例中,在步骤S1021,基于量子神经元的混合神经网络的构建装置将任务数据集中的经典数据编码为量子态。当前任务包括对应的任务数据集,任务数据集中的数据为经典数据。基于量子神经元的混合神经网络的构建装置构造量子神经元包括将任务数据集中的经典数据编码为量子态数据。基于量子神经元的混合神经网络的构建装置对任务数据集中的经典数据进行归一化处理,得到第一数据集,其中第一数据集的数据限制在[0,π]范围内。可选地,第一数据集中的数据为一组经典数据经过归一化处理后得到的数据x=xi,i=1,2,…,n,n为不为0的正整数。
在一些具体实施例中,基于量子神经元的混合神经网络的构建装置生成包括一个或多个量子比特的第二数据集,其中第二数据集中的量子比特的数量和第一数据集中的数据的数量保持一致。基于量子神经元的混合神经网络的构建装置对第二数据集中的每个量子比特应用一个含参的第一量子逻辑门,以生成量子态数据集,其中量子态数据集中的每个量子逻辑门的参数和第一数据集中的数据一一对应。参见图6,所生成的量子态数据集即为图6中的输入层1021。
可选地,量子态数据集中的第i个量子逻辑门的参数为xi,xi为第一数据集中的第i个数据。可选地,第一量子逻辑门包括Rx门、Ry门或Rz门中的任意一个。可选地,量子态数据集中的任意一个数据可以表示为|x>=Ud(x)|0>,其中xi为第一数据集中的数据,i=1,2,…,n,n为不为0的正整数。
在步骤S1022,基于量子神经元的混合神经网络的构建装置设计含参量子线路。在一些具体实施例中,基于量子神经元的混合神经网络的构建装置构造量子神经元的过程包括设计含参量子线路。参见图6,在步骤S1022中,基于量子神经元的混合神经网络的构建装置设计完成图6中的量子线路层1022。可选地,含参量子线路为单层的Rx门、Ry门或Rz门中的任意一个。可选地,作用后的量子态数据集中的任意一个数据的状态可以表示为|q>=Ud(θ)|x>,其中Ud(θ)为含参量子线路,|x>为量子态数据集中的数据。
在步骤S1023,基于量子神经元的混合神经网络的构建装置选择对含参量子线路中的含参量子比特的测量输出策略。参见图6,在步骤S1023,确定图6中的测量算子层1023。可选地,基于量子神经元的混合神经网络的构建装置通过测量量子态数据集中的最终量子态在给定的一个测量算子上的期望值作为输出。可选地,基于量子神经元的混合神经网络的构建装置通过在量子态数据集中的每个量子比特上使用不同的测量算子测量一次期望值作为输出。可选地,基于量子神经元的混合神经网络的构建装置通过在第二数据集中的每个量子比特上使用多个不同的测量算子进行多次测量期望值作为输出。
根据上述实施方案,本申请提出的一种基于量子神经元的混合神经网络的构建方法根据实际任务需求构造量子神经元,所构造的量子神经元具有通用性,能够和不同的经典神经网络相结合。
图3为图1的方法1000中步骤S103的流程示意图。如图3所示,步骤S103包括步骤S1031到步骤S1032。
在一些具体实施例中,在步骤S1031,基于量子神经元的混合神经网络的构建装置设计混合神经网络的损失函数。
可选地,损失函数可以为交叉熵损失函数,即:
其中,Nd为训练集中数据点的数量,m-1为当前分类问题的类别数,xα(yα)是第α个数据点的特征集(真实标签)。由于量子态的归一化和量子算符的幺正性,测量结果通常被限制在[-1,1]之间。在将步骤S102中构造的量子神经元的测量结果输入损失函数之前,基于量子神经元的混合神经网络的构建装置使用玻尔兹曼分布或softmax将测量结果映射到概率:
其中 通常是一个可调的温度超参数,在这里是必要的,因为测量结果是严格有界的。
在一些具体实施例中,在步骤S1032,基于量子神经元的混合神经网络的构建装置构建混合神经网络的前向传播网络。可选地,前向传播首先考虑网络架构简单地含有一层隐藏层,该隐藏层可以表示为fh: 并且该隐藏的输出为h'=fh(x,θ)。其中,nf是前一层(或输入层)的神经元数量,θ包含nh个神经元的所有可学习参数。然后将h'通过/> 线性变换为区间[0,π]。重复上述步骤,就可以构建具有多个隐藏层的更复杂的混合神经网络。
根据上述实施方案,本申请提出的一种基于量子神经元的混合神经网络的构建方法根据实际任务需求构造混合神经网络的损失函数和前向传播网络,所构造的混合神经网络具有通用性,能够解决相对应的实际任务的需求。
图4为图1的方法1000中步骤S104的流程示意图。如图4所示,步骤S104包括步骤S1041到步骤S1042。
在步骤S1041,基于量子神经元的混合神经网络的构建装置利用基于梯度的算法或基于无梯度的算法迭代混合神经网络中含参量子线路的参数值。可选地,基于梯度的算法可以是梯度下降法、随机梯度下降法、批量梯度下降法、动量梯度下降法中的任意一种。可选地,基于无梯度的算法可以是粒子群优化法、替代优化法、模拟退火法中的任意一种。
在步骤S1042,在满足迭代终止条件的情况下,基于量子神经元的混合神经网络的构建装置将当前的参数值作为混合神经网络的最佳参数值。可选地,迭代终止条件为混合神经网络的输出收敛于一个值。
根据上述实施方案,本申请提出的一种基于量子神经元的混合神经网络的构建方法根据实际任务需求选用合适的迭代优化算法,最终得到混合神经网络的最佳参数。
图5为图2的步骤S102中包括的步骤S1021的流程示意图。如图5所示,步骤S1021包括步骤S1021-a到步骤S1021-c。
在步骤S1021-a,基于量子神经元的混合神经网络的构建装置对任务数据集中的经典数据进行归一化,得到第一数据集,其中第一数据集的数据限制在[0,π]范围内。在一些具体实施例中,当前任务包括对应的任务数据集,任务数据集中的数据为经典数据。可选地,第一数据集中的数据为一组归一化后的数据x=xi,i=1,2,…,n,n为不为0的正整数,表示数据集中的数据个数。
在一些具体实施例中,在步骤S1021-b,基于量子神经元的混合神经网络的构建装置生成包括一个或多个量子比特的第二数据集,其中量子比特的数量和任务数据集中经典数据的数量一致。
在步骤S1021-c,基于量子神经元的混合神经网络的构建装置对第二数据集中的每个量子比特应用含参的第一量子逻辑门,以生成量子态数据集,其中第一量子逻辑门的参数和第一数据集中的数据一一对应。在一些具体实施例中,在步骤S1021-c,对第二数据集中的每个量子比特应用一个含参的第一量子逻辑门,以生成量子态数据集,其中量子态数据集中的每个量子逻辑门的参数和第一数据集中的数据一一对应。
可选地,量子态数据集中的第i个量子逻辑门的参数为xi,xi为第一数据集中的第i个数据。可选地,第一量子逻辑门包括Rx门、Ry门或Rz门中的任意一个。可选地,量子态数据集中的任意一个数据可以表示为|x>=Ud(x)0>,其中xi为第一数据集中的第i个数据,i=1,2,…,n,n为不为0的正整数,表示数据集中的数据个数。
根据上述实施方案,本申请提出的一种基于量子神经元的混合神经网络的构建方法能够根据当前的任务需求将经典数据映射为量子数据,从而使得所构造的量子神经元能够适应经典神经网络的结合要求。
图7为本申请的基于量子神经元的混合神经网络的构建装置7000的结构示意图。如图7所示,装置7000包括网络类型确定模块701、神经元构造模块702、网络结构确定模块703和训练优化模块704。
在一些具体实施例中,网络类型确定模块701根据当前任务确定经典神经网络的类型。可选地,经典神经网络的类型可以是深度神经网络、卷积神经网络、递归神经网络中的任意一种。
在一些具体实施例中,神经元构造模块702构造量子神经元。当前任务包括对应的任务数据集,任务数据集中的数据为经典数据。在一些具体实施例中,神经元构造模块702构造量子神经元的步骤可以包括将任务数据集中的经典数据编码为量子态数据。神经元构造模块702对任务数据集中的经典数据进行归一化处理,得到第一数据集,其中第一数据集的数据限制在[0,π]范围内。可选地,第一数据集中的第i个数据可以表示为x=xi,i=1,2,…,n,其中n为不为0的正整数。
在一些具体实施例中,神经元构造模块702生成包括一个或多个量子比特的第二数据集,其中第二数据集中的量子比特的数量和任务数据集中的经典数据的数量保持一致。神经元构造模块702对第二数据集中的每个量子比特应用一个含参的第一量子逻辑门,以生成量子态数据集,其中量子态数据集中的每个量子逻辑门的参数和第一数据集中的数据一一对应。
可选地,量子态数据集中的任意一个数据可以表示为|x>=Ud(x)|0>,其中xi为第一数据集中的第i个数据,i=1,2,…,n,n为不为0的正整数,表示数据集中的数据个数。
在一些具体实施例中,神经元构造模块702构造量子神经元的步骤包括设计含参量子线路。可选地,含参量子线路为单层的Rx门、Ry门或Rz门中的任意一个。
可选地,神经元构造模块702将含参量子线路作用量子态数据集上,作用后的量子态数据集中的任意一个数据的状态为|q>=Ud(θ)|x>,其中Ud(θ)为含参量子线路,|x>为量子态数据集中的数据。
在一些具体实施例中,神经元构造模块702构造量子神经元还包括选择对所述含参量子线路中的含参量子比特的测量输出策略。可选地,通过测量最终量子态在给定的一个测量算子上的期望值作为输出。可选地,通过在第二数据集中的每个量子比特上使用不同的测量算子测量一次期望值作为输出。可选地,通过在第二数据集中的每个量子比特上使用多个不同的测量算子进行多次测量期望值作为输出。
在一些具体实施例中,网络结构确定模块703设计混合神经网络,其中混合神经网络中的神经元为所构造的量子神经元,混合神经网络的网络结构和所确定的经典神经网络的类型相对应。
网络结构确定模块703将神经元构造模块702构造的量子神经元作为混合神经网络中的神经元,构造网络类型确定模块701所确定的经典神经网络的类型相对应的混合神经网络。可选地,混合神经网络的隐藏层数量和每一个隐藏层的神经元数量根据实际任务所确定。
在一些具体实施例中,网络结构确定模块703设计混合神经网络包括设计混合神经网络的损失函数。网络结构确定模块703还构建混合神经网络的前向传播网络,即确定前向传播网络中包括的隐藏层数量和每一层包括的神经元数量。
在一些具体实施例中,训练优化模块704训练得到混合神经网络的最佳参数。可选地,训练优化模块704利用基于梯度的算法迭代混合神经网络的参数值。可选地,训练优化模块704利用基于无梯度的算法迭代混合神经网络的参数值。在一些具体实施例中,在满足迭代终止条件的情况下,训练优化模块704将当前的参数值作为混合神经网络的最佳参数值。可选地,迭代终止条件为混合神经网络的输出收敛于一个值。
图8为本申请的基于量子神经元的混合神经网络的构建方法构造的混合神经网络8000的示意图。参见图8,所构造的混合神经网络包括输入层、隐藏层及输出层,其中输出层包括一个量子神经元。在图8所示的实施例中,当前任务的目的是推断出一个合理的m类分类结果。经典神经网络中,为了实现m类分类至少需要m-1个输出供损失函数处理,因此一般最后一层采用m个神经元以获得相应的输出值。
在图8所示的混合神经网络结构中,对图8中最后一层的量子神经元中同一量子态采用不同的测量算子进行测量,从而实现用一个神经元即可获得足够的输出来计算损失函数。
图9为本申请提供的一种电子设备的结构图。
参阅图9,图9提供一种电子设备,包括处理器以及存储器。存储器存储有计算机指令,当计算机指令被处理器执行时,使得处理器执行所述计算机指令从而实现如图1所示的方法以及细化方案。
应该理解,上述的装置实施例仅是示意性的,本发明披露的装置还可通过其它的方式实现。例如,上述实施例中所述单元/模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如,多个单元、模块或组件可以结合,或者可以集成到另一个系统,或一些特征可以忽略或不执行。
另外,若无特别说明,在本发明各个实施例中的各功能单元/模块可以集成在一个单元/模块中,也可以是各个单元/模块单独物理存在,也可以两个以上单元/模块集成在一起。上述集成的单元/模块既可以采用硬件的形式实现,也可以采用软件程序模块的形式实现。
所述集成的单元/模块如果以硬件的形式实现时,该硬件可以是数字电路,模拟电路等等。硬件结构的物理实现包括但不局限于晶体管,忆阻器等等。若无特别说明,所述处理器或芯片可以是任何适当的硬件处理器,比如CPU、GPU、FPGA、DSP和ASIC等等。若无特别说明,所述片上缓存、片外内存、存储器可以是任何适当的磁存储介质或者磁光存储介质,比如,阻变式存储器RRAM(Resistive Random Access Memory)、动态随机存取存储器DRAM(Dynamic Random Access Memory)、静态随机存取存储器SRAM(Static Random-AccessMemory)、增强动态随机存取存储器EDRAM(Enhanced Dynamic Random Access Memory)、高带宽内存HBM(High-Bandwidth Memory)、混合存储立方HMC(Hybrid Memory Cube)等等。
所述集成的单元/模块如果以软件程序模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储器中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储器中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本披露各个实施例所述方法的全部或部分步骤。而前述的存储器包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
本申请实施例还提供一种非瞬时性计算机存储介质,存储有计算机程序,当所述计算机程序被多个处理器执行时,使得所述处理器执行如图1所示的方法以及细化方案。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明仅用于帮助理解本申请的方法及其核心思想。同时,本领域技术人员依据本申请的思想,基于本申请的具体实施方式及应用范围上做出的改变或变形之处,都属于本申请保护的范围。综上所述,本说明书内容不应理解为对本申请的限制。

Claims (11)

1.一种基于量子神经元的混合神经网络的构建方法,其特征在于,包括:
根据当前任务确定经典神经网络的类型;
构造量子神经元;
设计混合神经网络,其中所述混合神经网络中的神经元为所构造的量子神经元,所述混合神经网络的网络结构和所确定的经典神经网络的类型相对应;
训练得到所述混合神经网络的最佳参数。
2.如权利要求1所述的方法,所述当前任务包括对应的任务数据集,其特征在于,所述构造量子神经元包括:
将所述任务数据集中的经典数据编码为量子态;
设计含参量子线路;
选择对所述含参量子线路中的含参量子比特的测量输出策略。
3.如权利要求2所述的方法,其特征在于,所述任务数据集包括一个或多个经典数据,所述将所述任务数据集中的经典数据编码为量子态包括:
对所述任务数据集中的经典数据进行归一化,得到第一数据集,其中所述第一数据集的数据限制在[0,π]范围内;
生成包括一个或多个量子比特的第二数据集,其中量子比特的数量和所述任务数据集中经典数据的数量一致;
对所述第二数据集中的每个量子比特应用含参的第一量子逻辑门,以生成量子态数据集,其中所述第一量子逻辑门的参数和所述第一数据集中的数据一一对应。
4.如权利要求3所述的方法,其特征在于,所述第一量子逻辑门包括Rx门、Ry门或Rz门中的任意一个。
5.如权利要求2所述的方法,其特征在于,所述含参量子线路包括单层的Rx门、Ry门或Rz门中的任意一个。
6.如权利要求3所述的方法,其特征在于,所述测量输出策略包括:
对所述第二数据集中的每个量子比特使用不同的测量算子进行一次测量,或者
对所述第二数据集中的所有量子比特使用不同的测量算子进行多次测量。
7.如权利要求2所述的方法,其特征在于,所述设计混合神经网络包括:
设计所述混合神经网络的损失函数;
构建所述混合神经网络的前向传播网络。
8.如权利要求2所述的方法,其特征在于,所述训练得到所述混合神经网络的最佳参数包括:
利用基于梯度的算法或基于无梯度的算法迭代所述混合神经网络中含参量子线路的参数值;
在满足迭代终止条件的情况下,将当前的参数值作为所述混合神经网络的最佳参数值。
9.一种基于量子神经元的混合神经网络的构建装置,其特征在于,包括:
网络类型确定模块,根据当前任务确定经典神经网络的类型;
神经元构造模块,构造量子神经元;
网络结构确定模块,设计混合神经网络,其中所述混合神经网络中的神经元为所构造的量子神经元,所述混合神经网络的网络结构和所确定的经典神经网络的类型相对应;
训练优化模块,训练得到所述混合神经网络的最佳参数。
10.一种电子设备,包括:
处理器;
存储器,存储有计算机程序,当所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1-8任一者所述的方法。
11.一种非瞬时性计算机可读存储介质,其上存储有计算机可读指令,当所述指令被处理器执行时,使得所述处理器执行如权利要求1-8任一者所述的方法。
CN202311108669.8A 2023-08-30 2023-08-30 基于量子神经元的混合神经网络的构建方法及装置 Pending CN117273109A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311108669.8A CN117273109A (zh) 2023-08-30 2023-08-30 基于量子神经元的混合神经网络的构建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311108669.8A CN117273109A (zh) 2023-08-30 2023-08-30 基于量子神经元的混合神经网络的构建方法及装置

Publications (1)

Publication Number Publication Date
CN117273109A true CN117273109A (zh) 2023-12-22

Family

ID=89209506

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311108669.8A Pending CN117273109A (zh) 2023-08-30 2023-08-30 基于量子神经元的混合神经网络的构建方法及装置

Country Status (1)

Country Link
CN (1) CN117273109A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117612633A (zh) * 2024-01-23 2024-02-27 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种药物分子性质预测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117612633A (zh) * 2024-01-23 2024-02-27 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种药物分子性质预测方法
CN117612633B (zh) * 2024-01-23 2024-04-09 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) 一种药物分子性质预测方法

Similar Documents

Publication Publication Date Title
Han et al. An improved evolutionary extreme learning machine based on particle swarm optimization
JP7266330B2 (ja) メモリスタ誤差に対するメモリスタメモリニューラルネットワークトレーニング方法
Wu et al. Network intrusion detection based on a general regression neural network optimized by an improved artificial immune algorithm
CN117273109A (zh) 基于量子神经元的混合神经网络的构建方法及装置
CN114511021A (zh) 基于改进乌鸦搜索算法的极限学习机分类算法
Miessi Sanches et al. Ordinary least squares estimation of a dynamic game model
CN115496144A (zh) 配电网运行场景确定方法、装置、计算机设备和存储介质
Zhang et al. Optimal echo state network parameters based on behavioural spaces
Tembine Mean field stochastic games: Convergence, Q/H-learning and optimality
CN114139593A (zh) 一种去偏差图神经网络的训练方法、装置和电子设备
Zhang et al. Fast bilateral filtering
CN111859799A (zh) 基于复杂机电系统耦合关系模型评估数据准确性的方法及装置
Gong et al. Optimization of Local Prediction Algorithm of Financial Time Series Based on Fuzzy Neural Network
CN116776996A (zh) 组合优化问题的量子化求解方法、装置、存储介质和设备
CN110009091B (zh) 学习网络在等价类空间中的优化
CN116306277A (zh) 一种滑坡位移预测方法、装置及相关组件
CN115577781A (zh) 量子相对熵确定方法、装置、设备及存储介质
CN113435581B (zh) 数据处理方法、量子计算机、装置及存储介质
US11443171B2 (en) Pulse generation for updating crossbar arrays
CN114511092A (zh) 一种基于量子线路的图注意力机制实现方法
Jia et al. An optimized classification algorithm by neural network ensemble based on PLS and OLS
Roj Estimation of the artificial neural network uncertainty used for measurand reconstruction in a sampling transducer
Zhao et al. CLDM: convolutional layer dropout module
Fu et al. Cycle-to-cycle variation enabled energy efficient privacy preserving technology in ann
CN113469450B (zh) 一种数据分类方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination