CN117875438A - 一种基于量子卷积神经网络的量子自编码器及qcae方法 - Google Patents
一种基于量子卷积神经网络的量子自编码器及qcae方法 Download PDFInfo
- Publication number
- CN117875438A CN117875438A CN202311716174.3A CN202311716174A CN117875438A CN 117875438 A CN117875438 A CN 117875438A CN 202311716174 A CN202311716174 A CN 202311716174A CN 117875438 A CN117875438 A CN 117875438A
- Authority
- CN
- China
- Prior art keywords
- quantum
- encoder
- qcae
- neural network
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 103
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 41
- 238000013528 artificial neural network Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 239000010813 municipal solid waste Substances 0.000 claims description 8
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 abstract description 10
- 238000000605 extraction Methods 0.000 abstract description 4
- 238000013507 mapping Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 238000011160 research Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000005366 Ising model Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/20—Models of quantum computing, e.g. quantum circuits or universal quantum computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Mathematics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明公开了一种基于量子卷积神经网络的量子自编码器及QCAE方法,属于深度学习技术领域,包括以下步骤:S1、假设QCAE方法中初始输入的量子态为|Ψ>input,将|Ψ>input经过QCAE的编码器线路进行编码,S2、|Ψ>encode作为输入量子态,输入到解码器中进行解码,得到的量子态为|Ψ>decode,具有更高的保真度,其性能要更高,编码器和解码器中的映射网络由量子卷积神经网络构建,并且设计了相应的量子线路用以构建编码器和解码器,量子卷积神经网络具有更好的特征提取能力,从而大大提高了解码器和编码器的性能。
Description
技术领域
本发明涉及深度学习技术领域,具体为一种基于量子卷积神经网络的量子自编码器及QCAE方法。
背景技术
由于深度学习在众多任务中表现优越并且具有广泛的应用,在量子机器学习中也诞生了量子深度学习这一研究领域,现有的量子深度学习算法有量子玻尔兹曼机、量子主成分分析、量子强化学习等,量子深度学习的研究目前已有许多进展,其中受到关注最多的分支之一为量子生成模型,量子生成模型不仅继承了经典生成模型的特点,还结合了量子计算的特性,使得量子生成模型有超过经典生成模型能力的潜力,比如量子生成模型面对高维数据集时,可以通过参数线路将其映射至可以学习数据特征的希尔伯特空间中,从而解决经典生成模型训练困难问题。
目前的量子生成模型主要为经典生成模型的量子扩展,其中包括量子生成对抗网络、量子自编码器、量子线路玻恩机等,尽管量子生成模型相比经典生成模型具有很大优势,但是量子生成模型仍然处于起步阶段,还有许多问题有待解决和探索,比如不同的量子生成模型的性能、可训练性和表达性不是特别理想,另外,由于目前量子计算机正处于噪声中尺度量子计算机时代,量子噪声和测量误差会显著降低量子生成模型的性能,因此研究如何在保持量子生成模型优势的同时提高它们的鲁棒性是非常有必要的,也就是提高量子生成模型的学习能力,
量子自编码器是一种量子神经网络,它由一个编码器和一个解码器组成,用于学习数据分布并生成新的数据样本。编码器将输入数据压缩成低维的量子态,解码器则从这些量子态中恢复出原始数据。量子自编码器可以用于降维、生成模型、强化学习等领域。
在深度学习中,一种常见生成模型是自编码器模型(Auto encoder,AE),它也是一种无监督或自监督学习算法,根据学习范式,自编码器可分为收缩自编码器、正则化自编码器和变分自编码器,自编码器由编码器和解码器这两部分组成,具体而言,编码器可以学习输入数据的隐式特征表示,解码器则负责根据学习到的隐式特征重构原始输入数据,因此,从直观上看,自编码器可以应用于特征提取和降维,谈到降维,经典机器学习中还有一种常见的方法,称为主成分分析算法,但与主成分分析算法不同的是,自编码器还可以用于非线性降维,而主成分分析算法只能用于线性降维,因此,研究自编码器模型是非常必要和有意义的,此外,自编码器还有许多其他应用,如异常检测,图像降噪,以及神经风格转移等。
基于面临的这些问题和挑战,本发明主要研究量子生成模型算法的优化问题,具体地,则是优化的量子生成模型中的量子自编码器方法(Quantum auto encoder,QAE)。
QAE方法是在深度学习领域中应用广泛的一种方法,而QAE方法则是自编码器对应于量子计算领域中的一种对应方法,QAE方法由Romero等人在2017年首次提出,其主要应用是压缩量子数据,量子数据分类,量子数据去噪和量子纠错,由于QAE的原理较为简单且应用广泛,QAE方法在量子计算领域有着重要的发展。
与传统深度学习中的编码器相似,QAE方法一般由两个部分组成,即编码器和解码器,其中编码器负责将输入的数据进行编码,提取出数据的主要特征,得到数据的隐式特征表示,而解码器则负责将编码之后的特征表示,进行恢复,得到最初的输入数据,QAE中的编码器和解码器通常是由量子神经网络(Quantum neural networks,QNNs)组成,QNNs是量子化的神经网络,使用量子比特作为输入的数据,量子门和量子线路作为构成神经网络的基础部分,通过QNNs可以将传统深度学习中的方法,使用量子化的方法进行进一步地扩展。
QAE的性能与许多因素有关,例如编码器和解码器的QNNs的结构、编码器和解码器量子线路中参数的初始化以及QAE的压缩比率,如果初始量子态的秩大于编码器输出量子态的量子比特数,则通过如上所述的解码过程获得的量子态与初始量子态之间的保真度最高只能达到初始量子态的前N个最大特征值之和,其中N为编码器输出量子态的量子比特数,因此,如何提高QAE自编码器方法的性能,使得最终输出的量子态与最初量子态保持高度一致,已经成为研究的热点之一。
对比QAE方法具有更高的保真度,其性能比QAE方法的性能要更高,QCAE方法的整体框架和QAE自编码器方法相似,同样具有量子编码器和量子解码器,但在QCAE方法中,编码器和解码器中的映射网络由量子卷积神经网络构建,并且设计了相应的量子线路用以构建编码器和解码器,量子卷积神经网络具有更好的特征提取能力,从而大大提高了解码器和编码器的性能,使得初始输入状态|Ψ>input和解码器的输出状态|Ψ>decoode之间的保真度大大提高。
当输入量子态的秩大于压缩态的量子比特数时,QAE的解码过程无法以高保真度恢复初始输入的量子态。
QCAE(Quantum Convolutional Autoencoder)是一种量子神经网络,它结合了量子计算和卷积神经网络(CNN)的优点。QCAE的编码器和解码器都采用量子卷积层,以在量子计算机上实现高效的自编码学习,在QCAE中,量子卷积层使用量子位(qubit)作为计算单元,并利用量子纠缠和量子门操作实现高效的计算。QCAE的编码器将输入数据压缩成低维的量子态,而解码器则从这些量子态中恢复出原始数据。通过这种方式,QCAE可以学习数据分布并生成新的数据样本,QCAE的优点包括:高效性:由于采用了量子计算和卷积神经网络的技术,QCAE可以在较短的时间内对大规模数据进行编码和解码,可扩展性:QCAE的架构可以扩展到更大的数据集和更复杂的任务,例如图像分类、语音识别等,安全性:由于量子计算的特殊性质,QCAE具有较高的安全性,可以保护数据隐私和防止恶意攻击,总之,QCAE是一种具有潜力的量子神经网络,可以应用于降维、生成模型、强化学习等领域。
发明内容
本发明提出了一种名为QCAE的方法(Quantum autoencoder based on quantumconvolutional neural networks,QCAE),该方法得到的|Ψ>input和|Ψ>decoode,对比QAE方法具有更高的保真度,其性能比QAE方法的性能要更高,QCAE方法的整体框架和QAE自编码器方法相似,同样具有量子编码器和量子解码器,但在QCAE方法中,编码器和解码器中的映射网络由量子卷积神经网络构建,并且设计了相应的量子线路用以构建编码器和解码器,量子卷积神经网络具有更好的特征提取能力,从而大大提高了解码器和编码器的性能,使得初始输入状态|Ψ>input和解码器的输出状态|Ψ>decoode之间的保真度大大提高,当输入量子态的秩大于压缩态的量子比特数时,QAE的解码过程无法以高保真度恢复初始输入的量子态,为了解决这个问题,QCAE方法采用了四种不同结构的量子线路的组合来实现量子卷积神经网络线路,其中前三种为经典的量子线路,而第四种为本文首创的量子线路,在同等的量子比特数下,QCAE方法能够以较高的保真度恢复初始输入的量子态,特别地,在压缩多量子比特时,QCAE方法依然能够以较高的保真度恢复初始输入的量子态,除此之外,QCAE方法还可以执行异常检查的任务,例如,使用QCAE方法对正常的数字图像进行压缩,经过压缩训练后,QCAE方法可以很好地恢复所选数字的手写图片,而非所选的数字图片,则不能够被恢复,这可以用来判定图片是否异常,在未来,QCAE方法一定会在量子机器学习中有更多的应用。
为了实现上述效果,本发明提供如下技术方案:一种基于量子卷积神经网络的量子自编码器及QCAE方法,包括,
编码器和解码器。
所述编码器与解码器通过量子卷积神经网络连接。
所述编码器编码的过程可以描述为E(x)=x'。
所述解码器解码过程描述为D(x')=y或者D(E(x))=y。
所述QCAE方法的损失函数F一般定义,如以下公式1:
进一步的,包括,所述x点代表输入数据,x'点代表输入数据经过编码之后的隐式特征表示,x'也被称为隐变量。
进一步的,包括,所述点y则表示经过解码器解码之后的恢复数据。
进一步的,包括,所述E代表构成QCAE方法编码器的量子线路,D代表成QCAE方法的解码器的量子线路。
一种基于量子卷积神经网络的量子自编码器及QCAE方法,包括以下步骤:
S1、假设QCAE方法中初始输入的量子态为|Ψ>input,将|Ψ>input经过QCAE的编码器线路进行编码,编码之后得到的量子态为|Ψ>encode。
S2、|Ψ>encode作为输入量子态,输入到解码器中进行解码,得到的量子态为|Ψ>decode。
S3、QCAE方法的目标是使量子态|Ψ>decode等于或者高度相似于初始输入量子态|Ψ>input。
S4、通过调整编码器和解码器线路中的参数,使得损失函数F1的值逐渐减小,直至设定的某个趋近于0的值。
S5、解码器酉操作是编码器酉操作的逆,所以QCAE训练目标可以转化为将|Ψ>trash量子态系统与|Ψ>encode整个系统解耦。
S6、通过调整编码器中的参数,使得损失函数F2的值逐渐减小,直至趋近于0或者设定的某个趋近于0的值。
进一步的,包括以下步骤:根据S1中的操作步骤,所述|Ψ>encode的维度一般比|Ψ>input要小很多,并且整个输出量子系统是包含了|Ψ>trash量子态的一个系统,假设该量子系统为|Ψencode(Ψtrash)>=A(B)。而编码器所进行的量子卷积神经网络操作可以用整体酉操作U来表示,因此该编码过程如下公式2所示:
进一步的,包括以下步骤:根据S2中的操作步骤,所述解码器所进行的量子卷积神经网络操作可以用整体酉操作V来表示,因此解码的过程可以用如下的公式3表示:
进一步的,包括以下步骤:根据S3中的操作步骤,所述衡量两个量子态的相似程度,通常是使用保真度。当保真度的值越来越接近于1时,则表示两个量子态的相似程度也越来越高。当保真度为1时,则表示两个量子态完全相等。假设计算保真度的函数为γ=(x,y),则可以得到如下的损失函数,公式4:F1=1-γ(|Ψ>input,|Ψ>decode)。
进一步的,包括以下步骤:根据S5中的操作步骤,所述QCAE的训练损失函数可以转化为只含有编码器参数的式子,如下公式5所示:
进一步的,包括以下步骤:根据S6中的操作步骤,所述编码器训练完成之后,解码器酉操作则为取编码器酉操作的逆来获得,此时的编码器和解码器即为训练完毕的编码器和解码器。
本发明提供了一种基于量子卷积神经网络的量子自编码器及QCAE方法,具备以下有益效果:
QCAE方法采用了四种不同结构的量子线路的组合来实现量子卷积神经网络线路,其中前三种为经典的量子线路,而第四种为本文首创的量子线路,在同等的量子比特数下,QCAE方法能够以较高的保真度恢复初始输入的量子态,特别地,在压缩多量子比特时,QCAE方法依然能够以较高的保真度恢复初始输入的量子态,除此之外,QCAE方法还可以执行异常检查的任务,例如,使用QCAE方法对正常的数字图像进行压缩,经过压缩训练后,QCAE方法可以很好地恢复所选数字的手写图片,而非所选的数字图片,则不能够被恢复,这可以用来判定图片是否异常,在未来,QCAE方法一定会在量子机器学习中有更多的应用。
附图说明
图1为本发明一种基于量子卷积神经网络的量子自编码器及QCAE方法的QCAE方法的总体网络框架示意图;
图2为本发明一种基于量子卷积神经网络的量子自编码器及QCAE方法的QCAE方法的主要构成示意图;
图3为本发明一种基于量子卷积神经网络的量子自编码器及QCAE方法的QCAE方法中的编码器和解码器的量子线路框架示意图;
图4为本发明一种基于量子卷积神经网络的量子自编码器及QCAE方法经典量子卷积神经网络的第一示意图;
图5为本发明一种基于量子卷积神经网络的量子自编码器及QCAE方法经典量子卷积神经网络的第二示意图;
图6为本发明一种基于量子卷积神经网络的量子自编码器及QCAE方法经典量子卷积神经网络的第三示意图;
图7为本发明一种基于量子卷积神经网络的量子自编码器及QCAE方法量子网络结构的示意图;
图8为本发明一种基于量子卷积神经网络的量子自编码器及QCAE方法的流程示意图。
具体实施方式
本发明提供一种技术方案:实施例进行模拟实验,并对其中的步骤进行详细的描述,为了便于比较,我们选择Ising模型的热态,作为输入的初始量子态数据,并且通过Paddle Quantum平台进行模拟实验,该平台是国内外知名的量子算法模拟平台,可以直观地提供模拟实验的结果。
实施例1,请参阅图1-8,一种基于量子卷积神经网络的量子自编码器及QCAE方法,包括以下步骤:
步骤一、假设QCAE方法中初始输入的量子态为|Ψ>input,|Ψ>input经过编码器编码之后得到的量子态为|Ψ>input,|Ψ>encode的维度一般比|v>input要小很多,并且整个输出量子系统是包含了|Ψ>trash量子态的一个系统,在PaddleQuantum平台,|Ψ>input可以表示为一个矩阵数据,而编码器所进行的量子卷积神经网络操作可以用整体酉操作U来表示,在PaddleQuantum平台,编码器可以表示为一段由数个量子门构建起来的量子线路,因此该编码过程如下公式6所示:
步骤二、将|Ψ>encode作为输入数据,输入到解码器中进行解码,得到的量子态为|Ψ>decode,在PaddleQuantum平台上,该量子态隐含在量子线路中,作为一个中间隐含变量存在于量子系统中,同样地,解码器所进行的量子卷积神经网络操作可以用整体酉操作V来表示,在PaddleQuantum平台上,该编码器则代表了另一段量子线路,因此解码的过程可以用如下的公式7表示:
步骤三、QCAE的目标是使量子态|Ψ>decode等于或者高度相似于初始输入量子态|Ψ>input,在量子计算领域,衡量两个量子态的接近程度,通常是使用保真度,当保真度的值越来越接近于1时,则表示两个量子态的相似程度也越来越高,当保真度为1时,则表示两个量子态完全相等,假设计算保真度的函数为γ=(x,y),在PaddleQuantum,我们可以调用具体的PaddleQuantum库函数,进行量子态的保真度的计算,得到一个具体的数值,因此可以得到如下的损失函数,公式8:
步骤四、通过调整编码器和解码器线路中的参数,使得损失函数F的值逐渐减小,直至设定的某个趋近于0的值,在PaddleQuantum平台上,调整编码器和解码器的参数,可以通过调整量子线路中的数个量子门的参数进行实现,该过程可以通过量子编程事先编写好代码,跑动的时候自动实现。
步骤五、由于解码器酉操作是编码器酉操作的逆,所以QCAE训练目标可以转化为将|Ψ>trash量子态系统与|Ψ>encode整个系统解耦,因此QCAE的训练损失函数可以转化为只含有编码器参数的式子,如下公式9所示:
步骤六、通过调整编码器中的参数,使得损失函数F2的值逐渐减小,直至设定的某个趋近于0的值,在PaddleQuantum平台上,调整编码器的参数可以通过调整量子线路中的数个量子门的参数进行实现,该过程可以通过量子编程事先编写好代码,跑动的时候自动实现,在编码器训练完成之后,解码器酉操作则为取编码器酉操作的逆来获得。
总共进行了三组实验,每组实验呈现的每个结果都是对量子线路进行10次随机初始化训练得到的平均值,实验结果表明,QCAE方法的平均恢复保真度可以达到99%左右,而QAE方法的平均恢复保真度只能达到不超过85%。
因此,本文提出的QCAE方法是一种性能更高的量子自编码方法。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.一种基于量子卷积神经网络的量子自编码器,其特征在于,包括,
编码器和解码器;
所述编码器与解码器通过量子卷积神经网络连接;
所述编码器编码的过程可以描述为E(x)=x';
所述解码器解码过程描述为D(x')=y或者D(E(x))=y;
所述QCAE方法的损失函数F一般定义,如以下公式1:
2.据权利要求1所述的一种基于量子卷积神经网络的量子自编码器,其特征在于,包括,所述x点代表输入数据,x'点代表输入数据经过编码之后的隐式特征表示,x'也被称为隐变量。
3.据权利要求2所述的一种基于量子卷积神经网络的量子自编码器,其特征在于,包括,所述点y则表示经过解码器解码之后的恢复数据。
4.据权利要求3所述的一种基于量子卷积神经网络的量子自编码器,其特征在于,包括,所述E代表构成QCAE方法编码器的量子线路,D代表成QCAE方法的解码器的量子线路。
5.一种基于量子卷积神经网络的量子自编码器的QCAE方法,其特征在于,包括以下步骤:
S1、假设QCAE方法中初始输入的量子态为|Ψ>input,将|Ψ>input经过QCAE的编码器线路进行编码,编码之后得到的量子态为|Ψ>encode;
S2、|Ψ>encode作为输入量子态,输入到解码器中进行解码,得到的量子态为|Ψ>decode;
S3、QCAE方法的目标是使量子态|Ψ>decode等于或者高度相似于初始输入量子态|Ψ>input;
S4、通过调整编码器和解码器线路中的参数,使得损失函数F1的值逐渐减小,直至设定的某个趋近于0的值;
S5、解码器酉操作是编码器酉操作的逆,所以QCAE训练目标可以转化为将|Σ>trash量子态系统与|Ψ>encode整个系统解耦;
S6、通过调整编码器中的参数,使得损失函数F2的值逐渐减小,直至趋近于0或者设定的某个趋近于0的值。
6.据权利要求5所述的一种基于量子卷积神经网络的量子自编码器的QCAE方法,其特征在于,包括以下步骤:根据S1中的操作步骤,所述|Ψ>encode的维度一般比|Ψ>input要小很多,并且整个输出量子系统是包含了|Ψ>trash量子态的一个系统,假设该量子系统为|Ψencode(Ψtrash)>=A(B),而编码器所进行的量子卷积神经网络操作可以用整体酉操作U来表示,因此该编码过程如下公式2所示:
7.据权利要求5所述的一种基于量子卷积神经网络的量子自编码器的QCAE方法,其特征在于,包括以下步骤:根据S2中的操作步骤,所述解码器所进行的量子卷积神经网络操作可以用整体酉操作V来表示,因此解码的过程可以用如下的公式3表示:
8.据权利要求5所述的一种基于量子卷积神经网络的量子自编码器的QCAE方法,其特征在于,包括以下步骤:根据S3中的操作步骤,所述衡量两个量子态的相似程度,通常是使用保真度,当保真度的值越来越接近于1时,则表示两个量子态的相似程度也越来越高,当保真度为1时,则表示两个量子态完全相等,假设计算保真度的函数为γ=(x,y),则可以得到如下的损失函数,公式4:F1=1-γ(|Ψ>input,|Ψ>decode)。
9.据权利要求5所述的一种基于量子卷积神经网络的量子自编码器的QCAE方法,其特征在于,包括以下步骤:根据S5中的操作步骤,所述QCAE的训练损失函数可以转化为只含有编码器参数的式子,如下公式5所示:
10.据权利要求5所述的一种基于量子卷积神经网络的量子自编码器的QCAE方法,其特征在于,包括以下步骤:根据S6中的操作步骤,所述编码器训练完成之后,解码器酉操作则为取编码器酉操作的逆来获得,此时的编码器和解码器即为训练完毕的编码器和解码器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311716174.3A CN117875438A (zh) | 2023-12-14 | 2023-12-14 | 一种基于量子卷积神经网络的量子自编码器及qcae方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311716174.3A CN117875438A (zh) | 2023-12-14 | 2023-12-14 | 一种基于量子卷积神经网络的量子自编码器及qcae方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117875438A true CN117875438A (zh) | 2024-04-12 |
Family
ID=90589186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311716174.3A Pending CN117875438A (zh) | 2023-12-14 | 2023-12-14 | 一种基于量子卷积神经网络的量子自编码器及qcae方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117875438A (zh) |
-
2023
- 2023-12-14 CN CN202311716174.3A patent/CN117875438A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109033095B (zh) | 基于注意力机制的目标变换方法 | |
CN113177882B (zh) | 一种基于扩散模型的单帧图像超分辨处理方法 | |
CN111461157A (zh) | 一种基于自学习的跨模态哈希检索方法 | |
CN111861886B (zh) | 一种基于多尺度反馈网络的图像超分辨率重建方法 | |
CN111259904A (zh) | 一种基于深度学习和聚类的语义图像分割方法及系统 | |
CN113240683A (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
Guo et al. | Dual reconstruction nets for image super-resolution with gradient sensitive loss | |
CN112861976A (zh) | 一种基于孪生图卷积哈希网络的敏感图像识别方法 | |
CN111898482A (zh) | 基于渐进型生成对抗网络的人脸预测方法 | |
CN116935126A (zh) | 一种基于经典—量子混合机器学习的医学图像分类方法 | |
CN116843830A (zh) | 一种基于自监督学习的掩码图像建模算法 | |
CN114565789B (zh) | 一种基于集合预测的文本检测方法、系统、装置及介质 | |
CN115062587A (zh) | 一种基于周围信息的知识图谱嵌入及回复生成方法 | |
Wu et al. | Joint latent low-rank and non-negative induced sparse representation for face recognition | |
Dai et al. | CFGN: A lightweight context feature guided network for image super-resolution | |
Evtimova et al. | Sparse coding with multi-layer decoders using variance regularization | |
CN113920210A (zh) | 基于自适应图学习主成分分析方法的图像低秩重构方法 | |
CN113128364A (zh) | 一种基于深度神经网络编码的指纹生物密钥生成方法 | |
CN117522674A (zh) | 一种联合局部和全局信息的图像重建系统及方法 | |
CN117313531A (zh) | 光子能带预测透射谱模型的训练、预测方法、介质及设备 | |
CN111666950A (zh) | 一种基于流模型的字体家族生成方法 | |
CN117875438A (zh) | 一种基于量子卷积神经网络的量子自编码器及qcae方法 | |
Ren | The advance of generative model and variational autoencoder | |
CN113179156B (zh) | 基于深度学习的手写签名生物密钥生成方法 | |
Cang et al. | Scalable microstructure reconstruction with multi-scale pattern preservation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |