CN115311515A - 混合量子经典的生成对抗网络的训练方法及相关设备 - Google Patents
混合量子经典的生成对抗网络的训练方法及相关设备 Download PDFInfo
- Publication number
- CN115311515A CN115311515A CN202210888172.1A CN202210888172A CN115311515A CN 115311515 A CN115311515 A CN 115311515A CN 202210888172 A CN202210888172 A CN 202210888172A CN 115311515 A CN115311515 A CN 115311515A
- Authority
- CN
- China
- Prior art keywords
- convolution
- loss function
- quantum
- module
- inputting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012549 training Methods 0.000 title claims abstract description 35
- 238000004364 calculation method Methods 0.000 claims abstract description 33
- 230000006870 function Effects 0.000 claims description 117
- 238000011176 pooling Methods 0.000 claims description 59
- 238000010606 normalization Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 11
- 239000002096 quantum dot Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 229910002056 binary alloy Inorganic materials 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005610 quantum mechanics Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/20—Models of quantum computing, e.g. quantum circuits or universal quantum computers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/60—Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Mathematics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Pure & Applied Mathematics (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Mathematical Analysis (AREA)
- Databases & Information Systems (AREA)
- Mathematical Optimization (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种混合量子经典的生成对抗网络的训练方法及相关设备,所述方法包括:获取输入图像,并将所述输入图像输入所述生成器,得到输出图像;将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果;基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值;基于所述第一损失函数值更新所述生成器的参数,并基于所述第二损失函数值更新所述判别器的参数,以对所述生成对抗网络进行训练。基于上述技术方案,可以解决经典GAN训练计算量大的问题,以提高训练效率。
Description
技术领域
本发明属于量子计算技术领域,特别是涉及一种混合量子经典的生成对抗网络的训练方法及相关设备。
背景技术
生成对抗网络(Generative Adversarial Networks,GAN)是深度学习领域的一个重要生成模型,即两个网络生成器(Generator)和判别器(Discriminator)在同一时间训练并且在极小化极大算法(minimax)中进行竞争。这种对抗方式避免了一些传统生成模型在实际应用中的一些困难,巧妙地通过对抗学习来近似一些不可解的损失函数,在图像、视频、自然语言和音乐等数据的生成方面有着广泛应用。但是经典GAN的训练参数多,训练计算量大导致训练时间长,训练GAN的效率较低。而量子计算机的出现为解决该问题提供了一种可能的方式。
量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机因其具有相对普通计算机更高效的处理数学问题的能力,例如,能将破解RSA密钥的时间从数百年加速到数小时,故成为一种正在研究中的关键技术。如何实现对混合量子经典的GAN进行训练是解决经典GAN训练计算量大的问题的关键步骤。
发明内容
本发明的目的是提供一种混合量子经典的生成对抗网络的训练方法及相关设备,旨在解决经典GAN训练计算量大的问题,以提高训练效率。
为了实现上述目的,本发明实施例的第一方面,提供一种混合量子经典的生成对抗网络的训练方法,所述生成对抗网络包括判别器和混合量子经典的生成器,所述方法包括:
获取输入图像,并将所述输入图像输入所述生成器,得到输出图像;
将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果;
基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值;
基于所述第一损失函数值更新所述生成器的参数,并基于所述第二损失函数值更新所述判别器的参数,以对所述生成对抗网络进行训练。
可选地,所述基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值,包括:
将所述判别结果和所述图像集的标签数据代入第一损失函数进行计算,得到所述生成器的第一损失函数值,所述第一损失函数基于均方差损失函数与二进制交叉熵损失函数加权求和得到;
将所述判别结果和所述图像集的标签数据代入第二损失函数进行计算,得到所述判别器的第二损失函数值,所述第二损失函数基于二进制交叉熵损失函数得到。
可选地,所述生成器包括级联的量子卷积单元和残差网络单元,所述将所述输入图像输入所述生成器,得到输出图像,包括:
将所述输入图像输入所述量子卷积单元,得到第一中间数据;
将所述第一中间数据输入所述残差网络单元,得到输出图像。
可选地,所述判别器包括级联的卷积批标准化单元和池化卷积单元,所述将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果,包括:
将包括所述输出图像的图像集输入所述卷积批标准化单元,得到第二中间数据;
将所述第二中间数据输入所述池化卷积单元,得到所述图像集的判别结果。
可选地,所述卷积批标准化单元包括级联的前置卷积模块和卷积批标准化模块,所述将包括所述输出图像的图像集输入所述卷积批标准化单元,得到第二中间数据,包括:
将所述输出图像的图像集输入所述前置卷积模块,得到第三中间数据;
将所述第三中间数据输入所述卷积批标准化模块,得到第二中间数据。
可选地,所述前置卷积模块包括级联的第一卷积层和第一激活层,所述卷积批标准化模块包括级联的第二卷积层、第一批标准化层和第二激活层。
可选地,所述池化卷积单元包括级联的池化模块和后置卷积模块,所述将所述第二中间数据输入所述池化卷积单元,得到所述图像集的判别结果,包括:
将所述第二中间数据输入所述池化模块,得到第四中间数据;
将所述第四中间数据输入所述后置卷积模块,得到所述图像集的判别结果。
可选地,所述池化模块包括池化层,所述后置卷积模块包括级联的第三卷积层、第三激活层、第四卷积层和第四激活层。
本发明实施例的第二方面,提供一种混合量子经典的生成对抗网络的训练装置,所述生成对抗网络包括判别器和混合量子经典的生成器,所述装置包括:
生成模块,用于获取输入图像,并将所述输入图像输入所述生成器,得到输出图像;
判别模块,用于将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果;
计算模块,用于基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值;
更新模块,用于基于所述第一损失函数值更新所述生成器的参数,并基于所述第二损失函数值更新所述判别器的参数,以对所述生成对抗网络进行训练。
可选地,所述计算模块还用于:
将所述判别结果和所述图像集的标签数据代入第一损失函数进行计算,得到所述生成器的第一损失函数值,所述第一损失函数基于均方差损失函数与二进制交叉熵损失函数加权求和得到;
将所述判别结果和所述图像集的标签数据代入第二损失函数进行计算,得到所述判别器的第二损失函数值,所述第二损失函数基于二进制交叉熵损失函数得到。
可选地,所述生成器包括级联的量子卷积单元和残差网络单元,所述生成模块还用于:
将所述输入图像输入所述量子卷积单元,得到第一中间数据;
将所述第一中间数据输入所述残差网络单元,得到输出图像。
可选地,所述判别器包括级联的卷积批标准化单元和池化卷积单元,所述判别模块还用于:
将包括所述输出图像的图像集输入所述卷积批标准化单元,得到第二中间数据;
将所述第二中间数据输入所述池化卷积单元,得到所述图像集的判别结果。
可选地,所述卷积批标准化单元包括级联的前置卷积模块和卷积批标准化模块,所述判别模块还用于:
将所述输出图像的图像集输入所述前置卷积模块,得到第三中间数据;
将所述第三中间数据输入所述卷积批标准化模块,得到第二中间数据。
可选地,所述前置卷积模块包括级联的第一卷积层和第一激活层,所述卷积批标准化模块包括级联的第二卷积层、第一批标准化层和第二激活层。
可选地,所述池化卷积单元包括级联的池化模块和后置卷积模块,所述判别模块还用于:
将所述第二中间数据输入所述池化模块,得到第四中间数据;
将所述第四中间数据输入所述后置卷积模块,得到所述图像集的判别结果。
可选地,所述池化模块包括池化层,所述后置卷积模块包括级联的第三卷积层、第三激活层、第四卷积层和第四激活层。
本发明实施例的第三方面,提供一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述第一方面中任一项所述方法的步骤。
本发明实施例的第四方面,提供一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述第一方面中任一项所述方法的步骤。
基于上述技术方案,获取输入图像后,将输入图像输入生成器,以生成输出图像,然后将输出图像的图像集输入判别器,对输出图像进行判定,得到判别结果,再根据判别结果和标签数据计算第一损失函数值和第二损失函数值,并基于第一损失函数值更新生成器的参数,基于第二损失函数值更新判别器的参数,以对生成对抗网络进行训练。由于采用了混合量子经典的生成器,借助量子计算的特性可以减少其中参数的数量,进而减少训练计算量,提高训练效率。
附图说明
图1是根据一示例性实施例示出的一种混合量子经典的生成对抗网络的训练方法的计算机终端的硬件结构框图。
图2是根据一示例性实施例示出的一种混合量子经典的生成对抗网络的训练方法的流程图。
图3是根据一示例性实施例示出的一种混合量子经典的生成对抗网络的判别器的框图。
图4是根据一示例性实施例示出的一种混合量子经典的生成对抗网络的生成器的框图。
图5是根据一示例性实施例示出的一种量子卷积单元的示意图。
图6是根据一示例性实施例示出的一种残差模块的示意图。
图7是根据一示例性实施例示出的一种混合量子经典的生成对抗网络的训练装置的框图。
具体实施方式
下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本发明实施例首先提供了一种混合量子经典的生成对抗网络的训练方法,该方法可以应用于电子设备,如计算机终端,具体如普通电脑、量子计算机等。
下面以运行在计算机终端上为例对其进行详细说明。图1是根据一示例性实施例示出的一种混合量子经典的生成对抗网络的训练方法的计算机终端的硬件结构框图。如图1所示,计算机终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和用于存储基于量子线路的混合量子经典的生成对抗网络的训练方法的存储器104,可选地,上述计算机终端还可以包括用于通信功能的传输装置106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述计算机终端的结构造成限定。例如,计算机终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中的基于量子线路的混合量子经典的生成对抗网络的训练方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
需要说明的是,真正的量子计算机是混合结构的,它包含两大部分:一部分是经典计算机,负责执行经典计算与控制;另一部分是量子设备,负责运行量子程序进而实现量子计算。而量子程序是由量子语言如QRunes语言编写的一串能够在量子计算机上运行的指令序列,实现了对量子逻辑门操作的支持,并最终实现量子计算。具体的说,量子程序就是一系列按照一定时序操作量子逻辑门的指令序列。
在实际应用中,因受限于量子设备硬件的发展,通常需要进行量子计算模拟以验证量子算法、量子应用等等。量子计算模拟即借助普通计算机的资源搭建的虚拟架构(即量子虚拟机)实现特定问题对应的量子程序的模拟运行的过程。通常,需要构建特定问题对应的量子程序。本发明实施例所指量子程序,即是经典语言编写的表征量子比特及其演化的程序,其中与量子计算相关的量子比特、量子逻辑门等等均有相应的经典代码表示。
量子线路作为量子程序的一种体现方式,也称量子逻辑电路,是最常用的通用量子计算模型,表示在抽象概念下对于量子比特进行操作的线路,其组成包括量子比特、线路(时间线)、以及各种量子逻辑门,最后常需要通过量子测量操作将结果读取出来。
不同于传统电路是用金属线所连接以传递电压信号或电流信号,在量子线路中,线路可看成是由时间所连接,亦即量子比特的状态随着时间自然演化,在这过程中按照哈密顿运算符的指示,一直到遇上逻辑门而被操作。
一个量子程序整体上对应有一条总的量子线路,本发明所述量子程序即指该条总的量子线路,其中,该总的量子线路中的量子比特总数与量子程序的量子比特总数相同。可以理解为:一个量子程序可以由量子线路、针对量子线路中量子比特的测量操作、保存测量结果的寄存器及控制流节点(跳转指令)组成,一条量子线路可以包含几十上百个甚至成千上万个量子逻辑门操作。量子程序的执行过程,就是对所有的量子逻辑门按照一定时序执行的过程。需要说明的是,时序即单个量子逻辑门被执行的时间顺序。
需要说明的是,经典计算中,最基本的单元是比特,而最基本的控制模式是逻辑门,可以通过逻辑门的组合来达到控制电路的目的。类似地,处理量子比特的方式就是量子逻辑门。使用量子逻辑门,能够使量子态发生演化,量子逻辑门是构成量子线路的基础,量子逻辑门包括单比特量子逻辑门,如Hadamard门(H门,阿达马门)、泡利-X门(X门,泡利X门)、泡利-Y门(Y门,泡利Y门)、泡利-Z门(Z门,泡利Z门)、RX门(RX旋转门)、RY门(RY旋转门)、RZ门(RZ旋转门)等等;多比特量子逻辑门,如CNOT门、CR门、iSWAP门、Toffoli门等等。量子逻辑门一般使用酉矩阵表示,而酉矩阵不仅是矩阵形式,也是一种操作和变换。一般量子逻辑门在量子态上的作用是通过酉矩阵左乘以量子态右矢对应的向量进行计算。例如,量子态右矢|0>对应的向量可以为量子态右矢|1>对应的向量可以为
图2是根据一示例性实施例示出的一种混合量子经典的生成对抗网络的训练方法的流程图,该生成对抗网络可以包括判别器和混合量子经典的生成器,如图2所示,该方法包括:
S21,获取输入图像,并将所述输入图像输入所述生成器,得到输出图像。
S22,将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果。
S23,基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值。
S24,基于所述第一损失函数值更新所述生成器的参数,并基于所述第二损失函数值更新所述判别器的参数,以对所述生成对抗网络进行训练。
具体来讲,结合经典计算和量子计算的生成对抗网络即为混合量子经典的生成对抗网络,例如生成对抗网络的判别器和生成器中有一者结合了经典计算和量子计算,则该生成网络即为混合量子经典的生成对抗网络,在其它的实施方式中,也可以是判别器和生成器中的一者基于量子计算实现,另一者基于经典计算实现。在图2所示的方法中,混合量子经典的生成对抗网络包括判别器和混合量子经典的生成器,其中,判别器可以为基于经典计算实现的判别器,本申请对此不做具体限制。
在步骤S21中,可以通过有线或无线的方式获取输入图像,然后将输入图像输入生成器,以对输入图像进行处理,得到处理后的输出图像。例如输入图像可以是低分辨率的图像,其分辨率为48*48*3,经过生成器处理后得到的输出图像分辨率提高,其分辨率为96*96*3,进而实现超分辨率技术,使得生成的图像接近真实图像。生成器可以采用卷积神经网络实现,例如可以采用量子卷积层和经典卷积层结合得到混合量子经典的生成器。
在步骤S22中,将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果。具体来讲,图像集可以仅包括输出图像,也可以同时包括输出图像和其它真实图像。将图像集输入判别器,由判别器对图像集中的图像进行判别,例如对于生成器输出的输出图像判别为假,可以通过0表示,对于真实图像判别为真,可以通过1表示。当然对于判别结果,也可以通过0至1之间的任一数字表示,该数字越小,表示对应的图像不真实的可能性越大。判别器可以采用卷积神经网络实现,例如可以基于经典卷积层和经典池化层构建生成器。
在步骤S23中,对于仅包括输出图像的图像集,可以在得到其判别结果后,利用该判别结果和该图像集的标签数据计算生成器的第一损失函数值,对于包括真实图像和输出图像的图像集,可以在得到其判别结果后,利用该判别结果和该图像集的标签数据计算判别器的第二损失函数值。
可选地,在步骤S23中,基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值,包括:
S231,将所述判别结果和所述图像集的标签数据代入第一损失函数进行计算,得到所述生成器的第一损失函数值,所述第一损失函数基于均方差损失函数与二进制交叉熵损失函数加权求和得到。
S232,将所述判别结果和所述图像集的标签数据代入第二损失函数进行计算,得到所述判别器的第二损失函数值,所述第二损失函数基于二进制交叉熵损失函数得到。
在步骤S231中,第一损失函数可以采用以下公式计算:
Loss=MSEloss+0.001*BCEloss
其中,BCEloss为二进制交叉熵损失函数,基于如下公式计算:
BCEloss=t*logy+(1-t)*log(1-y)
其中,y表示判别结果,t为标签数据。
MSEloss为均方差损失函数,基于如下公式计算:
其中,ti为标签数据,f(xi)为判别结果,n表示图像集中图像的个数。
第二损失函数可以直接采用上述二进制交叉熵损失函数BCEloss计算。当然,在其它的实施方式中,第一损失函数和第二损失函数也可以采用其它计算方式,本申请对此不做具体限制。
在步骤S24中,可以基于第一损失函数值和梯度下降算法对生成器的参数进行更新,直至满足预设条件例如达到预设迭代次数,或者第一损失函数值小于第一阈值。可以基于第二损失函数值和梯度下降算法对判别器的参数进行更新,直至满足预设条件例如达到预设迭代次数,或者第二损失函数值小于第二阈值。在对生成器的参数进行更新时,可以固定判别器的参数,在对判别器的参数进行更新时,可以固定生成器的参数。例如,在步骤S23中,计算出第一损失函数值后,可以直接进入步骤S24对生成器的参数进行更新,在步骤S23中计算出第二损失函数值后,直接进入步骤S24更新判别器的参数,对于步骤S23和步骤S24的执行顺序,本申请不作具体限制。
基于上述技术方案,获取输入图像后,将输入图像输入生成器,以生成输出图像,然后将输出图像的图像集输入判别器,对输出图像进行判定,得到判别结果,再根据判别结果和标签数据计算第一损失函数值和第二损失函数值,并基于第一损失函数值更新生成器的参数,基于第二损失函数值更新判别器的参数,以对生成对抗网络进行训练。由于采用了混合量子经典的生成器,借助量子计算的特性可以减少其中参数的数量,进而减少训练计算量,提高训练效率。
可选地,参见图3,所述判别器包括级联的卷积批标准化单元和池化卷积单元,在步骤S22中,将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果,包括:
S221,将包括所述输出图像的图像集输入所述卷积批标准化单元,得到第二中间数据。
S222,将所述第二中间数据输入所述池化卷积单元,得到所述图像集的判别结果。
具体来讲,在步骤S221中,卷积批标准化单元是具有神经网络卷积计算和批标准化计算功能的计算单元,将输出图像输入卷积批标准化单元,由其对输出图像进行处理,得到第二中间数据。第二中间数据可以表征图像集的某种特征,该特征可能并非可以由人明显识别的特征,而是可以由机器识别的某种特征。
可选地,参见图3,所述卷积批标准化单元包括级联的前置卷积模块和卷积批标准化模块,在步骤S221中,将包括所述输出图像的图像集输入所述卷积批标准化单元,得到第二中间数据,包括:
S2211,将所述输出图像的图像集输入所述前置卷积模块,得到第三中间数据。
S2212,将所述第三中间数据输入所述卷积批标准化模块,得到第二中间数据。
具体来讲,在步骤S2211中,前置卷积模块为用于实现神经网络卷积计算功能的模块,可以将图像集的像素数据输入前置卷积模块,以对其进行卷积运算,得到第三中间数据。第三中间数据可以表征输出图像的某种特征,该特征可能并非可以由人明显识别的特征,而是可以由机器识别的某种特征。
在步骤S2212中,卷积批标准化模块为用于实现神经网络卷积计算和批标准化运算的模块。卷积批标准化模块对第三中间数据进行卷积运算和批标准化运算,得到第二中间数据。
可选地,参见图3,所述前置卷积模块包括级联的第一卷积层和第一激活层,所述卷积批标准化模块包括级联的第二卷积层、第一批标准化层和第二激活层。其中第一卷积层和第二卷积层均可以为经典的卷积层(Convolutional layer),第一激活层和第二激活层均为一种经典的激活层,例如可以采用LeakyReLU激活层,第一批标准化层为一种经典的批标准化层(Batch Normalization Layer),其也叫作批量归一化层。第一卷积层与第一激活层级联,即第一卷积层的输出数据输入至第一激活层。第二卷积层、第一批标准化层和第二激活层级联,即第二卷积层的输出数据输入第一批标准化层,第一批标准化层的输出数据输入第二激活层。在一种可能的实施方式中,卷积批标准化模块的数量可以为多个,例如图3示出的判别器中卷积批标准化模块的数量为5个。
具体来讲,在步骤S222中,池化卷积单元是具有神经网络卷积计算和池化计算功能的计算单元,将第二中间数据输入池化卷积单元,由其对第二中间数据进行处理,得到图像集的判别结果。该判别结果可以通过0至1之间的数字来表示。
可选地,参见图3,所述池化卷积单元包括级联的池化模块和后置卷积模块,在步骤S222中,将所述第二中间数据输入所述池化卷积单元,得到所述图像集的判别结果,包括:
S2221,将所述第二中间数据输入所述池化模块,得到第四中间数据。
S2222,将所述第四中间数据输入所述后置卷积模块,得到所述图像集的判别结果。
在步骤S2221中,池化模块为用于执行池化运算的模块,将第二中间数据输入池化模块,由池化模块对第二中间数据进行池化运算,得到第四中间数据。第四中间数据可以表征图像集的某种特征,该特征可能并非可以由人明显识别的特征,而是可以由机器识别的某种特征。
在步骤S2222中,后置卷积模块为置于池化模块后的执行卷积运算的模块,后置卷积模块对第四中间数据执行运算,得到图像集的判别结果。
可选地,参见图3,所述池化模块包括池化层,所述后置卷积模块包括级联的第三卷积层、第三激活层、第四卷积层和第四激活层。
具体来讲,池化层(pooling layer)为执行池化运算的计算层,例如可以采用平均池化层,在一种可能的实施方式中,参见图3,池化模块由3个池化层构成。当然在其它的实施方式中,可以根据具体情况确定池化层的数量。第三卷积层和第四卷积层均为经典的卷积层,第三激活层和第四激活层为经典的激活层,例如第三激活层可以采用LeakyReLU激活层,第四激活层可以采用Sigmoid激活层。对于池化模块中的池化层,前一池化层的输出数据为后一池化层的输入数据,对于后置卷积模块中的计算层,第三卷积层的输出数据为第三激活层的输入数据,第三激活层的输出数据为第四卷积层的输入数据,第四卷积层的输出数据为第四激活层的输入数据。
当然在其它的实施方式中,卷积批标准化单元和池化卷积单元也可以有其它组成方案,本申请对此不做具体限制。
可选地,参见图4,所述生成器包括级联的量子卷积单元和残差网络单元,在步骤S21中,将所述输入图像输入所述生成器,得到输出图像,包括:
S211,将所述输入图像输入所述量子卷积单元,得到第一中间数据。
S212,将所述第一中间数据输入所述残差网络单元,得到输出图像。
在步骤S211中,量子卷积单元是基于量子计算方式构建的具有神经网络卷积计算功能的计算单元。例如量子卷积单元可以通过具有卷积计算功能的量子线路实现。参见图4,将获取的输入图像输入量子卷积单元,由量子卷积单元对输入图像进行处理,可以得到第一中间数据,第一中间数据可以表征输入图像的某种特征,该特征可能并非可以由人明显识别的特征,而是可以由机器识别的某种特征。
得到第一中间数据后,进入执行步骤S212,在步骤S212中,残差网络单元是包含残差网络(Residual Network,ResNet)的计算功能的计算单元,参见图4,量子卷积单元与残差网络单元级联,将量子卷积单元输出的第一中间数据输入残差网络单元,以对第一中间数据进一步进行处理,得到输出图像,输出图像的分辨率可以高于输入图像,实现图像超分辨率生成。
可选地,参见图5,所述量子卷积单元包括级联的量子编码模块、量子计算模块和量子测量模块,在步骤S211中,将所述输入图像输入量子卷积单元,得到第一中间数据,包括:
S2111,将所述输入图像输入所述量子编码模块,得到编码量子态。
S2112,将所述编码量子态输入所述量子计算模块,得到结果量子态。
S2113,将所述结果量子态输入所述量子测量模块,得到第一中间数据。
具体来讲,量子卷积单元可以由图5所示的量子线路实现,该量子线路包括量子编码模块、量子计算模块和量子测量模块。
在步骤S2111中,参见图5,先将输入图像输入到量子编码模块,得到编码量子态。具体地,可以先将量子比特制备至|0>态,然后将输入图像作为量子编码模块的参数,再将量子编码模块作用于量子比特,得到输出的编码量子态,编码量子态是通过量子态表示输入图像的一种信息形式。
可选地,参见图5,所述量子编码模块包括分别作用于所述量子卷积单元中每一量子比特的RY门,在步骤S2111中,将所述输入图像输入所述量子编码模块,得到编码量子态,包括:
S21111,将所述输入图像的像素数据分别输入所述RY门,以将该像素数据作为该RY门的参数。
S21112,将所述RY门作用于对应该RY门的所述量子比特,得到编码量子态。
具体地,对于量子编码模块,其可以包括多个RY门,数量与量子卷积单元也即对应的量子线路中的量子比特的数量相同,每个RY门分别作用于一量子比特。例如图5所示的量子线路包括4个量子比特,量子编码模块包括4个RY门,分别用Ry(θ1)、Ry(θ2)、Ry(θ3)、Ry(θ4)表示,其中,Ry(θ1)用于作用于从上至下所示的第一个量子比特,Ry(θ2)用于作用于从上至下所示的第二个量子比特,Ry(θ3)用于作用于从上至下所示的第三个量子比特,Ry(θ4)用于作用于从上至下所示的第四个量子比特。θ1、θ2、θ3、θ4,分别表示输入图像中不同的像素数据,例如为不同像素点的像素数据。
在步骤S21111中,可以先将输入图像的像素数据输入RY门,例如可以将不同位置的像素点的像素数据分别输入不同的RY门作为参数,得到具有特定参数的RY门。
在步骤S21112中,将RY门作用于对应的量子比特,例如图5中,将Ry(θ1)、Ry(θ2)、Ry(θ3)、Ry(θ4)四个RY门分别作用于对应的量子比特,使得量子比特由初始的|0>态演化至相应的编码量子态。
得到编码量子态后,执行步骤S2112,将编码量子态输入量子计算模块,使得编码量子态在量子计算模块的作用下演化,得到表示卷积计算结果的结果量子态。量子计算模块的具体结构可以根据具体情况选取,例如可以采用变分量子线路(variational quantumcircuit)或随机量子线路(random quantum circuit)的计算部分。
得到结果量子态后,进入执行步骤S2113,将结果量子态输入量子测量模块,得到第一中间数据,量子测量模块可以包括多个测量门,用于将量子态转化为对应的经典数据。例如图5所示的量子测量模块包括4个测量门,每个测量门分别作用于4个量子比特中的其中一个,经过不同测量门作用后得到不同的第一中间数据。
可选地,参见图4,所述残差网络单元包括级联的第一卷积模块、残差模块和第二卷积模块。其中,第一卷积模块和第二卷积模块用于实现卷积神经网络中的卷积运算,残差模块用于实现残差网络中的残差运算。
可选地,参见图4,所述第一卷积模块包括级联的第七卷积层和第六激活层。其中,第七卷积层为一种经典的卷积层(Convolutional Layer),可以包括一个或多个特定大小的卷积核用于对输入数据进行处理。第六激活层为一种经典的激活层(ActivationLayer),具体地,可以包括PReLU激活函数(Parametric Rectified Linear Unit)。当然在其它的实施方式中,第一卷积模块也可以有其它的结构,例如第六激活层可以采用其它经典的激活层。第七卷积层与第六激活层级联,即第七卷积层输出的数据输入至第六激活层中。
可选地,参见图6,所述残差模块包括级联的第五卷积层、第二批标准化层、第五激活层、第六卷积层、第三批标准化层和按位求和层,所述按位求和层用于按位计算所述第五卷积层的输入数据与所述第三批标准化层的输出数据之和。
具体来讲,第五卷积层和第六卷积层为一种经典的卷积层,与第七卷积层类似,只是其中的各项参数可能不同。第二批标准化层和第三批标准化层均为一种经典的批标准化层(Batch Normalization Layer),其也叫作批量归一化层,第五激活层为一种经典的激活层(ActivationLayer),具体地,可以包括PReLU激活函数(Parametric Rectified LinearUnit)。按位求和层用于将输入第五卷积层的输入数据的每一位数据,与第三批标准化层输出的输出数据的每一位数据按照对应位置进行求和,例如输入数据为2维向量,输出数据也为2维向量时,将输入数据的第一个元素与输出数据的第一个元素求和,再将输入数据的第二个元素与输出数据的第二个元素相加,得到最终的结果。残差模块的数量可以视具体情况决定,例如在图4所示的例子中,残差模块有3个。
可选地,参见图4,所述第二卷积模块包括级联的第八卷积层、第七激活层、第九卷积层、像素重组层、第八激活层和第十卷积层。
具体来讲,第八卷积层、第九卷积层和第十卷积层均为经典的卷积层,与第七卷积层类似,只是其中的各项参数可能不同。第七激活层和第八激活层为一种经典的激活层,具体地,可以包括PReLU激活函数(Parametric Rectified Linear Unit)。像素重组层(Pixelshuffle Layer)也叫像素重排层,其采用的方法为上采样方法,可以对缩小后的特征图进行有效的放大,具体来讲就是按照一定规则将每个像素点的r*r个通道依次转换为对应的r*r的图像块。
在步骤S212中,将所述第一中间数据输入残差网络单元,得到输出图像,包括:
S2121,将所述第一中间数据输入所述第一卷积模块,得到第五中间数据。
S2122,将所述第五中间数据输入所述残差模块,得到第六中间数据。
S2123,将所述第六中间数据输入所述第二卷积模块,得到输出图像。
在步骤S2121中,将第一中间数据输入第一卷积模块,由第一卷积模块对第一中间数据进行运算,得到第五中间数据,第五中间数据可以表征输入图像的某种特征,该特征可能并非可以由人明显识别的特征,而是可以由机器识别的某种特征。
得到第五中间数据后,进入执行步骤S2122,将第五中间数据输入残差模块,由残差模块对第五中间数据进行运算,得到第六中间数据,第六中间数据可以表征输入图像的某种特征,该特征可能并非可以由人明显识别的特征,而是可以由机器识别的某种特征。
得到第六中间数据后,进入执行步骤S2123,将第六中间数据输入第二卷积模块,由第二卷积模块对第六中间数据进行运算,得到分辨率高于输入图像的输出图像,实现超分辨率技术。输出图像的分辨率增加,使得处理后的图像更加真实。
需要说明的是,上述量子卷积单元和残差网络单元可以共同组成混合量子经典的生成器(Generator),进而可以与其它的判别器(Discriminator)共同组成生成对抗网络(Generative Adversarial Networks,GAN),故可以通过生成对抗网络的训练方式来对生成器进行训练。
在一种可能的实施方式中,针对生成器和判别器,按照上述公式计算各自的损失函数值后,可以使用Adam优化器对其进行优化更新。可以通过VQNet框架对其进行训练,对于生成器的量子部分,可以采用VQNet框架自带的QuantumLayer函数进行梯度计算,计算方式可以按照如下公式计算:
当然,在一种可能的实施方式中,可以先固定该生成器的参数,基于以下公式更新判别器的参数:
Maximize log(D(x)+log(1-D(G(z))))
其中,G表示生成器,D表示判别器,x表示真实图像,z表示随机生成的噪声数据例如输入图像。
更新完判别器的参数后,基于以下公式对生成器的参数进行更新:
Maximize log(D(G(z)))
此外,对于生成器给出的结果,我们可以使用PSNR(Peak Signal to NoiseRatio,峰值信噪比)和SSIM(Structural Similarity,结构相似性)对其进行评判。
PSNR是一种评价图像的客观标准,其计算方法为:
其中,MSE是原图像与处理图像之间的均方误差,n是每个采样值的比特数,PSNR值越大,就代表失真越少。
SSIM是一种衡量两幅图像相似度的指标。给定两个图像a和b,两张图的结构相似性可按照以下方式求出:
其中,ua是a的平均值,ub是b的平均值,是a的方差,是b的方差,σab是a和b的协方差。c1=(k1L)2,c2=(k2L)2,两者均为用于维持稳定的常数。L是像素值的动态范围。k1=0.01,k2=0.03。结构相似性的范围为-1到1,当两张图一模一样时,SSIM的值等于1。
图7是根据一示例性实施例示出的一种混合量子经典的生成对抗网络的训练装置,所述生成对抗网络包括判别器和混合量子经典的生成器,参见图7,该装置700包括:
生成模块710,用于获取输入图像,并将所述输入图像输入所述生成器,得到输出图像;
判别模块720,用于将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果;
计算模块730,用于基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值;
更新模块740,用于基于所述第一损失函数值更新所述生成器的参数,并基于所述第二损失函数值更新所述判别器的参数,以对所述生成对抗网络进行训练。
可选地,所述计算模块730还用于:
将所述判别结果和所述图像集的标签数据代入第一损失函数进行计算,得到所述生成器的第一损失函数值,所述第一损失函数基于均方差损失函数与二进制交叉熵损失函数加权求和得到;
将所述判别结果和所述图像集的标签数据代入第二损失函数进行计算,得到所述判别器的第二损失函数值,所述第二损失函数基于二进制交叉熵损失函数得到。
可选地,所述生成器包括级联的量子卷积单元和残差网络单元,所述生成模块710还用于:
将所述输入图像输入所述量子卷积单元,得到第一中间数据;
将所述第一中间数据输入所述残差网络单元,得到输出图像。
可选地,所述判别器包括级联的卷积批标准化单元和池化卷积单元,所述判别模块720还用于:
将包括所述输出图像的图像集输入所述卷积批标准化单元,得到第二中间数据;
将所述第二中间数据输入所述池化卷积单元,得到所述图像集的判别结果。
可选地,所述卷积批标准化单元包括级联的前置卷积模块和卷积批标准化模块,所述判别模块720还用于:
将所述输出图像的图像集输入所述前置卷积模块,得到第三中间数据;
将所述第三中间数据输入所述卷积批标准化模块,得到第二中间数据。
可选地,所述前置卷积模块包括级联的第一卷积层和第一激活层,所述卷积批标准化模块包括级联的第二卷积层、第一批标准化层和第二激活层。
可选地,所述池化卷积单元包括级联的池化模块和后置卷积模块,所述判别模块720还用于:
将所述第二中间数据输入所述池化模块,得到第四中间数据;
将所述第四中间数据输入所述后置卷积模块,得到所述图像集的判别结果。
可选地,所述池化模块包括池化层,所述后置卷积模块包括级联的第三卷积层、第三激活层、第四卷积层和第四激活层。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本发明的再一实施例还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述混合量子经典的生成对抗网络的训练方法实施例中的步骤。
具体的,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明的再一实施例还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述混合量子经典的生成对抗网络的训练方法实施例中的步骤。
具体的,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
具体的,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
获取输入图像,并将所述输入图像输入所述生成器,得到输出图像;
将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果;
基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值;
基于所述第一损失函数值更新所述生成器的参数,并基于所述第二损失函数值更新所述判别器的参数,以对所述生成对抗网络进行训练。
以上依据图式所示的实施例详细说明了本发明的构造、特征及作用效果,以上所述仅为本发明的较佳实施例,但本发明不以图面所示限定实施范围,凡是依照本发明的构想所作的改变,或修改为等同变化的等效实施例,仍未超出说明书与图示所涵盖的精神时,均应在本发明的保护范围内。
Claims (11)
1.一种混合量子经典的生成对抗网络的训练方法,其特征在于,所述生成对抗网络包括判别器和混合量子经典的生成器,所述方法包括:
获取输入图像,并将所述输入图像输入所述生成器,得到输出图像;
将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果;
基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值;
基于所述第一损失函数值更新所述生成器的参数,并基于所述第二损失函数值更新所述判别器的参数,以对所述生成对抗网络进行训练。
2.如权利要求1所述的方法,其特征在于,所述基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值,包括:
将所述判别结果和所述图像集的标签数据代入第一损失函数进行计算,得到所述生成器的第一损失函数值,所述第一损失函数基于均方差损失函数与二进制交叉熵损失函数加权求和得到;
将所述判别结果和所述图像集的标签数据代入第二损失函数进行计算,得到所述判别器的第二损失函数值,所述第二损失函数基于二进制交叉熵损失函数得到。
3.如权利要求1所述的方法,其特征在于,所述生成器包括级联的量子卷积单元和残差网络单元,所述将所述输入图像输入所述生成器,得到输出图像,包括:
将所述输入图像输入所述量子卷积单元,得到第一中间数据;
将所述第一中间数据输入所述残差网络单元,得到输出图像。
4.如权利要求1所述的方法,其特征在于,所述判别器包括级联的卷积批标准化单元和池化卷积单元,所述将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果,包括:
将包括所述输出图像的图像集输入所述卷积批标准化单元,得到第二中间数据;
将所述第二中间数据输入所述池化卷积单元,得到所述图像集的判别结果。
5.如权利要求4所述的方法,其特征在于,所述卷积批标准化单元包括级联的前置卷积模块和卷积批标准化模块,所述将包括所述输出图像的图像集输入所述卷积批标准化单元,得到第二中间数据,包括:
将所述输出图像的图像集输入所述前置卷积模块,得到第三中间数据;
将所述第三中间数据输入所述卷积批标准化模块,得到第二中间数据。
6.如权利要求5所述的方法,其特征在于,所述前置卷积模块包括级联的第一卷积层和第一激活层,所述卷积批标准化模块包括级联的第二卷积层、第一批标准化层和第二激活层。
7.如权利要求4所述的方法,其特征在于,所述池化卷积单元包括级联的池化模块和后置卷积模块,所述将所述第二中间数据输入所述池化卷积单元,得到所述图像集的判别结果,包括:
将所述第二中间数据输入所述池化模块,得到第四中间数据;
将所述第四中间数据输入所述后置卷积模块,得到所述图像集的判别结果。
8.如权利要求7所述的方法,其特征在于,所述池化模块包括池化层,所述后置卷积模块包括级联的第三卷积层、第三激活层、第四卷积层和第四激活层。
9.一种混合量子经典的生成对抗网络的训练装置,其特征在于,所述生成对抗网络包括判别器和混合量子经典的生成器,所述装置包括:
生成模块,用于获取输入图像,并将所述输入图像输入所述生成器,得到输出图像;
判别模块,用于将包括所述输出图像的图像集输入判别器,得到所述图像集的判别结果;
计算模块,用于基于所述判别结果和所述图像集的标签数据计算所述生成器的第一损失函数值和所述判别器的第二损失函数值;
更新模块,用于基于所述第一损失函数值更新所述生成器的参数,并基于所述第二损失函数值更新所述判别器的参数,以对所述生成对抗网络进行训练。
10.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至8任一项中所述的方法。
11.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至8任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210888172.1A CN115311515B (zh) | 2022-07-22 | 2022-07-22 | 混合量子经典的生成对抗网络的训练方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210888172.1A CN115311515B (zh) | 2022-07-22 | 2022-07-22 | 混合量子经典的生成对抗网络的训练方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115311515A true CN115311515A (zh) | 2022-11-08 |
CN115311515B CN115311515B (zh) | 2024-06-18 |
Family
ID=83859709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210888172.1A Active CN115311515B (zh) | 2022-07-22 | 2022-07-22 | 混合量子经典的生成对抗网络的训练方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115311515B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116015787A (zh) * | 2022-12-14 | 2023-04-25 | 西安邮电大学 | 基于混合持续变分量子神经网络的网络入侵检测方法 |
CN116579437A (zh) * | 2023-04-27 | 2023-08-11 | 本源量子计算科技(合肥)股份有限公司 | 一种量子线路训练方法、装置、存储介质及电子装置 |
WO2024109593A1 (zh) * | 2022-11-22 | 2024-05-30 | 中移(苏州)软件技术有限公司 | 基于量子生成对抗网络的图像生成方法及装置 |
CN116579437B (zh) * | 2023-04-27 | 2024-07-16 | 本源量子计算科技(合肥)股份有限公司 | 一种量子线路训练方法、装置、存储介质及电子装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110070174A (zh) * | 2019-04-10 | 2019-07-30 | 厦门美图之家科技有限公司 | 一种生成对抗网络的稳定训练方法 |
CN111598787A (zh) * | 2020-04-01 | 2020-08-28 | 西安电子科技大学 | 生物雷达图像去噪方法、装置、电子设备及其存储介质 |
CN111814907A (zh) * | 2020-07-28 | 2020-10-23 | 南京信息工程大学 | 一种基于条件约束的量子生成对抗网络算法 |
US20200410384A1 (en) * | 2018-03-11 | 2020-12-31 | President And Fellows Of Harvard College | Hybrid quantum-classical generative models for learning data distributions |
US20210256351A1 (en) * | 2020-02-13 | 2021-08-19 | Zapata Computing, Inc. | Hybrid Quantum-Classical Adversarial Generator |
CN114169527A (zh) * | 2021-12-07 | 2022-03-11 | 联想新视界(南昌)人工智能工研院有限公司 | 一种基于量子计算的生成对抗网络 |
CN114399053A (zh) * | 2022-02-01 | 2022-04-26 | 上海图灵智算量子科技有限公司 | 量子判别线路及用于渐进训练的模型 |
CN114580614A (zh) * | 2022-03-01 | 2022-06-03 | 上海图灵智算量子科技有限公司 | 用于生成数据特征的模型 |
-
2022
- 2022-07-22 CN CN202210888172.1A patent/CN115311515B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200410384A1 (en) * | 2018-03-11 | 2020-12-31 | President And Fellows Of Harvard College | Hybrid quantum-classical generative models for learning data distributions |
CN110070174A (zh) * | 2019-04-10 | 2019-07-30 | 厦门美图之家科技有限公司 | 一种生成对抗网络的稳定训练方法 |
US20210256351A1 (en) * | 2020-02-13 | 2021-08-19 | Zapata Computing, Inc. | Hybrid Quantum-Classical Adversarial Generator |
CN111598787A (zh) * | 2020-04-01 | 2020-08-28 | 西安电子科技大学 | 生物雷达图像去噪方法、装置、电子设备及其存储介质 |
CN111814907A (zh) * | 2020-07-28 | 2020-10-23 | 南京信息工程大学 | 一种基于条件约束的量子生成对抗网络算法 |
CN114169527A (zh) * | 2021-12-07 | 2022-03-11 | 联想新视界(南昌)人工智能工研院有限公司 | 一种基于量子计算的生成对抗网络 |
CN114399053A (zh) * | 2022-02-01 | 2022-04-26 | 上海图灵智算量子科技有限公司 | 量子判别线路及用于渐进训练的模型 |
CN114580614A (zh) * | 2022-03-01 | 2022-06-03 | 上海图灵智算量子科技有限公司 | 用于生成数据特征的模型 |
Non-Patent Citations (2)
Title |
---|
SETH LLOYD ET AL: "Quantum generative adversarial learning", 《ARXIV》, 24 April 2018 (2018-04-24) * |
唐豪;金贤敏;: "量子人工智能:量子计算和人工智能相遇恰逢其时", 自然杂志, no. 04, 24 August 2020 (2020-08-24) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024109593A1 (zh) * | 2022-11-22 | 2024-05-30 | 中移(苏州)软件技术有限公司 | 基于量子生成对抗网络的图像生成方法及装置 |
CN116015787A (zh) * | 2022-12-14 | 2023-04-25 | 西安邮电大学 | 基于混合持续变分量子神经网络的网络入侵检测方法 |
CN116579437A (zh) * | 2023-04-27 | 2023-08-11 | 本源量子计算科技(合肥)股份有限公司 | 一种量子线路训练方法、装置、存储介质及电子装置 |
CN116579437B (zh) * | 2023-04-27 | 2024-07-16 | 本源量子计算科技(合肥)股份有限公司 | 一种量子线路训练方法、装置、存储介质及电子装置 |
Also Published As
Publication number | Publication date |
---|---|
CN115311515B (zh) | 2024-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115311515B (zh) | 混合量子经典的生成对抗网络的训练方法及相关设备 | |
CN112073221B (zh) | 一种实现网络节点排序的方法及装置 | |
CN112068798B (zh) | 一种实现网络节点重要性排序的方法及装置 | |
CN111563599A (zh) | 一种量子线路的分解方法、装置、存储介质及电子装置 | |
CN114358319B (zh) | 基于机器学习框架的分类方法及相关装置 | |
EP4283533A1 (en) | Quantum convolution operator | |
CN114358295B (zh) | 基于机器学习框架的二分类方法及相关装置 | |
CN113850389B (zh) | 一种量子线路的构建方法及装置 | |
CN112232513A (zh) | 一种量子态的制备方法及装置 | |
CN112560966B (zh) | 基于散射图卷积网络的极化sar图像分类方法、介质及设备 | |
EP4071615A1 (en) | Quantum error correction decoding system and method, fault-tolerant quantum error correction system, and chip | |
CN114792378A (zh) | 一种量子图像识别方法及装置 | |
CN113222150A (zh) | 一种量子态的变换方法及装置 | |
CN114358318B (zh) | 基于机器学习框架的分类方法及相关装置 | |
CN114358317B (zh) | 基于机器学习框架的数据分类方法及相关设备 | |
CN113222161B (zh) | 一种自定义量子逻辑门的实现方法、装置 | |
CN113222153B (zh) | 一种量子态的模拟方法、装置、存储介质和电子装置 | |
CN115293254A (zh) | 基于量子多层感知器的分类方法及相关设备 | |
CN115346080B (zh) | 基于量子计算的图像处理方法及相关设备 | |
CN113222151B (zh) | 一种量子态的变换方法及装置 | |
CN114372539B (zh) | 基于机器学习框架的分类方法及相关设备 | |
CN114819163A (zh) | 量子生成对抗网络的训练方法、装置、介质及电子装置 | |
CN114764618B (zh) | 一种针对线性系统的量子预处理方法及装置 | |
CN114372582B (zh) | 基于机器学习框架的量子自动编码方法及相关装置 | |
CN116136971B (zh) | 量子纠错解码方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 230088 6th floor, E2 building, phase II, innovation industrial park, 2800 innovation Avenue, high tech Zone, Hefei City, Anhui Province Applicant after: Benyuan Quantum Computing Technology (Hefei) Co.,Ltd. Address before: 230088 6th floor, E2 building, phase II, innovation industrial park, 2800 innovation Avenue, high tech Zone, Hefei City, Anhui Province Applicant before: ORIGIN QUANTUM COMPUTING COMPANY, LIMITED, HEFEI |
|
GR01 | Patent grant | ||
GR01 | Patent grant |