CN117610670A - 用于量子态生成的模型训练方法、装置、设备和存储介质 - Google Patents

用于量子态生成的模型训练方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN117610670A
CN117610670A CN202311607403.8A CN202311607403A CN117610670A CN 117610670 A CN117610670 A CN 117610670A CN 202311607403 A CN202311607403 A CN 202311607403A CN 117610670 A CN117610670 A CN 117610670A
Authority
CN
China
Prior art keywords
quantum
data
target
parameter
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311607403.8A
Other languages
English (en)
Inventor
李广西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202311607403.8A priority Critical patent/CN117610670A/zh
Publication of CN117610670A publication Critical patent/CN117610670A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • G06N10/20Models of quantum computing, e.g. quantum circuits or universal quantum computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种生成模型的训练方法,涉及人工智能技术领域,尤其涉及生成式人工智能以及量子计算技术领域。具体实现方案为:将量子态样本数据输入编码模型的量子神经网络,得到输出结果;沿多个方向对输出结果进行测量,得到测量特征;根据测量特征,得到初始特征;从多个待调整嵌入特征中,确定与初始特征对应的目标嵌入特征;根据目标嵌入特征,得到参数数据;根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据;根据量子态样本数据和量子态输出数据,调整第一生成模型的参数以及多个待调整嵌入特征。本公开还提供了一种数据生成方法、装置、电子设备和存储介质。

Description

用于量子态生成的模型训练方法、装置、设备和存储介质
技术领域
本公开涉及人工智能技术领域,尤其涉及人工智能(AIGC)以及量子计算技术领域,可应用于自动写作、语音合成、图像生成场景下。更具体地,本公开提供了一种生成模型的训练方法、数据生成方法、装置、电子设备和存储介质。
背景技术
随着人工智能以及量子计算技术的发展,可以将量子计算技术引入人工智能任务中,以提高人工智能任务的执行效率;也可以利用人工智能技术来拓展量子计算的应用场景。
发明内容
本公开提供了一种生成模型的训练方法、数据生成方法、装置、设备以及存储介质。
根据本公开的一方面,提供了一种生成模型的训练方法,该方法包括:将量子态样本数据输入编码模型的量子神经网络,得到输出结果;沿多个方向对输出结果进行测量,得到测量特征,其中,测量特征对应输出结果的多个方向的测量结果;根据测量特征,得到初始特征;从多个待调整嵌入特征中,确定与初始特征对应的目标嵌入特征;根据目标嵌入特征,得到参数数据;根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据;根据量子态样本数据和量子态输出数据,调整第一生成模型的参数以及多个待调整嵌入特征。
根据本公开的另一方面,提供了一种数据生成方法,该方法包括:根据待处理输入数据,得到目标特征;从多个经调整嵌入特征中,确定与目标特征对应的目标嵌入特征;根据目标嵌入特征,得到参数数据;根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据;根据量子输出数据,确定目标数据,其中,第一生成模型是利用如本公开提供的方法训练的。
根据本公开的另一方面,提供了一种生成模型的训练装置,该装置包括:第一获得模块,用于将量子态样本数据输入编码模型的量子神经网络,得到输出结果;测量模块,用于沿多个方向对输出结果进行测量,得到测量特征,其中,测量特征对应输出结果的多个方向的测量结果;第二获得模块,用于根据测量特征,得到初始特征;第一确定模块,用于从多个待调整嵌入特征中,确定与初始特征对应的目标嵌入特征;第三获得模块,用于根据目标嵌入特征,得到参数数据;第一生成模块,用于根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据;调整模块,用于根据量子态样本数据和量子态输出数据,调整第一生成模型的参数以及多个待调整嵌入特征。
根据本公开的另一方面,提供了一种数据生成装置,该装置包括:第五获得模块,用于根据待处理输入数据,得到目标特征;第二确定模块,用于从多个经调整嵌入特征中,确定与目标特征对应的目标嵌入特征;第六获得模块,用于根据目标嵌入特征,得到参数数据;第二生成模块,用于根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据;第二确定模块,用于根据量子输出数据,确定目标数据,其中,第一生成模型是利用本公开提供的装置训练的。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行根据本公开提供的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现根据本公开提供的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的一个实施例的生成模型的训练方法的示意流程图;
图2是根据本公开的一个实施例的编码模型的示意图;
图3是根据本公开的一个实施例的第一生成模型和第二生成模型的示意图;
图4是根据本公开的另一个实施例的数据生成方法的流程图;
图5是根据本公开的一个实施例的数据生成方法的原理图;
图6是根据本公开的一个实施例的生成模型的训练装置的框图;
图7是根据本公开的一个实施例的数据生成装置的框图;以及
图8是根据本公开的一个实施例的可以应用生成模型的训练方法和/或数据生成方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
生成式人工智能代表了一种新的机器学习方法,可以将机器从被动的信息处理设备转变为能够生成新内容的创造设备。通过利用大量的已有文本、图像、音频等数据,生成式人工智能技术可以学习并生成新的、与原始数据相似的内容。这种技术的典型应用包括自动写作、语音合成、图像生成等场景。生成式人工智能在内容创作场景中存在巨大潜力。
量子计算是一种新兴的计算方式,利用量子力学的原理进行计算,可以比传统计算机更高效。量子计算利用量子比特(qubit)作为计算基本单位。量子比特可以同时处于0和1的叠加态,以便实现并行计算。此外,量子比特之间还可以形成纠缠态,使得量子计算能够处理和存储更复杂的信息。
生成式人工智能技术和量子计算都是重要的研究方向,但将二者结合起来的研究相对较少。例如,利用量子计算生成新内容的方式较少。
利用量子计算的优势,可以更好地处理和解决一些复杂的优化问题,从而为生成式人工智能技术提供更加精准和高效的算法支持。此外,生成式人工智能技术还可以为量子计算领域带来新的应用。例如,基于生成式人工智能技术,可以生成哈密顿量(hamiltonian)的基态或者生成满足一些特定要求的量子态。
基于此,本公开提供了一种生成模型的训练方法,下面将进行说明。
图1是根据本公开的一个实施例的生成模型的训练方法的流程图。
如图1所示,该方法100可以包括操作S110至操作S170。
在操作S110,将量子态样本数据输入编码模型的量子神经网络,得到输出结果。
在本公开实施例中,量子态样本数据可以对应具有目标风格的数据。多个量子态样本数据可以对应具有相同目标风格的数据。
在本公开实施例中,编码模型的量子神经网络可以对应一个或多个量子比特。编码模型的量子神经网络可以包括多个量子编码层。量子编码层可以包括多个量子比特各自的单比特旋转门。例如,量子态样本数据经多个量子编码层处理之后,可以得到至少一个输出结果。
在操作S120,沿多个方向对输出结果进行测量,得到测量特征。
在本公开实施例中,可以沿泡利Z方向、泡利X方向、泡利Y方向、泡利ZZ方向、泡利XX方向、泡利YY方向等方向中的至少两个方向对输出结果进行测量,得到至少两个方向测量结果。
在本公开实施例中,测量特征可以为一个或多个。测量特征对应输出结果的多个方向的测量结果。例如,可以将同一输出结果的多个方向的测量结果作为测量特征,也可以将不同输出结果的不同方向的测量结果作为测量特征,本公开对此不进行限制。
在操作S130,根据测量特征,得到初始特征。
在本公开实施例中,初始特征可以为一个或多个。可以利用各种方式得到初始特征。例如,按照预设的映射关系,将测量特征转换为初始特征。又例如,可以利用一全连接网络处理测量特征,得到初始特征。若测量特征为多个且多个测量特征的维度数目一致,初始特征也可以为多个,多个初始特征的维度数目也可以一致。
在操作S140,从多个待调整嵌入特征中,确定与初始特征对应的目标嵌入特征。
在本公开实施例中,可以预定义一个符合高斯分布的离散隐变量空间,作为嵌入空间(Embedding Space)。嵌入空间可以包括多个待调整嵌入特征。待调整嵌入特征的维度数目可以与初始特征的维度数目一致。可以理解,嵌入特征、测量特征以及初始特征可以为向量(vector)。
在本公开实施例中,可以将与初始特征的相似度最高的待调整嵌入特征,作为该初始特征对应的待调整嵌入特征。可以确定与至少一个初始特征对应的至少一个目标嵌入特征。
在操作S150,根据目标嵌入特征,得到参数数据。
在本公开实施例中,参数数据可以为一个或多个。可以利用各种方式得到参数数据。例如,按照预设的映射关系,将样本测量结果转换为参数数据。又例如,可以利用一全连接网络处理样本测量结果,得到参数数据。
在操作S160,根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据。
在本公开实施例中,第一生成模型可以包括量子神经网络。量子神经网络可以对应一定数目的量子比特。参数数据的数目可以为量子比特的数目的整数倍。第一生成模型的量子神经网络的量子比特数目可以与编码模型的量子比特数目相同,也可以不同,本公开对此不进行限制。
在本公开实施例中,第一生成模型的量子神经网络包括多个量子解码层。例如,以多个量子比特配置了相同数目的量子逻辑门为例,多个量子比特各自的第1个量子逻辑门可以构成一量子解码层。多个量子比特各自的第2个量子逻辑门可以构成一量子解码层。多个量子比特各自的最后一个量子逻辑门可以构成另一量子解码层。可以理解,多个量子比特也可以配置不同数目的量子逻辑门,本公开对此不进行限制。
在本公开实施例中,可以利用参数数据调整量子解码层的参数,得到调整后的量子神经网络。将任意量子态数据输入调整后的量子神经网络,可以生成量子态输出数据。
在操作S170,根据量子态样本数据和量子态输出数据,调整第一生成模型的参数以及多个待调整嵌入特征。
在本公开实施例中,可以根据量子态样本数据和量子态输出数据之间的差异,调整第一生成模型的量子神经网络的参数。例如,可以调整上述待训练量子解码层的参数,以训练第一生成模型
通过本公开实施例,对编码模型的量子神经网络的输出进行了多个方向的测量,可以充分获取量子态样本数据的有效信息。基于多个方向的测量结果获得的相应的离散的嵌入特征,使得经训练的第一生成模型的可以高效地进行解码,提高模型训练效率以及数据生成效率,提高用户体验。
此外,通过本公开实施例,经训练的生成模型的量子神经网络可以实现量子计算的仿真。基于经训练的生成模型的量子神经网络的参数,可以提高量子计算设备的数据生成效率和精度。
可以理解,上文结合第一生成模型和编码模型对本公开的训练方法进行了说明,下面将对编码模型进行进一步说明。
在一些实施例中,编码模型可以包括量子神经网络和全连接网络。下面将结合图2进行说明。
图2是根据本公开的一个实施例的编码模型的示意图。
如图2所示,编码模型可以包括量子神经网络QNN21和全连接网络NN21。
在本公开实施例中,编码模型的量子神经网络可以为N量子比特的量子神经网络。N可以为大于1的整数。如图2所示,量子神经网络QNN21例如可以为4量子比特的量子神经网络。量子神经网络QNN21对应的4个量子比特可以包括第一量子比特、第二量子比特、第三量子比特和第四量子比特。第一量子比特可以配置单比特旋转门Ry1,1)、单比特旋转门Rz1,5)、单比特旋转门Ry1,9)和单比特旋转门Rz1,13)。第二量子比特可以配置单比特旋转门Ry1,2)、单比特旋转门Rz1,6)、单比特旋转门Ry1,10)和单比特旋转门Rz1,14)。第三量子比特可以配置单比特旋转门Ry1,3)、单比特旋转门Rz1,7)、单比特旋转门Ry1,11)和单比特旋转门Rz1,15)。第四量子比特可以配置单比特旋转门Ry1,4)、单比特旋转门Rz1,8)、单比特旋转门Ry1,12)和单比特旋转门Rz1,16)。在任一量子比特的两个单比特旋转门之间,可以配置受控非门(CNOT)。可以理解,N也可以为其他整数,本公开对此不进行限制。
在本公开实施例中,编码模型的量子神经网络可以包括多个量子编码层。量子编码层可以包括多个量子比特各自的单比特旋转门。如图2所示,量子编码层E21可以包括第一量子比特的单比特旋转门Ry1,1)、第二量子比特的单比特旋转门Ry1,2)、第三量子比特的单比特旋转门Ry1,3)、第四量子比特的单比特旋转门Ry1,4)。量子编码层E22可以包括第一量子比特的单比特旋转门Ry1,5)、第二量子比特的单比特旋转门Ry1,6)、第三量子比特的单比特旋转门Ry1,7)、第四量子比特的单比特旋转门Ry1,8)。量子编码层E23可以包括第一量子比特的单比特旋转门Ry1,9)、第二量子比特的单比特旋转门Ry1,10)、第三量子比特的单比特旋转门Ry1,11)、第四量子比特的单比特旋转门Ry1,12)。量子编码层E24可以包括第一量子比特的单比特旋转门Ry1,13)、第二量子比特的单比特旋转门Ry1,14)、第三量子比特的单比特旋转门Ry1,15)、第四量子比特的单比特旋转门Ry1,16)。
可以理解,除了首个量子编码层E21,量子编码层与多个量子比特各自的受控非门可以实现各种处理(例如卷积处理)。例如,量子编码层E22结合量子编码层E21与量子编码层E22之间的多个受控非门,可以实现卷积处理。
在一些实施例中,将量子态样本数据输入编码模型的量子神经网络,可以得到输出结果。例如,量子态样本数据可以为向量。如图2所示,量子态样本数据|x>可以为16×1的向量。以该量子态样本数据是基于图像样本数据得到的为示例,可以将例如4×4的图像拉伸为16×1的初始向量,并将其编码为量子态,得到量子态样本数据|x>。将量子态样本数据输入编码模型的量子神经网络,可以得到N个输出结果。
在一些实施例中,沿多个方向对输出结果进行测量,可以得到测量特征。以N=4为示例,对4个输出结果分别进行6个方向地测量,可以得到24个测量结果。基于24个测量结果,可以得到4个测量特征。
在本公开实施例中,测量特征对应输出结果的多个方向的测量结果。每个测量特征可以包括6个测量结果。如图2所示,测量特征Mf21可以包括6个测量结果。6个方向可以包括上述泡利Z方向、泡利X方向、泡利Y方向、泡利ZZ方向、泡利XX方向、泡利YY方向等。通过本公开实施例,获得了与量子样本数据对应的多个方向测量结果,可以从量子态样本数据获取更全面的信息,也避免了对量子态样本数据的简单重构,有助于实现量子态的生成。
在一些实施例中,根据测量特征,得到初始特征。例如,可以将上述4个测量特征输入全连接网络NN21。全连接网络NN21对应的权重矩阵可以6×6的矩阵。全连接网络NN21可以将多个测量特征分别映射为多个初始特征。如图2所示,全连接网络NN21可以将测量特征Mf21映射为初始特征f21。
可以理解,上文对编码模型进行了说明,下面将多个待调整嵌入特征以及第一生成模型进行进一步说明。
图3是根据本公开的一个实施例的第一生成模型和第二生成模型的示意图。
如图3所示,将量子态样本数据|x>输入编码模型E30的量子神经网络QNN31,可以得到包括测量特征Mf31的4个测量特征。将多个测量特征输入编码模型E30的全连接网络NN31,可以得到包括初始特征f31的4个初始特征。可以理解,关于编码模型E30的说明,与上述编码模型E20相同或类似,本公开在此不再赘述。下面将结合图3对确定与初始特征对应的目标嵌入特征的一些方式进行说明。
在一些实施例中,确定与初始特征对应的目标嵌入特征可以包括:根据多个待调整嵌入特征中与初始特征之间的距离,确定与初始特征对应的目标嵌入特征。
在本公开实施例中,距离可以为不同特征之间的各种距离。例如,距离可以为欧式距离、余弦距离等等。又例如,距离可以为欧式距离。通过本公开实施例,利用欧式距离,可以从嵌入空间中准确地确定相应的嵌入特征,有助于提高训练效率,也有助于后续实现量子态数据的快速生成。
在本公开实施例中,可以确定多个待调整嵌入特征与初始特征之间的多个距离。可以将与初始特征的距离最小的待调整嵌入特征作为目标嵌入特征。如图3所示,嵌入空间ES30的多个待调整嵌入特征中,待调整嵌入特征em31与初始特征f31之间的距离最小,可以将待调整嵌入特征em31作为与初始特征f31对应的目标嵌入特征。在初始特征为4个的情况下,待调整嵌入特征可以为5个至64个。嵌入空间ES60中可以包括64个待调整嵌入特征。通过本公开实施例,将连续分布的初始特征转换为离散分布的目标嵌入特征,有助于准确地进行量子态数据生成,也可以提高训练效率。
如图3所示,对于除初始特征f31之外的3个初始特征,可以从嵌入空间ES30中确定3个目标嵌入特征。可以理解,确定除初始特征f31之外的3个初始特征的3个目标嵌入特征的方式,与确定与初始特征f31的目标嵌入特征的方式相同或类似,本公开在此不再赘述。
可以理解,上文对确定目标嵌入特征的一些方式进行了说明,下面将对第一生成模型进行进一步说明。
如图3所示,第一生成模型G31可以包括量子神经网络QNN32和全连接网络NN32,下面将对全连接网络NN32进行说明。
在一些实施例中,根据目标嵌入特征,得到参数数据可以包括:将目标嵌入特征输入第一生成模型的全连接网络,得到参数数据。例如,可以将包括待调整嵌入特征em31的4个待调整嵌入特征输入全连接网络NN32,得到24个参数数据。24个参数数据可以形成4个参数向量。每个参数向量包括6个参数数据。
可以理解,上文对第一生成模型的全连接网络进行了说明,下面将对第一生成模型的量子神经网络进行说明。
在本公开实施例中,第一生成模型的量子神经网络对应至少一个量子比特。例如,至少一个量子比特可以为I个,I可以为大于或等于1的整数。如图3所示,量子神经网络QNN32可以对应4个量子比特。4个量子比特可以包括第五量子比特、第六量子比特、第七量子比特以及第八量子比特。可以理解,第一生成模型的量子神经网络的量子比特数目可以与编码模型的量子神经网络的量子比特数目相同,也可以不同,本公开对此不进行限制。
在一些实施例中,根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据可以包括:利用参数数据调整第一生成模型的量子神经网络,得到调整后的量子神经网络。
在本公开实施例中,利用参数数据调整第一生成模型的量子神经网络的目标量子解码层,可以得到调整后的量子神经网络。通过本公开实施例,利用参数数据调整了待训练量子解码层之后的解码层的参数,可以充分利用量子态样本数据的信息,也可以提升量子神经网络的准确性,可以更准确、高效地将量子态样本数据的风格添加到量子态输出数据使得生成模型可以生成与量子态样本数据风格相似的量子态数据。
在本公开实施例中,第一生成模型的量子神经网络可以包括多个量子解码层。多个量子解码层可以包括待训练量子解码层。量子解码层可以包括至少一个量子比特的单比特旋转门。例如,多个量子解码层可以包括量子解码层D31至量子解码层D311。量子解码层D32、量子解码层D34、量子解码层D36、量子解码层D38以及量子解码层D310可以分别包括第五量子比特的单比特旋转门Ry、第六量子比特的单比特旋转门Ry、第七量子比特的单比特旋转门Ry、第八量子比特的单比特旋转门Ry。量子解码层D32、量子解码层D34、量子解码层D36、量子解码层D38以及量子解码层D310可以分别作为待训练量子解码层。
在本公开实施例中,目标量子解码层可以来自待训练量子解码层之后的至少一个量子解码层。待训练量子解码层之后的量子解码层的输入可以是根据待训练量子解码层的输出确定的。如图3所示,量子解码层D33为量子解码层D32的在后量子解码层,可以作为目标量子解码层。量子解码层D35为量子解码层D34的在后量子解码层,可以作为目标量子解码层。量子解码层D37为量子解码层D36的在后量子解码层,可以作为目标量子解码层。量子解码层D39为量子解码层D38的在后量子解码层,可以作为目标量子解码层。量子解码层D311为量子解码层D310的在后量子解码层,可以作为目标量子解码层。
在一些实施例中,利用参数数据调整第一生成模型的量子神经网络中目标量子解码层可以包括:利用参数数据,调整目标量子解码层中量子比特的单比特旋转门的旋转角。
在一些实施例中,根据参数数据,可以得到参数特征。参数特征可以包括I个参数数据。例如,根据上述24个参数数据,可以得到参数特征y31至参数特征y36。每个参数特征可以包括4个参数数据。
在一些实施例中,可以利用参数特征调整所目标量子解码层,得到调整后的量子神经网络。
在本公开实施例中,参数特征可以包括第一参数特征和第二参数特征。例如,参数特征y31可以作为第一参数特征。参数特征y32至参数特征y36可以分别作为第二参数特征。可以利用参数特征y32中的4个参数数据分别调整量子解码层D33中4个量子比特各自的单比特旋转门的旋转角。由此,调整后的量子解码层D33可以包括4个量子比特各自的单比特旋转门Ry(y)。可以利用参数特征y33中的4个参数数据分别调整量子解码层D35中4个量子比特各自的单比特旋转门的旋转角。可以利用参数特征y34中的4个参数数据分别调整量子解码层D37中4个量子比特各自的单比特旋转门的旋转角。可以利用参数特征y35中的4个参数数据分别调整量子解码层D39中4个量子比特各自的单比特旋转门的旋转角。可以利用参数特征y36中的4个参数数据分别调整量子解码层D311中4个量子比特各自的单比特旋转门的旋转角。通过本公开实施例,目标量子解码层来自待训练量子解码层的在后量子解码层。由此,与利用参数数据调整待训练量子解码层的在前量子解码层相比,利用参数数据调整目标量子解码层,可以充分利用量子态样本数据的有效信息,也可以充分提高生成模型的准确性,有助于生成与量子态样本数据风格更相似的量子态输出数据。可以理解,除了将参数数据作为单比特旋转门的旋转角,也可以利用其他方式调整旋转角。例如,可以利用参数数据与相应单比特旋转门的当前旋转角进行各种运算(例如相加等),以调整旋转角。
可以理解,上文利用第二参数特征调整了待训练量子解码层的在后量子解码层。但本公开不限于此,也可以调整待训练量子解码层的在前量子解码层,下面将进行说明。
在本公开实施例中,多个量子解码层还包括待训练量子解码层之前的量子解码层。待训练量子解码层之前的量子解码层可以为一个或多个。待训练量子解码层的输入可以是根据待训练量子解码层的在前量子解码层确定的。如图3所示,量子解码层D31可以为量子解码层D32的在前量子解码层。
在本公开实施例中,利用参数特征调整所目标量子解码层还可以包括:利用第一参数特征,调整待训练量子解码层之前的量子解码层。如图3所示,量子解码层D31可以为量子解码层D32的在前量子解码层。可以利用参数特征y31中的4个参数数据分别调整量子解码层D31中4个量子比特各自的单比特旋转门的旋转角。由此,调整后的量子解码层D31可以包括4个量子比特各自的单比特旋转门Ry(y)。
通过本公开实施例,目标量子解码层来自待训练量子解码层的在后量子解码层,在利用参数数据调整目标量子解码层的情况下,还利用参数数据调整待训练量子解码层的在前量子解码层,可以进一步利用量子态样本数据的有效信息,有助于降低训练复杂度,也可以更进一步地提高生成模型的准确性,有助于快速、高效地生成与量子态样本数据风格更相似的量子态输出数据。
可以理解,在利用第一参数特征和第二参数特征分别调整待训练量子解码层的在前和在后的量子解码层的情况下,同一量子比特的不同单比特旋转门重载了来自量子态样本数据的不同信息。例如,每个量子比特的多个单比特旋转门分别加载了来自参数特征y31至参数特征y36的不同信息。由此,可以进一步利用量子态样本数据的有效信息。
可以理解,上文对调整目标量子解码层的一些方式进行了说明,下面将对生成量子态输出数据的一些方式进行说明。
在一些实施例中,利用调整后的量子神经网络,生成量子态输出数据包括:将量子态初始数据输入调整后的量子神经网络,可以得到量子态输出数据。
在本公开实施例中,量子态初始数据可以为任意量子态数据。例如,量子态初始数据可以为零态|0>。可以将零态|0>输入调整后的量子神经网络QNN32,得到量子态输出数据量子态输出数据/>也可以是16×1的向量。通过本公开实施例,可以降低生成量子态输出数据所需的资源开销。
可以理解,上文对生成量子态输出数据的一些方式进行了说明,下面将对训练第一生成模型的一些方式进行说明。
在一些实施例中,根据量子态样本数据和量子态输出数据,调整第一生成模型的参数以及多个待调整嵌入特征包括:根据量子态样本数据和量子态输出数据,可以调整第一生成模型的参数、编码模型的参数以及多个待调整嵌入特征。
在本公开实施例中,根据量子态样本数据和量子态输出数据,训练生成模型和编码模型包括:根据量子态样本数据和量子态输出数据,可以确定损失。
在本公开实施例中,根据量子态样本数据和量子态输出数据,确定损失可以包括:根据量子态样本数据和量子态输出数据,确定重构子损失。例如,可以根据量子态样本数据和量子态输出数据之间的保真度(Fide1ity),确定重构损失。可以通过以下公式确定重构损失recons_loss:
可以表示量子态样本数据|x>和量子态输出数据/>之间的内积。通过本公开实施例,可以充分利用样本数据的信息,有助于高效地训练生成模型,提高生成模型的训练效率。
在本公开实施例中,根据量子态样本数据和量子态输出数据,可以确定损失还可以包括:根据目标嵌入特征和初始特征,确定相似子损失。
在本公开实施例中,可以确定初始特征以及与初始特征对应的目标嵌入特征之间的距离。在初始特征为至少一个且目标嵌入特征为至少一个的情况下,可以确定至少一个距离。例如,距离可以为欧式距离。可以确定4个目标嵌入特征与4个初始特征之间的4个欧式距离。
在本公开实施例中,根据距离,可以确定相似子损失。根据上述至少一个距离,可以确定相似子损失。例如,根据4个欧式距离之和,可以确定相似度子损失。可以通过以下公式确定相似度子损失:
fi可以为上述初始特征,例如上述初始特征f31。emi可以为与初始特征对应的上述目标嵌入特征,例如与初始特征f31对应的待调整嵌入特征em31。β可以超参。通过本公开实施例,可以增加对待调整嵌入特征约束,有助于高效地调整嵌入特征,以提升生成模型的训练效率。
在本公开实施例中,根据量子态样本数据和量子态输出数据,确定损失还可以包括:根据重构子损失和相似子损失中的至少一个,确定损失。
例如,可以通过以下公式确定损失loss:
loss=recons_loss+sim_loss (公式三)
在本公开实施例中,根据损失,可以调整生成模型和编码模型的参数。例如,可以调整上述量子神经网络QNN31中各量子编码层的参数(旋转角θ1,1至旋转角θ1,16),也可以调整全连接网络NN31和全连接网络NN32的参数,也可以调整量子神经网络QNN32中待训练量子编码层的参数(多个单比特旋转门Ry的旋转角)。
可以理解,上文对训练第一生成模型和编码模型的一些方式进行了说明。接下来,可以利用量子态样本数据集中不同的量子态样本数据对生成模型和编码模型进行多次训练,直至满足预设终止条件。预设终止条件可以包括上述损失收敛或训练次数大于或等于预设训练次数阈值。量子态样本数据集中不同的量子态样本数据可以具有相同或类似的风格(style)。下面将对训练第二生成模型的一些方式进行说明。
在一些实施例中,上述方法还可以包括:将初始样本特征输入第二生成模型,得到初始生成特征。根据初始样本特征和初始生成特征,训练第二生成模型。可以理解,可以在训练第一生成模型的过程中,训练第二生成模型;也可以在完成对第一生成模型的训练之后,训练第二生成模型,本公开对此不进行限制。
在本公开实施例中,初始样本特征是根据量子态样本特征得到的。初始样本特征可以为一个或多个。初始生成特征也可以为一个或多个。例如,若在训练第一生成模型的过程中训练第二生成模型,可以将上述包括初始特征f31的多个初始特征作为多个初始样本特征。将上述包括初始特征f31的多个初始特征输入第二生成模型G32,可以得到包括初始生成特征f31’的多个初始生成特征。根据多个初始样本特征和多个初始生成特征之间的多个差异,可以训练第二生成模型G32。
又例如,若在完成对第一生成模型的训练之后训练第二生成模型,可以将量子态样本数据|x>输入经训练的编码模型E30的量子神经网络QNN31,可以得到4个输出结果。对4个输出结果进行6个方向的测量,可以得到24个测量结果。根据24个测量结果可以得到4个测量特征。将4个测量特征输入经训练的编码模型E30的全连接网络NN31,可以得到4个初始特征,作为4个初始样本特征。可以将这4个初始样本特征输入第二生成模型,得到另外4个初始生成特征。根据该4个初始样本特征和该4个初始生成特征之间的差异,可以训练第二生成模型G32。
可以理解,第二生成模型可以包括扩散单元和生成单元。扩散单元输入为初始样本特征。利用扩散单元逐步向初始样本特征加噪,将多个加噪后初始样本特征输入至生成单元。生成单元执行拟扩展。可以逐步调整生成单元的参数,直到生成单元能够输出与原始未加噪初始样本特征最接近的初始生成特征。通过本公开实施例,可以充分利用初始样本特征的数据分布特性(大于或等于-1且小于或等于1),无需归一化就可以输入扩散模型。扩散模型也可以充分利用测量结果的隐含信息,准确高效地生成样本生成结果。
可以理解,上文结合图3对训练编码模型、第一生成模型、第二生成模型以及多个待调整嵌入特征的方式进行了说明。在对多个待调整嵌入特征进行调整时,可以利用上述公式三确定的损失直接进行调整。但本公开不限于此,下面将结合相关实施例对调整多个待调整嵌入特征以及编码模型的另一方式进行说明。
在另一些实施例中,根据重构子损失和相似子损失中的至少之一,确定损失可以包括:根据第一处理参数和相似度子损失,确定第一处理后的子损失。根据第一处理后子损失和重构子损失,确定第一损失。例如,可以将第一处理参数与相似度子损失相乘,得到第一处理后子损失。
在另一些实施例中,调整第一生成模型的参数、编码模型的参数以及多个待调整嵌入特征可以包括:利用第一损失调整目标嵌入特征。例如,在利用第一损失调整目标嵌入特征的情况下,可以不利用第一损失调整编码模型的参数。此外,也可以利用第一损失调整第一生成模型的参数。
接下来,在另一些实施例中,根据重构子损失和相似子损失中的至少之一,确定损失还可以包括:根据第二处理参数和相似度子损失,确定第二处理后的子损失。根据第二处理后子损失和重构子损失,确定第二损失。第二处理参数小于第一处理参数。例如,可以将第二处理参数与相似度子损失相乘,得到第二处理后子损失。
在另一些实施例中,调整第一生成模型的参数、编码模型的参数以及多个待调整嵌入特征可以包括:利用第二损失调整编码模型的参数,以调整初始特征。例如,在利用第二损失调整编码模型的情况下,可以不利用第二损失调整目标嵌入特征的参数。此外,也可以利用第二损失调整第二生成模型的参数。
又例如,在利用第一损失和第二损失调整分别嵌入特征和编码模型的情况下,训练过程利用的损失loss’可以表示为以下公式:
sg()为梯度固定函数,用于表示将相应特征固定。例如,sg(fi)表示固定初始特征。sg(emi)表示固定待调整嵌入特征。λ可以为第一处理参数,γ可以为第二处理参数。γ例如可以为可以理解,/> 即上述第一损失。即上述第二损失。通过本公开实施例,第一处理参数大于第二处理参数,即对嵌入特征的调整力度大于对编码模型输出的初始特征的调整力度。由此,可以使得嵌入特征不断接近初始特征,也可以使得初始特征不断接近嵌入特征,实现双向调整,有助于加快模型收敛,也有助于使得嵌入特征更接近于初始特征,进而使得嵌入特征更能体现出量子态样本数据所具有的风格。
可以理解,上文以量子态样本数据是基于图像样本数据得到的为示例,对本公开进行了说明。但本公开不限于此,量子态样本数据可以是基于第二训练样本数据得到的,第二训练样本数据来自第二训练样本集合。第二训练样本数据包括图像样本数据、文本样本数据以及音频样本数据中的至少一个。
例如,在训练样本数据包括文本样本数据的情况下,可以将文本样本数据多个字符转换为标记(token),得到多个标记。将多个标记编码为量子态,得到量子态样本数据。
又例如,在训练样本数据包括音频样本数据的情况下,可以将音频样本数据多个音素编码为量子态,得到量子态样本数据。
可以理解,上文以量子态样本数据是基于图像、文本以及音频样本数据得到的为示例,对本公开进行了说明。在一些实施例中,所述量子态样本数据可以包括哈密顿量基态样本数据,所述哈密顿量基态样本数据与化学分子的基态对应。例如,也可以利用哈密顿量基态样本数据训练的上述编码模型E30、第一生成模型G31以及第二生成模型G32。在训练完成之后,利用第一生成模型G31以及第二生成模型G32可以生成哈密顿量基态输出数据。化学分子例如可以为氢分子(H2)。
可以理解,在完成了对第一生成模型和第二生成模型的训练之后,可以利用第一生成模型和第二生成模型进行数据生成,下面将进行说明。
图4是根据本公开的另一个实施例的数据生成方法的流程图。
如图4所示,该方法400可以包括操作S410至操作S450。
在操作S410,根据待处理输入数据,得到目标特征。
在本公开实施例中,待处理输入数据可以来自标准正态分布。待处理输入数据可以为一个或多个。
在本公开实施例中,可以利用各种方式将待处理输入数据转换为目标特征。目标特征可以为一个或多个。
在操作S420,从多个经调整嵌入特征中,确定与目标特征对应的目标嵌入特征。
在本公开实施例中,多个经调整嵌入特征可以利用上述方法100对上述多个待调整嵌入特征进行调整后得到的。
在操作S430,根据目标嵌入特征,得到参数数据。
在本公开实施例中,参数数据可以为一个或多个。例如,可以基于预设的映射关系,将目标嵌入特征转换为参数数据。又例如,可以对目标嵌入特征进行全连接处理,得到参数数据。
在操作S440,根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据。
在本公开实施例中,可以利用参数数据调整第一生成模型的量子神经网络的目标量子解码层,得到调整后的量子神经网络。目标量子解码层可以为经训练量子解码层之后的量子解码层。例如,在对上述完成了对上述量子解码层D32的训练之后,量子解码层D32可以作为经训练量子解码层。
在本公开实施例中,第一生成模型和第二生成模型可以是根据上述方法100训练的。
在操作S450,根据量子输出数据,确定目标数据。
在本公开实施例中,目标数据包括目标图像数据、目标文本数据以及目标音频数据中的至少一个。例如,可以将量子态输出数据转换为目标数据。目标数据例如可以为目标图像数据。
在本公开实施例中,根据待处理输入数据,得到目标特征包括:将待处理输入数据输入第二生成模型,得到目标特征。第二生成模型例如可以是根据上述方法100训练的。下面将结合图5对数据生成方法进行进一步说明
图5是根据本公开的一个实施例的数据生成方法的原理图。
如图5所示,可以利用第一生成模型G51和第二生成模型G52进行数据生成。可以理解,关于第一生成模型G51和第二生成模型G52的说明,与上述第一生成模型G31和第二生成模型G32相同或类似,本公开在此不再赘述。
在一些实施例中,根据待处理输入数据,可以得到目标特征。例如,可以从标准正态分布中随机获取待处理输入数据集合z50。待处理输入数据集合z50可以包括多个待处理输入数据。将待处理输入数据集合z50的多个待处理输入数据输入第二生成模型G52,可以得到包括目标特征ft51’的4个目标特征。每个目标特征可以包括6个特征值。
在一些实施例中,从多个经调整嵌入特征中,可以确定与目标特征对应的目标嵌入特征。例如,可以从经调整的嵌入空间ES50’的多个经调整嵌入特征中,确定与包括目标特征ft51’的4个目标特征分别对应的4个目标嵌入特征。例如,目标特征ft51’与经调整嵌入特征em51’之间的欧式距离最小。由此,经调整嵌入特征em51’可以作为与目标特征ft51’对应的目标嵌入特征。
在一些实施例中,根据目标嵌入特征,可以得到参数数据。例如,可以将包括经调整嵌入特征em51’的多个目标嵌入特征输入第一生成模型G51的全连接网络NN52,得到24个参数数据。
在本公开实施例中,根据参数数据,可以得到参数特征。参数特征可以为至少一个。参数特征可以包括第一参数特征和第二参数特征。例如,参数特征可以包括参数特征y31至参数特征y36。参数特征y31可以作为第一参数特征。参数特征y31至参数特征y36可以作为5个第二参数特征。
在一些实施例中,根据参数,利用第一生成模型的量子神经网络生成量子态输出数据。例如,量子神经网络QNN51可以包括量子解码层D51至量子解码层D511。可以利用参数特征y51调整量子解码层D51。也可以利用参数特征y52、参数特征y53、参数特征y54、参数特征y55、参数特征y56分别调整多个目标量子解码层。多个目标量子解码层可以包括量子解码层D53、量子解码层D55、量子解码层D57、量子解码层D59以及量子解码层D511。由此,可以得到调整后量子神经网络QNN52。调整后量子神经网络QNN52还可以包括多个经训练量子解码层。多个经训练量子解码层可以包括量子解码层D52、量子解码层D54、量子解码层D56、量子解码层D58以及量子解码层D510。可以理解,利用参数特征y51调整量子解码层D51的方式,与利用上述参数特征y31调整量子解码层D31的方式相同或类似,本公开在此不再赘述。利用参数特征y52至参数特征y56调整多个目标量子解码层的方式,与利用上述参数特征y32至参数特征y36调整多个目标量子解码层方式相同或类似,本公开在此不再赘述。
接下来,可以将量子态初始数据输入调整后的量子神经网络,得到量子态输出数据。例如,可以将零态|0>输入调整后量子神经网络QNN52,得到量子态输出数据可以根据量子态输出数据/>得到目标数据。
图6是根据本公开的一个实施例的生成模型的训练装置的框图。
如图6所示,该装置600可以包括第一获得模块610、测量模块620、第二获得模块630、第一确定模块640、第三获得模块650、第一生成模块660以及调整模块670。
第一获得模块610,用于将量子态样本数据输入编码模型的量子神经网络,得到输出结果。
测量模块620,用于沿多个方向对输出结果进行测量,得到测量特征。测量特征对应任一输出结果的多个方向的测量结果。
第二获得模块630,用于根据测量特征,得到初始特征。
第一确定模块640,用于从多个待调整嵌入特征中,确定与初始特征对应的目标嵌入特征。
第三获得模块650,用于根据目标嵌入特征,得到参数数据。
第一生成模块660,用于根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据。
调整模块670,用于根据量子态样本数据和量子态输出数据,调整第一生成模型的参数以及多个待调整嵌入特征。
在一些实施例中,第二获得模块包括:第一获得子模块,用于将测量特征输入编码模型的全连接网络,得到初始特征。
在一些实施例中,第一确定模块包括:第一确定子模块,用于根据多个待调整嵌入特征中与初始特征之间的距离,确定与初始特征对应的的目标嵌入特征。
在一些实施例中,第三获得模块包括:第二获得子模块,用于将目标嵌入特征输入第一生成模型的全连接网络,得到参数数据。
在一些实施例中,第一生成模块包括:第一调整子模块,用于利用参数数据调整第一生成模型的量子神经网络,得到调整后的量子神经网络。第一生成子模块,用于利用调整后的量子神经网络,生成量子态输出数据。
在一些实施例中,第一调整子模块包括:第一调整单元,用于利用参数数据调整第一生成模型的量子神经网络的目标量子解码层,得到调整后的量子神经网络。第一生成模型的量子神经网络包括多个量子解码层,多个量子解码层包括待训练量子解码层,目标量子解码层来自待训练量子解码层之后的量子解码层。
在一些实施例中,第一生成模型的量子神经网络对应至少一个量子比特,量子解码层包括至少一个量子比特的单比特旋转门。第一调整单元包括:第一调整子单元,用于利用参数数据,调整目标量子解码层中量子比特的单比特旋转门的旋转角。
在一些实施例中,第一生成模型的量子神经网络对应I个量子比特,I为大于或等于1的整数。第一调整子模块包括:第一获得单元,用于根据参数数据,得到参数特征。参数特征包括I个参数数据。第二调整单元,用于利用参数特征调整所目标量子解码层。
在一些实施例中,参数特征包括第一参数特征和第二参数特征。第二调整单元包括:第二调整子单元,用于利用第一参数特征,调整待训练量子解码层之前的量子解码层。第三调整子单元,用于利用第二参数特征,调整目标量子解码层。
在一些实施例中,第一生成子模块包括:第二获得单元,用于将量子态初始数据输入调整后的量子神经网络,得到量子态输出数据。
在一些实施例中,还包括:第四获得模块,用于将初始样本特征输入第二生成模型,得到初始生成特征。初始样本特征是根据量子态样本特征得到的。训练模块,用于根据初始样本特征和初始生成特征,训练第二生成模型。
在一些实施例中,调整模块包括:第二调整子模块,用于根据量子态样本数据和量子态输出数据,调整第一生成模型的参数、编码模型的参数以及多个待调整嵌入特征。
在一些实施例中,调整模块包括:第二确定子模块,用于根据量子态样本数据和量子态输出数据,确定损失。第三调整子模块,用于根据损失,调整第一生成模型的参数以及多个待调整嵌入特征。
在一些实施例中,第二确定子模块包括:第一确定单元,用于根据量子态样本数据和量子态输出数据,确定重构子损失。第二确定单元,用于根据目标嵌入特征和初始特征,确定相似子损失。第三确定单元,用于根据重构子损失和相似子损失中的至少之一,确定损失。
在一些实施例中,第二确定单元包括:第一确定子单元,用于确定初始特征以及与初始特征对应的目标嵌入特征之间的距离。第二确定子单元,用于根据距离,确定相似子损失。
在一些实施例中,第三确定单元包括:第三确定子单元,用于根据第一处理参数和相似度子损失,确定第一处理后的子损失。第四确定子单元,用于根据第二处理参数和相似度子损失,确定第二处理后的子损失。第二处理参数小于第一处理参数。第五确定子单元,用于根据第一处理后子损失和重构子损失,确定第一损失。第六确定子单元,用于根据第二处理后子损失和重构子损失,确定第二损失。
在一些实施例中,第三调整子模块包括以下至少之一:第三调整子单元,用于根据第一损失,调整第一生成模型的参数以及目标嵌入特征。第四调整子单元,用于根据第二损失,调整第一生成模型的参数以及编码模型的参数。
在一些实施例中,量子态样本数据是基于训练样本数据得到的,训练样本数据包括图像样本数据、文本样本数据以及音频样本数据中的至少一个。
图7是根据本公开的另一个实施例的数据生成装置的框图。
如图7所示,该装置700可以包括第五获得模块710、第二确定模块720、第六获得模块730、第二生成模块740以及第二确定模块750。
第五获得模块710,用于根据待处理输入数据,得到目标特征。
第二确定模块720,用于从多个经调整嵌入特征中,确定与目标特征对应的目标嵌入特征。
第六获得模块730,用于根据目标嵌入特征,得到参数数据。
第二生成模块740,用于根据参数数据,利用第一生成模型的量子神经网络生成量子态输出数据。
第二确定模块750,用于根据量子输出数据,确定目标数据。第一生成模型是上述装置600训练的。
在一些实施例中,第五获得模块还用于:将待处理输入数据输入第二生成模型,得到目标特征。
在一些实施例中,目标数据包括目标图像数据、目标文本数据以及目标音频数据中的至少一个。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本公开的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如生成模型的训练方法和/或数据生成方法。例如,在一些实施例中,生成模型的训练方法和/或数据生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的生成模型的训练方法和/或数据生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行生成模型的训练方法和/或数据生成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)显示器或者LCD(液晶显示器));以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (26)

1.一种生成模型的训练方法,包括:
将量子态样本数据输入编码模型的量子神经网络,得到输出结果;
沿多个方向对所述输出结果进行测量,得到测量特征,其中,所述测量特征对应所述输出结果的多个方向的测量结果;
根据所述测量特征,得到初始特征;
从多个待调整嵌入特征中,确定与所述初始特征对应的目标嵌入特征;
根据所述目标嵌入特征,得到参数数据;
根据所述参数数据,利用第一生成模型的量子神经网络生成量子态输出数据‘
根据所述量子态样本数据和所述量子态输出数据,调整所述第一生成模型的参数以及多个所述待调整嵌入特征。
2.根据权利要求1所述的方法,其中,所述根据所述测量特征,得到所述初始特征包括:
将所述测量特征输入编码模型的全连接网络,得到所述初始特征。
3.根据权利要求1所述的方法,其中,所述确定与所述初始特征对应的目标嵌入特征包括:
根据多个所述待调整嵌入特征中与所述初始特征之间的距离,确定与所述初始特征对应的所述的目标嵌入特征。
4.根据权利要求1所述的方法,其中,所述根据所述目标嵌入特征,得到参数数据包括:
将所述目标嵌入特征输入所述第一生成模型的全连接网络,得到所述参数数据。
5.根据权利要求1所述的方法,其中,所述根据所述参数数据,利用第一生成模型的量子神经网络生成量子态输出数据包括:
利用所述参数数据调整所述第一生成模型的量子神经网络,得到调整后的量子神经网络;
利用所述调整后的量子神经网络,生成量子态输出数据。
6.根据权利要求5所述的方法,其中,所述利用所述参数数据调整所述第一生成模型的量子神经网络,得到调整后的量子神经网络包括:
利用所述参数数据调整所述第一生成模型的量子神经网络的目标量子解码层,得到所述调整后的量子神经网络,其中,所述第一生成模型的量子神经网络包括多个量子解码层,多个所述量子解码层包括待训练量子解码层,所述目标量子解码层为所述待训练量子解码层之后的量子解码层。
7.根据权利要求6所述的方法,其中,所述第一生成模型的量子神经网络对应至少一个量子比特,所述量子解码层包括至少一个所述量子比特的单比特旋转门,
所述利用所述参数数据调整所述第一生成模型的量子神经网络的目标量子解码层包括:
利用所述参数数据,调整所述目标量子解码层中所述量子比特的单比特旋转门的旋转角。
8.根据权利要求6所述的方法,其中,所述第一生成模型的量子神经网络对应I个量子比特,I为大于或等于1的整数,
所述利用所述参数数据调整所述第一生成模型的量子神经网络的目标量子解码层包括:
根据至少一个所述参数数据,得到参数特征,其中,所述参数特征包括I个参数数据;
利用所述参数特征调整所所述目标量子解码层。
9.根据权利要求8所述的方法,其中,所述参数特征包括第一参数特征和第二参数特征;
所述利用所述参数特征调整所所述目标量子解码层包括:
利用所述第一参数特征,调整所述待训练量子解码层之前的量子解码层;
利用所述第二参数特征,调整所述目标量子解码层。
10.根据权利要求5所述的方法,其中,所述利用所述调整后的量子神经网络,生成量子态输出数据包括:
将量子态初始数据输入所述调整后的量子神经网络,得到所述量子态输出数据。
11.根据权利要求1所述的方法,还包括:
将初始样本特征输入第二生成模型,得到初始生成特征,其中,所述初始样本特征是根据所述量子态样本特征得到的;
根据所述初始样本特征和所述初始生成特征,训练所述第二生成模型。
12.根据权利要求1所述的方法,其中,所述根据所述量子态样本数据和所述量子态输出数据,调整所述第一生成模型的参数以及多个所述待调整嵌入特征包括:
根据所述量子态样本数据和所述量子态输出数据,调整所述第一生成模型的参数、所述编码模型的参数以及多个所述待调整嵌入特征。
13.根据权利要求1所述的方法,其中,所述根据所述量子态样本数据和所述量子态输出数据,调整所述第一生成模型的参数以及多个所述待调整嵌入特征包括:
根据所述量子态样本数据和所述量子态输出数据,确定损失;
根据所述损失,调整所述第一生成模型的参数以及多个所述待调整嵌入特征。
14.根据权利要求13所述的方法,其中,所述根据所述量子态样本数据和所述量子态输出数据,确定损失包括:
根据所述量子态样本数据和所述量子态输出数据,确定重构子损失;
根据所述目标嵌入特征和所述初始特征,确定相似子损失;
根据所述重构子损失和所述相似子损失中的至少之一,确定所述损失。
15.根据权利要求14所述的方法,其中,所述根据所述目标嵌入特征和所述初始特征,确定相似子损失包括:
确定所述初始特征以及与所述初始特征对应的所述目标嵌入特征之间的距离;
根据所述距离,确定所述相似子损失。
16.根据权利要求14所述的方法,其中,所述根据所述重构子损失和所述相似子损失中的至少之一,确定所述损失包括:
根据第一处理参数和所述相似度子损失,确定第一处理后的子损失;
根据第二处理参数和所述相似度子损失,确定第二处理后的子损失,其中,所述第二处理参数小于所述第一处理参数;
根据所述第一处理后子损失和所述重构子损失,确定第一损失;
根据所述第二处理后子损失和所述重构子损失,确定第二损失。
17.根据权利要求16所述的方法,其中,所述根据所述损失,调整所述第一生成模型的参数以及多个所述待调整嵌入特征包括以下至少之一:
根据所述第一损失,调整所述第一生成模型的参数以及所述目标嵌入特征;
根据所述第二损失,调整所述第一生成模型的参数以及所述编码模型的参数。
18.根据权利要求1所述的方法,其中,所述量子态样本数据是基于训练样本数据得到的,所述训练样本数据包括图像样本数据、文本样本数据以及音频样本数据中的至少一个。
19.一种数据生成方法,包括:
根据待处理输入数据,得到目标特征;
从多个经调整嵌入特征中,确定与所述目标特征对应的目标嵌入特征;
根据所述目标嵌入特征,得到参数数据;
根据所述参数数据,利用第一生成模型的量子神经网络生成量子态输出数据;
根据所述量子输出数据,确定目标数据,
其中,所述第一生成模型是利用如权利要求1至18任一项所述的方法训练的。
20.根据权利要求19所述的方法,其中,所述根据待处理输入数据,得到目标特征包括:
将待处理输入数据输入第二生成模型,得到所述目标特征。
21.根据权利要求19所述的方法,其中,所述目标数据包括目标图像数据、目标文本数据以及目标音频数据中的至少一个。
22.一种生成模型的训练装置,包括:
第一获得模块,用于将量子态样本数据输入编码模型的量子神经网络,得到输出结果;
测量模块,用于沿多个方向对所述输出结果进行测量,得到测量特征,其中,所述测量特征对应任一所述输出结果的多个方向的测量结果;
第二获得模块,用于根据所述测量特征,得到初始特征;
第一确定模块,用于从多个待调整嵌入特征中,确定与所述初始特征对应的目标嵌入特征;
第三获得模块,用于根据所述目标嵌入特征,得到参数数据;
第一生成模块,用于根据所述参数数据,利用第一生成模型的量子神经网络生成量子态输出数据;
调整模块,用于根据所述量子态样本数据和所述量子态输出数据,调整所述第一生成模型的参数以及多个所述待调整嵌入特征。
23.一种数据生成装置,包括:
第五获得模块,用于根据待处理输入数据,得到目标特征;
第二确定模块,用于从多个经调整嵌入特征中,确定与所述目标特征对应的目标嵌入特征;
第六获得模块,用于根据所述目标嵌入特征,得到参数数据;
第二生成模块,用于根据所述参数数据,利用第一生成模型的量子神经网络生成量子态输出数据;
第二确定模块,用于根据所述量子输出数据,确定目标数据,
其中,所述第一生成模型是利用如权利要求22所述的装置训练的。
24.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至21中任一项所述的方法。
25.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1至21中任一项所述的方法。
26.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1至21中任一项所述的方法。
CN202311607403.8A 2023-11-28 2023-11-28 用于量子态生成的模型训练方法、装置、设备和存储介质 Pending CN117610670A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311607403.8A CN117610670A (zh) 2023-11-28 2023-11-28 用于量子态生成的模型训练方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311607403.8A CN117610670A (zh) 2023-11-28 2023-11-28 用于量子态生成的模型训练方法、装置、设备和存储介质

Publications (1)

Publication Number Publication Date
CN117610670A true CN117610670A (zh) 2024-02-27

Family

ID=89947707

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311607403.8A Pending CN117610670A (zh) 2023-11-28 2023-11-28 用于量子态生成的模型训练方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN117610670A (zh)

Similar Documents

Publication Publication Date Title
US10713818B1 (en) Image compression with recurrent neural networks
US20230206396A1 (en) Image super-resolution reconstructing
Erdemir et al. Generative joint source-channel coding for semantic image transmission
Grassucci et al. Generative semantic communication: Diffusion models beyond bit recovery
Lee et al. Minimizing trajectory curvature of ode-based generative models
CN115577790B (zh) 哈密顿量模拟方法、装置、设备及存储介质
CN111797891B (zh) 基于生成对抗网络的非成对异质人脸图像生成方法、装置
CN112633507A (zh) 一种将复向量编码到量子线路的方法及装置
Wang et al. Deep joint source-channel coding for multi-task network
CN117495714A (zh) 基于扩散生成先验的人脸图像复原方法、装置及可读介质
CN118295029A (zh) 融合自注意力与Mamba架构的地震数据去噪方法
CN117634623A (zh) 用于量子态生成的模型训练方法、装置、设备和介质
CN116719085B (zh) 一种地震记录高分辨率处理方法、装置、设备及存储介质
CN109256141A (zh) 利用语音信道进行数据传输的方法
Yan et al. Optimized single-image super-resolution reconstruction: A multimodal approach based on reversible guidance and cyclical knowledge distillation
CN114819168A (zh) 一种矩阵特征值的量子比较方法及装置
CN115577783B (zh) 量子数据处理方法、装置、设备以及存储介质
CN115329971B (zh) 消除振幅阻尼噪声的方法及装置、电子设备和介质
CN117610670A (zh) 用于量子态生成的模型训练方法、装置、设备和存储介质
CN116263972A (zh) 基于量子生成对抗网络的图像生成方法及装置
CN115577782A (zh) 量子计算方法、装置、设备及存储介质
CN115577781A (zh) 量子相对熵确定方法、装置、设备及存储介质
CN117610671A (zh) 用于生成量子态的模型训练方法、装置、设备和介质
CN116306950B (zh) 基态特征的确定方法、装置、设备及存储介质
CN115222054B (zh) 量子噪声模型的训练方法、量子测量错误抑制方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination