CN113449778B - 用于量子数据分类的模型训练方法以及量子数据分类方法 - Google Patents

用于量子数据分类的模型训练方法以及量子数据分类方法 Download PDF

Info

Publication number
CN113449778B
CN113449778B CN202110648240.2A CN202110648240A CN113449778B CN 113449778 B CN113449778 B CN 113449778B CN 202110648240 A CN202110648240 A CN 202110648240A CN 113449778 B CN113449778 B CN 113449778B
Authority
CN
China
Prior art keywords
quantum
local
data
sample
quantum data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110648240.2A
Other languages
English (en)
Other versions
CN113449778A (zh
Inventor
王鑫
赵炫强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110648240.2A priority Critical patent/CN113449778B/zh
Publication of CN113449778A publication Critical patent/CN113449778A/zh
Application granted granted Critical
Publication of CN113449778B publication Critical patent/CN113449778B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Complex Calculations (AREA)

Abstract

本公开提供了用于量子数据分类的模型训练方法以及量子数据分类方法,涉及人工智能技术领域,尤其涉及量子计算、深度学习技术领域。具体实现方案为:获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息;针对每个样本量子数据点,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异;将状态信息以及类别信息作为对经典神经网络进行训练的训练数据,以使训练后的经典神经网络对待分类的量子数据集进行分类。节省了量子数据分类时使用的量子资源,且为提升量子数据分类的精度奠定了基础。

Description

用于量子数据分类的模型训练方法以及量子数据分类方法
技术领域
本公开涉及人工智能技术领域,特别涉及量子计算、深度学习技术领域,尤其涉及用于量子数据分类的模型训练方法以及量子数据分类方法。
背景技术
量子计算机正在朝着规模化和实用化的方向前进,量子机器学习(QuantumMachine Learning)是量子计算中的前沿方向。与经典机器学习相似,精确地分类和辨别量子数据是极其重要的问题。
由于目前可运行的量子设备是中等规模(50-100个量子比特)并且含有噪声的,因此,如何结合经典计算机的算力使用尽量少的量子资源来实现量子数据的精确分类,成为量子机器学习方向亟待解决的问题。
发明内容
本公开提供了一种用于量子数据分类的模型训练方法、量子数据分类方法、装置、电子设备、存储介质以及计算机程序产品。
根据本公开的一方面,提供了一种用于量子数据分类的模型训练方法,包括:获取量子数据训练集以及所述量子数据训练集中每个样本量子数据点所属的类别信息;针对所述每个样本量子数据点,将多个局域量子电路分别作用到所述样本量子数据点的部分量子比特上,并测量得到作用后的所述部分量子比特的状态信息,其中,不同的所述局域量子电路作用的量子比特存在差异;将所述状态信息以及所述类别信息作为对经典神经网络进行训练的训练数据,以使训练后的所述经典神经网络对待分类的量子数据集进行分类。
根据本公开的一方面,提供了另一种用于量子数据分类的模型训练方法,包括:获取训练数据;其中,所述训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个局域量子电路分别作用到所述每个样本量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,其中,不同的所述局域量子电路作用的量子比特存在差异;利用所述训练数据对经典神经网络进行训练,以使训练后的所述经典神经网络对待分类的量子数据集进行分类。
根据本公开的一方面,提供了一种量子数据分类方法,包括:获取待分类的量子数据集;将多个局域量子电路分别作用到所述待分类的量子数据集中量子数据点的部分量子比特上,并测量得到作用后的所述部分量子比特的状态信息,其中不同的所述局域量子电路作用的量子比特存在差异,以使训练后的经典神经网络依据所述状态信息对所述待分类的量子数据集进行分类。
根据本公开的一方面,提供了另一种量子数据分类方法,包括:获取多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,其中,不同的所述局域量子电路作用的量子比特存在差异;将所述状态信息输入至训练后的经典神经网络中,得到所述量子数据集中量子数据点所属类别的预测信息。
根据本公开的另一方面,提供了一种用于量子数据分类的模型训练装置,包括:第一获取模块,用于获取量子数据训练集以及所述量子数据训练集中每个样本量子数据点所属的类别信息;第一处理模块,用于针对所述每个样本量子数据点,将多个局域量子电路分别作用到所述样本量子数据点的部分量子比特上,并测量得到作用后的所述部分量子比特的状态信息,其中,不同的所述局域量子电路作用的量子比特存在差异;第二处理模块,用于将所述状态信息以及所述类别信息作为对经典神经网络进行训练的训练数据,以使训练后的所述经典神经网络对待分类的量子数据集进行分类。
根据本公开的另一方面,提供了另一种用于量子数据分类的模型训练装置,包括:第三获取模块,用于获取训练数据;其中,所述训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个局域量子电路分别作用到所述每个样本量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,其中,不同的所述局域量子电路作用的量子比特存在差异;第二训练模块,用于利用所述训练数据对经典神经网络进行训练,以使训练后的所述经典神经网络对待分类的量子数据集进行分类。
根据本公开的另一方面,提供了一种量子数据分类装置,包括:第四获取模块,用于获取待分类的量子数据集;第三处理模块,用于将多个局域量子电路分别作用到所述待分类的量子数据集中量子数据点的部分量子比特上,并测量得到作用后的所述部分量子比特的状态信息,其中不同的所述局域量子电路作用的量子比特存在差异,以使训练后的经典神经网络依据所述状态信息对所述待分类的量子数据集进行分类。
根据本公开的另一方面,提供了另一种量子数据分类装置,包括:第五获取模块,用于获取多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,其中,不同的所述局域量子电路作用的量子比特存在差异;第四处理模块,用于将所述状态信息输入至训练后的经典神经网络中,得到所述量子数据集中量子数据点所属类别的预测信息。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上第二方面所述的用于量子数据分类的模型训练方法,或者执行如上第四方面所述的量子数据分类方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上第二方面所述的用于量子数据分类的模型训练方法,或者执行第四方面所述的量子数据分类方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据如上第二方面所述的用于量子数据分类的模型训练方法,或者执行第四方面所述的量子数据分类方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的量子设备中执行的用于量子数据分类的模型训练方法的流程示意图;
图2是根据本公开实施例的全局量子电路的示例图;
图3是根据本公开实施例的局域量子电路的示例图;
图4是根据本公开第二实施例的量子设备中执行的用于量子数据分类的模型训练方法的流程示意图;
图5是根据本公开第三实施例的电子设备中执行的用于量子数据分类的模型训练方法的流程示意图;
图6是根据本公开第四实施例的电子设备中执行的用于量子数据分类的模型训练方法的流程示意图;
图7是根据本公开第四实施例的量子设备和电子设备中执行的用于量子数据分类的模型训练方法的流程示意图;
图8是根据本公开第五实施例的量子设备中执行的量子数据分类方法的流程示意图;
图9是根据本公开第六实施例的电子设备中执行的量子数据分类方法的流程示意图;
图10是根据本公开第七实施例的量子设备中配置的用于量子数据分类的模型训练装置的结构示意图;
图11是根据本公开第八实施例的电子设备中配置的用于量子数据分类的模型训练装置的结构示意图;
图12是根据本公开第九实施例的量子设备中配置的量子数据分类装置的结构示意图;
图13是根据本公开第十实施例的电子设备中配置的量子数据分类装置的结构示意图;
图14是用来实现本公开实施例的用于量子数据分类的模型训练方法或量子数据分类方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
可以理解的是,由于目前可运行的量子设备是中等规模(50-100个量子比特)并且含有噪声的,因此,如何结合经典计算机的算力使用尽量少的量子资源来实现量子数据的精确分类,成为量子机器学习方向亟待解决的问题。
本公开为了使用尽量少的量子资源来实现量子数据的精确分类,提出一种用于量子数据分类的模型训练方法以及量子数据分类方法。该用于量子数据分类的模型训练方法,结合量子设备和电子设备来实现,量子设备中设置有量子电路,电子设备中设置有经典神经网络。在量子设备获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息后,针对每个样本量子数据点,可以将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异,将状态信息以及类别信息作为对经典神经网络进行训练的训练数据,来对经典神经网络进行训练,以利用训练后的经典神经网络对待分类的量子数据集进行分类。由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,为提升量子数据分类的精度奠定了基础。
下面参考附图描述本公开实施例的用于量子数据分类的模型训练方法、量子数据分类方法、装置、电子设备、非瞬时计算机可读存储介质以及计算机程序产品。
首先结合图1,对本公开提供的量子设备中执行的用于量子数据分类的模型训练方法进行详细描述。
图1是根据本公开第一实施例的量子设备中执行的用于量子数据分类的模型训练方法的流程示意图。其中,需要说明的是,本实施例提供的用于量子数据分类的模型训练方法,由用于量子数据分类的模型训练装置,以下简称训练装置执行,其中,该训练装置可以由软件和/或硬件的方式实现,该训练装置可以配置在量子设备中,以实现使用尽量少的量子资源来实现量子数据的精确分类。
其中,量子设备,可以是任意能够对量子数据进行处理的计算设备,比如可以是近期能够提供量子电路的量子计算机,本公开对此不作限制。
如图1所示,用于量子数据分类的模型训练方法,可以包括以下步骤:
步骤101,获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息。
其中,量子数据训练集中包含多个样本量子数据点,每个样本量子数据点对应一个该样本量子数据点所属的类别信息,该类别信息表征该样本量子数据点所属的类别。
步骤102,针对每个样本量子数据点,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异。
其中,局域量子电路,为作用在量子数据点的部分量子比特上的量子电路。
参考图2所示的全局量子电路和图3所示的局域量子电路。假设一个量子数据点由q0、q1、q2、q3这4个量子比特描述,则图2所示的作用在全部量子比特q0、q1、q2、q3上的量子电路U'(θ)可以称为全局量子电路,图3所示的作用在部分量子比特比如q0、q1上的量子电路U(θ)可以称为局域量子电路。
可以理解的是,假设每个量子数据点由n个量子比特描述,每个局域量子电路只作用在其中的m’个量子比特上,那么至多可以准备
Figure BDA0003110717120000061
个局域量子电路,其中
Figure BDA0003110717120000062
表示从n个量子比特中选出m’个共有多少种可能。
本公开实施例中,可以预先准备多个局域量子电路,并且预先设置每个局域量子电路所作用的部分量子比特,从而在训练时,获取量子数据训练集后,针对每个样本量子数据点,可以按照预先的设置,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上。其中,不同的局域量子电路作用的量子比特存在差异。将多个局域量子电路分别作用到样本量子数据点的部分量子比特上后,即可测量得到作用后的部分量子比特的状态信息。
举例来说,假设每个量子数据点由q0、q1、q2、q3这4个量子比特描述。本公开实施例中,可以准备3个局域量子电路U11)、U22)和U33),并且设置每个局域量子电路作用在4个量子比特的其中2个量子比特上,且不同的局域量子电路作用的量子比特存在差异。比如可以设置局域量子电路U11)作用在量子比特(q0,q1)上(其中,本公开实施例中以(q0,q1)表示q0和q1);局域量子电路U22)作用在量子比特(q1,q2)上;局域量子电路U33)作用在量子比特(q1,q3)上。
进而在获取量子数据训练集后,针对每个样本量子数据点,可以按照预先的设置,将局域量子电路U11)作用在样本量子数据点的量子比特(q0,q1)上,并测量得到量子比特(q0,q1)作用局域量子电路U11)后的状态信息,将局域量子电路U22)作用在样本量子数据点的量子比特(q1,q2)上,并测量得到量子比特(q1,q2)作用局域量子电路U22)后的状态信息,将局域量子电路U33)作用在样本量子数据点的量子比特(q1,q3)上,并测量得到量子比特(q1,q3)作用局域量子电路U33)后的状态信息。
需要说明的是,本公开实施例中,对于每个局域量子电路,可以根据需要设置该局域量子电路所作用的部分量子比特。比如,可以根据样本量子数据点的特征灵活选择待共同提取信息的部分量子比特,并且结合量子设备的限制来设置不同的局域量子电路作用于不同的部分量子比特。其中,量子设备的限制可以理解为量子设备上的一部分量子比特受噪声影响程度大或者一部分量子比特之间不易同时提取信息等量子设备本身带来的限制。
另外,局域量子电路的数量,可以根据需要设置。比如,为了提高用于量子数据分类的模型的训练效率,可以设置使用较少的局域量子电路分别作用到样本量子数据点的部分量子比特上。
局域量子电路的结构,也可以根据需要设置。比如,可以根据量子设备的限制来优化局域量子电路的结构,使局域量子电路更适配近期量子设备的实现。
步骤103,将状态信息以及类别信息作为对经典神经网络进行训练的训练数据,以使训练后的经典神经网络对待分类的量子数据集进行分类。
其中,经典神经网络,可以为能够在经典电子设备中执行的任一神经网络,本申请方案对此不作限制。比如,经典神经网络可以为循环神经网络、卷积神经网络等。
在示例性实施例中,多个局域量子电路分别作用到量子数据训练集中每个样本量子数据点的部分量子比特上后,测量得到的作用后的部分量子比特的状态信息,以及量子数据训练集中每个样本量子数据点所属的类别信息,可以作为训练数据,为后续经典神经网络的训练奠定基础。通过利用经典神经网络对状态信息进行后加工处理,得到量子数据训练集中每个样本量子数据点所属类别的预测信息,并结合量子数据训练集中每个样本量子数据点所属的类别信息,可以实现利用训练数据对经典神经网络进行训练,从而训练后的经典神经网络可以对待分类的量子数据集进行分类。
与全局量子电路相比,局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,为提升量子数据分类的精度奠定了基础。且由于单个量子数据点的各量子比特间可能存在差异,同一量子设备上的各量子比特间也可能存在差异,通过灵活设置局域量子电路所作用的部分量子比特,可以使得训练过程更加灵活和有针对性,从而能够为经典神经网络提供更准确的状态信息,进而提高训练后的经典神经网络的分类精度。并且,由于局域量子电路的数量可以灵活设置,且局域量子电路所作用的部分量子比特,也可以根据需要设置,从而使得用户可以根据具体的应用场景和硬件设备设计更加合理、实用的用于量子数据分类的模型,更全面的提取量子数据的特征信息,为达到更好的分类效果奠定基础。
本公开实施例提供的用于量子数据分类的模型训练方法,通过获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息后,针对每个样本量子数据点,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异,再将状态信息以及类别信息作为对经典神经网络进行训练的训练数据,来对经典神经网络进行训练,以利用训练后的经典神经网络对待分类的量子数据集进行分类,实现了结合量子计算以及经典神经网络技术,来解决量子数据的分类问题,由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,为提升量子数据分类的精度奠定了基础。
下面结合图4,对本公开提供的量子设备中执行的用于量子数据分类的模型训练方法进一步说明。
图4是根据本公开第二实施例的量子设备中执行的用于量子数据分类的模型训练方法的流程示意图。如图4所示,用于量子数据分类的模型训练方法,可以包括以下步骤:
步骤401,获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息。
其中,步骤401的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
步骤402,针对每个局域量子电路,根据设定的配置信息,确定局域量子电路所作用的部分量子比特。
在示例性实施例中,每个局域量子电路所作用的部分量子比特,可以预先由用户设置,或者,每个局域量子电路所作用的部分量子比特,也可以预先通过电子设备随机选定,本公开对每个局域量子电路所作用的部分量子比特的确定方式不作限制。
在示例性实施例中,用户可以根据样本量子数据点的特征灵活选择待共同提取信息的部分量子比特,并且结合量子设备的限制来设置不同的局域量子电路作用于不同的部分量子比特,并且可以根据每个局域量子电路所作用的部分量子比特,设定配置信息,从而量子设备中的训练装置即可根据设定的配置信息,确定每个局域量子比特所作用的部分量子比特。
通过灵活设置局域量子电路所作用的部分量子比特,可以使得训练过程更加灵活和有针对性,且使得用户可以根据具体的应用场景和硬件设备设计更加合理、实用的用于量子数据分类的模型,更全面的提取量子数据的特征信息,为达到更好的分类效果奠定基础。
步骤403,针对每个样本量子数据点,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异。
步骤404,将状态信息以及类别信息作为对经典神经网络进行训练的训练数据,以使训练后的经典神经网络对待分类的量子数据集进行分类。
其中,步骤403-404的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
可以理解的是,在对经典神经网络进行训练后,可以结合多个局域量子电路和经典神经网络,实现对量子数据的分类。
在示例性实施例中,为了提升对量子数据的分类的精度,在利用状态信息以及类别信息训练经典神经网络的同时,可以对本公开中的多个局域量子电路进行训练。
具体的,针对量子数据训练集中每个样本量子数据点,量子设备中的训练装置可以在将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息后,将状态信息输入电子设备上设置的经典神经网络,得到样本量子数据点对应的预测信息,其中,该预测信息为经典神经网络输出的用于表征样本量子数据点所属的类别的预测信息。
量子设备中的训练装置可以获取量子数据训练集中各样本量子数据点分别对应的预测信息与各样本量子数据点分别所属的类别信息之间的总差异度,进而基于总差异度对多个局域量子电路的参数进行调整,以实现对多个局域量子电路的训练。
相应的,本公开实施例提供的用于量子数据分类的模型训练方法,还可以包括以下步骤:
获取总差异度,其中,总差异度是根据量子数据训练集中各样本量子数据点分别对应的预测信息以及分别所属的类别信息确定的;
基于总差异度对多个局域量子电路进行训练。
在示例性实施例中,电子设备可以根据总差异度,确定损失函数,量子设备中的训练装置可以通过梯度下降法,来调整多个局域量子电路的参数以优化最小损失函数,得到多个局域量子电路的最优参数,从而实现对多个局域量子电路的训练。
其中,每个局域量子电路由若干个单量子比特旋转门和受控反闸门组成,比如若干个单量子比特旋转门的旋转角度可以组成该局域量子电路的参数。
需要说明的是,通过梯度下降法来优化多个局域量子电路的参数的方式,仅是举例说明,在实际应用中,本领域技术人员可以结合具体的应用场景和硬件设备选择合适的优化方法来寻找多个局域量子电路的最优参数来提升多个局域量子电路的分类效果,本公开对多个局域量子电路的参数优化的方法不作限制。
通过量子设备基于经典电子设备的反馈信息,来对多个局域量子电路进行训练,并设置经典神经网络中的损失函数为更适合多分类问题的损失函数,实现了结合局域量子电路高效提取量子数据特征的能力和经典神经网络的数据处理能力高效处理量子数据的多分类问题,提升了利用训练后的多个局域量子电路以及经典神经网络进行量子数据分类时的精度。
下面结合图5,对本公开提供的电子设备中执行的用于量子数据分类的模型训练方法进行详细描述。
图5是根据本公开第三实施例的电子设备中执行的用于量子数据分类的模型训练方法的流程示意图。其中,需要说明的是,本实施例提供的用于量子数据分类的模型训练方法,由用于量子数据分类的模型训练装置,以下简称训练装置执行,其中,该训练装置可以由软件和/或硬件的方式实现,该训练装置可以配置在电子设备中,以实现使用尽量少的量子资源来实现量子数据的精确分类。
其中,电子设备,可以是任意能够对经典数据进行处理的经典计算设备,本公开对此不作限制。其中,电子设备例如可以为笔记本电脑、智能手机、可穿戴设备等移动计算设备,或者台式计算机等静止的经典计算设备等,本公开对此不作限制。
如图5所示,用于量子数据分类的模型训练方法,可以包括以下步骤:
步骤501,获取训练数据;其中,训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个局域量子电路分别作用到每个样本量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异。
其中,训练数据可以是量子设备发送至电子设备中的训练装置的。
在示例性实施例中,量子设备可以获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息,并且针对每个样本量子数据点,可以将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异。进而量子设备可以将量子数据训练集中每个样本量子数据点对应的状态信息,以及量子数据训练集中每个样本量子数据点所属的类别信息,发送至电子设备,作为训练经典神经网络的训练数据。
其中,多个局域量子电路分别作用到每个样本量子数据点的部分量子比特上后,部分量子比特的状态信息的获取过程可以参考前述实施例的描述,此处不再赘述。
步骤502,利用训练数据对经典神经网络进行训练,以使训练后的经典神经网络对待分类的量子数据集进行分类。
在示例性实施例中,电子设备中的训练装置可以利用训练数据对经典神经网络进行训练,以使训练后的经典神经网络可以对待分类的量子数据集进行分类。
本公开实施例提供的用于量子数据分类的模型训练方法,获取训练数据后,其中,训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个局域量子电路分别作用到每个样本量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异,利用训练数据对经典神经网络进行训练,以使训练后的经典神经网络对待分类的量子数据集进行分类,实现了结合量子计算以及经典神经网络技术,来解决量子数据的分类问题,由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,为提升量子数据分类的精度奠定了基础。
下面结合图6,对本公开提供的电子设备中执行的用于量子数据分类的模型训练方法进一步说明。
图6是根据本公开第四实施例的电子设备中执行的用于量子数据分类的模型训练方法的流程示意图。如图6所示,用于量子数据分类的模型训练方法,可以包括以下步骤:
步骤601,获取训练数据;其中,训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个局域量子电路分别作用到每个样本量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异。
其中,步骤601的具体实现过程及原理,可以参考上述实施例的描述,此处不再赘述。
步骤602,针对训练数据中的每个样本量子数据点,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,输入经典神经网络,并获取经典神经网络输出的样本量子数据点对应的预测信息。
其中,针对每个样本量子数据点,将样本量子数据点作用多个局域量子电路后测量得到的状态信息,输入经典神经网络,经典神经网络均可以输出该样本量子数据点对应的预测信息。其中,预测信息用于表征样本量子数据点所属的类别。
步骤603,根据量子数据训练集中各样本量子数据点分别对应的预测信息以及分别所属的类别信息,确定总差异度。
在示例性实施例中,针对量子数据训练集中每个样本量子数据点,可以确定样本量子数据点对应的预测信息以及所属的类别信息之间的差异度,进而根据量子数据训练集中各样本量子数据点分别对应的预测信息与所属的类别信息之间的差异度,确定总差异度。
步骤604,根据总差异度确定损失函数,以基于损失函数对经典神经网络进行训练。
在示例性实施例中,可以根据总差异度确定损失函数,进而基于损失函数,通过梯度下降法来最小化损失函数,得到经典神经网络的最优参数,从而实现对经典神经网络的训练。
需要说明的是,通过梯度下降法来优化经典神经网络的参数的方式,仅是举例说明,在实际应用中,本领域技术人员可以结合具体的应用场景和硬件设备选择合适的优化方法来寻找经典神经网络的最优参数来提升经典神经网络的分类效果,本公开对经典神经网络的参数优化的方法不作限制。
在示例性实施例中,针对量子数据训练集中每个样本量子数据点,可以计算样本量子数据点对应的预测信息以及所属的类别信息之间的交叉熵,将交叉熵作为样本量子数据点对应的预测信息与所属的类别信息之间的差异度,再根据量子数据训练集中各样本量子数据点分别对应的预测信息与所属的类别信息之间的差异度,确定总差异度,进而确定损失函数,以通过最小化损失函数,得到经典神经网络的最优参数,从而实现对经典神经网络的训练。
由此,通过利用样本量子数据点对应的预测信息以及所属的类别信息之间的交叉熵作为样本量子数据点对应的预测信息与所属的类别信息之间的差异度,进而根据量子数据训练集中各样本量子数据点分别对应的预测信息与所属的类别信息之间的差异度,确定总差异度,根据总差异度确定损失函数,以基于损失函数对经典神经网络进行训练,提高了确定的总差异度的准确性,为提升经典神经网络分类量子数据的精度奠定了基础。
需要说明的是,上述将样本量子数据点对应的预测信息以及所属的类别信息之间的交叉熵作为样本量子数据点对应的预测信息与所属的类别信息之间的差异度,来确定总差异度进而确定损失函数的方式,仅是举例说明。在实际应用中,本领域技术人员可以根据具体的应用场景和硬件设备自行设计或选择合适的深度学习领域的损失函数来对经典神经网络进行训练,使其在对应的应用场景下达到更好的分类效果,本公开对样本量子数据点对应的预测信息与所属的类别信息之间的差异度以及损失函数的确定方式不作限制。
在示例性实施例中,量子设备也可以基于损失函数,对多个局域量子电路进行训练,以得到多个局域量子电路的最优参数,训练后的多个局域量子电路以及训练后的经典神经网络组成分类器,可以对待分类的量子数据集进行分类。
比如,针对量子数据训练集中每个样本量子数据点,电子设备中的训练装置可以确定样本量子数据点对应的预测信息与所属的类别信息之间的差异度,再根据量子数据训练集中各样本量子数据点分别对应的预测信息与所属的类别信息之间的差异度,确定总差异度,进而确定损失函数,从而电子设备中的训练装置可以通过最小化损失函数,得到经典神经网络的最优参数,同时,量子设备可以通过最小化损失函数,得到多个局域量子电路的参数,从而实现同时对经典神经网络以及多个局域量子电路的训练。训练后的经典神经网络以及多个局域量子电路可以组成一个分类器,用于对待分类的量子数据集进行分类。
通过基于损失函数对多个局域量子电路以及经典神经网络同时进行训练,为提升量子数据分类的精度奠定了基础。并且,由于结合局域量子电路高效提取量子数据特征的能力以及经典神经网络的数据处理能力来实现量子数据的分类,通过设置经典神经网络中的损失函数为更适合多分类问题的损失函数,使得本申请中训练出的多个局域量子电路以及经典神经网络能够高效地处理多分类问题。
下面结合具体示例对本公开提供的用于量子数据分类的模型训练方法进行进一步说明。
具体的,本示例中利用了量子设备所能提供的多个局域量子电路,并结合经典神经网络的数据处理能力对测量量子系统输出的中间信息(也即将多个局域量子电路分别作用到样本量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息)进行后加工处理(post-processing),进而来优化对量子数据进行分类的分类结果。其中,本示例所使用的局域量子电路的结构可以提前按照量子设备的限制来进行设计,使之更适配近期量子设备。与相关技术中常用的全局量子电路相比,本示例所涉及的参数化量子门的数量大幅度减少,进而进一步减少了训练过程中系统噪声的引入。并且,用户可以根据输入数据的特征灵活选择待共同提取信息的部分量子比特,并结合量子设备的限制来设计不同的局域量子电路作用于选定的不同部分量子比特上。这样灵活地定制局域量子电路的方法给了用户极大的自由度,可以根据具体的应用场景和硬件设备设计更加合理、实用的分类器,更全面地提取出特征信息以达到更好的分类效果。与此同时,本示例还能够轻松应对量子数据的多分类问题。
另外,本示例还设置了类似于经典神经网络中的激活函数,如Softmax函数,并且以真实标签(即量子数据训练集中每个样本量子数据点所属的类别信息)和经典神经网络所输出的针对该量子数据训练集中每个样本量子数据点对应的预测标签之间的交叉熵作为损失函数,进而基于该损失函数来优化多个局域量子电路和经典神经网络中的参数,进而实现提升分类结果的准确性。
在描述本示例的详细步骤之前,先进行如下说明。
具体地,给定含有N个元素的量子数据训练集
Figure BDA0003110717120000141
其中,ρ(m)表示被编码成量子态的该量子数据训练集S中的第m个元素(也即第m个样本量子数据点),并且该元素对应的标签为y(m),该y(m)可以使用向量表征,比如x维向量。其中,若样本量子数据点属于第1个分类,则该x维向量中只有第1个元素为1,其余全部为0,若样本量子数据点属于第2个分类,则该x维向量中只有第2个元素为1,其余全部为0,以此类推,如此,来表示该样本量子数据点所属的类别信息。
实际应用中,n个量子比特的量子态ρ可以表示为2n×2n的半正定矩阵并且tr(ρ)=1,其中tr表示求矩阵的迹。
参考图7,具体实现流程可以为:
1、获取包括N个样本量子数据点的量子数据训练集,以及每个样本量子数据点所属的类别信息。其中,第m个样本量子数据点所属的类别信息具体可以为真实标签向量y(m)。并且,准备T个可调节参数的局域量子电路,其中局域量子电路由若干个单量子比特旋转门和受控反闸门组成。其中T的值可由用户根据需要选定。第i个局域量子电路中的若干个旋转角度组成一个向量θi,该θi即为第i个局域量子电路的参数,第i个局域量子电路记为Uii),多个局域量子电路的整体参数记为θ。与此同时,选定每个局域量子电路作用的部分量子比特,第i个局域量子电路作用的部分量子比特的集合记为集合Qi
2、准备一个经典神经网络,包括多个权重系数(也可称为参数),这些权重系数组成一个向量w,即为这个经典神经网络的参数。基于此,经典神经网络记为V(w)。
3、对于一个样本量子数据ρ(m),将准备好的局域量子电路Uii)分别作用在样本量子数据ρ(m)的选定的部分量子比特Qi上,并测量得到多个局域量子电路分别作用后的部分量子比特的状态信息。此时,不同的部分量子比特对应的状态信息组成一个向量
Figure BDA0003110717120000151
具体的,如图7所示,将局域量子电路U11)作用在量子比特(q0,q1)上后,测量得到量子比特(q0,q1)的状态信息
Figure BDA0003110717120000152
将局域量子电路U22)作用在量子比特(q1,q2)上后,测量得到量子比特(q1,q2)的状态信息
Figure BDA0003110717120000153
将局域量子电路U33)作用在量子比特(q1,q3)上后,测量得到量子比特(q1,q3)的状态信息
Figure BDA0003110717120000154
4、将多个局域量子电路分别作用后的部分量子比特的状态信息组成一个向量O(m),输入进经典神经网络V(w)处理后,得到输出结果
Figure BDA0003110717120000155
输出结果
Figure BDA0003110717120000156
即为对样本量子数据点ρ(m)的预测标签向量。
5、计算预测标签向量
Figure BDA0003110717120000157
和真实标签向量y(m)之间的交叉熵
Figure BDA0003110717120000158
其中j表示第j个分类类别,且共k个类别。其中,交叉熵用于衡量当前的多个局域量子电路和经典神经网络组成的分类器针对该样本量子数据点ρ(m)进行多分类任务的正确性,交叉熵越小表示分类器的正确性越高。
6、对于量子数据训练集内的每个样本量子数据点,重复步骤3-5并累加L(m)得到损失函数
Figure BDA0003110717120000161
其中,N为量子数据训练集内的样本量子数据点的个数。
7、通过梯度下降法或者其他最优化方法,并调整经典神经网络V(w)的参数w,以及多个局域量子电路的参数θ,来最小化损失函数L,得到最优的参数记为w*和θ*
通过上述过程,即可实现对多个局域量子电路以及经典神经网络的训练,训练后的多个局域量子电路U(θ*)和经典神经网络V(w*)组成了一个训练好的分类器。利用训练好的分类器,即可实现对待分类的量子数据集的分类。
需要说明的是,上述步骤中,涉及到量子数据的处理过程在量子设备中执行,涉及到经典神经网络的处理过程在电子设备比如经典计算机中执行,如此,结合量子计算与经典神经网络技术,来实现精确的辨别量子数据的类别。
上述实施例介绍了用于量子数据分类的模型训练方法,基于上述实施例,本公开实施例还提供一种量子数据分类方法。
图8是根据本公开第五实施例的量子设备中执行的量子数据分类方法的流程示意图。其中,需要说明的是,本实施例提供的量子数据分类方法,由量子数据分类装置,以下简称分类装置执行,其中,该分类装置可以由软件和/或硬件的方式实现,该分类装置可以配置在量子设备中,以实现使用尽量少的量子资源来实现量子数据的精确分类。
如图8所示,量子数据分类方法,可以包括以下步骤:
步骤801,获取待分类的量子数据集。
其中,待分类的量子数据集中,可以包括一个或多个量子数据点,本公开对待分类的量子数据集中量子数据点的数量不作限制。另外,量子数据点可以是本身需要分类的量子态,也可以是编码了经典数据的量子态,本公开对此不作限制。
步骤802,将多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中不同的局域量子电路作用的量子比特存在差异,以使训练后的经典神经网络依据状态信息对待分类的量子数据集进行分类。
其中,多个局域量子电路可以为采用上述实施例的模型训练方法训练后的多个局域量子电路,也可以为未采用上述实施例的模型训练方法训练后的多个局域量子电路,本公开对此不作限制。
在示例性实施例中,针对待分类的量子数据集中的每个量子数据点,可以将多个局域量子电路分别作用到量子数据点的部分量子比特上,测量得到作用后的部分量子比特的状态信息,其中不同的局域量子电路作用的量子比特存在差异。
其中,步骤802中将多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上,测量得到作用后的部分量子比特的状态信息的具体实现过程,与前述实施例中步骤102的具体实现过程类似,此处不再赘述。
需要说明的是,对于每个局域量子电路,局域量子电路作用到待分类的量子数据集中量子数据点的哪部分量子比特上,与模型训练过程中局域量子电路作用到量子数据训练集的样本量子数据点的哪部分量子比特是相同的。即针对每个局域量子电路,分类器的训练过程和使用过程中局域量子电路作用的量子比特是相同的。
在示例性实施例中,可以将步骤802得到的部分量子比特的状态信息,作为采用上述实施例中的模型训练方法训练后的经典神经网络对待分类的量子数据进行分类时的中间数据,从而使得训练后的经典神经网络可以依据作为中间数据的状态信息,对待分类的量子数据集进行分类。
与全局量子电路相比,局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且由于训练过程中引入的系统噪声降低,作为经典神经网络的训练数据的状态信息更准确,训练后的经典神经网络的分类精度更高,从而利用训练后的经典神经网络对待分类的量子数据集进行分类时,分类的精度得到提升。且由于单个量子数据的各量子比特间可能存在差异,同一量子设备上的各量子比特间也可能存在差异,通过灵活设置局域量子电路所作用的部分量子比特,以及局域量子电路的数量,使得用户可以根据具体的应用场景和硬件设备设计更加合理、实用的用于量子数据分类的模型,更全面的提取待分类的量子数据集的特征信息,达到更好的分类效果。
本公开实施例提供的量子数据分类方法,获取待分类的量子数据集后,将多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中不同的局域量子电路作用的量子比特存在差异,以使训练后的经典神经网络依据状态信息对待分类的量子数据集进行分类。实现了结合量子计算以及经典神经网络技术,来解决量子数据的分类问题,由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,提升对待分类的量子数据集进行分类的精度。
基于上述实施例的用于量子数据分类的模型训练方法,本公开实施例还提供另一种量子数据分类方法。
图9是根据本公开第六实施例的电子设备中执行的量子数据分类方法的流程示意图。其中,需要说明的是,本实施例提供的量子数据分类方法,由量子数据分类装置,以下简称分类装置执行,其中,该分类装置可以由软件和/或硬件的方式实现,该分类装置可以配置在电子设备中,以实现使用尽量少的量子资源来实现量子数据的精确分类。
如图9所示,量子数据分类方法,可以包括以下步骤:
步骤901,获取多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异。
其中,多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,可以是量子设备发送至电子设备中的分类装置的。
在示例性实施例中,量子设备可以获取待分类的量子数据集,并且针对量子数据集中每个量子数据点,可以将多个局域量子电路分别作用到量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异。进而量子设备可以将量子数据集中每个量子数据点对应的状态信息,发送至电子设备。
其中,多个局域量子电路分别作用到每个量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息的获取过程可以参考前述实施例的描述,此处不再赘述。
步骤902,将状态信息输入至训练后的经典神经网络中,得到量子数据集中量子数据点所属类别的预测信息。
在示例性实施例中,针对每个量子数据点,将量子数据点作用多个局域量子电路后测量得到的状态信息,输入采用上述模型训练方法训练后的经典神经网络,经典神经网络即可输出该量子数据点所属类别的预测信息。
本公开实施例提供的量子数据分类方法,获取多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异,将状态信息输入至训练后的经典神经网络中,得到量子数据集中量子数据点所属类别的预测信息,实现了结合量子计算以及经典神经网络技术,来解决量子数据的分类问题,由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,从而提升量子数据分类的精度。
下面结合图10,对本公开提供的量子设备中配置的用于量子数据分类的模型训练装置进行说明。
图10是根据本公开第七实施例的量子设备中配置的用于量子数据分类的模型训练装置的结构示意图。
如图10所示,本公开提供的用于量子数据分类的模型训练装置1000,包括:第一获取模块1001、第一处理模块1002以及第二处理模块1003。
其中,第一获取模块1001,用于获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息;
第一处理模块1002,用于针对每个样本量子数据点,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异;
第二处理模块1003,用于将状态信息以及类别信息作为对经典神经网络进行训练的训练数据,以使训练后的经典神经网络对待分类的量子数据集进行分类。
需要说明的是,本实施例提供的用于量子数据分类的模型训练装置1000,以下简称训练装置,可以执行前述第一方面实施例的量子设备中执行的用于量子数据分类的模型训练方法,以实现使用尽量少的量子资源来实现量子数据的精确分类。
在示例性实施例中,训练装置1000,还可以包括:
确定模块,用于针对每个局域量子电路,根据设定的配置信息,确定局域量子电路所作用的部分量子比特;
或者,选择模块,用于针对每个局域量子电路,通过电子设备随机选定局域量子电路所作用的部分量子比特。
在示例性实施例中,训练装置1000,还可以包括:
第二获取模块,用于获取总差异度,其中,总差异度是根据量子数据训练集中各样本量子数据点分别对应的预测信息以及分别所属的类别信息确定的;
第一训练模块,用于基于总差异度对多个局域量子电路进行训练。
需要说明的是,前述对于量子设备中执行的用于量子数据分类的模型训练方法的实施例的说明,也适用于本公开提供的用于量子数据分类的模型训练装置,此处不再赘述。
本公开实施例提供的用于量子数据分类的模型训练装置,通过获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息后,针对每个样本量子数据点,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异,再将状态信息以及类别信息作为对经典神经网络进行训练的训练数据,来对经典神经网络进行训练,以利用训练后的经典神经网络对待分类的量子数据集进行分类,实现了结合量子计算以及经典神经网络技术,来解决量子数据的分类问题,由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,为提升量子数据分类的精度奠定了基础。
下面结合图11,对本公开提供的电子设备中配置的用于量子数据分类的模型训练装置进行说明。
图11是根据本公开第八实施例的电子设备中配置的用于量子数据分类的模型训练装置的结构示意图。
如图11所示,本公开提供的用于量子数据分类的模型训练装置1100,包括:第三获取模块1101以及第二训练模块1102。
其中,第三获取模块1101,用于获取训练数据;其中,训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个局域量子电路分别作用到每个样本量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异;
第二训练模块1102,用于利用训练数据对经典神经网络进行训练,以使训练后的经典神经网络对待分类的量子数据集进行分类。
需要说明的是,本实施例提供的用于量子数据分类的模型训练装置1100,以下简称训练装置,可以执行前述第二方面实施例的电子设备中执行的用于量子数据分类的模型训练方法,以实现使用尽量少的量子资源来实现量子数据的精确分类。
在示例性实施例中,第二训练模块1102,包括:
获取单元,用于针对训练数据中的每个样本量子数据点,将多个局域量子电路分别作用到样本量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,输入经典神经网络,并获取经典神经网络输出的样本量子数据点对应的预测信息;
第一确定单元,用于根据量子数据训练集中各样本量子数据点分别对应的预测信息以及分别所属的类别信息,确定总差异度;
第二确定单元,用于根据总差异度确定损失函数,以基于损失函数对经典神经网络进行训练。
在示例性实施例中,第一确定单元,包括:
计算子单元,用于针对量子数据训练集中每个样本量子数据点,计算样本量子数据点对应的预测信息以及所属的类别信息之间的交叉熵,将交叉熵作为样本量子数据点对应的预测信息与所属的类别信息之间的差异度;
确定子单元,用于根据量子数据训练集中各样本量子数据点分别对应的预测信息与所属的类别信息之间的差异度,确定总差异度。
在示例性实施例中,损失函数还用于对多个局域量子电路进行训练。
需要说明的是,前述对于电子设备中执行的用于量子数据分类的模型训练方法的实施例的说明,也适用于本公开提供的用于量子数据分类的模型训练装置,此处不再赘述。
本公开实施例提供的用于量子数据分类的模型训练装置,获取训练数据后,其中,训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个局域量子电路分别作用到每个样本量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异,利用训练数据对经典神经网络进行训练,以使训练后的经典神经网络对待分类的量子数据集进行分类,实现了结合量子计算以及经典神经网络技术,来解决量子数据的分类问题,由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,为提升量子数据分类的精度奠定了基础。
下面结合图12,对本公开提供的量子设备中配置的量子数据分类装置进行说明。
图12是根据本公开第九实施例的量子设备中配置的量子数据分类装置的结构示意图。
如图12所示,本公开提供的量子数据分类装置1200,包括:第四获取模块1201以及第三处理模块1202。
其中,第四获取模块1201,用于获取待分类的量子数据集;
第三处理模块1202,用于将多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中不同的局域量子电路作用的量子比特存在差异,以使训练后的经典神经网络依据状态信息对待分类的量子数据集进行分类。
需要说明的是,本实施例提供的量子数据分类装置1200,可以执行前述第三方面实施例的量子设备中执行的量子数据分类方法,以实现使用尽量少的量子资源来实现量子数据的精确分类。
需要说明的是,前述对于的量子设备中执行的量子数据分类方法的实施例的说明,也适用于本公开提供的量子数据分类装置,此处不再赘述。
本公开实施例提供的量子数据分类装置,获取待分类的量子数据集后,将多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上,并测量得到作用后的部分量子比特的状态信息,其中不同的局域量子电路作用的量子比特存在差异,以使训练后的经典神经网络依据状态信息对待分类的量子数据集进行分类。实现了结合量子计算以及经典神经网络技术,来解决量子数据的分类问题,由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,提升对待分类的量子数据集进行分类的精度。
下面结合图13,对本公开提供的电子设备中配置的量子数据分类装置进行说明。
图13是根据本公开第十实施例的电子设备中配置的量子数据分类装置的结构示意图。
如图13所示,本公开提供的量子数据分类装置1300,包括:第五获取模块1301以及第四处理模块1302。
其中,第五获取模块1301,用于获取多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异;
第四处理模块1302,用于将状态信息输入至训练后的经典神经网络中,得到量子数据集中量子数据点所属类别的预测信息。
需要说明的是,本实施例提供的量子数据分类装置1300,可以执行前述第四方面实施例的电子设备中执行的量子数据分类方法,以实现使用尽量少的量子资源来实现量子数据的精确分类。
需要说明的是,前述对于电子设备中执行的量子数据分类方法的实施例的说明,也适用于本公开提供的量子数据分类装置,此处不再赘述。
本公开实施例提供的量子数据分类装置,获取多个局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异,将状态信息输入至训练后的经典神经网络中,得到量子数据集中量子数据点所属类别的预测信息,实现了结合量子计算以及经典神经网络技术,来解决量子数据的分类问题,由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,从而提升量子数据分类的精度。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图14示出了可以用来实施本公开的实施例的示例电子设备1400的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图14所示,设备1400包括计算单元1401,其可以根据存储在只读存储器(ROM)1402中的计算机程序或者从存储单元1408加载到随机访问存储器(RAM)1403中的计算机程序,来执行各种适当的动作和处理。在RAM 1403中,还可存储设备1400操作所需的各种程序和数据。计算单元1401、ROM 1402以及RAM 1403通过总线1404彼此相连。输入/输出(I/O)接口1405也连接至总线1404。
设备1400中的多个部件连接至I/O接口1405,包括:输入单元1406,例如键盘、鼠标等;输出单元1407,例如各种类型的显示器、扬声器等;存储单元1408,例如磁盘、光盘等;以及通信单元1409,例如网卡、调制解调器、无线通信收发机等。通信单元1409允许设备1400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1401可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1401的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1401执行上文所描述的各个方法和处理,例如用于量子数据分类的模型训练方法或量子数据分类方法。例如,在一些实施例中,用于量子数据分类的模型训练方法或量子数据分类方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1408。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1402和/或通信单元1409而被载入和/或安装到设备1400上。当计算机程序加载到RAM 1403并由计算单元1401执行时,可以执行上文描述的用于量子数据分类的模型训练方法或量子数据分类方法的一个或多个步骤。备选地,在其他实施例中,计算单元1401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于量子数据分类的模型训练方法或量子数据分类方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
本公开实施例涉及人工智能技术领域,尤其涉及量子计算、深度学习技术领域。
其中,人工智能(Artificial Intelligence,简称AI),是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向
根据本公开实施例的技术方案,结合量子设备和电子设备来实现,量子设备中设置有量子电路,电子设备中设置有经典神经网络。在量子设备获取量子数据训练集以及量子数据训练集中每个样本量子数据点所属的类别信息后,针对每个样本量子数据点,可以将多个局域量子电路分别作用到样本量子数据点的部分量子比特上,得到作用后的部分量子比特的状态信息,其中,不同的局域量子电路作用的量子比特存在差异,将状态信息以及类别信息作为对经典神经网络进行训练的训练数据,来对经典神经网络进行训练,以利用训练后的经典神经网络对待分类的量子数据集进行分类。由于局域量子电路涉及到的参数化量子门的数量大幅度减少,从而节省了量子数据分类时使用的量子资源,且能够降低训练过程中引入的系统噪声,为提升量子数据分类的精度奠定了基础。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (20)

1.一种用于量子数据分类的模型训练方法,包括:
获取量子数据训练集以及所述量子数据训练集中每个样本量子数据点所属的类别信息;
针对所述每个样本量子数据点,将多个不同的局域量子电路分别作用到所述样本量子数据点的部分量子比特上,并测量得到作用后的所述部分量子比特的状态信息,其中,所述多个不同的局域量子电路作用的量子比特存在差异;
将所述状态信息以及所述类别信息作为对经典神经网络进行训练的训练数据,以使训练后的所述经典神经网络对待分类的量子数据集进行分类;
所述将多个不同的局域量子电路分别作用到所述样本量子数据点的部分量子比特上之前,包括:
预先准备多个局域量子电路,根据量子设备的限制优化所述局域量子电路的结构,针对每个所述局域量子电路,根据设定的配置信息,确定所述局域量子电路所作用的部分量子比特,所述量子设备的限制包括不同的量子比特之间不易同时提取信息所带来的限制。
2.根据权利要求1所述的方法,其中,所述将多个局域量子电路分别作用到所述样本量子数据点的部分量子比特上之前,还包括:
针对每个所述局域量子电路,通过电子设备随机选定所述局域量子电路所作用的部分量子比特。
3.根据权利要求1或2所述的方法,其中,还包括:
获取总差异度,其中,所述总差异度是根据所述量子数据训练集中各所述样本量子数据点分别对应的预测信息以及分别所属的类别信息确定的;
基于所述总差异度对所述多个局域量子电路进行训练。
4.一种用于量子数据分类的模型训练方法,包括:
获取训练数据;其中,所述训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个不同的局域量子电路分别作用到所述每个样本量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,其中,所述多个不同的局域量子电路作用的量子比特存在差异;
利用所述训练数据对经典神经网络进行训练,以使训练后的所述经典神经网络对待分类的量子数据集进行分类;
在所述多个不同的局域量子电路分别作用到所述每个样本量子数据点的部分量子比特上之前,包括:
预先准备多个局域量子电路,根据量子设备的限制优化所述局域量子电路的结构,针对每个所述局域量子电路,根据设定的配置信息,确定所述局域量子电路所作用的部分量子比特,所述量子设备的限制包括不同的量子比特之间不易同时提取信息所带来的限制。
5.根据权利要求4所述的方法,其中,所述利用所述训练数据对经典神经网络进行训练,包括:
针对所述训练数据中的每个样本量子数据点,将所述多个局域量子电路分别作用到所述样本量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,输入所述经典神经网络,并获取所述经典神经网络输出的所述样本量子数据点对应的预测信息;
根据所述量子数据训练集中各样本量子数据点分别对应的预测信息以及分别所属的类别信息,确定总差异度;
根据所述总差异度确定损失函数,以基于所述损失函数对所述经典神经网络进行训练。
6.根据权利要求5所述的方法,其中,所述根据所述量子数据训练集中各样本量子数据点分别对应的预测信息以及分别所属的类别信息,确定总差异度,包括:
针对所述量子数据训练集中每个所述样本量子数据点,计算所述样本量子数据点对应的所述预测信息以及所属的所述类别信息之间的交叉熵,将所述交叉熵作为所述样本量子数据点对应的所述预测信息与所属的所述类别信息之间的差异度;
根据所述量子数据训练集中各所述样本量子数据点分别对应的所述预测信息与所属的所述类别信息之间的差异度,确定所述总差异度。
7.根据权利要求5所述的方法,其中,所述损失函数还用于对所述多个局域量子电路进行训练。
8.一种量子数据分类方法,包括:
获取待分类的量子数据集;
将多个不同的局域量子电路分别作用到所述待分类的量子数据集中量子数据点的部分量子比特上,并测量得到作用后的所述部分量子比特的状态信息,其中所述多个不同的局域量子电路作用的量子比特存在差异,以使训练后的经典神经网络依据所述状态信息对所述待分类的量子数据集进行分类;
所述将多个不同的局域量子电路分别作用到所述待分类的量子数据集中量子数据点的部分量子比特上之前,包括:
预先准备多个局域量子电路,根据量子设备的限制优化所述局域量子电路的结构,针对每个所述局域量子电路,根据设定的配置信息,确定所述局域量子电路所作用的部分量子比特,所述量子设备的限制包括不同的量子比特之间不易同时提取信息所带来的限制。
9.一种量子数据分类方法,包括:
获取多个不同的局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,其中,所述多个不同的局域量子电路作用的量子比特存在差异;
将所述状态信息输入至训练后的经典神经网络中,得到所述量子数据集中量子数据点所属类别的预测信息;
所述获取多个不同的局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上之前,包括:
预先准备多个局域量子电路,根据量子设备的限制优化所述局域量子电路的结构,针对每个所述局域量子电路,根据设定的配置信息,确定所述局域量子电路所作用的部分量子比特,所述量子设备的限制包括不同的量子比特之间不易同时提取信息所带来的限制。
10.一种用于量子数据分类的模型训练装置,包括:
第一获取模块,用于获取量子数据训练集以及所述量子数据训练集中每个样本量子数据点所属的类别信息;
第一处理模块,用于针对所述每个样本量子数据点,将多个不同的局域量子电路分别作用到所述样本量子数据点的部分量子比特上,并测量得到作用后的所述部分量子比特的状态信息,其中,所述多个不同的局域量子电路作用的量子比特存在差异;
第二处理模块,用于将所述状态信息以及所述类别信息作为对经典神经网络进行训练的训练数据,以使训练后的所述经典神经网络对待分类的量子数据集进行分类;
确定模块,用于预先准备多个局域量子电路,根据量子设备的限制优化所述局域量子电路的结构,针对每个所述局域量子电路,根据设定的配置信息,确定所述局域量子电路所作用的部分量子比特,所述量子设备的限制包括不同的量子比特之间不易同时提取信息所带来的限制。
11.根据权利要求10所述的装置,其中,还包括:
选择模块,用于针对每个所述局域量子电路,通过电子设备随机选定所述局域量子电路所作用的部分量子比特。
12.根据权利要求10或11所述的装置,其中,还包括:
第二获取模块,用于获取总差异度,其中,所述总差异度是根据所述量子数据训练集中各所述样本量子数据点分别对应的预测信息以及分别所属的类别信息确定的;
第一训练模块,用于基于所述总差异度对所述多个局域量子电路进行训练。
13.一种用于量子数据分类的模型训练装置,包括:
第三获取模块,用于获取训练数据;其中,所述训练数据包括量子数据训练集中每个样本量子数据点所属的类别信息,以及多个不同的局域量子电路分别作用到所述每个样本量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,其中,所述多个不同的局域量子电路作用的量子比特存在差异;
第二训练模块,用于利用所述训练数据对经典神经网络进行训练,以使训练后的所述经典神经网络对待分类的量子数据集进行分类;
所述第三获取模块还用于,在所述多个不同的局域量子电路分别作用到所述每个样本量子数据点的部分量子比特上之前,预先准备多个局域量子电路,根据量子设备的限制优化所述局域量子电路的结构,针对每个所述局域量子电路,根据设定的配置信息,确定所述局域量子电路所作用的部分量子比特,所述量子设备的限制包括不同的量子比特之间不易同时提取信息所带来的限制。
14.根据权利要求13所述的装置,其中,所述第二训练模块,包括:
获取单元,用于针对所述训练数据中的每个样本量子数据点,将所述多个局域量子电路分别作用到所述样本量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,输入所述经典神经网络,并获取所述经典神经网络输出的所述样本量子数据点对应的预测信息;
第一确定单元,用于根据所述量子数据训练集中各样本量子数据点分别对应的预测信息以及分别所属的类别信息,确定总差异度;
第二确定单元,用于根据所述总差异度确定损失函数,以基于所述损失函数对所述经典神经网络进行训练。
15.根据权利要求14所述的装置,其中,所述第一确定单元,包括:
计算子单元,用于针对所述量子数据训练集中每个所述样本量子数据点,计算所述样本量子数据点对应的所述预测信息以及所属的所述类别信息之间的交叉熵,将所述交叉熵作为所述样本量子数据点对应的所述预测信息与所属的所述类别信息之间的差异度;
确定子单元,用于根据所述量子数据训练集中各所述样本量子数据点分别对应的所述预测信息与所属的所述类别信息之间的差异度,确定所述总差异度。
16.根据权利要求14所述的装置,其中,所述损失函数还用于对所述多个局域量子电路进行训练。
17.一种量子数据分类装置,包括:
第四获取模块,用于获取待分类的量子数据集;
第三处理模块,用于将多个不同的局域量子电路分别作用到所述待分类的量子数据集中量子数据点的部分量子比特上,并测量得到作用后的所述部分量子比特的状态信息,其中所述多个不同的局域量子电路作用的量子比特存在差异,以使训练后的经典神经网络依据所述状态信息对所述待分类的量子数据集进行分类;
所述第四获取模块还用于,在将多个不同的局域量子电路分别作用到所述待分类的量子数据集中量子数据点的部分量子比特上之前,预先准备多个局域量子电路,根据量子设备的限制优化所述局域量子电路的结构,针对每个所述局域量子电路,根据设定的配置信息,确定所述局域量子电路所作用的部分量子比特,所述量子设备的限制包括不同的量子比特之间不易同时提取信息所带来的限制。
18.一种量子数据分类装置,包括:
第五获取模块,用于获取多个不同的局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上后,测量得到的所述部分量子比特的状态信息,其中,所述多个不同的局域量子电路作用的量子比特存在差异;
第四处理模块,用于将所述状态信息输入至训练后的经典神经网络中,得到所述量子数据集中量子数据点所属类别的预测信息;
所述第五获取模块还用于,在获取多个不同的局域量子电路分别作用到待分类的量子数据集中量子数据点的部分量子比特上之前,预先准备多个局域量子电路,根据量子设备的限制优化所述局域量子电路的结构,针对每个所述局域量子电路,根据设定的配置信息,确定所述局域量子电路所作用的部分量子比特,所述量子设备的限制包括不同的量子比特之间不易同时提取信息所带来的限制。
19. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求4-7中任一项所述的方法,或者执行权利要求9所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求4-7中任一项所述的方法,或者执行根据权利要求9所述的方法。
CN202110648240.2A 2021-06-10 2021-06-10 用于量子数据分类的模型训练方法以及量子数据分类方法 Active CN113449778B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110648240.2A CN113449778B (zh) 2021-06-10 2021-06-10 用于量子数据分类的模型训练方法以及量子数据分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110648240.2A CN113449778B (zh) 2021-06-10 2021-06-10 用于量子数据分类的模型训练方法以及量子数据分类方法

Publications (2)

Publication Number Publication Date
CN113449778A CN113449778A (zh) 2021-09-28
CN113449778B true CN113449778B (zh) 2023-04-21

Family

ID=77811209

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110648240.2A Active CN113449778B (zh) 2021-06-10 2021-06-10 用于量子数据分类的模型训练方法以及量子数据分类方法

Country Status (1)

Country Link
CN (1) CN113449778B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114219076B (zh) * 2021-12-15 2023-06-20 北京百度网讯科技有限公司 量子神经网络训练方法及装置、电子设备和介质
CN117765481B (zh) * 2024-02-22 2024-05-31 山东金桥保安器材有限公司 集成多源数据的电力系统火灾智慧预警方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110692067A (zh) * 2017-06-02 2020-01-14 谷歌有限责任公司 量子神经网络
CN111563186A (zh) * 2020-04-30 2020-08-21 北京百度网讯科技有限公司 量子数据存储方法、读取方法、装置及计算设备
CN112001498A (zh) * 2020-08-14 2020-11-27 苏州浪潮智能科技有限公司 基于量子计算机的数据识别方法、装置及可读存储介质
CN112561069A (zh) * 2020-12-23 2021-03-26 北京百度网讯科技有限公司 模型处理方法、装置、设备、存储介质及产品
CN112801281A (zh) * 2021-03-22 2021-05-14 东南大学 基于量子化生成模型和神经网络的对抗生成网络构建方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418387A (zh) * 2020-11-18 2021-02-26 北京百度网讯科技有限公司 量子数据处理方法及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110692067A (zh) * 2017-06-02 2020-01-14 谷歌有限责任公司 量子神经网络
CN111563186A (zh) * 2020-04-30 2020-08-21 北京百度网讯科技有限公司 量子数据存储方法、读取方法、装置及计算设备
CN112001498A (zh) * 2020-08-14 2020-11-27 苏州浪潮智能科技有限公司 基于量子计算机的数据识别方法、装置及可读存储介质
CN112561069A (zh) * 2020-12-23 2021-03-26 北京百度网讯科技有限公司 模型处理方法、装置、设备、存储介质及产品
CN112801281A (zh) * 2021-03-22 2021-05-14 东南大学 基于量子化生成模型和神经网络的对抗生成网络构建方法

Also Published As

Publication number Publication date
CN113449778A (zh) 2021-09-28

Similar Documents

Publication Publication Date Title
CN113657465B (zh) 预训练模型的生成方法、装置、电子设备和存储介质
CN113326764B (zh) 训练图像识别模型和图像识别的方法和装置
CN112784778B (zh) 生成模型并识别年龄和性别的方法、装置、设备和介质
CN113379059B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
CN113449778B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
CN112560993B (zh) 数据筛选方法、装置、电子设备及存储介质
CN112580733B (zh) 分类模型的训练方法、装置、设备以及存储介质
CN112418387A (zh) 量子数据处理方法及设备
CN113705628B (zh) 预训练模型的确定方法、装置、电子设备以及存储介质
CN113657483A (zh) 模型训练方法、目标检测方法、装置、设备以及存储介质
CN113961765B (zh) 基于神经网络模型的搜索方法、装置、设备和介质
CN113657466B (zh) 预训练模型的生成方法、装置、电子设备和存储介质
CN112800919A (zh) 一种检测目标类型视频方法、装置、设备以及存储介质
CN112650885A (zh) 视频分类方法、装置、设备和介质
CN115690443B (zh) 特征提取模型训练方法、图像分类方法及相关装置
CN113902010A (zh) 分类模型的训练方法和图像分类方法、装置、设备和介质
CN113627536A (zh) 模型训练、视频分类方法,装置,设备以及存储介质
CN114037059A (zh) 预训练模型、模型的生成方法、数据处理方法及装置
CN113516185B (zh) 模型训练的方法、装置、电子设备及存储介质
CN113887630A (zh) 图像分类方法、装置、电子设备和存储介质
CN113657248A (zh) 人脸识别模型的训练方法、装置及计算机程序产品
CN113191261A (zh) 图像类别的识别方法、装置和电子设备
CN115294405A (zh) 农作物病害分类模型的构建方法、装置、设备及介质
CN114882334A (zh) 用于生成预训练模型的方法、模型训练方法及装置
CN115809687A (zh) 一种图像处理网络的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant