CN114372539A - 基于机器学习框架的分类方法及相关设备 - Google Patents

基于机器学习框架的分类方法及相关设备 Download PDF

Info

Publication number
CN114372539A
CN114372539A CN202210282548.4A CN202210282548A CN114372539A CN 114372539 A CN114372539 A CN 114372539A CN 202210282548 A CN202210282548 A CN 202210282548A CN 114372539 A CN114372539 A CN 114372539A
Authority
CN
China
Prior art keywords
layer
quantum
data
classical
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210282548.4A
Other languages
English (en)
Other versions
CN114372539B (zh
Inventor
窦猛汉
周照辉
方圆
李蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Origin Quantum Computing Technology Co Ltd
Original Assignee
Origin Quantum Computing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Origin Quantum Computing Technology Co Ltd filed Critical Origin Quantum Computing Technology Co Ltd
Priority to CN202210282548.4A priority Critical patent/CN114372539B/zh
Publication of CN114372539A publication Critical patent/CN114372539A/zh
Application granted granted Critical
Publication of CN114372539B publication Critical patent/CN114372539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Computational Mathematics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Image Analysis (AREA)
  • Optical Modulation, Optical Deflection, Nonlinear Optics, Optical Demodulation, Optical Logic Elements (AREA)

Abstract

本发明公开了一种基于机器学习框架的分类方法及相关设备,所述机器学习框架包括经典模块和量子模块,所述方法包括:调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果;获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。通过该技术方案可以提高对待分类数据的分类处理速度。

Description

基于机器学习框架的分类方法及相关设备
技术领域
本发明属于量子计算技术领域,特别是涉及一种基于机器学习框架的分类方法及相关设备。
背景技术
机器学习模型由于其优异的性能而被广泛应用于人工智能研究,通过利用标注好的训练数据对机器学习模型进行训练,可以得到符合预期的机器学习模型,进而将其用于语音识别、图像识别等具体应用工作。机器学习模型无须人为设立其用于具体应用工作的标准,通过训练机器学习模型可以自己建立相应的工作标准,对于不同应用工作具有较好的适应性,例如机器学习模型可以被用于对待分类数据进行分类。
相关技术中,当需要进行分类处理的数据较多时,机器学习模型对其处理速度较慢,因此如何提高机器学习模型对数据的分类处理速度至关重要。
发明内容
本发明的目的是提供一种基于机器学习框架的分类方法及相关设备,旨在提高机器学习模型对待分类数据的分类处理速度。
为了实现上述目的,本发明实施例的第一方面,提供一种基于机器学习框架的分类方法,所述机器学习框架包括经典模块和量子模块,所述方法包括:
调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果;
获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。
可选地,所述特征提取量子计算层包括作用于单个量子比特且依次级联的演化单元和测量单元,其中,所述演化单元用于根据所述第一特征信息使得量子比特从初始态演化至目标态,所述测量单元用于对量子比特执行测量操作。
可选地,所述演化单元包括级联的H门和含参量子逻辑门,所述含参量子逻辑门的参数为所述第一特征信息。
可选地,所述含参量子逻辑门为RX门、RY门或RZ门中的任意一者。
可选地,所述测量单元包括:用于根据目标可观测量对量子比特进行测量得到对应所述目标可观测量的期望值的第一测量逻辑门,或用于测量量子比特的量子态的不同基态的出现概率的第二测量逻辑门,或用于测量量子比特的量子态的不同基态的出现次数的第三测量逻辑门。
可选地,所述特征提取经典计算层包括依次级联的卷积层、池化层和第一全连接层,其中,所述卷积层用于对输入数据的每个子集的数据进行加权求和,所述池化层用于从输入数据的每个子集中选择最大数据或计算该子集中数据的平均值,所述第一全连接层用于对输入数据进行加权求和。
可选地,所述特征融合计算层包括第二全连接层,所述第二全连接层用于对所述第二特征信息进行加权求和,得到所述分类模型的所述分类结果。
可选地,所述调用所述经典模块和所述量子模块创建分类模型,包括:
调用所述经典模块创建所述特征提取经典计算层;
调用所述量子模块创建所述特征提取量子计算层;
调用所述经典模块创建所述特征融合计算层;
调用所述经典模块对所述特征提取经典计算层、所述特征提取量子计算层和所述特征融合计算层进行封装,得到分类模型。
可选地,所述方法还包括:
调用所述经典模块创建所述分类模型的训练层,并获取训练数据;
将所述训练数据输入所述分类模型,得到结果数据;
将所述结果数据输入所述训练层,以对所述分类模型的所述特征提取经典计算层和所述特征融合计算层的参数进行更新,得到训练后的所述分类模型。
本发明实施例的第二方面,提供一种基于机器学习框架的分类装置,所述机器学习框架包括经典模块和量子模块,所述装置包括:
第一创建模块,用于调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果;
分类模块,用于获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。
可选地,所述特征提取量子计算层包括作用于单个量子比特且依次级联的演化单元和测量单元,其中,所述演化单元用于根据所述第一特征信息使得量子比特从初始态演化至目标态,所述测量单元用于对量子比特执行测量操作。
可选地,所述演化单元包括级联的H门和含参量子逻辑门,所述含参量子逻辑门的参数为所述第一特征信息。
可选地,所述含参量子逻辑门为RX门、RY门或RZ门中的任意一者。
可选地,所述测量单元包括:用于根据目标可观测量对量子比特进行测量得到对应所述目标可观测量的期望值的第一测量逻辑门,或用于测量量子比特的量子态的不同基态的出现概率的第二测量逻辑门,或用于测量量子比特的量子态的不同基态的出现次数的第三测量逻辑门。
可选地,所述特征提取经典计算层包括依次级联的卷积层、池化层和第一全连接层,其中,所述卷积层用于对输入数据的每个子集的数据进行加权求和,所述池化层用于从输入数据的每个子集中选择最大数据或计算该子集中数据的平均值,所述第一全连接层用于对输入数据进行加权求和。
可选地,所述特征融合计算层包括第二全连接层,所述第二全连接层用于对所述第二特征信息进行加权求和,得到所述分类模型的所述分类结果。
可选地,所述第一创建模块还用于:
调用所述经典模块创建所述特征提取经典计算层;
调用所述量子模块创建所述特征提取量子计算层;
调用所述经典模块创建所述特征融合计算层;
调用所述经典模块对所述特征提取经典计算层、所述特征提取量子计算层和所述特征融合计算层进行封装,得到分类模型。
可选地,所述装置还包括:
第二创建模块,用于调用所述经典模块创建所述分类模型的训练层,并获取训练数据;
输入模块,用于将所述训练数据输入所述分类模型,得到结果数据;
训练模块,用于将所述结果数据输入所述训练层,以对所述分类模型的所述特征提取经典计算层和所述特征融合计算层的参数进行更新,得到训练后的所述分类模型。
本发明实施例的第三方面,提供一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述第一方面中任一项所述方法的步骤。
本发明实施例的第四方面,提供一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述第一方面中任一项所述方法的步骤。
基于上述技术方案,创建好分类模型后,将待分类数据输入分类模型,进而特征提取经典计算层先对待分类数据进行特征提取得到第一特征信息,然后特征提取量子计算层再对第一特征信息进行特征提取,得到第二特征信息,最后特征融合计算层对第二特征信息进行特征融合计算得到分类结果,通过将量子计算和经典计算结合,分类模型的部分通过量子计算过程实现,可以加快分类速度,提高分类效率。
附图说明
图1是根据一示例性实施例示出的一种基于机器学习框架的分类方法的计算机终端的硬件结构框图。
图2是根据一示例性实施例示出的一种基于机器学习框架的分类方法的流程图。
图3是根据一示例性实施例示出的一种基于机器学习框架的分类方法包括的步骤S21的流程图。
图4是根据一示例性实施例示出的一种分类模型的示意图。
图5是根据一示例性实施例示出的一种分类模型中特征提取量子计算层中量子程序对应的量子线路的示意图。
图6是根据一示例性实施例示出的一种基于机器学习框架的分类方法的另一流程图。
图7是根据一示例性实施例示出的一种分类模型的损失函数值相对于迭代次数的曲线图。
图8是根据一示例性实施例示出的一种待分类图片的示意图。
图9是根据一示例性实施例示出的一种基于机器学习框架的分类装置的框图。
具体实施方式
下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本发明实施例首先提供了一种基于机器学习框架的分类方法,该方法可以应用于电子设备,如计算机终端,具体如普通电脑、量子计算机等。
下面以运行在计算机终端上为例对其进行详细说明。图1是根据一示例性实施例示出的一种基于机器学习框架的分类方法的计算机终端的硬件结构框图。如图1所示,计算机终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和用于存储基于量子线路的基于机器学习框架的分类方法的存储器104,可选地,上述计算机终端还可以包括用于通信功能的传输装置106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述计算机终端的结构造成限定。例如,计算机终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中的基于机器学习框架的分类方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
需要说明的是,真正的量子计算机是混合结构的,它包含两大部分:一部分是经典计算机,负责执行经典计算与控制;另一部分是量子设备,负责运行量子程序进而实现量子计算。而量子程序是由量子语言如QRunes语言编写的一串能够在量子计算机上运行的指令序列,实现了对量子逻辑门操作的支持,并最终实现量子计算。具体的说,量子程序就是一系列按照一定时序操作量子逻辑门的指令序列。
在实际应用中,因受限于量子设备硬件的发展,通常需要进行量子计算模拟以验证量子算法、量子应用等等。量子计算模拟即借助普通计算机的资源搭建的虚拟架构(即量子虚拟机)实现特定问题对应的量子程序的模拟运行的过程。通常,需要构建特定问题对应的量子程序。本发明实施例所指量子程序,即是经典语言编写的表征量子比特及其演化的程序,其中与量子计算相关的量子比特、量子逻辑门等等均有相应的经典代码表示。
量子线路作为量子程序的一种体现方式,也称量子逻辑电路,是最常用的通用量子计算模型,表示在抽象概念下对于量子比特进行操作的线路,其组成包括量子比特、线路(时间线)、以及各种量子逻辑门,最后常需要通过量子测量操作将结果读取出来。
不同于传统电路是用金属线所连接以传递电压信号或电流信号,在量子线路中,线路可看成是由时间所连接,亦即量子比特的状态随着时间自然演化,在这过程中按照哈密顿运算符的指示,一直到遇上逻辑门而被操作。
一个量子程序整体上对应有一条总的量子线路,本发明所述量子程序即指该条总的量子线路,其中,该总的量子线路中的量子比特总数与量子程序的量子比特总数相同。可以理解为:一个量子程序可以由量子线路、针对量子线路中量子比特的测量操作、保存测量结果的寄存器及控制流节点(跳转指令)组成,一条量子线路可以包含几十上百个甚至成千上万个量子逻辑门操作。量子程序的执行过程,就是对所有的量子逻辑门按照一定时序执行的过程。需要说明的是,时序即单个量子逻辑门被执行的时间顺序。
需要说明的是,经典计算中,最基本的单元是比特,而最基本的控制模式是逻辑门,可以通过逻辑门的组合来达到控制电路的目的。类似地,处理量子比特的方式就是量子逻辑门。使用量子逻辑门,能够使量子态发生演化,量子逻辑门是构成量子线路的基础,量子逻辑门包括单比特量子逻辑门,如Hadamard门(H门,阿达马门)、泡利-X门(X门,泡利X门)、泡利-Y门(Y门,泡利Y门)、泡利-Z门(Z门,泡利Z门)、RX门(RX旋转门)、RY门(RY旋转门)、RZ门(RZ旋转门)等等;多比特量子逻辑门,如CNOT门、CR门、iSWAP门、Toffoli门等等。量子逻辑门一般使用酉矩阵表示,而酉矩阵不仅是矩阵形式,也是一种操作和变换。一般量子逻辑门在量子态上的作用是通过酉矩阵左乘以量子态右矢对应的向量进行计算。例如,量子态右矢|0>对应的向量可以为
Figure 220246DEST_PATH_IMAGE001
,量子态右矢|1>对应的向量可以为
Figure 235039DEST_PATH_IMAGE002
图2是根据一示例性实施例示出的一种基于机器学习框架的分类方法的流程图。如图2所示,本实施例提供一种基于机器学习框架的分类方法,该机器学习框架包括经典模块和量子模块,该方法包括:
S21,调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果。
S22,获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。
具体来讲,机器学习框架集成了众多用于创建和训练机器学习模型的函数集,通过其定义的接口可以方便的调用函数集中的函数实现对机器学习模型的相关操作。
在一种可能的实施方式中,所述机器学习框架可以包括:
量子模块,被配置为创建用于创建机器学习模型的量子计算层;
经典模块,被配置为创建用于创建机器学习模型的经典计算层、用于封装所述量子计算层和所述经典计算层的抽象类层、用于训练优化所述机器学习模型的训练层。
当然,在其它可能的实施方式中,所述机器学习框架还可以包括:
数据结构模块,被配置为创建用于输入机器学习模型的张量数据,以及对所述张量数据执行运算。
具体来讲,数据结构模块定义了张量数据的数据结构,通过调用数据结构模块,可以将输入的数据转化为张量数据,以用于输入机器学习模型进行正向计算。当然,数据结构模块还可以被配置为对张量数据执行运算,例如数据结构模块还可以定义张量数据之间的数学运算和逻辑运算等,进而可以调用数据结构模块基于张量数据之间的运算关系创建机器学习模型的经典计算层,例如经典神经网络的全连接层通过函数y=w*x+b定义了输入全连接层的数据x和输出全连接层的数据y之间的关系,其中w和b为参数,通过将数据x、参数w、参数b转化为张量数据,并调用数据结构模块对这些张量数据执行与该函数对应的运算,可以构建全连接层。
在一种可能的实施方式中,数据结构模块可以用于将输入的数据按照预设的数据结构排列以创建用于输入所述机器学习模型的张量数据,以及创建以所述预设的数据结构排列且数值确定的用于输入所述机器学习模型的张量数据。例如可以将获取的数据1,2,3按照预设的列表数据结构[1,2,3]排列创建新的张量数据,也可以直接创建按照预设的列表数据结构[1,1,1]排列的元素全为1的张量数据。
需要说明的是,张量数据除包括按照预设的数据结构排列的数据值外,还可以包括计算得到该数据值的其它张量数据的信息以及包含所述数据值的张量数据相对于所述其它张量数据的梯度函数,其中计算得到该数据值的其它张量数据的信息可以包括该其它张量数据的变量、数据值存储地址以及数据值等,只要其表明该其它张量数据对应节点是计算得到该数据值的张量数据对应节点的前驱节点即可。以上述函数关系y=w*x+b为例,对于张量数据y,其包括y对应的数据值如[1,2,3],还包括计算得到y的w、x、b的张量数据的信息以及y分别相对于w、x、b的梯度函数,在一种可能的实施方式中,该信息可以包括w、x和b的数据值存储地址,张量数据y包括y相对于w的梯度函数x,y相对于x的梯度函数w,以及y相对于b的梯度函数1,进而在训练机器学习模型时,通过反向传播计算y分别相对于w、x、b的梯度值,具体可以直接从张量数据y中获取y的数据值,以及w、x、b的数据值和对应的梯度函数,通过这些数据值和对应的梯度函数计算y分别相对于w、x、b的梯度值。
除用于创建经典数据外,数据结构模块还被配置为对张量数据执行各种运算,例如数学运算、逻辑运算、变换运算等,对于逻辑运算,其可以包括在一个或多个张量数据中选择最大或最小的张量数据的运算,待选择的张量数据只有一个时,最大及最小的张量数据均为这个张量数据。
可选地,所述数据结构模块包括以下至少一者:
数学运算单元,被配置为对所述张量数据执行数学运算;
逻辑运算单元,被配置为对所述张量数据执行逻辑运算;
数据变换单元,被配置为对所述张量数据执行变换运算,以变换所述张量数据的数据结构。
具体来讲,数学运算单元可以对张量数据执行如加、减、乘、除等数学运算,逻辑运算单元可以对张量数据执行与、或、非等逻辑运算,数据变换单元可以对张量数据执行转置、逆序等变换运算,以改变张量数据的数据结构。数据结构模块可以包括上述三个单元中的任意一者,也可以全部三个单元。
具体来讲,可以通过调用该量子模块创建量子逻辑门,例如含参量子逻辑门、测量逻辑门等,并通过对创建的量子逻辑门按照一定顺序排列创建量子程序,量子程序运行时,其中的量子逻辑门按照预设的顺序作用于指定的量子比特,以使得指定的量子比特根据量子程序进行演化,得到符合要求的输出。当然,在其它可能的实施方式中,还可以调用量子模块创建量子计算层,量子计算层为包含量子程序的程序模块,通过对量子程序按照一定的标准进行封装,使得量子计算层便于在创建和训练机器学习模型时进行使用,例如可以在量子程序中封装有正向运算量子程序的运行程序以及计算量子程序的输入相对于量子程序的参数的梯度的计算程序。
具体来讲,对于经典模块,可以用过调用该经典模块创建机器学习模型的经典计算层,经典计算层为机器学习模型中的经典计算部分,其可以是通过经典模块对创建好的经典程序按照一定标准进行封装得到,使得经典计算层便于在训练机器学习模型时进行使用,例如可以在经典程序中封装有正向运算经典程序的运行程序以及计算经典程序的输入相对于其参数的梯度的计算程序。在创建好量子计算层和经典计算层后,可以通过经典模块对其进行封装,创建符合一定标准的抽象类层,抽象类层通过编程语言中的类(class)的方法实现,通过对量子计算层和经典计算层封装以创建符合一定标准的机器学习模型,例如创建的抽象类层定义了正向运算机器学习模型的方式,当然也可以只对量子计算层或经典计算层进行封装,抽象类层通过封装便于在训练机器学习模型时对机器学习模型进行正向运算以得到用于计算损失函数的计算结果,同时也可以得到反向计算时进行梯度计算的顺序关系。经典模块还可以用于创建机器学习模型的训练层对机器学习模型进行训练。
在步骤S21中,可以在编程语言中加载上述机器学习框架,然后可以通过相应的接口调用该机器学习框架中的经典模块和量子模块创建分类模型,该分类模型可以为机器学习模型。
可选地,参见图3,在步骤S21中,调用所述经典模块和所述量子模块创建分类模型,包括:
S211,调用所述经典模块创建所述特征提取经典计算层。
S212,调用所述量子模块创建所述特征提取量子计算层。
S213,调用所述经典模块创建所述特征融合计算层。
S214,调用所述经典模块对所述特征提取经典计算层、所述特征提取量子计算层和所述特征融合计算层进行封装,得到分类模型。
在步骤S211中,可以通过接口调用经典模块中相应的函数创建特征提取经典计算层,特征提取经典计算层是一种用于对输入到特征提取经典计算层的目标数据进行特征提取的经典计算层,其可以封装有用于对目标数据进行特征提取的经典程序,通过对目标数据进行特征提取运算,输出第一特征信息,便于后续的特征提取量子计算层对第一特征信息进一步进行处理。
在步骤S212中,可以通过接口调用量子模块中相应的函数创建特征提取量子计算层,特征提取量子计算层是一种用于对输入到特征提取量子计算层的第一特征数据进行特征提取的量子计算层,其可以封装有用于对第一特征数据进行特征提取的量子程序,通过对第一特征数据进行特征提取运算,输出第二特征信息。由于量子计算具有很高的运算速度,利用该特征提取量子计算层与特征提取经典计算层进行配合,可以加快提取出第二特征信息的速度,进而加快分类速度。
在步骤S213中,可以通过接口调用经典模块中相应的函数创建特征融合计算层,特征融合计算层可以是一种用于对输入到特征融合计算层的第二特征数据进行特征融合的经典计算层,其可以封装有用于对第二特征数据进行特征提取的经典程序,通过对第二特征数据进行特征融合运算,输出分类模型的分类结果。
在创建好特征提取经典计算层、特征提取量子计算层和特征融合计算层后,进入执行步骤S214,可以通过接口调用经典模块中相应的函数对所述特征提取经典计算层、所述特征提取量子计算层和所述特征融合计算层进行封装,得到分类模型,例如可以在分类模型中封装特征提取经典计算层、特征提取量子计算层和特征融合计算层的调用方式以及数据传输关系,便于后续运行该分类模型。需要说明的是,对于步骤S211至步骤S213,其执行顺序并没有具体限制,例如可以按照S211、S212、S213的顺序依次执行这些步骤,也可以按照S211、S213、S212的顺序依次执行这些步骤,只要其在步骤S214之前执行即可。
创建好分类模型后,进入执行步骤S22,可以通过键盘输入、语音输入、网络数据传输等方式获取待分类数据,待分类数据可以是图片信息、语音信息等,例如可以是图片的RGB信息,或图片经过预处理后的特征向量。参见图4,获取待分类数据后,将待分类数据输入到分类模型中,具体地可以在运行分类模型时,作为特征提取经典计算层410的调用接口的参数先输入到特征提取经典计算层410中,特征提取经典计算层410经过运算后输出第一特征信息,然后可以将第一特征信息作为特征提取量子计算层420的调用接口的参数输入到特征提取量子计算层420中,经过特征提取量子计算层420运算后输出第二特征信息,再将第二特征信息作为特征融合计算层430的调用接口的参数输入到特征融合计算层430中,并经特征融合计算层430计算后输出计算结果作为分类模型的分类结果。
基于上述技术方案,创建好分类模型后,将待分类数据输入分类模型,进而特征提取经典计算层先对待分类数据进行特征提取得到第一特征信息,然后特征提取量子计算层再对第一特征信息进行特征提取,得到第二特征信息,最后特征融合计算层对第二特征信息进行特征融合计算得到分类结果,通过将量子计算和经典计算结合,分类模型的部分通过量子计算过程实现,可以加快分类速度,提高分类效率。
可选地,所述特征提取量子计算层包括作用于单个量子比特且依次级联的演化单元和测量单元,其中,所述演化单元用于根据所述第一特征信息使得量子比特从初始态演化至目标态,所述测量单元用于对量子比特执行测量操作。
具体来讲,特征提取量子计算层可以封装有用于进行特征提取的量子程序,该量子程序可以包括依次级联的演化单元和测量单元,单个演化单元和单个测量单元均作用于单个量子比特,以图5所示的特征提取量子计算层中的量子程序对应的量子线路为例,对于量子比特421,有演化单元423和测量单元425作用于该量子比特421,对于量子比特422,有演化单元424和测量单元426作用于该量子比特422。可选地,所述演化单元包括级联的H门和含参量子逻辑门,所述含参量子逻辑门的参数为所述第一特征信息。在一种可能的实施方式中,所述含参量子逻辑门为RX门、RY门或RZ门中的任意一者。如图5所示,每个演化单元包括一个H门和一个RY门,该演化单元作用于量子比特时,H门先作用于量子比特,然后RY门再作用于量子比特,其中,RY门的参数为特征提取经典计算层输出的第一特征信息,例如第一特征信息包括数据
Figure 963961DEST_PATH_IMAGE003
Figure 42775DEST_PATH_IMAGE004
,则可以将
Figure 478436DEST_PATH_IMAGE005
作为演化单元423中RY门的参数,将
Figure 250083DEST_PATH_IMAGE006
作为演化单元424中RY门的参数。
可选地,所述测量单元包括:用于根据目标可观测量对量子比特进行测量得到对应所述目标可观测量的期望值的第一测量逻辑门,或用于测量量子比特的量子态的不同基态的出现概率的第二测量逻辑门,或用于测量量子比特的量子态的不同基态的出现次数的第三测量逻辑门。
具体来讲,第一测量逻辑门用于根据目标可观测量测量量子比特得到期望值,目标可观测量可以为泡利门或泡利门的组合,当然也可以为其它的哈密顿量,例如目标可观测量为哈密顿量H时,其观测得到的期望值为
Figure 200721DEST_PATH_IMAGE007
Figure 270177DEST_PATH_IMAGE008
为量子比特测量前的量子态。第二测量逻辑门和第三测量逻辑门分别用于测量量子比特的量子态的不同基态的出现概率和出现次数,例如对于量子态
Figure 622661DEST_PATH_IMAGE009
,基态
Figure 502893DEST_PATH_IMAGE010
Figure 940827DEST_PATH_IMAGE011
的测量出现的理论概率分别为0.25和0.75,通过第二测量逻辑门进行测量时,其实际测量结果可能为,
Figure 49860DEST_PATH_IMAGE012
Figure 522429DEST_PATH_IMAGE011
的出现概率分别为0.24和0.76,通过第三测量逻辑门进行测量时,其实际测量结果可能为,
Figure 635879DEST_PATH_IMAGE010
Figure 498793DEST_PATH_IMAGE011
在总共1000次测量中分别出现240次和760次。
在一种可能的实施方式中,所述量子模块包括以下至少一者:
期望测量单元,被配置为创建用于根据目标可观测量对量子比特进行测量得到对应所述目标可观测量的期望值的第一测量逻辑门;
概率测量单元,被配置为创建用于测量量子比特的量子态的不同基态的出现概率的第二测量逻辑门;
次数测量单元,被配置为创建用于测量量子比特的量子态的不同基态的出现次数的第三测量逻辑门。
进而在创建特征提取量子计算层中的量子程序时,可以调用期望测量单元创建第一测量逻辑门,或调用概率测量单元创建第二测量逻辑门,或调用次数测量单元创建第三测量逻辑门。
可选地,所述特征提取经典计算层包括依次级联的卷积层、池化层和第一全连接层,其中,所述卷积层用于对输入数据的每个子集的数据进行加权求和,所述池化层用于从输入数据的每个子集中选择最大数据或计算该子集中数据的平均值,所述第一全连接层用于对输入数据进行加权求和。
具体来讲,卷积层侧重于对输入卷积层的输入数据的局部进行特征提取,例如对于一幅图片经过处理后得到的大小为8*8的二维矩阵,可以通过大小为3*3的卷积核对其进行卷积操作,卷积核又称过滤器,是一个与输入数据维度相同的数据集,例如输入数据为一维数组时,卷积核也为一维数组,输入数据为二维矩阵时,卷积核也为二维矩阵。对于该8*8的二维矩阵,可以将该卷积核与该二维矩阵中每个3*3子矩阵相乘,得到输出数据,此处子矩阵即为8*8的二维矩阵的子集,例如该8*8的二维矩阵的行数为第一行至第三行,列数为第一列至第三列的数据构成一个子矩阵,第一行至第三行,列数为第二列至第四列的数据构成一个子矩阵,依次类推。
池化层的输入数据一般为卷积层输出的数据,池化层侧重于对输入池化层的输入数据进行全局特征提取。例如经过卷积层处理后得到一个8*8的二维矩阵,输入池化层后,可以将其划分为多个子矩阵,每个子矩阵的数据为一个子集,例如将其划分为4个4*4的子矩阵,第一个子矩阵为该8*8的二维矩阵的行数为第一行至第四行,列数为第一列至第四列的数据,第二个子矩阵为该8*8的二维矩阵的行数为第一行至第四行,列数为第五列至第八列的数据,第三个子矩阵为该8*8的二维矩阵的行数为第五行至第八行,列数为第一列至第四列的数据,第四个子矩阵为该8*8的二维矩阵的行数为第五行至第八行,列数为第五列至第八列的数据。然后对于每个子矩阵,计算每个子矩阵的数据的平均数作为池化层的输出,或从每个子矩阵的数据中选择最大数作为池化层的输出。
第一全连接层的输入数据可以为池化层的输出。通过对池化层输出的数据进行加权求和,可以进一步进行特征提取。需要说明的是前述加权求和过程中的权重系数可以根据具体情况确定,本发明对此不作具体限制。对于图片等数据,其局部数据的联系更加紧密,进而先通过卷积层从局部提取特征,再利用池化层从全局提取特征,可以加快提取特征的处理速度。在可能的实施方式中,卷积层、池化层以及第一全连接层的数量可以根据具体情况决定,例如卷积层和池化层的数量均为2,第一个卷积层的输出数据输入第一个池化层,第一个池化层的输出数据输入到第二个卷积层,第二个卷积层的输出数据输入到第二个池化层,然后第二个池化层的输出数据输入到第一全连接层。
可选地,所述特征融合计算层包括第二全连接层,所述第二全连接层用于对所述第二特征信息进行加权求和,得到所述分类模型的所述分类结果。
具体来讲,对于特征提取量子计算层输出的第二特征信息,将其输入第二全连接层,使其与相应的权重系数相乘后再对得到的乘积相加,可以得到分类模型的分类结果。其权重系数可以通过对分类模型训练得到。第二全连接层的数量可以为一个或多个,例如在一种可能的实施方式中,第二全连接层的数量为2个。
在一种可能的实施方式中,参见图4,待分类数据输入到分类模型中后,先输入卷积层411,然后卷积层411的输出输入到池化层412,池化层412的输出
Figure 723101DEST_PATH_IMAGE013
输入到第一全连接层413中得到第一特征信息
Figure 784598DEST_PATH_IMAGE005
Figure 255899DEST_PATH_IMAGE004
。将第一特征信息
Figure 668426DEST_PATH_IMAGE014
Figure 696425DEST_PATH_IMAGE015
输入到特征提取量子计算层420中,特征提取量子计算层420输出的第二特征信息
Figure 815690DEST_PATH_IMAGE016
Figure 5363DEST_PATH_IMAGE017
再输入到第二全连接层430中,得到分类结果y。
图6是根据一示例性实施例示出的一种基于机器学习框架的分类方法的另一流程图。该机器学习框架包括经典模块和量子模块,如图6所示,该方法包括:
S61,调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果。
S62,调用所述经典模块创建所述分类模型的训练层,并获取训练数据。
S63,将所述训练数据输入所述分类模型,得到结果数据。
S64,将所述结果数据输入所述训练层,以对所述分类模型的所述特征提取经典计算层和所述特征融合计算层的参数进行更新,得到训练后的所述分类模型。
S65,获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。
其中,步骤S61可以参见步骤S21,步骤S65可以参见步骤S22。
创建分类模型后,执行步骤S62,调用经典模块创建训练层,经典模块可以参见前述描述,训练层可以包括损失函数层和优化器层,其中,损失函数层包括分类模型的损失函数,例如均方差损失函数、交叉熵损失函数等,优化器层包括了更新分类模型的参数的方法如梯度下降算法,例如随机梯度下降算法(Stochastic Gradient Descent,SGD),自适应梯度算法(Adaptive gradient algorithm,Adagrad)、自适应矩估计(Adaptive MomentEstimation,Adam)等。损失函数层和优化器层均可以通过相应的接口进行调用。训练数据可以是用于输入分类模型训练分类模型的数据,例如其可以为待分类的图片数据。
在步骤S63中,可以将训练数据作为目标数据输入至分类模型中,并正向运行该分类模型,使得特征提取经典计算层、特征提取量子计算层和特征融合计算层依次对训练数据进行处理,得到分类模型输出的结果数据。
在步骤S64中,可以将结果数据输入训练层中的损失函数层,以根据结果数据计算分类模型的损失函数值,然后将损失函数值输入优化器层,根据损失函数值和相应的梯度下降算法对分类模型中的特征提取经典计算层和特征融合计算层的参数进行更新,并重新计算更新参数后的损失函数值,当其小于阈值时停止训练,将更新参数后的分类模型作为训练后的分类模型,用于步骤S65中对待分类数据进行分类计算。若损失函数值大于或等于阈值,则可以继续训练分类模型,直至其对应的损失函数值小于阈值。当然,在其它可能的实施方式中,也可以将训练数据多次输入分类模型进行迭代计算实现多次训练,当迭代次数达到预设的次数时停止训练分类模型。若特征提取量子计算层中包含参数,则可以在步骤S64中同时对特征提取量子计算层的参数进行更新。
在一种可能的实施方式中,选用MNIST手写数据库中的数据,使用28*28的原始图像,并将其展平为一维得到1*784的图像数据,并将该1*784的图像数据输入到创建好的分类模型中,该分类模型的特征提取经典计算层中,包括两个卷积层、两个池化层以及两个第一全连接层,且该两个池化层均为最大池化层,用于从输入数据的每个子集中选择最大数据。特征提取量子计算层的量子程序对应的量子线路如图5所示,具体可以参见前述描述。特征融合计算层包括一个第二全连接层。将其图像数据分为训练数据和测试数据,并利用训练数据对分类模型进行训练,利用测试数据对训练后的分类模型进行测试,随着迭代次数的增加,其损失函数值分别如图7所示,可以发现训练数据对应的损失函数值相对于迭代次数的曲线72与测试数据对应的损失函数值相对于迭代次数的曲线71非常接近,说明经过训练的分类模型具有较好的测试表现。并且对于如图8所示的图片,均能准确预测,例如对于图片81,图片82,图片85,图片86的预测结果均为数字0,对于图片83和图片84的预测结果均为数字1。
图9是根据一示例性实施例示出的一种基于机器学习框架的分类装置900,所述机器学习框架包括经典模块和量子模块,如图9所示,所述基于机器学习框架的分类装置900包括:
第一创建模块910,用于调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果;
分类模块920,用于获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。
可选地,所述特征提取量子计算层包括作用于单个量子比特且依次级联的演化单元和测量单元,其中,所述演化单元用于根据所述第一特征信息使得量子比特从初始态演化至目标态,所述测量单元用于对量子比特执行测量操作。
可选地,所述演化单元包括级联的H门和含参量子逻辑门,所述含参量子逻辑门的参数为所述第一特征信息。
可选地,所述含参量子逻辑门为RX门、RY门或RZ门中的任意一者。
可选地,所述测量单元包括:用于根据目标可观测量对量子比特进行测量得到对应所述目标可观测量的期望值的第一测量逻辑门,或用于测量量子比特的量子态的不同基态的出现概率的第二测量逻辑门,或用于测量量子比特的量子态的不同基态的出现次数的第三测量逻辑门。
可选地,所述特征提取经典计算层包括依次级联的卷积层、池化层和第一全连接层,其中,所述卷积层用于对输入数据的每个子集的数据进行加权求和,所述池化层用于从输入数据的每个子集中选择最大数据或计算该子集中数据的平均值,所述第一全连接层用于对输入数据进行加权求和。
可选地,所述特征融合计算层包括第二全连接层,所述第二全连接层用于对所述第二特征信息进行加权求和,得到所述分类模型的所述分类结果。
可选地,所述第一创建模块910还用于:
调用所述经典模块创建所述特征提取经典计算层;
调用所述量子模块创建所述特征提取量子计算层;
调用所述经典模块创建所述特征融合计算层;
调用所述经典模块对所述特征提取经典计算层、所述特征提取量子计算层和所述特征融合计算层进行封装,得到分类模型。
可选地,所述装置900还包括:
第二创建模块,用于调用所述经典模块创建所述分类模型的训练层,并获取训练数据;
输入模块,用于将所述训练数据输入所述分类模型,得到结果数据;
训练模块,用于将所述结果数据输入所述训练层,以对所述分类模型的所述特征提取经典计算层和所述特征融合计算层的参数进行更新,得到训练后的所述分类模型。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本发明的再一实施例还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述基于机器学习框架的分类方法实施例中的步骤。
具体的,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明的再一实施例还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述基于机器学习框架的分类方法实施例中的步骤。
具体的,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
具体的,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果;
获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。
以上依据图式所示的实施例详细说明了本发明的构造、特征及作用效果,以上所述仅为本发明的较佳实施例,但本发明不以图面所示限定实施范围,凡是依照本发明的构想所作的改变,或修改为等同变化的等效实施例,仍未超出说明书与图示所涵盖的精神时,均应在本发明的保护范围内。

Claims (12)

1.一种基于机器学习框架的分类方法,其特征在于,所述机器学习框架包括经典模块和量子模块,所述方法包括:
调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果;
获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。
2.如权利要求1所述的方法,其特征在于,所述特征提取量子计算层包括作用于单个量子比特且依次级联的演化单元和测量单元,其中,所述演化单元用于根据所述第一特征信息使得量子比特从初始态演化至目标态,所述测量单元用于对量子比特执行测量操作。
3.如权利要求2所述的方法,其特征在于,所述演化单元包括级联的H门和含参量子逻辑门,所述含参量子逻辑门的参数为所述第一特征信息。
4.如权利要求3所述的方法,其特征在于,所述含参量子逻辑门为RX门、RY门或RZ门中的任意一者。
5.如权利要求2所述的方法,其特征在于,所述测量单元包括:用于根据目标可观测量对量子比特进行测量得到对应所述目标可观测量的期望值的第一测量逻辑门,或用于测量量子比特的量子态的不同基态的出现概率的第二测量逻辑门,或用于测量量子比特的量子态的不同基态的出现次数的第三测量逻辑门。
6.如权利要求1所述的方法,其特征在于,所述特征提取经典计算层包括依次级联的卷积层、池化层和第一全连接层,其中,所述卷积层用于对输入数据的每个子集的数据进行加权求和,所述池化层用于从输入数据的每个子集中选择最大数据或计算该子集中数据的平均值,所述第一全连接层用于对输入数据进行加权求和。
7.如权利要求1所述的方法,其特征在于,所述特征融合计算层包括第二全连接层,所述第二全连接层用于对所述第二特征信息进行加权求和,得到所述分类模型的所述分类结果。
8.如权利要求1所述的方法,其特征在于,所述调用所述经典模块和所述量子模块创建分类模型,包括:
调用所述经典模块创建所述特征提取经典计算层;
调用所述量子模块创建所述特征提取量子计算层;
调用所述经典模块创建所述特征融合计算层;
调用所述经典模块对所述特征提取经典计算层、所述特征提取量子计算层和所述特征融合计算层进行封装,得到分类模型。
9.如权利要求1所述的方法,其特征在于,所述方法还包括:
调用所述经典模块创建所述分类模型的训练层,并获取训练数据;
将所述训练数据输入所述分类模型,得到结果数据;
将所述结果数据输入所述训练层,以对所述分类模型的所述特征提取经典计算层和所述特征融合计算层的参数进行更新,得到训练后的所述分类模型。
10.一种基于机器学习框架的分类装置,其特征在于,所述机器学习框架包括经典模块和量子模块,所述装置包括:
第一创建模块,用于调用所述经典模块和所述量子模块创建分类模型,所述分类模型包括特征提取经典计算层、特征提取量子计算层和特征融合计算层,所述特征提取经典计算层用于提取目标数据的第一特征信息,所述特征提取量子计算层用于从所述第一特征信息提取第二特征信息,所述特征融合计算层用于对所述第二特征信息进行特征融合,以得到所述分类模型的分类结果;
分类模块,用于获取待分类数据,并将所述待分类数据作为所述目标数据输入所述分类模型,得到所述分类结果。
11.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行权利要求1至9任一项中所述的方法。
12.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至9任一项中所述的方法。
CN202210282548.4A 2022-03-22 2022-03-22 基于机器学习框架的分类方法及相关设备 Active CN114372539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210282548.4A CN114372539B (zh) 2022-03-22 2022-03-22 基于机器学习框架的分类方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210282548.4A CN114372539B (zh) 2022-03-22 2022-03-22 基于机器学习框架的分类方法及相关设备

Publications (2)

Publication Number Publication Date
CN114372539A true CN114372539A (zh) 2022-04-19
CN114372539B CN114372539B (zh) 2022-07-15

Family

ID=81146894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210282548.4A Active CN114372539B (zh) 2022-03-22 2022-03-22 基于机器学习框架的分类方法及相关设备

Country Status (1)

Country Link
CN (1) CN114372539B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023125857A1 (zh) * 2021-12-30 2023-07-06 本源量子计算科技(合肥)股份有限公司 基于机器学习框架系统的模型训练方法及相关设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109800883A (zh) * 2019-01-25 2019-05-24 合肥本源量子计算科技有限责任公司 量子机器学习框架构建方法、装置及量子计算机
CN111563599A (zh) * 2020-04-30 2020-08-21 合肥本源量子计算科技有限责任公司 一种量子线路的分解方法、装置、存储介质及电子装置
CN112651418A (zh) * 2020-05-25 2021-04-13 腾讯科技(深圳)有限公司 数据分类方法、分类器训练方法及系统
CN113222161A (zh) * 2020-01-21 2021-08-06 合肥本源量子计算科技有限责任公司 一种自定义量子逻辑门的实现方法、装置
CN113379059A (zh) * 2021-06-10 2021-09-10 北京百度网讯科技有限公司 用于量子数据分类的模型训练方法以及量子数据分类方法
CN113435581A (zh) * 2021-06-30 2021-09-24 北京量子信息科学研究院 数据处理方法、量子计算机、装置及存储介质
US20210383189A1 (en) * 2018-10-05 2021-12-09 President And Fellows Of Harvard College Quantum convolutional neural networks
CN113792881A (zh) * 2021-09-17 2021-12-14 北京百度网讯科技有限公司 模型训练方法及装置、电子设备和介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210383189A1 (en) * 2018-10-05 2021-12-09 President And Fellows Of Harvard College Quantum convolutional neural networks
CN109800883A (zh) * 2019-01-25 2019-05-24 合肥本源量子计算科技有限责任公司 量子机器学习框架构建方法、装置及量子计算机
CN113222161A (zh) * 2020-01-21 2021-08-06 合肥本源量子计算科技有限责任公司 一种自定义量子逻辑门的实现方法、装置
CN111563599A (zh) * 2020-04-30 2020-08-21 合肥本源量子计算科技有限责任公司 一种量子线路的分解方法、装置、存储介质及电子装置
CN112651418A (zh) * 2020-05-25 2021-04-13 腾讯科技(深圳)有限公司 数据分类方法、分类器训练方法及系统
US20220058435A1 (en) * 2020-05-25 2022-02-24 Tencent Technology (Shenzhen) Company Limited Data classification method and system, and classifier training method and system
CN113379059A (zh) * 2021-06-10 2021-09-10 北京百度网讯科技有限公司 用于量子数据分类的模型训练方法以及量子数据分类方法
CN113435581A (zh) * 2021-06-30 2021-09-24 北京量子信息科学研究院 数据处理方法、量子计算机、装置及存储介质
CN113792881A (zh) * 2021-09-17 2021-12-14 北京百度网讯科技有限公司 模型训练方法及装置、电子设备和介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023125857A1 (zh) * 2021-12-30 2023-07-06 本源量子计算科技(合肥)股份有限公司 基于机器学习框架系统的模型训练方法及相关设备

Also Published As

Publication number Publication date
CN114372539B (zh) 2022-07-15

Similar Documents

Publication Publication Date Title
CN113850389B (zh) 一种量子线路的构建方法及装置
CN114358295B (zh) 基于机器学习框架的二分类方法及相关装置
CN114358319B (zh) 基于机器学习框架的分类方法及相关装置
CN114358317B (zh) 基于机器学习框架的数据分类方法及相关设备
CN114418105B (zh) 一种基于量子线路处理量子应用问题的方法及装置
CN114358216B (zh) 基于机器学习框架的量子聚类方法及相关装置
CN114358318B (zh) 基于机器学习框架的分类方法及相关装置
CN115311515B (zh) 混合量子经典的生成对抗网络的训练方法及相关设备
CN114372539B (zh) 基于机器学习框架的分类方法及相关设备
CN114764619A (zh) 一种基于量子线路的卷积操作方法及装置
CN116011682B (zh) 一种气象数据预测方法、装置、存储介质及电子装置
CN115346080B (zh) 基于量子计算的图像处理方法及相关设备
CN116011681A (zh) 一种气象数据预测方法、装置、存储介质及电子装置
CN114819163B (zh) 量子生成对抗网络的训练方法、装置、介质及电子装置
CN117709415A (zh) 一种量子神经网络模型的优化方法及装置
CN114764618B (zh) 一种针对线性系统的量子预处理方法及装置
CN114692879B (zh) 一种基于稀疏线性系统的量子预处理方法及装置
CN116432721B (zh) 数据处理方法、机器学习框架及相关设备
CN116432764B (zh) 机器学习框架
CN116432710B (zh) 机器学习模型构建方法、机器学习框架及相关设备
CN114819167B (zh) 一种稀疏线性系统的稀疏近似逆量子预处理方法及装置
CN116167407B (zh) 一种基于量子循环神经网络的数据预测方法及相关设备
CN116400430B (zh) 一种气象数据预测方法、装置、存储介质及电子装置
CN114819171B (zh) 一种量子卷积操作的实现方法及装置
CN116957084A (zh) 基于混合子空间的线性系统求解方法、装置、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant