CN116257668A - 数据分类方法及相关设备 - Google Patents
数据分类方法及相关设备 Download PDFInfo
- Publication number
- CN116257668A CN116257668A CN202111495061.6A CN202111495061A CN116257668A CN 116257668 A CN116257668 A CN 116257668A CN 202111495061 A CN202111495061 A CN 202111495061A CN 116257668 A CN116257668 A CN 116257668A
- Authority
- CN
- China
- Prior art keywords
- quantum
- neural network
- data
- classification
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Computational Mathematics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Superconductor Devices And Manufacturing Methods Thereof (AREA)
Abstract
本发明公开了一种数据分类方法及相关设备,方法包括:获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征待分类数据的第二目标态;将第一目标态和第二目标态输入量子神经网络,量子神经网络包括多个级联的分类节点,多个级联的分类节点中的初始分类节点的输入为第一目标态和第二目标态,多个级联的分类节点中除初始分类节点之外的分类节点的输入为第二目标量子态以及上一分类节点输出的第一量子比特的量子态;测量第二量子比特得到量子神经网络的输出结果,并将输出结果转换为分类结果。通过该技术方案,可以对前后关联的序列数据进行分类,并利用之前的数据提高分类准确度。
Description
技术领域
本发明属于量子计算技术领域,特别是涉及一种数据分类方法及相关设备。
背景技术
对于相互关联的序列数据,部分神经网络如长短时记忆网络(Long Short TermMemory,LSTM)能记忆前文的信息,进而根据关联信息对数据进行分类,以改善分类效果。例如对于“我吃饭”这样的句子,动词“吃”后一般跟名词而不是动词,长短时记忆网络可以利用这样的规则,提高分类预测的准确性。
相关技术中,部分类型的神经网络包括多个隐藏层,在隐藏层数量较多时,前文的信息难以被记忆,进而不能有效利用间隔较远的前文信息,使得其分类的准确性降低,基于此,提出一种数据分类方法及相关设备。
发明内容
本发明的目的是提供一种数据分类方法及相关设备,旨在对相互关联的序列数据分类预测时,能有效利用间隔较远的前文信息,提高分类预测的准确性。
为了实现上述目的,本发明实施例的第一方面,提供一种数据分类方法,所述方法包括:
获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征所述待分类数据的第二目标态;
将所述第一目标态和所述第二目标态输入量子神经网络,所述量子神经网络包括多个级联的分类节点,所述多个级联的分类节点中的初始分类节点的输入为所述第一目标态和所述第二目标态,所述多个级联的分类节点中除所述初始分类节点之外的分类节点的输入为所述第二目标量子态以及上一所述分类节点输出的所述第一量子比特的量子态;
测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果。
可选地,所述分类节点包括优化层,所述优化层包括第一含参单量子逻辑门。
可选地,所述第一含参单量子逻辑门包括依次级联的第一RX旋转门、第一RZ旋转门以及第二RX旋转门。
可选地,所述交替层包括校验模块、相移模块以及还原模块,其中:
所述校验模块包括多个第一CNOT门,所述第一CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第一CNOT门的目标比特为辅助量子比特;
所述相移模块包括依次级联且用于作用于所述辅助量子比特的第二RZ旋转门、第一泡利X门、第三RZ旋转门以及第二泡利X门,所述第二RZ旋转门及所述第三RZ旋转门的参数分别为所述时间以及所述时间的负数;
所述还原模块包括多个第二CNOT门,所述第二CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第二CNOT门的目标比特为所述辅助量子比特。
可选地,所述将第二量子比特的量子态制备至表征所述待分类数据的第二目标态,包括:
获取以所述待分类数据为参数的第二含参单量子逻辑门;
将第二量子比特的量子态制备至预备量子态;
将所述第二含参单量子逻辑门作用于所述第二量子比特,使得所述预备量子态演化至表征所述待分类数据的第二目标态。
可选地,所述第二含参单量子逻辑门包括RY旋转门。
可选地,所述待分类数据为多模态数据,所述将第二量子比特的量子态制备至表征所述待分类数据的第二目标态,包括:
将不同模态的所述待分类数据转化为同一数据向量;
针对同一所述数据向量的每一元素,将对应所述元素的第二量子比特的量子态制备至表征所述元素的第二目标态。
可选地,所述测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果,包括:
测量所述第二量子比特得到一个或多个所述分类节点的输出结果,并将所述输出结果输入变换函数,得到分类结果。
可选地,所述变换函数为所述输出结果的线性函数。
可选地,所述方法还包括:
基于同步扰动随机近似算法训练待优化的量子神经网络,得到所述待优化的量子神经网络包括的第一含参单量子逻辑门的参数的优化值;
将所述优化值应用于所述待优化的量子神经网络,得到已训练的量子神经网络,以用于对所述待分类数据进行分类。
可选地,所述基于同步扰动随机近似算法训练待优化的量子神经网络,得到所述待优化的量子神经网络包括的第一含参单量子逻辑门的参数的优化值,包括:
获取训练数据,并构建待优化的量子神经网络的损失函数;
将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值减去第一偏置量,并将所述训练数据输入该量子神经网络,得到第一结果;
将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值加上第二偏置量,并将所述训练数据输入该量子神经网络,得到第二结果;
基于所述第一结果与所述第二结果计算所述待优化的量子神经网络的参数的下降梯度;
基于梯度下降算法及所述下降梯度更新所述参数;
在确定更新所述参数后的所述量子神经网络的损失函数的值小于阈值时,将所述参数更新后的值作为所述参数的优化值。
本发明实施例的第二方面,提供一种数据分类装置,所述装置包括:
获取制备模块,用于获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征所述待分类数据的第二目标态;
输入模块,用于将所述第一目标态和所述第二目标态输入量子神经网络,所述量子神经网络包括多个级联的分类节点,所述多个级联的分类节点中的初始分类节点的输入为所述第一目标态和所述第二目标态,所述多个级联的分类节点中除所述初始分类节点之外的分类节点的输入为所述第二目标量子态以及上一所述分类节点输出的所述第一量子比特的量子态;
测量转换模块,用于测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果。
可选地,所述分类节点包括优化层,所述优化层包括第一含参单量子逻辑门。
可选地,所述第一含参单量子逻辑门包括依次级联的第一RX旋转门、第一RZ旋转门以及第二RX旋转门。
可选地,所述交替层包括校验模块、相移模块以及还原模块,其中:
所述校验模块包括多个第一CNOT门,所述第一CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第一CNOT门的目标比特为辅助量子比特;
所述相移模块包括依次级联且用于作用于所述辅助量子比特的第二RZ旋转门、第一泡利X门、第三RZ旋转门以及第二泡利X门,所述第二RZ旋转门及所述第三RZ旋转门的参数分别为所述时间以及所述时间的负数;
所述还原模块包括多个第二CNOT门,所述第二CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第二CNOT门的目标比特为所述辅助量子比特。
可选地,所述获取制备模块还用于:
获取以所述待分类数据为参数的第二含参单量子逻辑门;
将第二量子比特的量子态制备至预备量子态;
将所述第二含参单量子逻辑门作用于所述第二量子比特,使得所述预备量子态演化至表征所述待分类数据的第二目标态。
可选地,所述第二含参单量子逻辑门包括RY旋转门。
可选地,所述待分类数据为多模态数据,所述获取制备模块还用于:
将不同模态的所述待分类数据转化为同一数据向量;
针对同一所述数据向量的每一元素,将对应所述元素的第二量子比特的量子态制备至表征所述元素的第二目标态。
可选地,所述测量转换模块还用于:
测量所述第二量子比特得到一个或多个所述分类节点的输出结果,并将所述输出结果输入变换函数,得到分类结果。
可选地,所述变换函数为所述输出结果的线性函数。
可选地,所述装置还包括:
训练模块,用于基于同步扰动随机近似算法训练待优化的量子神经网络,得到所述待优化的量子神经网络包括的第一含参单量子逻辑门的参数的优化值;
应用模块,用于将所述优化值应用于所述待优化的量子神经网络,得到已训练的量子神经网络,以用于对所述待分类数据进行分类。
可选地,所述训练模块还用于:
获取训练数据,并构建待优化的量子神经网络的损失函数;
将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值减去第一偏置量,并将所述训练数据输入该量子神经网络,得到第一结果;
将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值加上第二偏置量,并将所述训练数据输入该量子神经网络,得到第二结果;
基于所述第一结果与所述第二结果计算所述待优化的量子神经网络的参数的下降梯度;
基于梯度下降算法及所述下降梯度更新所述参数;
在确定更新所述参数后的所述量子神经网络的损失函数的值小于阈值时,将所述参数更新后的值作为所述参数的优化值。
本发明实施例的第三方面,提供一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述第一方面中任一项所述方法的步骤。
本发明实施例的第四方面,提供一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述第一方面中任一项所述方法的步骤。
基于上述技术方案,在对待分类数据的处理过程中,准备第二量子比特用于制备表征待分类数据的第二目标态参与计算分类结果的量子计算过程,并准备第一量子比特用于记忆第二目标态的特征数据,且在不同的分类节点间传递,使得每一分类节点都可以根据接收的上一分类节点输出的第一量子比特的量子态,以及当前输入的第二目标态进行量子计算,并将计算结果也即分类结果存储于第二量子比特的量子态输出,由于第一量子比特在整个过程中不被测量,故其存储的特征数据可以不断传递以被每个分类节点利用,进而对于间隔较远的分类节点,输入其中的待分类数据也可以被后续的分类节点有效利用,提高了分类的准确性。
附图说明
图1是根据一示例性实施例示出的一种数据分类方法的计算机终端的硬件结构框图。
图2是根据一示例性实施例示出的一种数据分类方法的流程图。
图3是根据一示例性实施例示出的一种量子神经网络的模型图。
图4是根据一示例性实施例示出的一种量子神经网络的分类节点的模型图。
图5是根据一示例性实施例示出的一种量子神经网络的分类节点的交替层的模型图。
图6是根据一示例性实施例示出的一种量子神经网络的分类节点的模型图。
图7是根据一示例性实施例示出的一种数据分类方法包括的步骤S21的流程图。
图8是根据一示例性实施例示出的一种数据分类方法包括的步骤S21的另一流程图。
图9是根据一示例性实施例示出的一种数据分类方法的另一流程图。
图10是根据一示例性实施例示出的一种数据分类方法包括的步骤S91的流程图。
图11是根据一示例性实施例示出的一种数据分类装置的框图。
具体实施方式
下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本发明实施例首先提供了一种数据分类方法,该方法可以应用于电子设备,如计算机终端,具体如普通电脑、量子计算机等。
下面以运行在计算机终端上为例对其进行详细说明。图1是根据一示例性实施例示出的一种数据分类方法的计算机终端的硬件结构框图。如图1所示,计算机终端可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和用于存储基于量子线路的数据分类方法的存储器104,可选地,上述计算机终端还可以包括用于通信功能的传输装置106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述计算机终端的结构造成限定。例如,计算机终端还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中的数据分类方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输装置106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端的通信供应商提供的无线网络。在一个实例中,传输装置106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输装置106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
需要说明的是,真正的量子计算机是混合结构的,它包含两大部分:一部分是经典计算机,负责执行经典计算与控制;另一部分是量子设备,负责运行量子程序进而实现量子计算。而量子程序是由量子语言如QRunes语言编写的一串能够在量子计算机上运行的指令序列,实现了对量子逻辑门操作的支持,并最终实现量子计算。具体的说,量子程序就是一系列按照一定时序操作量子逻辑门的指令序列。
在实际应用中,因受限于量子设备硬件的发展,通常需要进行量子计算模拟以验证量子算法、量子应用等等。量子计算模拟即借助普通计算机的资源搭建的虚拟架构(即量子虚拟机)实现特定问题对应的量子程序的模拟运行的过程。通常,需要构建特定问题对应的量子程序。本发明实施例所指量子程序,即是经典语言编写的表征量子比特及其演化的程序,其中与量子计算相关的量子比特、量子逻辑门等等均有相应的经典代码表示。
量子线路作为量子程序的一种体现方式,也称量子逻辑电路,是最常用的通用量子计算模型,表示在抽象概念下对于量子比特进行操作的线路,其组成包括量子比特、线路(时间线)、以及各种量子逻辑门,最后常需要通过量子测量操作将结果读取出来。
不同于传统电路是用金属线所连接以传递电压信号或电流信号,在量子线路中,线路可看成是由时间所连接,亦即量子比特的状态随着时间自然演化,在这过程中按照哈密顿运算符的指示,一直到遇上逻辑门而被操作。
一个量子程序整体上对应有一条总的量子线路,本发明所述量子程序即指该条总的量子线路,其中,该总的量子线路中的量子比特总数与量子程序的量子比特总数相同。可以理解为:一个量子程序可以由量子线路、针对量子线路中量子比特的测量操作、保存测量结果的寄存器及控制流节点(跳转指令)组成,一条量子线路可以包含几十上百个甚至成千上万个量子逻辑门操作。量子程序的执行过程,就是对所有的量子逻辑门按照一定时序执行的过程。需要说明的是,时序即单个量子逻辑门被执行的时间顺序。
需要说明的是,经典计算中,最基本的单元是比特,而最基本的控制模式是逻辑门,可以通过逻辑门的组合来达到控制电路的目的。类似地,处理量子比特的方式就是量子逻辑门。使用量子逻辑门,能够使量子态发生演化,量子逻辑门是构成量子线路的基础,量子逻辑门包括单比特量子逻辑门,如Hadamard门(H门,阿达马门)、泡利-X门(X门)、泡利-Y门(Y门)、泡利-Z门(Z门)、RX门、RY门、RZ门等等;多比特量子逻辑门,如CNOT门、CR门、iSWAP门、Toffoli门等等。量子逻辑门一般使用酉矩阵表示,而酉矩阵不仅是矩阵形式,也是一种操作和变换。一般量子逻辑门在量子态上的作用是通过酉矩阵左乘以量子态右矢对应的矩阵进行计算。
图2是根据一示例性实施例示出的数据分类方法的流程示意图,如图2所示,该方法包括:
S21,获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征所述待分类数据的第二目标态。
S22,将所述第一目标态和所述第二目标态输入量子神经网络,所述量子神经网络包括多个级联的分类节点,所述多个级联的分类节点中的初始分类节点的输入为所述第一目标态和所述第二目标态,所述多个级联的分类节点中除所述初始分类节点之外的分类节点的输入为所述第二目标量子态以及上一所述分类节点输出的所述第一量子比特的量子态。
S23,测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果。
在步骤S21中,待分类数据为分类的对象,例如可以是多张包含动物的图片,需要将图片分类为猫、狗、牛等类型,其可以为单模态数据或多模态数据,例如待分类数据可以是语音、文字、视频的至少一者,在一种可能的实施方式中,待分类数据可以为多模态的用于进行情感分类的数据,其包含语音、文字及视频,进而根据这些信息将其对应的情感进行分类,以得到待分类数据对应的情感类型如高兴、悲伤等,例如一个人摔倒时,对应该场景得到的一组语音、文字及视频可作为一组待分类数据并经分类得到难过、愤怒的情感。
获取待分类数据可以是通过语音输入、键盘输入、触摸屏输入等方式获取待分类数据至上述量子计算机的经典计算机部分。获取待分类数据后,经典计算机向上述量子计算机的量子设备发送指令,使得量子设备中的第一量子比特的量子态被制备至第一目标态,并使得量子设备中的第二量子比特的量子态被制备至上述第二目标态。例如可以将第一量子比特的量子态制备至即nA个第一量子比特的每一者的量子态均为|0>,可以将第二量子比特的量子态制备至|x>,x为待分类数据。需要说明的是,第一量子比特及第二量子比特为量子设备中的不同量子比特,第一量子比特可以为一个或多个,第二量子比特也可以为一个或多个,其数量根据具体的情况决定,本发明对其不做具体限制。
在步骤S22中,量子神经网络(quantum neural network,QNN)为基于量子计算机实现的神经网络,其可以是神经网络的部分或全部在量子计算机的量子设备上实现。量子神经网络由多个级联的分类节点组成,即上一个分类节点与下一个分类节点对应相同量子线路的输入输出连接。将第一目标态和第二目标态输入量子神经网络时,第一目标态和第二目标态输入多个分类节点中的初始分类节点也即首个用于作用于第一量子比特和第二量子比特的分类节点,由于分类节点之间互相级联,进而对于第二个分类节点,初始分类节点输出的第一量子比特的量子态以及第二目标态输入该第二个分类节点,对于后续的分类节点,重复对应第二个分类节点的输入输出过程,其中,对于每个分类节点,可以通过测量该分类节点对应作用后的第二量子比特得到输出结果。需要说明的是,输入每个分类节点的第二目标态对应的待分类数据可以是不同的数据,第二量子比特的第二目标态输入上一个分类节点后,可以将第二量子比特的量子态再制备至不同于该第二目标态的另一个第二目标态,以输入下一个分类节点。
参见图3,以具有3个分类节点的量子神经网络为例,将第一量子比特31的第一目标态及第二量子比特32的第二目标态先输入分类节点331,进而该分类节点331输出的第一量子比特31的量子态以及下一个第二目标态输入分类节点332,然后,分类节点332输出的第一量子比特31的量子态以及第二量子比特32的又一个第二目标态输入分类节点333,完成第一目标态及第二目标态输入量子神经网络的过程,图3中不同分类节点对应的第二量子比特32为相同的量子比特,其不同位置表示被不同分类节点作用的时间不同。需要说明的是,第二量子比特32输入分类节点前会被制备至第二目标态,为简化图示,图3中省去了相应的量子逻辑门。
对每一个分类节点,其对应作用的第一量子比特用于记忆该分类节点对应作用的第二量子比特的第二目标态的特征数据,进而在后续的分类节点作用于第一量子比特时,可以从第一量子比特获取其已经记忆的输入之前分类节点的第二目标态的特征数据,并根据其与输入当前的分类节点的第二目标态进行计算,以得到分类结果。
可选地,如图4所示,分类节点包括优化层41,所述优化层41包括第一含参单量子逻辑门。第一含参单量子逻辑门为包含参数的量子逻辑门,参数值变化时,第一含参单量子逻辑门作用于量子比特的效果对应变化,例如第一含参单量子逻辑门可以为RX旋转门即上述RX门、RY旋转门即上述RY门以及RZ旋转门即上述RZ门中的至少一者。通过引入第一含参单量子逻辑门,使得量子神经网络可以通过机器学习训练得到最优的参数值。
在一种可能的实施方式中,所述第一含参单量子逻辑门包括依次级联的第一RX旋转门、第一RZ旋转门以及第二RX旋转门。即第一目标态和第二目标态输入优化层时,第一RX旋转门先作用于第一量子比特或第二量子比特,然后第一RZ旋转门作用于经过第一RX旋转门作用后的量子比特,最后第二RX旋转门作用于该量子比特。具体地,对于每一个第一量子比特以及每一个第二量子比特,均可以设置第一RX旋转门、第一RZ旋转门以及第二RX旋转门于其所在的量子线路。当然,在其它的实施方式中,第一含参单量子逻辑门也可以包括其它包含参数的量子逻辑门,例如RY旋转门。
可选地,如图4所示,所述分类节点还包括交替层42,所述交替层42用于使所述第一量子比特和所述第二量子比特的量子态基于时间演化算符演化,其中,i为虚数,Hint为包括多个泡利门的张量积的哈密顿量,t为时间。
如图4所示,交替层42连接于上述优化层41,时间演化算符根据薛定谔公式得到,其描述了一个量子比特的演化过程,故每个作用于量子比特的量子逻辑门都可以用对应的时间演化算符描述。如上所述,交替层的时间演化算符为哈密顿量Hint中的泡利门具有张量积形式时,其可以使得多个量子比特纠缠,进而可以训练量子神经网络,使得优化层输出的量子态输入到交替层后完成用于分类计算的量子计算过程。
可选地,参见图5和图6,所述交替层42包括校验模块421、相移模块422以及还原模块423,其中:
所述校验模块421包括多个第一CNOT门,所述第一CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第一CNOT门的目标比特为辅助量子比特43;
所述相移模块422包括依次级联且用于作用于所述辅助量子比特43的第二RZ旋转门4221、第一泡利X门4222、第三RZ旋转门4223以及第二泡利X门4224,所述第二RZ旋转门4221及所述第三RZ旋转门4223的参数分别为所述时间以及所述时间的负数;
所述还原模块423包括多个第二CNOT门,所述第二CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第二CNOT门的目标比特为所述辅助量子比特43。
参见图5,在一种可能的实施方式中,对于校验模块421,第一CNOT门的数量与第一量子比特和第二量子比特的总数相同,对于每一个第一量子比特及每一个第二量子比特,均设置有一个第一CNOT门于该第一量子比特或该第二量子比特与辅助量子比特43之间,进而完成对于第一量子比特及第二量子比特的量子态的奇偶校验,并将奇偶校验结果存储于辅助量子比特43。需要说明的是,这里的奇偶校验结果,指哈密顿量Hint涉及的系统的量子比特的计算基中量子比特取值为1的数量的奇偶性,例如对于计算基|010>,其仅有第二个量子比特取值为1,故其奇偶校验结果为奇数,对于计算基|011>,第二个和第三个量子比特取值为1,故其奇偶校验结果为偶数。
对于相移模块422,参见图5和图6,若奇偶校验结果为偶数,则其应用到第一量子比特和第二量子比特的相移是e-it,若奇偶校验结果为奇数,则其应用到第一量子比特和第二量子比特的相移是eit。进而将相移模块422中的第二RZ旋转门4221、第一泡利X门4222、第三RZ旋转门4223以及第二泡利X门4224依次作用于辅助量子比特43,完成上述相移操作。
对于还原模块423,第二CNOT门的数量与第一量子比特和第二量子比特的总数相同,对于每一个第一量子比特及每一个第二量子比特,均设置有一个第二CNOT门于该第一量子比特或该第二量子比特与辅助量子比特43之间,并且作用对象相同的第一CNOT门和第二CNOT门,其分别在校验模块421和还原模块423中的顺序相反,参见图5,对于作用对象为图中最上方量子线路的量子比特以及辅助量子比特43的第一CNOT门和第二CNOT门,该第一CNOT门在校验模块421中第一个作用于该作用对象,而该第二CNOT门在还原模块423中最后一个作用于该作用对象,进而实现校验模块421的逆运算,完成对辅助量子比特43的还原。
其中,aj、Jjk为参数,n为所述第一量子比特及第二量子比特的数量之和,X为泡利X门,Z为泡利Z门,ZjZk表示两个泡利Z门的张量积。
举例来讲,假设第二量子比特仅有1个,通过RY旋转门Uin(x)=Ry(arccos(x))将待分类数据x编码至第二目标态,第一量子比特的量子态均制备至|0>态,则第一量子比特和第二量子比特对应系统的密度矩阵为:
其中,I为泡利单位矩阵,X为泡利X矩阵,Z为泡利Z矩阵,nA为第一量子比特的数量。经过分类节点作用后,该系统的密度矩阵为:
其中,即相应泡利算符的张量积形式,n为第一量子比特和第二量子比特的总数,C1P(θ),C2P(θ),C3P(θ)为实系数,这意味着任何泡利算子P的期望值都可以写成/>的线性组合,输出结果也可以用它们组成。进而输入下一分类节点的第一量子比特对应的约化密度矩阵为:
其中,C′1P(θ),C′2P(θ),C′3P(θ)为实系数。再将另一待分类数据x′对应的第二目标态输入该下一分类节点,通过该分类节点作用于整个系统后,得到整个系统的密度矩阵为:
其中,C″ip(θ)为实系数,可以看出xx′等非线性函数,是量子系统的张量积结构生成的,同时量子神经网络可以通过训练自身的参数来选择保存在第一量子比特中的项,使得第一量子比特完成对于第二目标态的记忆。例如,如果分类节点将/>转换为仅作用于第一量子比特的局部泡利算符,量子神经网络可以在/>中完全保留x项。如果分类节点将转换为作用于第一量子比特和第二量子比特的泡利算符,x将在/>中消失。如果分类节点以上述两种极端情况的中间方式起作用,则/>中x的大小比前一种情况更小,即量子神经网络部分“忘记”x。
在步骤S23中,对第二量子比特进行测量得到输出结果,例如输出结果可以为多个可能出现的量子态以及这些量子态的出现概率,进而可以利用相应的变换函数将输出结果变为想要的分类结果,例如不同情感的出现概率。测量可以通过量子设备中的测量逻辑门实现,对输出结果的转换可以通过量子计算机的经典计算机部分实现。
可选地,在步骤S23中,测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果,包括:
测量所述第二量子比特得到一个或多个所述分类节点的输出结果,并将所述输出结果输入变换函数,得到分类结果。
举例来讲,每一个分类节点作用于第一量子比特及第二量子比特后,可以对该分类节点作用后的第二量子比特进行测量,得到多个输出结果,并将这些分类结果均输入变换函数,进行数据转换,当然也可以只测量得到一个输出结果例如测量最后一个分类节点对应的第二量子比特得到输出结果,也可以测量得到部分分类节点对应的输出结果。以图3为例,可以测量每个分类节点对应的第二量子比特得到所有的输出结果y0,y1,y2,也可以仅测得输出结果y2。可选地,所述变换函数为所述输出结果的线性函数,例如为每个输出结果可能出现的量子态的概率的线性组合,并且该线性函数的参数可以通过对量子神经网络的训练得到最优值。当然,在其它可能的实施方式中,变换函数也可以为其它函数例如多项式函数,指数函数等,并通过训练得到相应的参数值,对此,本发明不作具体限制。
基于上述技术方案,在对待分类数据的处理过程中,准备第二量子比特用于制备表征待分类数据的第二目标态参与计算分类结果的量子计算过程,并准备第一量子比特用于记忆第二目标态的特征数据,且在不同的分类节点间传递,使得每一分类节点都可以根据接收的上一分类节点输出的第一量子比特的量子态,以及当前输入的第二目标态进行量子计算,并将计算结果也即分类结果存储于第二量子比特的量子态输出,由于第一量子比特在整个过程中不被测量,故其存储的特征数据可以不断传递以被每个分类节点利用,进而对于间隔较远的分类节点,输入其中的待分类数据也可以被后续的分类节点有效利用,提高了分类的准确性。
可选地,参见图7,将第二量子比特的量子态制备至表征所述待分类数据的第二目标态,包括:
S211,获取以所述待分类数据为参数的第二含参单量子逻辑门。
S213,将第二量子比特的量子态制备至预备量子态。
S215,将所述第二含参单量子逻辑门作用于所述第二量子比特,使得所述预备量子态演化至表征所述待分类数据的第二目标态。
在步骤S211中,第二含参单量子逻辑门即包含参数的单量子逻辑门,例如其可以为RX旋转门、RY旋转门以及RZ旋转门中的至少一者,在一种可能的实施方式中,第二含参单量子逻辑门包括RY旋转门。具体地,在量子计算机的经典计算机部分获取待分类数据后,将其作为参数使得量子设备构建第二含参单量子逻辑门,例如对于待分类数据x,可以构建第二含参单量子逻辑门Ry(arccos(x))。
获得上述第二含参单量子逻辑门且第二量子比特制备至上述预备量子态后,执行步骤S215,通过量子设备将第二含参单量子逻辑门作用于第二量子比特,使得预备量子态演化至第二目标态。需要说明是,步骤S211和步骤S213的执行先后没有具体限制,可以同时执行。
可选地,待分类数据可以为多模态数据,参见图8,将第二量子比特的量子态制备至表征所述待分类数据的第二目标态,包括:
S212,将不同模态的所述待分类数据转化为同一数据向量。
S214,针对同一所述数据向量的每一元素,将对应所述元素的第二量子比特的量子态制备至表征所述元素的第二目标态。
在步骤S212中,对于不同模态的待分类数据,将其转化至同一数据向量,例如对于上述人摔倒的场景获取的视频、语音、文字的多模态数据,可以通过wordembedding等方法将其转化为一个3维的数据向量[x1,x2,x3]。进而在步骤S214中,对于该3维向量中的每一个元素,准备3个第二量子比特分别表示其每个元素,其具体的表示方法可以参考上述步骤S211至步骤S215,也可以采用其它的方法,本发明对其不作具体限制。通过将不同模态的待分类数据同时输入一个分类节点参与计算,以使其在分类节点中进行融合,提高对数据的利用效率。
图9是根据一示例性实施例示出的一种数据分类方法的另一流程图,如图9所示,该方法包括:
S91,基于同步扰动随机近似算法训练待优化的量子神经网络,得到所述待优化的量子神经网络包括的第一含参单量子逻辑门的参数的优化值。
S92,将所述优化值应用于所述待优化的量子神经网络,得到已训练的量子神经网络,以用于对待分类数据进行分类。
S93,获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征所述待分类数据的第二目标态。
S94,将所述第一目标态和所述第二目标态输入量子神经网络,所述量子神经网络包括多个级联的分类节点,所述多个级联的分类节点中的初始分类节点的输入为所述第一目标态和所述第二目标态,所述多个级联的分类节点中除所述初始分类节点之外的分类节点的输入为所述第二目标量子态以及上一所述分类节点输出的所述第一量子比特的量子态。
S95,测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果。
在步骤S91中,待优化的量子神经网络即未经过训练的量子神经网络或经过训练但分类效果达不到预期的量子神经网络,通过同步扰动随机近似算法(SimultaneousPerturbation Stochastic Approximation,SPSA)对其进行训练,得到待优化的量子神经网络中第一含参单量子逻辑门的参数的优化值,优化值指能使得量子神经网络实现预期分类效果的参数值。
得到优化值后,执行步骤S92,将这些优化值应用于上述待优化的量子神经网络,即将每个优化值对应用于第一含参单量子逻辑门的参数,即可得到复符合预期分类效果的已训练的量子神经网络,以用于对待分类数据进行分类。
得到已训练的量子神经网络后,进入执行步骤S93至步骤S95,其具体执行方式可以参考上述步骤S21至步骤S23,对此本申请不作具体限制。
可选地,参见图10,基于同步扰动随机近似算法训练待优化的量子神经网络,得到所述待优化的量子神经网络包括的第一含参单量子逻辑门的参数的优化值,包括:
S911,获取训练数据,并构建待优化的量子神经网络的损失函数。
S912,将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值减去第一偏置量,并将所述训练数据输入该量子神经网络,得到第一结果。
S913,将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值加上第二偏置量,并将所述训练数据输入该量子神经网络,得到第二结果。
S914,基于所述第一结果与所述第二结果计算所述待优化的量子神经网络的参数的下降梯度。
S915,基于梯度下降算法及所述下降梯度更新所述参数。
S916,在确定更新所述参数后的所述量子神经网络的损失函数的值小于阈值时,将所述参数更新后的值作为所述参数的优化值。
在步骤S911中,训练数据可以包括样本数据以及对应该样本数据的标签数据,例如样本数据为上述人摔倒的场景获取的视频、声音及文字数据,对应的标签可以是人工添加的愤怒、悲伤等情感。获取训练数据可以通过量子计算机的经典计算机部分实现,并通过经典计算机构建量子神经网络的损失函数,表征训练数据的输出结果与标签数据的差别大小,例如可以是其两者的平方和。
在步骤S912及步骤S913中,将上述参数的初始值分别加上和减去第二偏置量和第一偏置量,得到不同的量子神经网络模型,然后将训练数据输入这两个不同的量子神经网络模型中,得到第二结果和第一结果,然后进入执行步骤S914,可以通过经典计算机根据第一结果和第二结果计算待优化的量子神经网络的参数的下降梯度,其表示参数变化的最快的方向,例如下降梯度可以为:
其中,x是训练数据,I(x)表示将x编码至用于输入分类节点的第二目标态,i代表的是所述分类节点的索引,Gi(θi)表示所述分类节点,θi为所述第一含参单量子逻辑门的参数,/>为观测量,IH(x),/>分别为I(x),Gi(θi)的共轭转置。
计算出下降梯度后,执行步骤S915,将下降梯度代入梯度下降算法计算新的参数值,以更新前述参数。进而在步骤S916中,若参数更新后,上述损失函数的值小于阈值,说明参数更新后的值对应的量子神经网络的分类效果能达到预期,进而将参数更新后的值作为优化值,用于代入待优化的量子神经网络,以得到能达到预期分类效果的已训练的量子神经网络。当然,参数更新后,损失函数的值大于或等于阈值,可以返回执行步骤S912及后续步骤,直至损失函数的值小于阈值为止。
图11是根据一示例性实施例示出的一种数据分类装置的框图,如图11所示,该装置110包括:
获取制备模块111,用于获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征所述待分类数据的第二目标态;
输入模块112,用于将所述第一目标态和所述第二目标态输入量子神经网络,所述量子神经网络包括多个级联的分类节点,所述多个级联的分类节点中的初始分类节点的输入为所述第一目标态和所述第二目标态,所述多个级联的分类节点中除所述初始分类节点之外的分类节点的输入为所述第二目标量子态以及上一所述分类节点输出的所述第一量子比特的量子态;
测量转换模块113,用于测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果。
可选地,所述分类节点包括优化层,所述优化层包括第一含参单量子逻辑门。
可选地,所述第一含参单量子逻辑门包括依次级联的第一RX旋转门、第一RZ旋转门以及第二RX旋转门。
可选地,所述交替层包括校验模块、相移模块以及还原模块,其中:
所述校验模块包括多个第一CNOT门,所述第一CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第一CNOT门的目标比特为辅助量子比特;
所述相移模块包括依次级联且用于作用于所述辅助量子比特的第二RZ旋转门、第一泡利X门、第三RZ旋转门以及第二泡利X门,所述第二RZ旋转门及所述第三RZ旋转门的参数分别为所述时间以及所述时间的负数;
所述还原模块包括多个第二CNOT门,所述第二CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第二CNOT门的目标比特为所述辅助量子比特。
可选地,所述获取制备模块111还用于:
获取以所述待分类数据为参数的第二含参单量子逻辑门;
将第二量子比特的量子态制备至预备量子态;
将所述第二含参单量子逻辑门作用于所述第二量子比特,使得所述预备量子态演化至表征所述待分类数据的第二目标态。
可选地,所述第二含参单量子逻辑门包括RY旋转门。
可选地,所述待分类数据为多模态数据,所述获取制备模块111还用于:
将不同模态的所述待分类数据转化为同一数据向量;
针对同一所述数据向量的每一元素,将对应所述元素的第二量子比特的量子态制备至表征所述元素的第二目标态。
可选地,所述测量转换模块113还用于:
测量所述第二量子比特得到一个或多个所述分类节点的输出结果,并将所述输出结果输入变换函数,得到分类结果。
可选地,所述变换函数为所述输出结果的线性函数。
可选地,所述装置110还包括:
训练模块,用于基于同步扰动随机近似算法训练待优化的量子神经网络,得到所述待优化的量子神经网络包括的第一含参单量子逻辑门的参数的优化值;
应用模块,用于将所述优化值应用于所述待优化的量子神经网络,得到已训练的量子神经网络,以用于对所述待分类数据进行分类。
可选地,所述训练模块还用于:
获取训练数据,并构建待优化的量子神经网络的损失函数;
将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值减去第一偏置量,并将所述训练数据输入该量子神经网络,得到第一结果;
将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值加上第二偏置量,并将所述训练数据输入该量子神经网络,得到第二结果;
基于所述第一结果与所述第二结果计算所述待优化的量子神经网络的参数的下降梯度;
基于梯度下降算法及所述下降梯度更新所述参数;
在确定更新所述参数后的所述量子神经网络的损失函数的值小于阈值时,将所述参数更新后的值作为所述参数的优化值。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本发明的再一实施例还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
具体的,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本发明的再一实施例还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
具体的,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
具体的,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征所述待分类数据的第二目标态;将所述第一目标态和所述第二目标态输入量子神经网络,所述量子神经网络包括多个级联的分类节点,所述多个级联的分类节点中的初始分类节点的输入为所述第一目标态和所述第二目标态,所述多个级联的分类节点中除所述初始分类节点之外的分类节点的输入为所述第二目标量子态以及上一所述分类节点输出的所述第一量子比特的量子态;测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果。
以上依据图式所示的实施例详细说明了本发明的构造、特征及作用效果,以上所述仅为本发明的较佳实施例,但本发明不以图面所示限定实施范围,凡是依照本发明的构想所作的改变,或修改为等同变化的等效实施例,仍未超出说明书与图示所涵盖的精神时,均应在本发明的保护范围内。
Claims (15)
1.一种数据分类方法,其特征在于,所述方法包括:
获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征所述待分类数据的第二目标态;
将所述第一目标态和所述第二目标态输入量子神经网络,所述量子神经网络包括多个级联的分类节点,所述多个级联的分类节点中的初始分类节点的输入为所述第一目标态和所述第二目标态,所述多个级联的分类节点中除所述初始分类节点之外的分类节点的输入为所述第二目标量子态以及上一所述分类节点输出的所述第一量子比特的量子态;
测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果。
2.如权利要求1所述的方法,其特征在于,所述分类节点包括优化层,所述优化层包括第一含参单量子逻辑门。
3.如权利要求2所述的方法,其特征在于,所述第一含参单量子逻辑门包括依次级联的第一RX旋转门、第一RZ旋转门以及第二RX旋转门。
5.如权利要求4所述的方法,其特征在于,所述交替层包括校验模块、相移模块以及还原模块,其中:
所述校验模块包括多个第一CNOT门,所述第一CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第一CNOT门的目标比特为辅助量子比特;
所述相移模块包括依次级联且用于作用于所述辅助量子比特的第二RZ旋转门、第一泡利X门、第三RZ旋转门以及第二泡利X门,所述第二RZ旋转门及所述第三RZ旋转门的参数分别为所述时间以及所述时间的负数;
所述还原模块包括多个第二CNOT门,所述第二CNOT门的控制比特为所述第一量子比特或所述第二量子比特,所述第二CNOT门的目标比特为所述辅助量子比特。
6.如权利要求1所述的方法,其特征在于,所述将第二量子比特的量子态制备至表征所述待分类数据的第二目标态,包括:
获取以所述待分类数据为参数的第二含参单量子逻辑门;
将第二量子比特的量子态制备至预备量子态;
将所述第二含参单量子逻辑门作用于所述第二量子比特,使得所述预备量子态演化至表征所述待分类数据的第二目标态。
7.如权利要求6所述的方法,其特征在于,所述第二含参单量子逻辑门包括RY旋转门。
8.如权利要求1所述的方法,其特征在于,所述待分类数据为多模态数据,所述将第二量子比特的量子态制备至表征所述待分类数据的第二目标态,包括:
将不同模态的所述待分类数据转化为同一数据向量;
针对同一所述数据向量的每一元素,将对应所述元素的第二量子比特的量子态制备至表征所述元素的第二目标态。
9.如权利要求1所述的方法,其特征在于,所述测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果,包括:
测量所述第二量子比特得到一个或多个所述分类节点的输出结果,并将所述输出结果输入变换函数,得到分类结果。
10.如权利要求9所述的方法,其特征在于,所述变换函数为所述输出结果的线性函数。
11.如权利要求2所述的方法,其特征在于,所述方法还包括:
基于同步扰动随机近似算法训练待优化的量子神经网络,得到所述待优化的量子神经网络包括的第一含参单量子逻辑门的参数的优化值;
将所述优化值应用于所述待优化的量子神经网络,得到已训练的量子神经网络,以用于对所述待分类数据进行分类。
12.如权利要求11所述的方法,其特征在于,所述基于同步扰动随机近似算法训练待优化的量子神经网络,得到所述待优化的量子神经网络包括的第一含参单量子逻辑门的参数的优化值,包括:
获取训练数据,并构建待优化的量子神经网络的损失函数;
将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值减去第一偏置量,并将所述训练数据输入该量子神经网络,得到第一结果;
将所述待优化的量子神经网络的第一含参单量子逻辑门的参数的初始值加上第二偏置量,并将所述训练数据输入该量子神经网络,得到第二结果;
基于所述第一结果与所述第二结果计算所述待优化的量子神经网络的参数的下降梯度;
基于梯度下降算法及所述下降梯度更新所述参数;
在确定更新所述参数后的所述量子神经网络的损失函数的值小于阈值时,将所述参数更新后的值作为所述参数的优化值。
13.一种数据分类装置,其特征在于,所述装置包括:
获取制备模块,用于获取待分类数据,并将第一量子比特的量子态制备至第一目标态,以及将第二量子比特的量子态制备至表征所述待分类数据的第二目标态;
输入模块,用于将所述第一目标态和所述第二目标态输入量子神经网络,所述量子神经网络包括多个级联的分类节点,所述多个级联的分类节点中的初始分类节点的输入为所述第一目标态和所述第二目标态,所述多个级联的分类节点中除所述初始分类节点之外的分类节点的输入为所述第二目标量子态以及上一所述分类节点输出的所述第一量子比特的量子态;
测量转换模块,用于测量所述第二量子比特得到所述量子神经网络的输出结果,并将所述输出结果转换为分类结果。
14.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至12任一项中所述的方法。
15.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至12任一项中所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111495061.6A CN116257668A (zh) | 2021-12-08 | 2021-12-08 | 数据分类方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111495061.6A CN116257668A (zh) | 2021-12-08 | 2021-12-08 | 数据分类方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116257668A true CN116257668A (zh) | 2023-06-13 |
Family
ID=86677918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111495061.6A Pending CN116257668A (zh) | 2021-12-08 | 2021-12-08 | 数据分类方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116257668A (zh) |
-
2021
- 2021-12-08 CN CN202111495061.6A patent/CN116257668A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110516810B (zh) | 一种量子程序的处理方法、装置、存储介质和电子装置 | |
CN112016691B (zh) | 一种量子线路的构建方法及装置 | |
CN113222155B (zh) | 一种量子线路的构建方法、装置、电子装置和存储介质 | |
CN114792378B (zh) | 一种量子图像识别方法及装置 | |
CN111401562B (zh) | 一种终端界面中量子线路的运行方法及装置 | |
CN114358317B (zh) | 基于机器学习框架的数据分类方法及相关设备 | |
CN114358318B (zh) | 基于机器学习框架的分类方法及相关装置 | |
CN114358319A (zh) | 基于机器学习框架的分类方法及相关装置 | |
CN115293254A (zh) | 基于量子多层感知器的分类方法及相关设备 | |
CN114819163B (zh) | 量子生成对抗网络的训练方法、装置、介质及电子装置 | |
WO2023143121A1 (zh) | 一种数据处理方法及其相关装置 | |
CN116011681A (zh) | 一种气象数据预测方法、装置、存储介质及电子装置 | |
CN116403657A (zh) | 一种药物反应预测方法、装置、存储介质及电子装置 | |
CN115311515B (zh) | 混合量子经典的生成对抗网络的训练方法及相关设备 | |
CN114358295B (zh) | 基于机器学习框架的二分类方法及相关装置 | |
CN114372539B (zh) | 基于机器学习框架的分类方法及相关设备 | |
CN114764619B (zh) | 一种基于量子线路的卷积操作方法及装置 | |
CN116257668A (zh) | 数据分类方法及相关设备 | |
CN114819171B (zh) | 一种量子卷积操作的实现方法及装置 | |
CN114821147B (zh) | 一种量子图像识别的显示方法及装置 | |
CN116432710B (zh) | 机器学习模型构建方法、机器学习框架及相关设备 | |
CN116431807B (zh) | 一种文本分类方法、装置、存储介质及电子装置 | |
Qu et al. | Two-stage coevolution method for deep CNN: A case study in smart manufacturing | |
CN116400430B (zh) | 一种气象数据预测方法、装置、存储介质及电子装置 | |
CN116740343B (zh) | 一种基于量子经典混合神经网络的图像分割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB02 | Change of applicant information |
Address after: 230088 6th floor, E2 building, phase II, innovation industrial park, 2800 innovation Avenue, Hefei high tech Zone, Hefei City, Anhui Province Applicant after: Benyuan Quantum Computing Technology (Hefei) Co.,Ltd. Address before: 230088 6th floor, E2 building, phase II, innovation industrial park, 2800 innovation Avenue, Hefei high tech Zone, Hefei City, Anhui Province Applicant before: ORIGIN QUANTUM COMPUTING COMPANY, LIMITED, HEFEI |
|
CB02 | Change of applicant information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |