CN112651418B - 数据分类方法、分类器训练方法及系统 - Google Patents
数据分类方法、分类器训练方法及系统 Download PDFInfo
- Publication number
- CN112651418B CN112651418B CN202010446946.6A CN202010446946A CN112651418B CN 112651418 B CN112651418 B CN 112651418B CN 202010446946 A CN202010446946 A CN 202010446946A CN 112651418 B CN112651418 B CN 112651418B
- Authority
- CN
- China
- Prior art keywords
- training
- quantum
- data
- index information
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/16—Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
- G06N10/60—Quantum algorithms, e.g. based on quantum optimisation, quantum Fourier or Hadamard transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Hardware Design (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了一种数据分类方法、分类器训练方法及系统,属于人工智能、云技术和量子技术领域。所述方法包括:经典计算机获取待分类数据;将待分类数据提供给量子计算机;量子计算机通过量子电路对待分类数据进行特征映射,得到待分类数据的量子态;根据分类器的边界向量、待分类数据的量子态和边界向量对应的索引信息的量子态,确定估算结果;将估算结果发送给经典计算机;其中,边界向量对应的索引信息的量子态是指分类器在训练过程中使用的训练数据的特征图的叠加;经典计算机根据估算结果,确定待分类数据对应的分类结果。本申请实施例得到的边界向量较为准确,分类器的分类精度较高,从而使得最终的分类结果更加准确。
Description
技术领域
本申请实施例涉及人工智能、云技术和量子技术领域,特别涉及一种数据分类方法、分类器训练方法及系统。
背景技术
SVM(Support Vector Machine,支持向量机)是用于对数据进行分类的监督学习模型,在AI(Artificial Intelligence,人工智能)技术领域中具有广泛的应用场景。
在训练过程中,为了加快处理大数据集时的效率,技术人员会使用移位不变核对应的特征图对SVM进行训练,移位不变核是指将两个训练数据移动相同距离后所得的核函数不变。在实际应用过程中,通过将待分类数据输入上述SVM中,由该SVM输出待分类数据对应的分类结果。
然而,由于上述SVM中使用移位不变核对应的特征图,对特征空间造成了限制,从而使得SVM的分类精度较低,导致最终的分类结果不准确。
发明内容
本申请实施例提供了一种数据分类方法、分类器训练方法及系统,可以提高最终的分类结果的准确性。所述技术方案如下:
一方面,本申请实施例提供一种数据分类方法,所述方法包括:
经典计算机获取待分类数据;将所述待分类数据提供给量子计算机;
所述量子计算机通过量子电路对所述待分类数据进行特征映射,得到所述待分类数据的量子态;根据分类器的边界向量、所述待分类数据的量子态和所述边界向量对应的索引信息的量子态,确定估算结果;将所述估算结果发送给所述经典计算机;其中,所述边界向量对应的索引信息的量子态是指所述分类器在训练过程中使用的训练数据的特征图的叠加;
所述经典计算机根据所述估算结果,确定所述待分类数据对应的分类结果。
另一方面,本申请实施例提供一种分类器训练方法,所述方法包括:
经典计算机获取训练数据集,所述训练数据集包括m个训练数据以及所述训练数据对应的标准标签,所述m为正整数;
量子计算机计算工作集中每两个索引信息的量子态的内积,生成内积集合;其中,所述工作集中包括至少两个索引信息,所述索引信息用于指示本次训练使用的训练数据,所述索引信息的量子态是指所述本次训练使用的训练数据的特征图的叠加;
所述经典计算机根据所述内积集合,生成分类器的优化问题;根据所述分类器的优化问题对所述分类器进行训练,得到所述分类器的边界向量。
另一方面,本申请实施例提供一种数据分类系统,所述系统包括:经典计算机和量子计算机;
所述经典计算机,用于获取待分类数据;将所述待分类数据提供给所述量子计算机;
所述量子计算机,用于通过量子电路对所述待分类数据进行特征映射,得到所述待分类数据的量子态;根据分类器的边界向量、所述待分类数据的量子态和所述边界向量对应的索引信息的量子态,确定估算结果;将所述估算结果发送给所述经典计算机;其中,所述边界向量对应的索引信息的量子态是指所述分类器在训练过程中使用的训练数据的特征图的叠加;
所述经典计算机,还用于根据所述估算结果,确定所述待分类数据对应的分类结果。
再一方面,本申请实施例提供一种分类器训练系统,所述系统包括:经典计算机和量子计算机;
所述经典计算机,用于获取训练数据集,所述训练数据集包括m个训练数据以及所述训练数据对应的标准标签,所述m为正整数;
所述量子计算机,用于计算工作集中每两个索引信息的量子态的内积,生成内积集合;其中,所述工作集中包括至少两个索引信息,所述索引信息用于指示本次训练使用的训练数据,所述索引信息的量子态是指所述本次训练使用的训练数据的特征图的叠加;
所述经典计算机,还用于根据所述内积集合,生成分类器的优化问题;根据所述分类器的优化问题对所述分类器进行训练,得到所述分类器的边界向量。
本申请实施例提供的技术方案可以带来如下有益效果:
通过量子计算机根据分类器的边界向量、待分类数据的量子态和边界向量对应的索引信息的量子态,确定估算结果,从而使得经典计算机根据该估算结果确定待分类数据对应的分类结果。边界向量对应的索引信息的量子态是指分类器在训练过程中使用的训练数据的特征图中的叠加,本申请中的分类器不限于使用移位不变核对应的特征图,对特征空间没有限制,因此本申请中的分类器能够找到更优的特征空间对待分类数据进行分类,也即本申请得到的边界向量较为准确,分类器的分类精度较高,从而使得最终的分类结果更加准确。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的实施环境的示意图;
图2是本申请一个实施例提供的数据分类方法的流程图;
图3是本申请一个实施例提供的分类器的示意图;
图4是本申请另一个实施例提供的数据分类方法的流程图;
图5是本申请另一个实施例提供的数据分类方法的示意图;
图6是本申请一个实施例提供的分类器训练方法的流程图;
图7是本申请另一个实施例提供的分类器训练方法的流程图;
图8是本申请另一个实施例提供的分类器训练方法的示意图;
图9是本申请一个实施例提供的数据分类系统的示意图;
图10是本申请一个实施例提供的分类器训练系统的示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在对本申请实施例进行介绍说明之前,首先对本申请中涉及的一些名词进行解释说明。
1、量子计算机:通过操纵量子系统的状态来进行计算的设备。假设量子计算机是容错的,即它能够执行任意长的计算并达到用户指定的精度。量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。
2、经典计算机:一台普通的非量子计算机。
3、SVM:一种用于对数据进行分类的监督学习模型,具有广泛的应用场景,例如,图像、图案和手写识别,情感分析,面部和物体检测,语音验证和生物信息学等。
4、量子电路:由量子计算机执行的一系列操作,将一个输入的量子状态转化为另一个量子状态并输出。量子电路是作用在量子比特上的电路,量子比特可以实现成为量子芯片。
5、内积:在数学中,内积是两个向量到标量的映射,它度量了一个向量与另一个向量有多少重叠的部分。向量x和向量y的内积表示成<x,y>。
6、特征图:一种将一个向量空间映射到另一个向量空间(通常是更高维空间)的数学运算。特征图通常用于机器学习中。
7、QRAM(Quantum Random Access Memory,量子随机存取存储器):一种可以用来存储数据矢量的设备,使得量子计算机可以高效地读取和编码量子态的概率幅。例如,如果将数据向量z∈Rn存储在QRAM中,则可以有效地制备一个量子态与log(n)量子比特的量子态∑izi|i>成正比。QRAM的主要目的是以某种方式存储适当的数据,以使量子计算机可以有效地创建内积估计所需的量子状态。
8、分类器:将特征空间分为两部分的表面。
9、量子态:量子系统的所有信息由一个量子态ρ来表征。ρ是一个d×d复数矩阵,其中d是量子系统的维数。
请参考图1,其示出了本申请一个实施例提供的实施环境的示意图。该实施环境包括:量子计算机11、经典计算机12和QRAM 13。
经典计算机12用于获取待分类数据,并将该待分类数据发送给QRAM 13。QRAM 13中存储有分类器的边界向量、m个训练数据、该边界向量对应的索引信息对应的目标参数。量子计算机11从QRAM 13中获取待分类数据、分类器的边界向量、边界向量对应的索引信息对应的训练数据、该边界向量对应的索引信息对应的目标参数,并根据上述四者,得到估算结果,将该估算结果发送给经典计算机12。经典计算机12用于根据该估算结果,得到待分类数据对应的分类结果。
在一个示例中,QRAM 13设置在量子计算机11内部,属于量子计算机11的组成部分;在另一个示例中,QRAM 13设置在量子计算机11外部,不属于量子计算机11的组成部分。
量子计算机11可以作为云计算底下一种可选择的特殊硬件,本申请实施例提供的量子分类算法可以是执行在上面的人工智能服务,本申请实施例提供的方案涉及人工智能的机器学习技术在云技术领域的应用。
云技术(cloud technology)基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,能通过云计算来实现。
云计算(cloud computing)指IT(Internet Technology,互联网技术)基础设施的交付和使用模式,指通过网络以按需、易扩展的方式获得所需资源;广义云计算指服务的交付和使用模式,指通过网络以按需、易扩展的方式获得所需服务。这种服务可以是IT和软件、互联网相关,也可是其他服务。云计算是网格计算(Grid Computing)、分布式计算(Distributed Computing)、并行计算(Parallel Computing)、效用计算(UtilityComputing)、网络存储(Network Storage Technologies)、虚拟化(Virtualization)、负载均衡(Load Balance)等传统计算机和网络技术发展融合的产物。
随着互联网、实时数据流、连接设备多样化的发展,以及搜索服务、社会网络、移动商务和开放协作等需求的推动,云计算迅速发展起来。不同于以往的并行分布式计算,云计算的产生从理念上将推动整个互联网模式、企业管理模式发生革命性的变革。云计算可以在云服务器上执行,云服务器可以提供云服务、云计算、人工智能平台等基础云计算服务。
所谓人工智能云服务,一般也被称作是AIaaS(AI as a Service,中文为“AI即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的AI服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个AI主题商城:所有的开发者都可以通过API接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的AI框架和AI基础设施来部署和运维自已专属的云人工智能服务。
下面,将通过几个实施例对本申请进行介绍说明。
请参考图2,其示出了本申请一个实施例提供的数据分类方法的流程图。该方法可以包括如下几个步骤。
步骤201,经典计算机获取待分类数据。
待分类数据可以是任意一个数据。在本申请实施例中,待分类数据是指需要分类的数据,待分类数据是不带标签的数据。
步骤202,经典计算机将待分类数据提供给量子计算机。
在可能的实现方式中,经典计算机将待分类数据发送给QRAM,量子计算机从该QRAM中获取上述待分类数据。
步骤203,量子计算机通过量子电路对待分类数据进行特征映射,得到待分类数据的量子态。
量子电路可以是由用户定义的,量子电路用于将待分类数据映射到对应的量子态。
在示意性实施例中,上述步骤203可以由如下步骤替换实现:量子计算机通过量子电路根据待分类数据的特征图中的各个特征值和特征值对应的量子态的乘积之和,确定待分类数据的量子态。
在可能的实现方式中,待分类数据的量子态通过如下公式计算得到:
其中,φ(x)表示待分类数据的特征图,φ(x)j表示待分类数据的特征图中的第j个特征值,|j>表示第j个特征值对应的量子态(也可以称之为j的量子态),|φ(x)>表示待分类数据的量子态,表示待分类数据的特征图中的各个特征值和特征值对应的量子态的乘积之和,表示的模。φ(x)∈Rn是实质数据向量。待分类数据的特征图中包括n个特征值,j为小于等于n的正整数。
步骤204,量子计算机根据分类器的边界向量、待分类数据的量子态和边界向量对应的索引信息的量子态,确定估算结果。
分类器也可以称之为分类模型,是用于对数据进行分类的工具。可选地,本申请实施例中的分类器是用于二分类任务的分类器,如SVM。可选地,本申请实施例中的分类器还可以是用于多分类任务的分类器,此时,多分类的分类器可以对待分类数据进行多次二分类,得到最终的分类结果。
分类器的边界向量用于区分第一类别和第二类别(第一类别和第二类别是两个不同的类别),如图3所示,在分类器的训练过程中,获取第一类别的数据和第二类别的数据(例如图3中黑色圆圈31代表第一类别的数据,白色圆圈32代表第二类别的数据),将上述第一类别的数据和第二类别的数据映射到更高维度的特征空间,并计算出一个边界向量(例如图3中的横条33表示边界向量),使得第一类别的数据和第二类别的数据分别位于边界向量的两侧。在分类过程中,待分类数据被映射到特征空间,并根据其位于分类器的哪一侧来确定分类结果。不同分类器的边界向量可能不同,其分类精度可能也不同。在可能的实现方式中,经典计算机完成对分类器的训练之后,将得到的边界向量发送给QRAM,量子计算机从QRAM中获取该边界向量。
在本申请实施例中,边界向量对应的索引信息的量子态是指分类器在训练过程中使用的训练数据的特征图的叠加。可选地,分类器的边界向量是经典计算机在最后一次训练时得到的向量,则边界向量对应的索引信息的量子态是指量子计算机在最后一次训练时使用的训练数据的特征图的叠加。QRAM中存储有训练数据和与该边界向量对应的索引信息对应的目标参数,量子计算机后续从QRAM中获取上述数据,并根据上述数据快速获得边界向量对应的索引信息的量子态。
估算结果可用于确定待分类数据的分类结果。量子计算机先确定边界向量对应的索引信息的量子态和边界向量之间的乘积,再确定该乘积与待分类数据的量子态之间的内积,得到估算结果。
步骤205,量子计算机将估算结果发送给经典计算机。
步骤206,经典计算机根据估算结果,确定待分类数据对应的分类结果。
在一个示例中,响应于估算结果为正值,经典计算机确定待分类数据属于第一类别;响应于估算结果为负值,经典计算机确定待分类数据属于第二类别。
可选地,分类结果与标签相对应,第一类别对应第一标签,第二类别对应第二标签。经典计算机确定待分类数据对应的分类结果后,可为待分类数据标注对应的标签,例如,经典计算机确定待分类数据属于第一类别,则为待分类数据标注第一标签;又例如,经典计算机确定待分类数据属于第二类别,则为待分类数据标注第二标签。可选地,第一标签表示为+1,第二标签表示为-1。
综上所述,本申请实施例提供的技术方案中,通过量子计算机根据分类器的边界向量、待分类数据的量子态和边界向量对应的索引信息的量子态,确定估算结果,从而使得经典计算机根据该估算结果确定待分类数据对应的分类结果。边界向量对应的索引信息的量子态是指分类器在训练过程中使用的训练数据的特征图中的叠加,本申请中的分类器不限于使用移位不变核对应的特征图,对特征空间没有限制,因此本申请中的分类器能够找到更优的特征空间对待分类数据进行分类,也即本申请得到的边界向量较为准确,分类器的分类精度较高,从而使得最终的分类结果更加准确。
另外,本申请实施例是通过量子计算机确定估算结果,量子计算机处理速度较快,保障了分类效率。
在示意性实施例中,如图4所示,上述步骤204可以由如下步骤替换实现:
步骤204a,量子计算机将边界向量中的各个第一向量元素与第一向量元素对应的索引信息的量子态的乘积之和,确定为第一量子态。
步骤204b,量子计算机计算第一量子态和待分类数据的量子态之间的内积,得到估算结果。
在可能的实现方式中,边界向量为经典计算机最后一次训练时得到的向量,第一向量元素与最后一次训练使用的工作集中包括的索引信息相关联,最后一次训练使用的工作集中包括该第一向量元素对应的索引信息。索引信息可以用c表示,索引信息是m维的二进制向量(m是指训练数据的数量)。
在可能的实现方式中,估算结果通过如下公式计算得到:
其中,αc是指边界向量中的第c个向量元素(第c个向量元素是指与c的十进制数大小对应位置处的向量元素,即第一向量元素),ψc是指第一向量元素对应的索引信息的量子态,φ(x)是指待分类数据的量子态。第一量子态表示为为了便于理解,下文边界向量中的向量元素的下标表示成十进制数,但应明白,该十进制数与索引信息是对应的。
可选地,|ψc>通过如下公式定义,βc(i)是一个m维向量,也可称之为概率幅。本申请实施例通过量子电路来实现特征映射,也就是说,对于每个输入向量,使用量子计算机通过量子电路将向量编码为一个或多个量子比特组成的量子态(或更高维的量子态,具体取决于量子计算机的物理实现)的概率幅。有关如何获得索引信息的量子态的详细介绍说明可参见下文实施例。
需要说明的是,上述公式中的ψc、φ(x)仅是为了使内积表达式更直观简洁,但其实质含义是指量子态,实际应表达成|ψc>、|φ(x)>,因此,在本申请实施例中,若无特殊情况,内积公式中的参数一般都是量子态。
示例性地,假设训练数据集中包括2个训练数据,即m为2,最后一次训练使用的工作集中包括如下索引信息:01、10、11,边界向量中的第1个向量元素表示成α1(α01),α1对应的索引信息为01,01的量子态表示成|ψ01>;边界向量中的第2个向量元素表示成α2(α10),α2对应的索引信息为10,10的量子态表示成|ψ10>;边界向量中的第3个向量元素表示成α3(α11),α3对应的索引信息为11,11的量子态表示成|ψ11>,则估算结果为α1<ψ01,φ(x)>+α2<ψ10,φ(x)>+α3<ψ11,φ(x)>。
在可能的实现方式中,量子计算机中包括QRAM,QRAM中存储有分类器的边界向量、m个训练数据以及与该边界向量对应的索引信息对应的目标参数。如图5所示,其示出了本申请另一个实施例提供的数据分类方法的示意图。经典计算机获取待分类数据,将待分类数据发送给QRAM。量子计算机通过量子电路对该待分类数据进行特征映射,得到待分类数据的量子态。量子计算机根据QRAM中存储的与该边界向量对应的索引信息对应的训练数据和目标参数,确定该边界向量对应的索引信息的量子态;根据QRAM中存储的分类器的边界向量、待分类数据的量子态、边界向量对应的索引信息的量子态,确定估算结果;将该估算结果发送给经典计算机。经典计算机根据该估算结果,确定待分类数据对应的分类结果。
本申请可以应用于任何分类场景,例如,本申请可以应用于字符识别场景、医疗影像场景、情感分析场景、分子和材料性质测试场景等,本申请实施例对具体的应用场景不作限定。
在一个示例中,待分类数据包括字符,分类结果包括字符对应的字符识别结果。
字符是指字母或数字。示例性地,字符是指手写字母或手写数字。字符识别结果用于指示字符是否与预设标准匹配,例如,字符识别结果用于指示字母是否是元音;又例如,字符识别结果用于指示数字是否大于5。本申请实施例可用于为手写样本进行分类,并给出字符识别结果。
在另一个示例中,待分类数据包括医学诊断图像,分类结果包括医学诊断图像对应的图像识别结果。
医学诊断图像是指患者拍摄的用于诊断是否患有疾病的图像,例如,医学诊断图像可以是X射线图像或MRI(Magnetic Resonance Imaging,磁共振成像)图像,图像识别结果用于指示患者是否患有疾病。本申请实施例可用于提高医疗诊断的准确性并给出合适的治疗方案。
在另一个示例中,待分类数据包括社交应用中的文本信息,分类结果包括文本信息对应的情绪识别结果。
社交应用中的文本信息包括:推文、社交媒体帖子等,情绪识别结果用于指示该文本信息表达的是积极情绪还是消极情绪。
在另一个示例中,待分类数据包括分子信息,分类结果包括分子信息对应的性质识别结果。
分子信息用于描述该分子,性质识别结果用于指示该分子是否具有预设特性,这在生物信息学、生物化学和药物设计中具有重要应用。
在另一个示例中,待分类数据包括材料信息,分类结果包括材料信息对应的性质识别结果。
材料信息用于描述该材料,性质识别结果用于指示该材料是否具有预设性质。例如,上述材料可以是磁性材料,此时,性质识别结果用于指示该材料是否具有磁性,或者磁性是否高于阈值水平。对于磁性材料性质预测,首先将材料信息建模为量子自旋组成的晶格并确定其对应的性质识别结果。本申请可以用来预测材料的磁性性质,这对先进材料设计具有重要应用。下面给出了本申请可以优于相关技术的一个具体分类问题的示例:考虑一个物理系统是基于N个量子自旋所组成的广义伊辛链,由以下哈密顿量HN描述:
其中,Zj、Xj是泡利运算符分别作用于链中的第j个量子自旋、Jj、Δj、Γj是实数的参数。这个分类问题中的每个待分类数据就是定义一条广义伊辛链所需的参赛:(Jj,Δj,Γj)。并且通过平均磁性平方大于还是小于某个临界值μ0来确定其分类结果或确定其标签。分类的任务就是给定一个待分类数据(Jj,Δj,Γj)然后预测该伊辛链是否带有磁性。
这类问题不仅从基本物理学的角度来看具有重要意义,而且对于具有某些所需特性的材料的设计和分析也具有潜在的意义。
请参考图6,其示出了本申请一个实施例提供的分类器训练方法的流程图。该方法可以包括如下几个步骤。
步骤601,经典计算机获取训练数据集。
在本申请实施例中,训练数据集包括m个训练数据以及训练数据对应的标准标签,m为正整数。可选地,标准标签用于指示标准分类结果,示例性地,标准标签用+1或-1表示,当标准标签为+1时,表明训练数据属于第一类别;当标准标签为-1时,表明训练数据属于第二类别。在可能的实现方式中,标准标签是由人工标注的。
步骤602,量子计算机计算工作集中每两个索引信息的量子态的内积,生成内积集合。
在本申请实施例中,工作集中包括至少两个索引信息,索引信息用于指示本次训练使用的训练数据,索引信息的量子态是指本次训练使用的训练数据的特征图的叠加。可选地,索引信息是长度为m的二进制向量。索引信息可以表示成c,索引信息的量子态可以表示成|ψc>,两个索引信息的量子态的内积可以表示成<ψc,ψc′>,其中,c和c’可以是两个不同的索引信息,也可以是两个相同的索引信息,工作集可以表示成W。
在本申请实施例中,量子计算机的主要作用是预估形式为<ψc,ψc′>的内积。
假设训练数据集中包括3个训练数据:训练数据1、训练数据2、训练数据3,工作集中包括如下索引信息:001、011和110,则001用于指示本次训练使用训练数据3、001的量子态|ψ001>是指训练数据3的特征图;011用于指示本次训练使用训练数据2和训练数据3、011的量子态|ψ011>是指训练数据2和训练数据3的特征图的叠加;110用于指示本次训练使用训练数据1和训练数据2、110的量子态|ψ110>是指训练数据1和训练数据2的特征图的叠加。
仍然以上述示例为例,量子计算机计算<ψ001,ψ011>、<ψ001,ψ110>、<ψ011,ψ110>,得到3个内积,生成内积集合。
量子计算机生成内积集合后,将该内积集合发送给经典计算机。在可能的实现方式中,量子计算机每生成一个内积,就发送给经典计算机。
步骤603,经典计算机根据内积集合,生成分类器的优化问题。
在示意性实施例中,经典计算机通过如下方式生成分类器的优化问题:经典计算机根据内积集合生成矩阵;将矩阵映射到半正定锥上,得到半正定矩阵;根据半正定矩阵和训练数据的数量m,生成分类器的优化问题。
可选地,根据两个索引信息的量子态的内积确定得到矩阵中的矩阵元素。仍然以上述示例为例进行介绍说明,经典计算机根据<ψ001,ψ011>可以确定矩阵中的第1行第3列的矩阵元素。示例性地,经典计算机对内积集合中的每一个内积进行求估算值处理,得到每一个内积对应的估算值;将上述每一个内积对应的估算值,确定为矩阵的矩阵元素。也即,矩阵元素Jcc’=Est(<ψc,ψc’>),其中,Jcc’表示第c行第c’列的矩阵元素(第c行是指与c的十进制数大小对应的行数,第c’列是指与c’的十进制数大小对应的列数),Est()表示估算值,即对<ψc,ψc’>进行多次运算后,取平均值。可选地,经典计算机将矩阵投影到最近的(相同维数的)半正定锥上,得到半正定矩阵。
可选地,分类器的优化问题通过如下式子表示:
其中,argmax()表示寻找具有最大评分的参量,上述公式是指在αc之和小于等于C的范围内寻找一个边界向量使得的值最大,α是指边界向量,αc是指边界向量中的第c个向量元素,αc′是指边界向量中的第c’个向量元素,是半正定矩阵中的第c行第c’列的矩阵元素,c是指索引信息,C是指惩罚因子,||c||1是指通过如下公式计算得到c的模:
步骤604,经典计算机根据分类器的优化问题对分类器进行训练,得到分类器的边界向量。
经典计算机求解分类器的优化问题,得到最优答案,也即得到分类器的边界向量。
本申请让量子计算机在不限于与移位不变核对应的特征图来对大数据集进行高效的数据分类,所需的训练时间与数据量成正比(只相差一个对数多项式的因子)。由于可以使用不限于与移位不变核对应的特征图来更准确地对数据进行分类,因此本申请实施例允许对更广泛的数据类型进行高效且准确的分类。
本申请通过将索引信息和数据的量子态进行结合来对数据进行分类,因为数据的量子态是与数据对应的,数据的量子态是各种不同特征图的表现,因此,本申请实施例不局限于移位不变核的特征图,对特征空间没有限制,因此更容易找到更优的特征空间,从而使得最终得到的分类器的结果更优,进而使得分类结果更准确。另外,通过索引信息进行分类可以简化计算量,进而保证训练效率。
综上所述,本申请实施例提供的技术方案中,通过经典计算机获取训练数据集;量子计算机计算工作集中每两个索引信息的量子态的内积,生成内积集合;经典计算机根据内积集合,生成分类器的优化问题,并根据该优化问题对分类器进行训练,得到分类器的边界向量。索引信息的量子态是指分类器在训练过程中使用的训练数据的特征图中的叠加,本申请中的分类器不限于使用移位不变核对应的特征图,对特征空间没有限制,因此本申请中的分类器能够找到更优的特征空间对待分类数据进行分类,也即本申请得到的边界向量较为准确,分类器的分类精度较高,从而使得最终的分类结果更加准确。
另外,本申请实施例中通过量子计算机计算内积,量子计算机处理速度较快,保障了分类效率。本申请所需的分类器训练时间与训练数据的数量m成正比(只相差一个对数多项式的因子)。以分类器为SVM为例,本申请实施例中的SVM训练时间与相关技术中的SVM训练时间的对比可参见表1。
表1
其中,相关技术中的经典SVM训练方法是指仅使用经典计算机在标准(非简化)SVM中使用不需要与移位不变核对应的特征图进行分类的方法,相关技术中的量子SVM训练方法是指使用经典计算机和量子计算机在标准(非简化)SVM中使用不需要与移位不变核对应的特征图进行分类的方法。m是指训练过程中使用的训练数据的数量。是指训练时间(运行时间)与m成正比(最多相差一个对数多项式的因子),Ω(m3)是指训练时间与m的立方成正比,也可以称之为时间复杂度与m的立方成正比。由表1可以看出,当训练数据的数量(简称数据量)较大时,本申请实施例所需的训练时间也较小。
以分类器为SVM、分类问题为上述实施例中介绍的广义伊辛链(N=6,Γj=Γ,J、kJ、Δ、kΔ都是实数)为例进行介绍说明,经典数值模拟表明,本申请可以在很大范围的数据量上胜过相关技术中的SVM训练方法,如表2所示,其示出了在不同数据量下本申请与相关技术在分类精度上的差别,由此可以看出,本申请的分类精度在很大程度上优于相关技术中的分类精度。
表2
m(数据量) | 10<sup>2</sup> | 10<sup>3</sup> | 10<sup>4</sup> |
分类精度%(本申请) | 93.3 | 99.3 | 99.0 |
分类精度%(相关技术) | 86.7 | 96.0 | 99.0 |
在示意性实施例中,如图7所示,上述步骤602可以由如下几个步骤替换实现:
步骤602a,经典计算机从工作集中选择第一索引信息和第二索引信息。
第一索引信息是工作集中的任意一个索引信息,第二索引信息是工作集中的任意一个索引信息,第一索引信息不同于第二索引信息。仍然以上述示例为例,假设工作集中包括如下索引信息:001、011和110,则第一索引信息可以是011,第二索引信息可以是110。
步骤602b,经典计算机将m个训练数据发送给QRAM。
在本申请实施例中,第一索引信息用于指示本次训练使用第一训练数据,第二索引信息用于指示本次训练使用第二训练数据。仍然以上述示例为例,当第一索引信息是011时,第一训练数据包括训练数据2和训练数据3;当第二索引信息是110时,第二训练数据包括训练数据1和训练数据2。
在可能的实现方式中,量子计算机包括上述QRAM,则经典计算机将上述m个训练数据发送给量子计算机中的QRAM。
需要说明的是,经典计算机可以先执行步骤602b,再执行步骤602a;也可以先执行步骤602a,再执行步骤602b,本申请实施例对步骤602a和步骤602b的执行顺序不作限定。
步骤602c,量子计算机根据第一索引信息从QRAM存储的m个训练数据中确定第一训练数据,根据第二索引信息从QRAM存储的m个训练数据中确定第二训练数据。
步骤602d,量子计算机根据第一训练数据、第二训练数据、第一索引信息和第二索引信息,生成第一索引信息的量子态和第二索引信息的量子态之间的内积。
第一索引信息的量子态是指第一训练数据的特征图的叠加,第二索引信息的量子态是指第二训练数据的特征图的叠加。
可选地,步骤602d包括如下几个子步骤:
1、量子计算机根据第一训练数据和第一索引信息,生成第一索引信息的量子态。
可选地,此步骤包括如下几个子步骤:
1.1、经典计算机根据第一索引信息、第一训练数据对应的标准标签、训练数据的数量m和预设常数,计算得到目标参数。
在可能的实现方式中,目标参数表示成其中,ci表示第一索引信息中的第i个元素、yi表示第i个训练数据对应的标准标签、Ai是预设常数,可选地,Ai是用户定义的非负值,其目的是为了保证计算的稳定性。不同的i对应的Ai可能相同也可能不同。
1.2、经典计算机将目标参数发送给QRAM。
在可能的实现方式中,经典计算机将训练数据集中的m个训练数据以及工作集中的所有索引信息对应的目标参数都发送给QRAM。
1.3、量子计算机通过量子电路对第一训练数据进行特征映射,得到第一训练数据的量子态。
在可能的实现方式中,当第一训练数据包括多个训练数据时,量子计算机通过量子电路对上述多个训练数据分别进行特征映射,得到该多个训练数据各自的量子态。当然,在可能的实现方式中,量子计算机通过量子电路对上述多个训练数据并行进行特征映射,得到该多个训练数据各自的量子态。训练数据的量子态的生成方式与待分类数据的量子态的生成方式类似,有关生成训练数据的量子态的介绍说明可参见上文对待分类数据的量子态的生成方式的介绍说明,此处不再赘述。
1.4、根据第一训练数据的量子态和目标参数,确定第一索引信息的量子态。
在可能的实现方式中,第一索引信息的量子态通过如下公式确定:
其中,φ(xi)表示第i个训练数据的特征图,|φ(xi)>表示第i个训练数据的量子态。
2、量子计算机根据第二训练数据和第二索引信息,生成第二索引信息的量子态。
第二索引信息的量子态的生成方式与第一索引信息的量子态的生成方式相似,有关第二索引信息的量子态的生成方式的介绍说明可参见上文对第一索引信息的量子态的生成方式的介绍说明,此处不再赘述。
3、量子计算机生成第一索引信息的量子态和第二索引信息的量子态之间的内积。
需要说明的是,工作集中每两个索引信息的量子态的内积的计算方式,与第一索引信息的量子态和第二索引信息的量子态之间的内积的计算方式一致。
在示意性实施例中,分类器在每次训练过程中会更新工作集,从而使得每次训练使用的训练数据不一样,上述分类器训练方法还包括如下步骤。
第一、在分类器的第t次训练中,经典计算机确定分类器的初始边界向量,t为正整数。
在本申请实施例中,初始边界向量是分类器的优化问题的初始答案,是指没有完成训练时的分类器的边界向量。经典计算机在每次训练中,都会得到该次训练对应的初始边界向量,例如,经典计算机在t次训练中,会得到该t次训练对应的初始边界向量。
第二、经典计算机将初始边界向量提供给量子计算机。
可选地,经典计算机将该初始边界向量存储在QRAM中。量子计算机从该QRAM中获取初始边界向量。
第三、量子计算机根据第t次训练中各轮循环过程的训练数据的量子态、初始边界向量和第t次训练使用的工作集中的索引信息的量子态,确定第t次训练中各轮循环过程的预测估算结果。
可选地,此步骤包括如下几个子步骤:
1、量子计算机将初始边界向量中的各个第二向量元素与第t次训练使用的工作集中第二向量元素对应的索引信息的量子态的乘积之和,确定为第二量子态。
2、量子计算机计算第二量子态和第t次训练中各轮循环过程的训练数据的量子态之间的内积,得到第t次训练中各轮循环过程的预测估算结果。
第t次训练中的第i轮循环过程的预测估算结果可以通过如下公式确定:
∑c∈Wαc<ψc,φ(xi)>;
示例性地,对于第t次训练中的第1轮循环过程,假设第t次训练使用的工作集中包括如下索引信息:01、10、11,01代表1、10代表2、11代表3,则第二向量元素为初始边界向量中的第1个、第2个和第3个向量元素,第1轮循环过程的预测估算结果可以通过如下式子α1<ψ01,φ(x1)>+α2<ψ10,φ(x1)>+α3<ψ11,φ(x1)>计算得到。
第四、经典计算机根据第t次训练中各轮循环过程的预测估算结果,生成新增的索引信息。
在一个示例中,响应于第t次训练中的第i轮循环过程的预测估算结果小于预设阈值,经典计算机确定新增的索引信息中第i位元素为1。
在另一个示例中,响应于第t次训练中的第i轮循环过程的预测估算结果大于等于预设阈值,经典计算机确定新增的索引信息中第i位元素为0;其中,i为正整数。
在可能的实现方式中,预设阈值为1,当第t次训练中的第i轮循环过程的预测估算结果小于1时,经典计算机确定新增的索引信息中第i位元素为1;当第t次训练中的第i轮循环过程的预测估算结果大于等于1时,经典计算机确定新增的索引信息中第i位元素为0。
仍然以上述示例为例,假设训练数据集中包括3个训练数据,则每次训练中包括3轮循环过程:第1轮循环过程的预测估算结果为1.1,则新增的索引信息中第1位元素为0;第2轮循环过程的预测估算结果为0.6,则新增的索引信息中第2位元素为1;第3轮循环过程的预测估算结果为0.8,则新增的索引信息中第3位元素为1,即新增的索引信息为011。
第五、经典计算机将新增的索引信息添加至工作集中。
在本申请实施例中,更新后的工作集用于进行分类器的下一次训练。可选地,经典计算机在确定新增的索引信息后,将该新增的索引信息对应的目标参数发送给QRAM,以便量子计算机从QRAM中获取上述新增的索引信息对应的训练数据和该新增的索引信息对应的目标参数。
仍然以上述示例为例,经典计算机将011添加至工作集中,并将更新后的工作集用于进行分类器的第t+1次训练。在可能的实现方式中,当训练次数达到预设次数时,经典计算机停止训练,并将最后一次训练得到的边界向量,确定为分类器的边界向量。
在可能的实现方式中,如图8所示,其示出了本申请另一个实施例提供的分类器分类方法的示意图。量子计算机中包括QRAM。
经典计算机获取训练数据集,训练数据集中包括m个训练数据以及该训练数据对应的标准标签。经典计算机初始化工作集,工作集中包括至少一个索引信息,即经典计算机从工作集中随机选取索引信息,并将该索引信息对应的目标参数和m个训练数据发送给QRAM。
量子计算机根据存储在QRAM中的数据计算工作集中每两个索引信息的量子态的内积,生成内积集合。
经典计算机根据内积集合,生成矩阵,并将该矩阵映射到半正定锥上,得到半正定矩阵;根据半正定矩阵和训练数据的数量,生成分类器的优化问题,并处理该优化问题,将得到的初始边界向量发送给QRAM。
量子计算机根据存储在QRAM中的数据和初始边界向量,确定预测估算结果。
经典计算机根据该预测估算结果,更新工作集。并检测是否满足结束训练条件,当满足结束条件时,将最终的分类器(边界向量)输出至QRAM;当不满足结束条件时,将新增的索引信息对应的训练数据存储在QRAM中,并再次进行训练。
下述为本申请系统实施例,对于本申请系统实施例中未披露的细节,请参照本申请方法实施例。
请参考图9,其示出了本申请一个实施例提供的数据分类系统的示意图。该系统900包括:经典计算机910和量子计算机920。
所述经典计算机910,用于获取待分类数据;将所述待分类数据提供给所述量子计算机。
所述量子计算机920,用于通过量子电路对所述待分类数据进行特征映射,得到所述待分类数据的量子态;根据分类器的边界向量、所述待分类数据的量子态和所述边界向量对应的索引信息的量子态,确定估算结果;将所述估算结果发送给所述经典计算机910;其中,所述边界向量对应的索引信息的量子态是指所述分类器在训练过程中使用的训练数据的特征图的叠加。
所述经典计算机910,还用于根据所述估算结果,确定所述待分类数据对应的分类结果。
在示例性实施例中,所述量子计算机920,用于将所述边界向量中的各个第一向量元素与所述第一向量元素对应的索引信息的量子态的乘积之和,确定为第一量子态;
所述量子计算机920,用于计算所述第一量子态和所述待分类数据的量子态之间的内积,得到所述估算结果。
在示意性实施例中,所述量子计算机920,用于通过所述量子电路根据所述待分类数据的特征图中的各个特征值和所述特征值对应的量子态的乘积之和,确定所述待分类数据的量子态。
在示意性实施例中,响应于所述估算结果为正值,所述经典计算机910,用于确定所述待分类数据属于第一类别;
响应于所述估算结果为负值,所述经典计算机910,用于确定所述待分类数据属于第二类别。
在示意性实施例中,所述待分类数据包括字符,所述分类结果包括所述字符对应的字符识别结果;
或者,
所述待分类数据包括医学诊断图像,所述分类结果包括所述医学诊断图像对应的图像识别结果;
或者,
所述待分类数据包括社交应用中的文本信息,所述分类结果包括所述文本信息对应的情绪识别结果;
或者,
所述待分类数据包括分子信息,所述分类结果包括所述分子信息对应的性质识别结果;
或者,
所述待分类数据包括材料信息,所述分类结果包括所述材料信息对应的性质识别结果。
综上所述,本申请实施例提供的技术方案中,通过量子计算机根据分类器的边界向量、待分类数据的量子态和边界向量对应的索引信息的量子态,确定估算结果,从而使得经典计算机根据该估算结果确定待分类数据对应的分类结果。边界向量对应的索引信息的量子态是指分类器在训练过程中使用的训练数据的特征图中的叠加,本申请中的分类器不限于使用移位不变核对应的特征图,对特征空间没有限制,因此本申请中的分类器能够找到更优的特征空间对待分类数据进行分类,也即本申请得到的边界向量较为准确,分类器的分类精度较高,从而使得最终的分类结果更加准确。
请参考图10,其示出了本申请一个实施例提供的分类器训练系统的示意图,该系统1000包括:经典计算机1010和量子计算机1020。
所述经典计算机1010,用于获取训练数据集,所述训练数据集包括m个训练数据以及所述训练数据对应的标准标签,所述m为正整数。
所述量子计算机1020,用于计算工作集中每两个索引信息的量子态的内积,生成内积集合;其中,所述工作集中包括至少两个索引信息,所述索引信息用于指示本次训练使用的训练数据,所述索引信息的量子态是指所述本次训练使用的训练数据的特征图的叠加。
所述经典计算机1010,还用于根据所述内积集合,生成分类器的优化问题;根据所述分类器的优化问题对所述分类器进行训练,得到所述分类器的边界向量。
在示意性实施例中,所述经典计算机1010,用于从所述工作集中选择第一索引信息和第二索引信息;将所述m个训练数据发送给量子随机存取存储器QRAM;
所述量子计算机1020,用于根据所述第一索引信息从所述QRAM存储的所述m个训练数据中确定第一训练数据,根据所述第二索引信息从所述QRAM存储的所述m个训练数据中确定第二训练数据;根据所述第一训练数据、所述第二训练数据、所述第一索引信息和所述第二索引信息,生成所述第一索引信息的量子态和所述第二索引信息的量子态之间的内积;其中,所述第一索引信息用于指示本次训练使用所述第一训练数据,所述第二索引信息用于指示本次训练使用所述第二训练数据。
在示意性实施例中,所述量子计算机1020,用于根据所述第一训练数据和所述第一索引信息,生成所述第一索引信息的量子态;
所述量子计算机1020,用于根据所述第二训练数据和所述第二索引信息,生成所述第二索引信息的量子态;
所述量子计算机1020,用于生成所述第一索引信息的量子态和所述第二索引信息的量子态之间的内积。
在示意性实施例中,所述经典计算机1010,用于根据所述第一索引信息、所述第一训练数据对应的标准标签、所述训练数据的数量m和预设常数,计算得到目标参数;将所述目标参数发送给所述QRAM;
所述量子计算机1020,用于通过量子电路对所述第一训练数据进行特征映射,得到所述第一训练数据的量子态;根据所述第一训练数据的量子态和所述目标参数,确定所述第一索引信息的量子态。
在示意性实施例中,所述经典计算机1010,用于根据所述内积集合生成矩阵;将所述矩阵映射到半正定锥上,得到半正定矩阵;
所述经典计算机1010,还用于根据所述半正定矩阵和所述训练数据的数量m,生成所述分类器的优化问题。
在示意性实施例中,在所述分类器的第t次训练中,所述经典计算机1010,还用于确定所述分类器的初始边界向量;将所述初始边界向量提供给所述量子计算机,所述t为正整数,所述初始边界向量是所述分类器的优化问题的初始答案;
所述量子计算机1020,还用于根据所述第t次训练中各轮循环过程的训练数据的量子态、所述初始边界向量和所述第t次训练使用的工作集中的索引信息的量子态,确定所述第t次训练中各轮循环过程的预测估算结果;
所述经典计算机1010,还用于根据所述第t次训练中各轮循环过程的预测估算结果,生成新增的索引信息;将所述新增的索引信息添加至所述工作集中;其中,更新后的工作集用于进行所述分类器的下一次训练。
在示意性实施例中,所述量子计算机1020,用于将所述初始边界向量中的各个第二向量元素与所述第t次训练使用的工作集中所述第二向量元素对应的索引信息的量子态的乘积之和,确定为第二量子态;
所述量子计算机1020,用于计算所述第二量子态和所述第t次训练中各轮循环过程的训练数据的量子态之间的内积,得到所述第t次训练中各轮循环过程的预测估算结果。
在示意性实施例中,响应于所述第t次训练中的第i轮循环过程的预测估算结果小于预设阈值,所述经典计算机1010,用于确定所述新增的索引信息中第i位元素为1;
响应于所述第t次训练中的第i轮循环过程的预测估算结果大于等于所述预设阈值,所述经典计算机1010,用于确定所述新增的索引信息中第i位元素为0;
其中,所述i为正整数。
综上所述,本申请实施例提供的技术方案中,通过经典计算机获取训练数据集;量子计算机计算工作集中每两个索引信息的量子态的内积,生成内积集合;经典计算机根据内积集合,生成分类器的优化问题,并根据该优化问题对分类器进行训练,得到分类器的边界向量。索引信息的量子态是指分类器在训练过程中使用的训练数据的特征图中的叠加,本申请中的分类器不限于使用移位不变核对应的特征图,对特征空间没有限制,因此本申请中的分类器能够找到更优的特征空间对待分类数据进行分类,也即本申请得到的边界向量较为准确,分类器的分类精度较高,从而使得最终的分类结果更加准确。
需要说明的是,上述实施例提供的系统与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (12)
1.一种数据分类方法,其特征在于,所述方法包括:
经典计算机获取待分类数据;将所述待分类数据提供给量子计算机;
所述量子计算机通过量子电路对所述待分类数据进行特征映射,得到所述待分类数据的量子态;将分类器的边界向量中的各个第一向量元素与所述第一向量元素对应的索引信息的量子态的乘积之和,确定为第一量子态,所述索引信息用于指示本次训练使用的训练数据,所述第一向量元素是指所述边界向量中的第c个向量元素,c为所述索引信息;计算所述第一量子态和所述待分类数据的量子态之间的内积,得到估算结果;将所述估算结果发送给所述经典计算机;其中,所述第一向量元素对应的索引信息的量子态是指所述分类器在训练过程中使用的训练数据的特征图的叠加;
所述经典计算机根据所述估算结果,确定所述待分类数据对应的分类结果。
2.根据权利要求1所述的方法,其特征在于,所述量子计算机通过量子电路对所述待分类数据进行特征映射,得到所述待分类数据的量子态,包括:
所述量子计算机通过所述量子电路根据所述待分类数据的特征图中的各个特征值和所述特征值对应的量子态的乘积之和,确定所述待分类数据的量子态。
3.根据权利要求1所述的方法,其特征在于,所述经典计算机根据所述估算结果,确定所述待分类数据对应的分类结果,包括:
响应于所述估算结果为正值,所述经典计算机确定所述待分类数据属于第一类别;
响应于所述估算结果为负值,所述经典计算机确定所述待分类数据属于第二类别。
4.根据权利要求1至3任一项所述的方法,其特征在于,
所述待分类数据包括字符,所述分类结果包括所述字符对应的字符识别结果;
或者,
所述待分类数据包括医学诊断图像,所述分类结果包括所述医学诊断图像对应的图像识别结果;
或者,
所述待分类数据包括社交应用中的文本信息,所述分类结果包括所述文本信息对应的情绪识别结果;
或者,
所述待分类数据包括分子信息,所述分类结果包括所述分子信息对应的性质识别结果;
或者,
所述待分类数据包括材料信息,所述分类结果包括所述材料信息对应的性质识别结果。
5.一种分类器训练方法,其特征在于,所述方法包括:
经典计算机获取训练数据集,所述训练数据集包括m个训练数据以及所述训练数据对应的标准标签,所述m为正整数;
量子计算机计算工作集中每两个索引信息的量子态的内积,生成内积集合;其中,所述工作集中包括至少两个索引信息,所述索引信息用于指示本次训练使用的训练数据,所述索引信息的量子态是指所述本次训练使用的训练数据的特征图的叠加;
所述经典计算机根据所述内积集合生成矩阵;将所述矩阵映射到半正定锥上,得到半正定矩阵;根据所述半正定矩阵和所述训练数据的数量m,生成分类器的优化问题;在所述分类器的第t次训练中,确定所述分类器的初始边界向量;将所述初始边界向量提供给所述量子计算机,所述t为正整数,所述初始边界向量是所述分类器的优化问题的初始答案;
所述量子计算机根据所述第t次训练中各轮循环过程的训练数据的量子态、所述初始边界向量和所述第t次训练使用的工作集中的索引信息的量子态,确定所述第t次训练中各轮循环过程的预测估算结果;
所述经典计算机根据所述第t次训练中各轮循环过程的预测估算结果,生成新增的索引信息;将所述新增的索引信息添加至所述工作集中;其中,更新后的工作集用于进行所述分类器的下一次训练。
6.根据权利要求5所述的方法,其特征在于,所述量子计算机计算工作集中每两个索引信息的量子态的内积,生成内积集合,包括:
所述经典计算机从所述工作集中选择第一索引信息和第二索引信息;将所述m个训练数据发送给量子随机存取存储器QRAM;
所述量子计算机根据所述第一索引信息从所述QRAM存储的所述m个训练数据中确定第一训练数据,根据所述第二索引信息从所述QRAM存储的所述m个训练数据中确定第二训练数据;根据所述第一训练数据、所述第二训练数据、所述第一索引信息和所述第二索引信息,生成所述第一索引信息的量子态和所述第二索引信息的量子态之间的内积;其中,所述第一索引信息用于指示本次训练使用所述第一训练数据,所述第二索引信息用于指示本次训练使用所述第二训练数据。
7.根据权利要求6所述的方法,其特征在于,所述量子计算机根据所述第一训练数据、所述第二训练数据、所述第一索引信息和所述第二索引信息,生成所述第一索引信息的量子态和所述第二索引信息的量子态之间的内积,包括:
所述量子计算机根据所述第一训练数据和所述第一索引信息,生成所述第一索引信息的量子态;
所述量子计算机根据所述第二训练数据和所述第二索引信息,生成所述第二索引信息的量子态;
所述量子计算机生成所述第一索引信息的量子态和所述第二索引信息的量子态之间的内积。
8.根据权利要求7所述的方法,其特征在于,所述量子计算机根据所述第一训练数据和所述第一索引信息,生成所述第一索引信息的量子态,包括:
所述经典计算机根据所述第一索引信息、所述第一训练数据对应的标准标签、所述训练数据的数量m和预设常数,计算得到目标参数;将所述目标参数发送给所述QRAM;
所述量子计算机通过量子电路对所述第一训练数据进行特征映射,得到所述第一训练数据的量子态;根据所述第一训练数据的量子态和所述目标参数,确定所述第一索引信息的量子态。
9.根据权利要求5所述的方法,其特征在于,所述量子计算机根据所述第t次训练中各轮循环过程的训练数据的量子态、所述初始边界向量和所述第t次训练使用的工作集中的索引信息的量子态,确定所述第t次训练中各轮循环过程的预测估算结果,包括:
所述量子计算机将所述初始边界向量中的各个第二向量元素与所述第t次训练使用的工作集中所述第二向量元素对应的索引信息的量子态的乘积之和,确定为第二量子态;
所述量子计算机计算所述第二量子态和所述第t次训练中各轮循环过程的训练数据的量子态之间的内积,得到所述第t次训练中各轮循环过程的预测估算结果。
10.根据权利要求5所述的方法,其特征在于,所述经典计算机根据所述第t次训练中各轮循环过程的预测估算结果,生成新增的索引信息,包括:
响应于所述第t次训练中的第i轮循环过程的预测估算结果小于预设阈值,所述经典计算机确定所述新增的索引信息中第i位元素为1;
响应于所述第t次训练中的第i轮循环过程的预测估算结果大于等于所述预设阈值,所述经典计算机确定所述新增的索引信息中第i位元素为0;
其中,所述i为正整数。
11.一种数据分类系统,其特征在于,所述系统包括:经典计算机和量子计算机;
所述经典计算机,用于获取待分类数据;将所述待分类数据提供给所述量子计算机;
所述量子计算机,用于通过量子电路对所述待分类数据进行特征映射,得到所述待分类数据的量子态;将分类器的边界向量中的各个第一向量元素与所述第一向量元素对应的索引信息的量子态的乘积之和,确定为第一量子态,所述索引信息用于指示本次训练使用的训练数据,所述第一向量元素是指所述边界向量中的第c个向量元素,c为所述索引信息;计算所述第一量子态和所述待分类数据的量子态之间的内积,得到估算结果;将所述估算结果发送给所述经典计算机;其中,所述第一向量元素对应的索引信息的量子态是指所述分类器在训练过程中使用的训练数据的特征图的叠加;
所述经典计算机,还用于根据所述估算结果,确定所述待分类数据对应的分类结果。
12.一种分类器训练系统,其特征在于,所述系统包括:经典计算机和量子计算机;
所述经典计算机,用于获取训练数据集,所述训练数据集包括m个训练数据以及所述训练数据对应的标准标签,所述m为正整数;
所述量子计算机,用于计算工作集中每两个索引信息的量子态的内积,生成内积集合;其中,所述工作集中包括至少两个索引信息,所述索引信息用于指示本次训练使用的训练数据,所述索引信息的量子态是指所述本次训练使用的训练数据的特征图的叠加;
所述经典计算机,还用于根据所述内积集合生成矩阵;将所述矩阵映射到半正定锥上,得到半正定矩阵;根据所述半正定矩阵和所述训练数据的数量m,生成分类器的优化问题;在所述分类器的第t次训练中,确定所述分类器的初始边界向量;将所述初始边界向量提供给所述量子计算机,所述t为正整数,所述初始边界向量是所述分类器的优化问题的初始答案;
所述量子计算机根据所述第t次训练中各轮循环过程的训练数据的量子态、所述初始边界向量和所述第t次训练使用的工作集中的索引信息的量子态,确定所述第t次训练中各轮循环过程的预测估算结果;
所述经典计算机根据所述第t次训练中各轮循环过程的预测估算结果,生成新增的索引信息;将所述新增的索引信息添加至所述工作集中;其中,更新后的工作集用于进行所述分类器的下一次训练。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010446946.6A CN112651418B (zh) | 2020-05-25 | 2020-05-25 | 数据分类方法、分类器训练方法及系统 |
EP21759226.0A EP3944149A4 (en) | 2020-05-25 | 2021-01-25 | DATA CLASSIFICATION METHODS AND METHODS AND SYSTEM FOR TRAINING CLASSIFIERS |
KR1020217028002A KR102618916B1 (ko) | 2020-05-25 | 2021-01-25 | 데이터 분류 방법 및 시스템, 그리고 분류기 트레이닝 방법 및 시스템 |
PCT/CN2021/073645 WO2021238279A1 (zh) | 2020-05-25 | 2021-01-25 | 数据分类方法、分类器训练方法及系统 |
JP2021553843A JP7293387B2 (ja) | 2020-05-25 | 2021-01-25 | データ分類方法、分類器訓練方法及びシステム |
US17/476,754 US20220058435A1 (en) | 2020-05-25 | 2021-09-16 | Data classification method and system, and classifier training method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010446946.6A CN112651418B (zh) | 2020-05-25 | 2020-05-25 | 数据分类方法、分类器训练方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112651418A CN112651418A (zh) | 2021-04-13 |
CN112651418B true CN112651418B (zh) | 2022-03-08 |
Family
ID=75346257
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010446946.6A Active CN112651418B (zh) | 2020-05-25 | 2020-05-25 | 数据分类方法、分类器训练方法及系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220058435A1 (zh) |
EP (1) | EP3944149A4 (zh) |
JP (1) | JP7293387B2 (zh) |
KR (1) | KR102618916B1 (zh) |
CN (1) | CN112651418B (zh) |
WO (1) | WO2021238279A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023125857A1 (zh) * | 2021-12-30 | 2023-07-06 | 本源量子计算科技(合肥)股份有限公司 | 基于机器学习框架系统的模型训练方法及相关设备 |
CN114372539B (zh) * | 2022-03-22 | 2022-07-15 | 合肥本源量子计算科技有限责任公司 | 基于机器学习框架的分类方法及相关设备 |
CN114419380A (zh) * | 2022-03-31 | 2022-04-29 | 苏州浪潮智能科技有限公司 | 一种图像识别方法、装置及电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504601A (zh) * | 2015-01-15 | 2015-04-08 | 曹东 | 基于ctp金融数据的量子信息特征提取方法 |
CN108921049A (zh) * | 2018-06-14 | 2018-11-30 | 华东交通大学 | 基于量子门线路神经网络的肿瘤细胞图像识别装置及设备 |
CN109242223A (zh) * | 2018-11-26 | 2019-01-18 | 武汉理工光科股份有限公司 | 城市公共建筑火灾风险的量子支持向量机评估与预测方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7448724B2 (en) * | 2005-12-05 | 2008-11-11 | Silverbrook Research Pty Ltd | Method of maintaining a printhead using a maintenance belt |
US7895142B2 (en) * | 2007-09-27 | 2011-02-22 | Siemens Aktiengesellschaft | Method and apparatus for quantum adiabatic pattern recognition |
EP3227837A1 (en) * | 2014-12-05 | 2017-10-11 | Microsoft Technology Licensing, LLC | Quantum deep learning |
CN106650808A (zh) * | 2016-12-20 | 2017-05-10 | 北京工业大学 | 一种基于量子近邻算法的图像分类方法 |
CN107092931B (zh) * | 2017-04-24 | 2020-07-03 | 河北工业大学 | 一种奶牛个体识别的方法 |
GB201801627D0 (en) * | 2018-02-01 | 2018-03-21 | Siemens Healthcare Ltd | Image autoencoding for quantum machine learning |
US11748665B2 (en) * | 2019-04-03 | 2023-09-05 | International Business Machines Corporation | Quantum feature kernel alignment |
US11906309B2 (en) * | 2019-09-27 | 2024-02-20 | Here Global B.V. | Method and apparatus for providing a map matcher tolerant to wrong map features |
CN110909796B (zh) * | 2019-11-22 | 2022-05-17 | 浪潮电子信息产业股份有限公司 | 一种图像分类方法及相关装置 |
CN111079704A (zh) * | 2019-12-31 | 2020-04-28 | 厦门理工学院 | 一种基于量子计算的人脸识别方法及装置 |
-
2020
- 2020-05-25 CN CN202010446946.6A patent/CN112651418B/zh active Active
-
2021
- 2021-01-25 WO PCT/CN2021/073645 patent/WO2021238279A1/zh unknown
- 2021-01-25 KR KR1020217028002A patent/KR102618916B1/ko active IP Right Grant
- 2021-01-25 EP EP21759226.0A patent/EP3944149A4/en active Pending
- 2021-01-25 JP JP2021553843A patent/JP7293387B2/ja active Active
- 2021-09-16 US US17/476,754 patent/US20220058435A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104504601A (zh) * | 2015-01-15 | 2015-04-08 | 曹东 | 基于ctp金融数据的量子信息特征提取方法 |
CN108921049A (zh) * | 2018-06-14 | 2018-11-30 | 华东交通大学 | 基于量子门线路神经网络的肿瘤细胞图像识别装置及设备 |
CN109242223A (zh) * | 2018-11-26 | 2019-01-18 | 武汉理工光科股份有限公司 | 城市公共建筑火灾风险的量子支持向量机评估与预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112651418A (zh) | 2021-04-13 |
KR20210148095A (ko) | 2021-12-07 |
EP3944149A1 (en) | 2022-01-26 |
JP2022537618A (ja) | 2022-08-29 |
WO2021238279A1 (zh) | 2021-12-02 |
KR102618916B1 (ko) | 2023-12-27 |
JP7293387B2 (ja) | 2023-06-19 |
US20220058435A1 (en) | 2022-02-24 |
EP3944149A4 (en) | 2022-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112651418B (zh) | 数据分类方法、分类器训练方法及系统 | |
JP2015506026A (ja) | 画像分類 | |
US11580376B2 (en) | Electronic apparatus and method for optimizing trained model | |
US20210342701A1 (en) | Deep learning based visual compatibility prediction for bundle recommendations | |
CN112016546A (zh) | 一种文本区域的定位方法及装置 | |
US11568212B2 (en) | Techniques for understanding how trained neural networks operate | |
CN115244587A (zh) | 高效基础事实注释 | |
Devi et al. | A Comparative Study on Handwritten Digit Recognizer using Machine Learning Technique | |
Johnston et al. | Applied Unsupervised Learning with Python: Discover hidden patterns and relationships in unstructured data with Python | |
Sreela et al. | Action recognition in still images using residual neural network features | |
JP2021051589A5 (zh) | ||
WO2022226940A1 (en) | Method and system for generating task-relevant structural embeddings from molecular graphs | |
WO2023093372A1 (zh) | 生成文本的方法和装置 | |
CN114417161A (zh) | 基于异构图的虚拟物品时序推荐方法、装置、介质及设备 | |
JP7067634B2 (ja) | ロバスト学習装置、ロバスト学習方法およびロバスト学習プログラム | |
Burduk et al. | The use of geometric mean in the process of integration of three base classifiers | |
Dayan et al. | Expressivity of Geometric Inhomogeneous Random Graphs--Metric and Non-Metric | |
US20220398833A1 (en) | Information processing device, learning method, and recording medium | |
JP2019074946A (ja) | 異種データ深層学習装置、異種データ深層学習方法、および異種データ深層学習プログラム | |
US20230077998A1 (en) | Systems and Methods for Smart Instance Selection | |
Burduk et al. | Integration of linear SVM classifiers in geometric space using the median | |
Goel et al. | Hybrid Swarm Intelligence Algorithm for Detection of Health of an Apple | |
Bajaj | An Empirical Comparison of Different Machine | |
Robinson | Interpretable visualizations with differentiating embedding networks | |
Kiesecker | Exploring the Capability of a Self-Supervised Conditional Image Generator for Image-to-Image Translation Without Labeled Data: A Case Study in Mobile User Interface Design |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40041561 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |