CN113326885A - 训练分类模型和数据分类的方法及装置 - Google Patents

训练分类模型和数据分类的方法及装置 Download PDF

Info

Publication number
CN113326885A
CN113326885A CN202110664724.6A CN202110664724A CN113326885A CN 113326885 A CN113326885 A CN 113326885A CN 202110664724 A CN202110664724 A CN 202110664724A CN 113326885 A CN113326885 A CN 113326885A
Authority
CN
China
Prior art keywords
classification
layer
prediction
classification layer
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110664724.6A
Other languages
English (en)
Inventor
王卡风
须成忠
熊昊一
李兴建
窦德景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Key Laboratory Of Smart City Internet Of Things University Of Macao
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
State Key Laboratory Of Smart City Internet Of Things University Of Macao
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Key Laboratory Of Smart City Internet Of Things University Of Macao, Beijing Baidu Netcom Science and Technology Co Ltd filed Critical State Key Laboratory Of Smart City Internet Of Things University Of Macao
Priority to CN202110664724.6A priority Critical patent/CN113326885A/zh
Publication of CN113326885A publication Critical patent/CN113326885A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了训练分类模型和数据分类的方法及装置,涉及人工智能领域,具体涉及计算机视觉和深度学习技术,具体可用于智能交通场景下。具体实现方案为:获取样本集和预先训练的分类模型,其中,分类模型包括至少两个卷积层,每个卷积层通过一个全连接层和一个分类层连接;将样本集输入分类模型,得到每个分类层输出的预测结果,其中,预测结果包括每个样本所属类别的预测概率;基于每个分类层输出的预测结果计算每个分类层的概率阈值;根据每个分类层的概率阈值设置分类模型的停止预测条件。从而可实现根据数据识别的难易程度选择不同层的分类模型进行预测,在保证准确率的同时降低了预测时间,提高了预测速度。

Description

训练分类模型和数据分类的方法及装置
技术领域
本公开人工智能领域,具体涉及计算机视觉和深度学习技术,具体可用于智能交通场景下,尤其涉及训练分类模型和数据分类的方法及装置。
背景技术
随着人工智能技术的不断发展,深度学习技术被广泛应用于数据分析与处理中,成为了工作和生活中必不可少的数据处理方法。
现有的分类模型不论数据是否难易识别,都采用相同的网络进行处理。这样会导致预测时间过长,无法在有限时间内获得最大正确率,限制了分类模型的应用范围。
发明内容
本公开提供了一种训练分类模型和数据分类的方法、装置、设备、存储介质以及计算机程序产品。
根据本公开的第一方面,提供了一种训练分类模型的方法,包括:获取样本集和预先训练的分类模型,其中,分类模型包括至少两个卷积层,每个卷积层通过一个全连接层和一个分类层连接;将样本集输入分类模型,得到每个分类层输出的预测结果,其中,预测结果包括每个样本所属类别的预测概率;基于每个分类层输出的预测结果计算每个分类层的概率阈值;根据每个分类层的概率阈值设置分类模型的停止预测条件。
根据本公开的第二方面,提供了一种数据分类的方法,包括:将待分类的数据输入采用第一方面的方法训练的分类模型中;将第一个卷积层作为当前卷积层,执行如下分类步骤:通过当前卷积层、当前全连接层和当前分类层对数据进行预测,得到最大预测概率;若最大预测概率大于当前分类层的概率阈值,则停止预测,并将最大预测概率对应的类别作为所述数据的类别;否则,将当前卷积层的输出结果输入到下一个卷积层,将下一卷积层作为当前卷积层继续执行上述分类步骤。
根据本公开的第三方面,提供了一种训练分类模型的装置,包括:获取单元,被配置成获取样本集和预先训练的分类模型,其中,分类模型包括至少两个卷积层,每个卷积层通过一个全连接层和一个分类层连接;预测单元,被配置成将样本集输入分类模型,得到每个分类层输出的预测结果,其中,预测结果包括每个样本所属类别的预测概率;计算单元,被配置成基于每个分类层输出的预测结果计算每个分类层的概率阈值;设置单元,被配置成根据每个分类层的概率阈值设置分类模型的停止预测条件。
根据本公开的第四方面,提供了一种数据分类的装置,包括:输入单元,被配置成将待分类的数据输入采用第一方面的方法训练的分类模型中;分类单元,被配置成将第一个卷积层作为当前卷积层,执行如下分类步骤:通过当前卷积层、当前全连接层和当前分类层对数据进行预测,得到最大预测概率;若最大预测概率大于当前分类层的概率阈值,则停止预测,并将最大预测概率对应的类别作为所述数据的类别;循环单元,被配置成否则,将当前卷积层的输出结果输入到下一个卷积层,将下一卷积层作为当前卷积层继续执行上述分类步骤。
根据本公开的第五方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行第一方面或第二方面的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行根据权利要求1-8中任一项的方法。
根据本公开的第七方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现根据第一方面或第二方面的方法。
本公开实施例提供的训练分类模型和数据分类的方法和装置,针对数据和分类模型联合优化,训练网络复杂度和数据复杂度的关系模型,能够高效的把网络和数据结合处理,既能节省处理数据总时间,又能获得最大正确率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开可以应用于其中的示例性系统架构图;
图2是根据本公开训练分类模型的方法的一个实施例的流程图;
图3是根据本公开训练分类模型的方法的一个应用场景的示意图;
图4是根据本公开数据分类的方法的一个实施例的流程图;
图5是根据本公开训练分类模型的装置的一个实施例的结构示意图;
图6是根据本公开数据分类的装置的一个实施例的结构示意图;
图7是适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1示出了可以应用本公开实施例的训练分类模型的方法、训练分类模型的装置、数据分类的方法或数据分类的装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端101、102,网络103、数据库服务器104和服务器105。网络103用以在终端101、102,数据库服务器104与服务器105之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端101、102通过网络103与服务器105进行交互,以接收或发送消息等。终端101、102上可以安装有各种客户端应用,例如模型训练类应用、数据识别类应用、购物类应用、支付类应用、网页浏览器和即时通讯工具等。
这里的终端101、102可以是硬件,也可以是软件。当终端101、102为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、膝上型便携计算机和台式计算机等等。当终端101、102为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
当终端101、102为硬件时,其上还可以安装有图像采集设备。图像采集设备可以是各种能实现采集图像功能的设备,如摄像头、传感器等等。用户110可以利用终端101、102上的图像采集设备,来采集图像。
数据库服务器104可以是提供各种服务的数据库服务器。例如数据库服务器中可以存储有样本集。样本集中包含有大量的样本。其中,样本可以具有类别标签,这样可以进行有监督地训练。这样,用户110也可以通过终端101、102,从数据库服务器104所存储的样本集中选取样本。
服务器105也可以是提供各种服务的服务器,例如对终端101、102上显示的各种应用提供支持的后台服务器。后台服务器可以利用终端101、102发送的样本集中的样本,对初始模型进行训练,并可以将训练结果(如生成的分类模型)发送给终端101、102。这样,用户可以应用生成的分类模型进行数据分类。
这里的数据库服务器104和服务器105同样可以是硬件,也可以是软件。当它们为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当它们为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。数据库服务器104和服务器105也可以为分布式系统的服务器,或者是结合了区块链的服务器。数据库服务器104和服务器105也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。
需要说明的是,本公开实施例所提供的训练分类模型的方法或数据分类的方法一般由服务器105执行。相应地,训练分类模型的装置或数据分类的装置一般也设置于服务器105中。
需要指出的是,在服务器105可以实现数据库服务器104的相关功能的情况下,系统架构100中可以不设置数据库服务器104。
应该理解,图1中的终端、网络、数据库服务器和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络、数据库服务器和服务器。
继续参见图2,其示出了根据本公开的训练分类模型的方法的一个实施例的流程200。该训练分类模型的方法可以包括以下步骤:
步骤201,获取样本集和预先训练的分类模型。
在本实施例中,训练分类模型的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取样本集。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的现有的样本集。再例如,用户可以通过终端(例如图1所示的终端101、102)来收集样本。这样,执行主体可以接收终端所收集的样本,并将这些样本存储在本地,从而生成样本集。
在这里,样本集中可以包括至少一个样本。样本集中的样本都属于同一应用领域,例如都是图像或都是文字等。样本具有类别标签,例如,狗、猫、树、人等。
本公开采用的分类模型是一种多层神经网络。其中,分类模型包括至少两个卷积层,每个卷积层通过一个全连接层和一个分类层连接,卷积层之间是串联的。如图3所示,一共N层网络,每一层都包括一个卷积层、一个全连接层和一个分类层。分类模型相当于N个分类器。第一个分类器只包括一个卷积层、一个全连接层和一个分类层,第二个分类器包括两个卷积层、一个全连接层和一个分类层,第N个分类器包括N个卷积层、一个全连接层和一个分类层。可见,不同分类器的主要区别在于卷积的深度不同。
可预先用其它样本集训练初始模型得到可正确进行分类的分类模型。
步骤202,将样本集输入分类模型,得到每个分类层输出的预测结果。
在本实施例中,分类模型的每个分类层都能输出一个预测结果。预测结果包括每个样本所属类别的预测概率。例如,将图片输入分类模型,则第一分类层输出该图片属于猫的概率0.6、属于狗的概率0.4,而第二分类层输出该图片属于猫的概率0.7、属于狗的概率0.3,第三分类层输出该图片属于猫的概率0.8、属于狗的概率0.2。可见,层数越深分类的准确率越高,但相应的,预测时间也越长。
步骤203,基于每个分类层输出的预测结果计算每个分类层的概率阈值。
在本实施例中,对于每个分类层,可将该分类层输出的每个样本的最大预测概率(每个样本有多个预测概率,其中最大预测概率表示该样本所属的类别)按照由大到小的顺序排序,然后从排名靠前的最大预测概率设为该分类层的概率阈值。最后一个分类层可以不设置概率阈值。可以是固定排名(例如,第10名),也可以是按比例排名(例如,前10%,如果有200个样本,则前10%为第20名)。对于不同的分类层,对排名的要求不一样。例如,对于第一个分类层,可取排名第10的最大预测概率作为第一分类层的概率阈值。对于第二个分类层,可取排名第20的最大预测概率作为第二分类层的概率阈值。
步骤204,根据每个分类层的概率阈值设置分类模型的停止预测条件。
在本实施例中,根据每个分类层的概率阈值可以提前结束预测,不需要进入第N个分类层就能得到期望的预测结果。例如,第一分类层的概率阈值设置为0.8,第二分类层的概率阈值设置为0.85,…,第N-1分类层的概率阈值设置为0.9。将图像输入分类模型,第一分类层输出的最大预测概率为0.7,未达到0.8,则第一卷积层的输出结果需要输入到第二卷积层,由第二分类层继续进行预测,得到的最大预测概率为0.9,则可结束预测,不需要再将第二卷积层的输出结果输入第三卷积层。而不需要其它的分类层进行预测。
本实施例中训练分类模型的方法,根据数据的难易分类程度,对数据规划一个合理的阈值,可以在保证正确分类的同时通过提前停止分类预测提高检测速度,并降低模型的运行开销。
在本实施例的一些可选地实现方式中,基于每个分类层输出的预测结果计算每个分类层的概率阈值,包括:执行如下确定步骤:从预定的数据比例组合集中选择目标组合;根据每个分类层输出的预测结果确定出目标组合对应的每个分类层的规划值;基于每个分类层输出的预测结果计算目标组合对应的正确率;重复执行上述确定步骤,直到数据比例组合集遍历完毕,得到每个数据比例组合对应的正确率;将正确率最高的数据比例组合对应的每个分类层的规划值作为每个分类层的概率阈值。
将最大预测概率按由大到小顺序排序,数据比例组合指的是每个分类层取多少个排名靠前的最大预测概率作为参考。以3层模型为例说明:数据比例组合A{第一层:10,第二层:20,第三层:20},数据比例组合B{第一层:5,第二层:10,第三层:20},数据比例组合C{第一层:10,第二层:10,第三层:30}。
由于数据与模型的组合方法很多,需要探索的数据比例组合个数为nk个,其中n为样本数,k为模型的层数即分类层的个数。如果nk不是很大,可以全遍历,否则用PSO等搜索算法解这个整数规划问题,加快搜索进度。工程实践中,也可以按照经验性,划分数据给不同网络进行尝试。
设样本集有n个数据,n个数据分别通过这k层网络模型预测,获得k×n×c个预测概率logit[k,n,c]。针对每种类别取概率最大值max_preds[k,n],及其对应的分类argmax_preds[k,n]。把每层模型上对应的最大预测概率max_preds[k,n]进行从大到小排序(n个值排序),得到每个样本在每层网络上从容易到难识别的排序结果。
样本集的n个数据分配到k层模型,每层模型分配数据n1,n2,...,nk个,
Figure BDA0003116857660000071
根据n1,n2,...,nk算出对应在当前分类层的排序位置(例如第10名)的最大预测概率,这个最大预测概率就是对应分类层的规划值h1,h2,...,hk。样本集的n个数据分别放到k层模型上预测,当最大预测概率大于对应规划值h1,h2,...,hk,输出的最大预测概率作为当前分类层的正确率进行累加,否则不作为当前分类层的正确率。
样本集总共有n个待识别的图像数据。
Figure BDA0003116857660000072
表示第i个图像数据放到第j层网络上识别的正确率。本实施例的优化目标为ACC最大。
Figure BDA0003116857660000073
每个数据比例组合会对应一个正确率,还对应一组每个分类层的规划值。遍历所有数据比例组合后,将正确率最高的数据比例组合对应的一组每个分类层的规划值作为每个分类层的概率阈值。这样可以搜索到最合适的分类层的概率阈值,保证分类的准确性的同时,时间开销最小。
在本实施例的一些可选地实现方式中,基于每个分类层输出的预测结果计算目标组合对应的正确率,包括:基于每个分类层输出的预测结果确定出每个样本在每个分类层的最大预测概率。对于每个分类层,遍历每个样本,若该样本在该分类层的最大预测概率大于该分类层的规划值,则将该样本在该分类层的最大预测概率作为正确率进行累加。该操作的目的是对于正确率进行筛选,仅累计大于该分类层的规划值的最大预测概率,从而保证模型识别的准确性。
在本实施例的一些可选地实现方式中,预测结果包括每个样本的预测时间。以及该方法还包括:对于每个分类层,基于进行正确率累加的样本的预测时间计算该分类层的总预测时间。基于每个分类层的总预测时间计算分类模型的总预测时间。若分类模型的总预测时间大于预定时间阈值,则将目标组合对应的正确率过滤掉。从而可以在有限的时间内保证分类的准确性。
本实施例解决一个带约束的目标优化问题。目标函数为ACC,其约束条件为总预测时间T小于给定的时间限制B或者其约束条件为总计算量FLOPs为F小于给定的FLOPs限制D。FLOPs(floating point ofoperations):是浮点运算次数,可以用来衡量算法/模型复杂度。将分类模型的总预测时间大于预定时间阈值时计算出的正确率过滤掉,不参与正确率的排序。
设有一个k层出口的网络,训练集2总共有n个待识别的图像数据。
Figure BDA0003116857660000081
表示第i个图像数据放到第j层网络上识别的正确率,
Figure BDA0003116857660000082
表示第i个图像数据放到第j层网络上预测消耗时间,fi j表示第i个图像数据放到第j层网络上预测需要FLOPs。假设n个数据分配到k层模型,每层模型分配数据n1,n2,…,nk个,
Figure BDA0003116857660000083
整体优化目标函数如下:
Figure BDA0003116857660000084
argmax(ACC)
Figure BDA0003116857660000091
或者
Figure BDA0003116857660000092
可选地,基于每个分类层输出的预测结果以及每个样本的任务的权重计算所述目标组合对应的正确率。不同任务的数据(例如用于检测障碍物的近处图像、和生成地图的远处图像)计算正确率时的权重不同。假设每个网络层的任务(例如,近处的图像的权重高)都带权重系数wj,j∈[1,k],表示任务对总体ACC的重要性公式如下。从而可获得最大正确率分类。
Figure BDA0003116857660000093
argmax(ACC)
Figure BDA0003116857660000094
或者
Figure BDA0003116857660000095
在本实施例的一些可选地实现方式中,基于进行正确率累加的样本的预测时间计算该分类层的总预测时间,包括:基于进行正确率累加的样本的预测时间计算该分类层的平均预测时间。计算平均预测时间与预定抖动值之和作为该分类层的总预测时间。
考虑计算机系统实际情况,每层网络模型计算时间的抖动,取每层网络的计算平均值
Figure BDA0003116857660000096
加上预定抖动值,例如其标准差σj,j∈[1,k]的三倍时间。这样系统稳定性更好。
Figure BDA0003116857660000097
argmax(ACC)
Figure BDA0003116857660000098
在本实施例的一些可选地实现方式中,预测结果包括每个样本的运算次数。以及该方法还包括:对于每个分类层,基于进行正确率累加的样本的运算次数计算该分类层的总运算次数。基于每个分类层的总运算次数计算分类模型的总运算次数。若分类模型的总运算次数大于预定次数阈值,则将目标组合对应的正确率过滤掉。可在有限的运算能力下保证分类的性能。
本实施例解决一个带约束的目标优化问题。目标函数为ACC,其约束条件为总计算量FLOPs为F小于给定的FLOPs限制D。FLOPs(floating point of operations):是浮点运算次数,可以用来衡量算法/模型复杂度。将分类模型的总运算次数大于预定次数阈值,不参与正确率的排序。从而能够在有限计算量(FLOPs)时针对批量待分类的数据,进行最大正确率分类。
在本实施例的一些可选地实现方式中,分类模型通过如下步骤训练:获取训练数据集和分类模型,其中,训练数据集中的训练数据具有类别标签。执行如下训练步骤:从训练数据集中选取训练数据。将所选取的训练数据输入分类模型,得到每个分类层输出的预测概率。基于所选取的训练数据的类别标签和每个分类层输出的预测概率计算总损失值。若总损失值小于目标值,则分类模型训练完成。若总损失值不小于目标值,则调整分类模型的相关参数,继续执行上述训练步骤。
该训练数据集可与步骤201中的样本集不同,也可以相同。训练数据经过分类模型后,在每一个分类层都得到预测概率。如图3所示,以识别车的分类为例具体说明一下:
将类别标签为车(属于车的实际概率为1)的图像输入分类模型后,每个分类层得到该图像属于车的预测概率,分别用序号预测概率1、预测概率2…预测概率N表示。然后根据预测概率和实际概率计算损失值,例如,第一分类层的预测概率为0.6,则第一分类层的损失值为0.4,同理,计算出不同分类层的损失值。将所有分类层的损失值累加作为总损失值。如果总损失值大于目标值(例如,0.05),则调整分类模型的网络参数,重新选取图像计算总损失值。直到总损失值不大于目标值,则分类模型训练完成。
可选地,也可逐层训练分类模型。例如,先调整第一卷积层、第一全连接层和第一分类层的参数,其它层的参数保持不变,等到总损失值收敛后再保持第一卷积层、第一全连接层和第一分类层的参数不变,调整第二层的参数。依此类推,最终训练出分类模型,可用于执行流程200与400。
请参见图4,其示出了本公开提供的数据分类的方法的一个实施例的流程400。该数据分类的方法可以包括以下步骤:
步骤401,将待分类的数据输入分类模型中。
在本实施例中,数据分类的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取待分类的数据。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的待分类的数据。再例如,执行主体也可以接收终端(例如图1所示的终端101、102)或其他设备采集的待分类的数据,例如拍摄的照片。
分类模型可以是采用如上述图2实施例所描述的方法而生成的。具体生成过程可以参见图2实施例的相关描述,在此不再赘述。
步骤402,将第一个卷积层作为当前卷积层。
在本实施例中,待分类的数据首先输入第一个卷积层,正在处理数据的层为当前层,当前层又可包括当前卷积层、当前全连接层和当前分类层。
步骤403,通过当前卷积层、当前全连接层和当前分类层对数据进行预测,得到最大预测概率。
在本实施例中,数据经过当前卷积层、当前全连接层和当前分类层后,得到了一组预测概率。预测概率是数据所属的类别,例如属于狗的概率是0.8,属于猫的概率是0.2。这组预测概率中最大值即为最大预测概率,其对应的类别即为数据所属的类别。
步骤404,若最大预测概率大于当前分类层的概率阈值,则停止预测,并将最大预测概率对应的类别作为数据的类别。
在本实施例中,如果最大预测概率大于当前分类层的概率阈值,则说明当前分类层的预测结果是可信的,不需要再通过更深的网络进行分类,当前分类层输出的最大预测概率对应的类别作为数据的类别。如上例所示,数据的类别是狗。
步骤405,若预测概率不大于当前分类层的概率阈值,则将当前卷积层的输出结果输入到下一个卷积层,将下一卷积层作为当前卷积层继续执行步骤403-405。
在本实施例中,如果最大预测概率不大于当前分类层的概率阈值,则说明当前分类层的预测结果是不可信的,需要再通过更深的网络进行分类。通过增加卷积层数量,提取更多的特征来提高分类的准确性。例如,将第一卷积层的输出结果输入到第二卷积层,则当前分类层更新为第二分类层,相应的概率阈值也进行了更新。
需要说明的是,本实施例数据分类的方法可以用于测试上述各实施例所生成的分类模型。进而根据测试结果可以不断地优化分类模型。该方法也可以是上述各实施例所生成的分类模型的实际应用方法。采用上述各实施例所生成的分类模型,来进行数据分类,有助于提高分类模型的性能。如提高分类的速度和准确性。
继续参见图5,作为对上述各图所示方法的实现,本公开提供了一种分类模型的装置的一个实施例。该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的分类模型的装置500可以包括:获取单元501、预测单元502、计算单元503和设置单元504。其中,获取单元501,被配置成获取样本集和预先训练的分类模型,其中,分类模型包括至少两个卷积层,每个卷积层通过一个全连接层和一个分类层连接。预测单元502,被配置成将样本集输入分类模型,得到每个分类层输出的预测结果,其中,预测结果包括每个样本所属类别的预测概率。计算单元503,被配置成基于每个分类层输出的预测结果计算每个分类层的概率阈值。设置单元504,被配置成根据每个分类层的概率阈值设置分类模型的停止预测条件。
在本实施例的一些可选的实现方式中,计算单元503进一步被配置成:执行如下确定步骤:从预定的数据比例组合集中选择目标组合。根据每个分类层输出的预测结果确定出目标组合对应的每个分类层的规划值。基于每个分类层输出的预测结果计算目标组合对应的正确率。重复执行上述确定步骤,直到数据比例组合集遍历完毕,得到每个数据比例组合对应的正确率。将正确率最高的数据比例组合对应的每个分类层的规划值作为每个分类层的概率阈值。
在本实施例的一些可选的实现方式中,计算单元503进一步被配置成:基于每个分类层输出的预测结果确定出每个样本在每个分类层的最大预测概率。对于每个分类层,遍历每个样本,若该样本在该分类层的最大预测概率大于该分类层的规划值,则将该样本在该分类层的最大预测概率作为正确率进行累加。
在本实施例的一些可选的实现方式中,预测结果包括每个样本的预测时间。以及计算单元503进一步被配置成:对于每个分类层,基于进行正确率累加的样本的预测时间计算该分类层的总预测时间。基于每个分类层的总预测时间计算分类模型的总预测时间。若分类模型的总预测时间大于预定时间阈值,则将目标组合对应的正确率过滤掉。
在本实施例的一些可选的实现方式中,计算单元503进一步被配置成:基于进行正确率累加的样本的预测时间计算该分类层的平均预测时间。计算平均预测时间与预定抖动值之和作为该分类层的总预测时间。
在本实施例的一些可选的实现方式中,预测结果包括每个样本的运算次数。以及计算单元503进一步被配置成:对于每个分类层,基于进行正确率累加的样本的运算次数计算该分类层的总运算次数。基于每个分类层的总运算次数计算分类模型的总运算次数。若分类模型的总运算次数大于预定次数阈值,则将目标组合对应的正确率过滤掉。
在本实施例的一些可选的实现方式中,装置500还包括训练单元505,被配置成:获取训练数据集和分类模型,其中,训练数据集中的训练数据具有类别标签。执行如下训练步骤:从训练数据集中选取训练数据。将所选取的训练数据输入分类模型,得到每个分类层输出的预测概率。基于所选取的训练数据的类别标签和每个分类层输出的预测概率计算总损失值。若总损失值小于目标值,则分类模型训练完成。若总损失值不小于目标值,则调整分类模型的相关参数,继续执行上述训练步骤。
继续参见图6,作为对上述图4所示方法的实现,本公开提供了一种数据分类的装置的一个实施例。该装置实施例与图4所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的数据分类的装置600可以包括:输入单元601,被配置成将待分类的数据输入分类模型中;分类单元602,被配置成将第一个卷积层作为当前卷积层,执行如下分类步骤:通过当前卷积层、当前全连接层和当前分类层对所述数据进行预测,得到最大预测概率;若所述最大预测概率大于当前分类层的概率阈值,则停止预测,并将所述最大预测概率对应的类别作为所述数据的类别;循环单元603,被配置成否则,将当前卷积层的输出结果输入到下一个卷积层,将下一卷积层作为当前卷积层继续执行上述分类步骤。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行流程200或400所述的方法。
一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行流程200或400所述的方法。
一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现流程200或400所述的方法。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如训练分类模型的方法。例如,在一些实施例中,训练分类模型的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的训练分类模型的方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行训练分类模型的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以为分布式系统的服务器,或者是结合了区块链的服务器。服务器也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。服务器可以为分布式系统的服务器,或者是结合了区块链的服务器。服务器也可以是云服务器,或者是带人工智能技术的智能云计算服务器或智能云主机。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (19)

1.一种训练分类模型的方法,包括:
获取样本集和预先训练的分类模型,其中,所述分类模型包括至少两个卷积层,每个卷积层通过一个全连接层和一个分类层连接;
将所述样本集输入所述分类模型,得到每个分类层输出的预测结果,其中,所述预测结果包括每个样本所属类别的预测概率;
基于每个分类层输出的预测结果计算每个分类层的概率阈值;
根据每个分类层的概率阈值设置所述分类模型的停止预测条件。
2.根据权利要求1所述的方法,其中,所述基于每个分类层输出的预测结果计算每个分类层的概率阈值,包括:
执行如下确定步骤:从预定的数据比例组合集中选择目标组合;根据每个分类层输出的预测结果确定出所述目标组合对应的每个分类层的规划值;基于每个分类层输出的预测结果计算所述目标组合对应的正确率;
重复执行上述确定步骤,直到所述数据比例组合集遍历完毕,得到每个数据比例组合对应的正确率;
将正确率最高的数据比例组合对应的每个分类层的规划值作为每个分类层的概率阈值。
3.根据权利要求2所述的方法,其中,所述基于每个分类层输出的预测结果计算所述目标组合对应的正确率,包括:
基于每个分类层输出的预测结果确定出每个样本在每个分类层的最大预测概率;
对于每个分类层,遍历每个样本,若该样本在该分类层的最大预测概率大于该分类层的规划值,则将该样本在该分类层的最大预测概率作为正确率进行累加。
4.根据权利要求3所述的方法,其中,所述预测结果包括每个样本的预测时间;以及
所述方法还包括:
对于每个分类层,基于进行正确率累加的样本的预测时间计算该分类层的总预测时间;
基于每个分类层的总预测时间计算所述分类模型的总预测时间;
若所述分类模型的总预测时间大于预定时间阈值,则将所述目标组合对应的正确率过滤掉。
5.根据权利要求4所述的方法,其中,所述基于进行正确率累加的样本的预测时间计算该分类层的总预测时间,包括:
基于进行正确率累加的样本的预测时间计算该分类层的平均预测时间;
计算所述平均预测时间与预定抖动值之和作为该分类层的总预测时间。
6.根据权利要求3所述的方法,其中,所述预测结果包括每个样本的运算次数;以及
所述方法还包括:
对于每个分类层,基于进行正确率累加的样本的运算次数计算该分类层的总运算次数;
基于每个分类层的总运算次数计算所述分类模型的总运算次数;
若所述分类模型的总运算次数大于预定次数阈值,则将所述目标组合对应的正确率过滤掉。
7.根据权利要求1-6中任一项所述的方法,其中,所述分类模型通过如下步骤训练:
获取训练数据集和分类模型,其中,所述训练数据集中的训练数据具有类别标签;
执行如下训练步骤:从所述训练数据集中选取训练数据;将所选取的训练数据输入所述分类模型,得到每个分类层输出的预测概率;基于所选取的训练数据的类别标签和每个分类层输出的预测概率计算总损失值;若所述总损失值小于目标值,则所述分类模型训练完成;
若所述总损失值不小于目标值,则调整所述分类模型的相关参数,继续执行上述训练步骤。
8.一种数据分类的方法,包括:
将待分类的数据输入采用权利要求1-7中任一项所述的方法训练的分类模型中;
将第一个卷积层作为当前卷积层,执行如下分类步骤:通过当前卷积层、当前全连接层和当前分类层对所述数据进行预测,得到最大预测概率;若所述最大预测概率大于当前分类层的概率阈值,则停止预测,并将所述最大预测概率对应的类别作为所述数据的类别;
否则,将当前卷积层的输出结果输入到下一个卷积层,将下一卷积层作为当前卷积层继续执行上述分类步骤。
9.一种训练分类模型的装置,包括:
获取单元,被配置成获取样本集和预先训练的分类模型,其中,所述分类模型包括至少两个卷积层,每个卷积层通过一个全连接层和一个分类层连接;
预测单元,被配置成将所述样本集输入所述分类模型,得到每个分类层输出的预测结果,其中,所述预测结果包括每个样本所属类别的预测概率;
计算单元,被配置成基于每个分类层输出的预测结果计算每个分类层的概率阈值;
设置单元,被配置成根据每个分类层的概率阈值设置所述分类模型的停止预测条件。
10.根据权利要求9所述的装置,其中,所述计算单元进一步被配置成:
执行如下确定步骤:从预定的数据比例组合集中选择目标组合;根据每个分类层输出的预测结果确定出所述目标组合对应的每个分类层的规划值;基于每个分类层输出的预测结果计算所述目标组合对应的正确率;
重复执行上述确定步骤,直到所述数据比例组合集遍历完毕,得到每个数据比例组合对应的正确率;
将正确率最高的数据比例组合对应的每个分类层的规划值作为每个分类层的概率阈值。
11.根据权利要求10所述的装置,其中,所述计算单元进一步被配置成:
基于每个分类层输出的预测结果确定出每个样本在每个分类层的最大预测概率;
对于每个分类层,遍历每个样本,若该样本在该分类层的最大预测概率大于该分类层的规划值,则将该样本在该分类层的最大预测概率作为正确率进行累加。
12.根据权利要求11所述的装置,其中,所述预测结果包括每个样本的预测时间;以及
所述计算单元进一步被配置成:
对于每个分类层,基于进行正确率累加的样本的预测时间计算该分类层的总预测时间;
基于每个分类层的总预测时间计算所述分类模型的总预测时间;
若所述分类模型的总预测时间大于预定时间阈值,则将所述目标组合对应的正确率过滤掉。
13.根据权利要求12所述的装置,其中,所述计算单元进一步被配置成:
基于进行正确率累加的样本的预测时间计算该分类层的平均预测时间;
计算所述平均预测时间与预定抖动值之和作为该分类层的总预测时间。
14.根据权利要求11所述的装置,其中,所述预测结果包括每个样本的运算次数;以及
所述计算单元进一步被配置成:
对于每个分类层,基于进行正确率累加的样本的运算次数计算该分类层的总运算次数;
基于每个分类层的总运算次数计算所述分类模型的总运算次数;
若所述分类模型的总运算次数大于预定次数阈值,则将所述目标组合对应的正确率过滤掉。
15.根据权利要求9-14中任一项所述的装置,其中,所述装置还包括训练单元,被配置成:
获取训练数据集和分类模型,其中,所述训练数据集中的训练数据具有类别标签;
执行如下训练步骤:从所述训练数据集中选取训练数据;将所选取的训练数据输入所述分类模型,得到每个分类层输出的预测概率;基于所选取的训练数据的类别标签和每个分类层输出的预测概率计算总损失值;若所述总损失值小于目标值,则所述分类模型训练完成;
若所述总损失值不小于目标值,则调整所述分类模型的相关参数,继续执行上述训练步骤。
16.一种数据分类的装置,包括:
输入单元,被配置成将待分类的数据输入采用权利要求1-7中任一项所述的方法训练的分类模型中;
分类单元,被配置成将第一个卷积层作为当前卷积层,执行如下分类步骤:通过当前卷积层、当前全连接层和当前分类层对所述数据进行预测,得到最大预测概率;若所述最大预测概率大于当前分类层的概率阈值,则停止预测,并将所述最大预测概率对应的类别作为所述数据的类别;
循环单元,被配置成否则,将当前卷积层的输出结果输入到下一个卷积层,将下一卷积层作为当前卷积层继续执行上述分类步骤。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的方法。
CN202110664724.6A 2021-06-16 2021-06-16 训练分类模型和数据分类的方法及装置 Pending CN113326885A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110664724.6A CN113326885A (zh) 2021-06-16 2021-06-16 训练分类模型和数据分类的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110664724.6A CN113326885A (zh) 2021-06-16 2021-06-16 训练分类模型和数据分类的方法及装置

Publications (1)

Publication Number Publication Date
CN113326885A true CN113326885A (zh) 2021-08-31

Family

ID=77420863

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110664724.6A Pending CN113326885A (zh) 2021-06-16 2021-06-16 训练分类模型和数据分类的方法及装置

Country Status (1)

Country Link
CN (1) CN113326885A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114139031A (zh) * 2021-10-28 2022-03-04 马上消费金融股份有限公司 数据分类方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114139031A (zh) * 2021-10-28 2022-03-04 马上消费金融股份有限公司 数据分类方法、装置、电子设备及存储介质
CN114139031B (zh) * 2021-10-28 2024-03-19 马上消费金融股份有限公司 数据分类方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN113657465B (zh) 预训练模型的生成方法、装置、电子设备和存储介质
CN113326764B (zh) 训练图像识别模型和图像识别的方法和装置
CN112784778B (zh) 生成模型并识别年龄和性别的方法、装置、设备和介质
CN113642431B (zh) 目标检测模型的训练方法及装置、电子设备和存储介质
CN113033622A (zh) 跨模态检索模型的训练方法、装置、设备和存储介质
CN112561082A (zh) 生成模型的方法、装置、设备以及存储介质
CN113379059B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
US20230186607A1 (en) Multi-task identification method, training method, electronic device, and storage medium
CN113313053A (zh) 图像处理方法、装置、设备、介质及程序产品
CN113705628B (zh) 预训练模型的确定方法、装置、电子设备以及存储介质
CN114648676A (zh) 点云处理模型的训练和点云实例分割方法及装置
CN112508126A (zh) 深度学习模型训练方法、装置、电子设备及可读存储介质
CN114090601B (zh) 一种数据筛选方法、装置、设备以及存储介质
CN113792876B (zh) 骨干网络的生成方法、装置、设备以及存储介质
CN113449778B (zh) 用于量子数据分类的模型训练方法以及量子数据分类方法
CN114360027A (zh) 一种特征提取网络的训练方法、装置及电子设备
CN114037059A (zh) 预训练模型、模型的生成方法、数据处理方法及装置
CN113326885A (zh) 训练分类模型和数据分类的方法及装置
CN115482436A (zh) 图像筛选模型的训练方法、装置以及图像筛选方法
CN113961765A (zh) 基于神经网络模型的搜索方法、装置、设备和介质
US20220392199A1 (en) Method and apparatus for training classification model and data classification
CN113344121A (zh) 训练招牌分类模型和招牌分类的方法
CN113657596A (zh) 训练模型和图像识别的方法和装置
CN112560987A (zh) 图像样本处理方法、装置、设备、存储介质和程序产品
CN112905885A (zh) 向用户推荐资源的方法、装置、设备、介质和程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination