CN109447102A - 基于分类互斥性的损失函数计算方法、电子设备、介质 - Google Patents
基于分类互斥性的损失函数计算方法、电子设备、介质 Download PDFInfo
- Publication number
- CN109447102A CN109447102A CN201811033060.8A CN201811033060A CN109447102A CN 109447102 A CN109447102 A CN 109447102A CN 201811033060 A CN201811033060 A CN 201811033060A CN 109447102 A CN109447102 A CN 109447102A
- Authority
- CN
- China
- Prior art keywords
- loss
- classification
- data
- mutual exclusion
- penalty
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 25
- 239000013598 vector Substances 0.000 claims abstract description 72
- 230000007717 exclusion Effects 0.000 claims abstract description 69
- 230000006870 function Effects 0.000 claims abstract description 58
- 239000011159 matrix material Substances 0.000 claims abstract description 42
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000007635 classification algorithm Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 239000002131 composite material Substances 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供基于分类互斥性的损失函数计算方法,包括步骤:对原始数据集通过分类器进行分类,得到分类结果概率矩阵;通过损失函数计算分类结果概率矩阵中每一分类概率向量的损失,得到总体损失;通过互斥惩罚项计算方法计算分类结果概率矩阵中每一数据分类概率对应的互斥惩罚项,得到总体互斥惩罚项;将总体损失中每一分类概率向量对应的损失与总体互斥惩罚项中每一分类概率向量对应的互斥惩罚项进行整合。本发明涉及电子设备与可读存储介质,用于执行上述方法;本发明通过互斥惩罚项的加入,对计算结果相对互斥分类结果优势不明显的分类给予更高的惩罚,让分类器更好的将互斥的类别分离开,提高了机器学习中分类任务的准确性和可靠性。
Description
技术领域
本发明涉及计算机科学技术领域,尤其涉及基于分类互斥性的损失函数计算方法、电子设备、介质。
背景技术
人工智能(ArtificialIntelligence,AI),是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能算法的多分类任务中,计算的分类结果的概率相对互斥分类结果的概率优势不明显,无法让分类器更好的将互斥的类别分离开来,使得机器学习中分类任务的准确性和可靠性低。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供基于分类互斥性的损失函数计算方法,解决了人工智能算法的多分类任务中,计算的分类结果的概率相对互斥分类结果的概率优势不明显,无法让分类器更好的将互斥的类别分离开来,使得机器学习中分类任务的准确性和可靠性低的问题。
本发明提供基于分类互斥性的损失函数计算方法,包括以下步骤:
数据分类,对原始数据集通过分类器进行分类,得到分类结果概率矩阵;
计算损失,通过损失函数计算所述分类结果概率矩阵中每一分类概率向量的损失,得到总体损失;
计算互斥惩罚项,通过互斥惩罚项计算方法计算所述分类结果概率矩阵中每一数据分类概率对应的互斥惩罚项,得到总体互斥惩罚项;
损失重构,将所述总体损失中每一所述分类概率向量对应的损失与所述总体互斥惩罚项中每一所述分类概率向量对应的互斥惩罚项进行整合,得到带互斥惩罚项的损失函数。
进一步地,所述数据分类中具体包括以下步骤:
将所述原始数据集表示为数据集向量,所述数据集向量公式如下:
其中,S为数据集向量,g为数据集向量S中数据个数,Si为数据集向量S中第i个数据,Si的公式如下:
其中,fj为Si中第j个特征;
采用分类算法对数据集向量S进行分类,得到分类结果概率矩阵,公式如下:
其中,CA为分类算法,Parameter为CA中需要训练的参数,S为数据集向量,P为分类结果概率矩阵,为第g个数据属于第n类的概率。
进一步地,所述计算损失中具体包括以下步骤:
获取所述分类结果概率矩阵中第i个数据对应的分类概率向量,具体公式如下:
通过损失函数计算第i个数据对应的分类概率向量的损失,具体公式如下:
lossi=LF(ki,pi)
通过每一个数据对应的分类概率向量的损失生成总体损失,具体公式如下:
其中,pi为第i个数据对应的分类概率向量,lossi为第i个数据对应的分类概率向量的损失,Loss为总体损失,LF为损失函数,ki为数据Si的真实分类结果。
进一步地,所述计算互斥惩罚项中具体包括以下步骤:
通过互斥惩罚项计算方法计算每一所述分类概率向量中当前数据属于除当前分类外其他分类的概率总和占当前数据属于当前分类的概率的比值,具体公式如下:
其中,MPF(p)为总体互斥惩罚项,MPF(pi)为数据Si在分类算法CA下的分类惩罚矩阵,具体公式如下:
其中,为数据Si属于m分类概率对应的互斥惩罚项,具体公式如下:
进一步地,所述损失重构中具体包括以下步骤:
将所述总体损失中第i个数据对应的分类概率向量的损失及第i个数据在分类算法CA下的分类惩罚矩阵进行整合,具体公式为:
MPLF(lossi,MPF(pi))
其中,MPLF()为整合lossi与MPF(pi)的复合函数;
将所述总体损失中每一数据对应的分类概率向量的损失与所述总体互斥惩罚项中每一数据在分类算法CA下的分类惩罚矩阵进行整合,得到带互斥惩罚项的损失函数,具体公式如下:
MPL=M PLF(Loss,MPF(p))
其中,MPL为带互斥惩罚项的损失函数。
进一步地,所述损失重构中,通过所述复合函数计算所述分类概率向量的损失与分类惩罚矩阵的乘积,具体公式如下:
MPLF(lossi,MPF(pi))=lossi·MPF(pi)
其中,·为lossi与MPF(pi)的乘积运算符号。
一种电子设备,包括:处理器;
存储器;以及程序,其中所述程序被存储在所述存储器中,并且被配置成由处理器执行,所述程序包括用于执行上述基于分类互斥性的损失函数计算方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行上述基于分类互斥性的损失函数计算方法。
相比现有技术,本发明的有益效果在于:
本发明提供基于分类互斥性的损失函数计算方法,包括以下步骤:数据分类,对原始数据集通过分类器进行分类,得到分类结果概率矩阵;计算损失,通过损失函数计算分类结果概率矩阵中每一分类概率向量的损失,得到总体损失;计算互斥惩罚项,通过互斥惩罚项计算方法计算分类结果概率矩阵中每一数据分类概率对应的互斥惩罚项,得到总体互斥惩罚项;损失重构,将总体损失中每一分类概率向量对应的损失与总体互斥惩罚项中每一分类概率向量对应的互斥惩罚项进行整合,得到带互斥惩罚项的损失函数。本发明涉及电子设备与可读存储介质,用于执行基于分类互斥性的损失函数计算方法;本发明通过互斥惩罚项的加入,对计算结果相对互斥分类结果优势不明显的分类给予更高的惩罚,让分类器更好的将互斥的类别分离开来,有效提高了机器学习中分类任务的准确性和可靠性。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,并可依照说明书的内容予以实施,以下以本发明的较佳实施例并配合附图详细说明如后。本发明的具体实施方式由以下实施例及其附图详细给出。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明的基于分类互斥性的损失函数计算方法流程图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
基于分类互斥性的损失函数计算方法,如图1所示,包括以下步骤:
数据分类,对原始数据集通过分类器进行分类,得到分类结果概率矩阵;原始数据集中的数据具有n个分类,通过分类器分类得到原始数据集中数据属于某个分类的概率,优选的,数据分类中具体包括以下步骤:
将原始数据集表示为数据集向量,数据集向量公式如下:
其中,S为数据集向量,g为数据集向量S中数据个数,Si为数据集向量S中第i个数据,Si的公式如下:
其中,fj为Si中第j个特征;数据集向量S中每一个数据都有F个特征。
采用分类算法对数据集向量S进行分类,得到分类结果概率矩阵,公式如下:
其中,CA为分类算法,Parameter为CA中需要训练的参数,S为数据集向量,P为分类结果概率矩阵,为第g个数据属于第n类的概率。本实施例中的分类算法并不指定具体的分类算法,只要是判别式的模型都适用,如神经网络,支持向量机等。
计算损失,通过损失函数计算分类结果概率矩阵中每一分类概率向量的损失,得到总体损失;优选的,计算损失中具体包括以下步骤:
获取分类结果概率矩阵中第i个数据对应的分类概率向量,具体公式如下:
通过损失函数计算第i个数据对应的分类概率向量的损失,具体公式如下:
lossi=LF(ki,pi)
通过每一个数据对应的分类概率向量的损失生成总体损失,具体公式如下:
其中,pi为第i个数据对应的分类概率向量,lossi为第i个数据对应的分类概率向量的损失,Loss为总体损失,LF为损失函数,ki为数据Si的真实分类结果。
在一实施例中,从中取出第1行元素,即p1代表第一个数据S1的分类概率向量。对p1计算损失:loss1=LF(k1,p1),其中loss1为第1个数据对应的分类概率向量的损失,LF代表的是损失函数的一种计算方法,k1代表的是第一个数据S1的真实分类结果。需要主要的是,本实施例中并不限制LF损失函数的选择,可以是CrossEntropy交叉熵损失,也可以是其他分类情况所使用的损失函数。
取出矩阵P中剩余的第2至第g行的元素,计算剩余的损失为:
[loss2,loss3,loss4…lossg]
最后得到分类算法CA下该数据集的总体损失为
计算互斥惩罚项,通过互斥惩罚项计算方法计算分类结果概率矩阵中每一数据分类概率对应的互斥惩罚项,得到总体互斥惩罚项;为了增加算法分类结果的准确性,通过增加互斥惩罚项,让计算的分类结果的概率相对其他结果的概率优势更明显。优选的,计算互斥惩罚项中具体包括以下步骤:
通过互斥惩罚项计算方法计算每一分类概率向量中当前数据属于除当前分类外其他分类的概率总和占当前数据属于当前分类的概率的比值,具体公式如下:
其中,MPF(p)为总体互斥惩罚项,MPF(pi)为数据Si在分类算法CA下的分类惩罚矩阵,具体公式如下:
其中,为数据Si属于m分类概率对应的互斥惩罚项,具体公式如下:
在一实施例中,其中代表数据S1通过算法CA最终决定的分类是第n类时的互斥惩罚项,而分母代表的是数据S1属于第n类的分类结果概率,分子代表的是数据S1属于其他分类结果概率的和。由于当分母越大时,整个互斥惩罚项越小,则第n类就是合理的分类结果。需要说明的是,本实施例中的互斥惩罚项计算方法并不限定MPF(·)的选择,除上述具体实施例外,其他能够表达出MPF(·)目的的方法都是适用的。
依次取出数据S1属于每个分类的分类结果概率向量加入互斥惩罚项得到如下向量:
其中,MPF(p1)代表数据S1在算法CA下的分类惩罚矩阵;
依次取出其他数据S2至Sg的分类概率向量至加入互斥惩罚项得到如下矩阵:
损失重构,将总体损失中每一分类概率向量对应的损失与总体互斥惩罚项中每一分类概率向量对应的互斥惩罚项进行整合,得到带互斥惩罚项的损失函数。优选的,损失重构中具体包括以下步骤:
将总体损失中第i个数据对应的分类概率向量的损失及第i个数据在分类算法CA下的分类惩罚矩阵进行整合,具体公式为:
MPLF(lossi,MPF(pi))
其中,MPLF()为整合lossi与MPF(pi)的复合函数;
将总体损失中每一数据对应的分类概率向量的损失与总体互斥惩罚项中每一数据在分类算法CA下的分类惩罚矩阵进行整合,得到带互斥惩罚项的损失函数,具体公式如下:
MPL=MPLF(Loss,MPF(p))
其中,MPL为带互斥惩罚项的损失函数。优选的,损失重构中,通过复合函数计算分类概率向量的损失与分类惩罚矩阵的乘积,具体公式如下:
MPLF(lossi,MPF(pi))=lossi·MPF(pi)
其中,·为lossi与MPF(pi)的乘积运算符号。
在一实施例中,从中取出第一个损失计算值即lossi=LF(k1,p1),从中取出第一个互斥惩罚项即MPF(p1),定义MPLF(loss1,MPF(p1))为整合MPF与Loss的复合函数,为了方便阐述,本实施例中,MPLF可以表示为MPF与Loss的乘积即:
MPLF(loss1,MPF(p1))=loss1·MPF(p1)
需要说明的是,本实施例并不限制MPLF的具体实现方法,只要达到惩罚的目的,满足求解损失函数最小值的目标函数即可。
依次取出Loss与MPLF中的每个元素,得到最终的带互斥惩罚项的重构损失:
MPL=MPLF(Loss,MPF(p))
上述实施例实现了对最终分类结果的惩罚,使得算法最终输出的分类结果有更高的可信度,同时并不改变目标函数的优化方向,适合作为机器学习分类问题的损失函数。
一种电子设备,包括:处理器;
存储器;以及程序,其中程序被存储在存储器中,并且被配置成由处理器执行,程序包括用于执行上述基于分类互斥性的损失函数计算方法。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行上述基于分类互斥性的损失函数计算方法。
本发明提供基于分类互斥性的损失函数计算方法,包括以下步骤:数据分类,对原始数据集通过分类器进行分类,得到分类结果概率矩阵;计算损失,通过损失函数计算分类结果概率矩阵中每一分类概率向量的损失,得到总体损失;计算互斥惩罚项,通过互斥惩罚项计算方法计算分类结果概率矩阵中每一数据分类概率对应的互斥惩罚项,得到总体互斥惩罚项;损失重构,将总体损失中每一分类概率向量对应的损失与总体互斥惩罚项中每一分类概率向量对应的互斥惩罚项进行整合,得到带互斥惩罚项的损失函数。本发明涉及电子设备与可读存储介质,用于执行基于分类互斥性的损失函数计算方法;本发明通过互斥惩罚项的加入,对计算结果相对互斥分类结果优势不明显的分类给予更高的惩罚,让分类器更好的将互斥的类别分离开来,有效提高了机器学习中分类任务的准确性和可靠性。
以上,仅为本发明的较佳实施例而已,并非对本发明作任何形式上的限制;凡本行业的普通技术人员均可按说明书附图所示和以上而顺畅地实施本发明;但是,凡熟悉本专业的技术人员在不脱离本发明技术方案范围内,利用以上所揭示的技术内容而做出的些许更动、修饰与演变的等同变化,均为本发明的等效实施例;同时,凡依据本发明的实质技术对以上实施例所作的任何等同变化的更动、修饰与演变等,均仍属于本发明的技术方案的保护范围之内。
Claims (8)
1.基于分类互斥性的损失函数计算方法,其特征在于包括以下步骤:
数据分类,对原始数据集通过分类器进行分类,得到分类结果概率矩阵;
计算损失,通过损失函数计算所述分类结果概率矩阵中每一分类概率向量的损失,得到总体损失;
计算互斥惩罚项,通过互斥惩罚项计算方法计算所述分类结果概率矩阵中每一数据分类概率对应的互斥惩罚项,得到总体互斥惩罚项;
损失重构,将所述总体损失中每一所述分类概率向量对应的损失与所述总体互斥惩罚项中每一所述分类概率向量对应的互斥惩罚项进行整合,得到带互斥惩罚项的损失函数。
2.如权利要求1所述的基于分类互斥性的损失函数计算方法,其特征在于:所述数据分类中具体包括以下步骤:
将所述原始数据集表示为数据集向量,所述数据集向量公式如下:
其中,S为数据集向量,g为数据集向量S中数据个数,Si为数据集向量S中第i个数据,Si的公式如下:
其中,fj为Si中第j个特征;
采用分类算法对数据集向量S进行分类,得到分类结果概率矩阵,公式如下:
其中,CA为分类算法,Parameter为CA中需要训练的参数,S为数据集向量,P为分类结果概率矩阵,为第g个数据属于第n类的概率。
3.如权利要求2所述的基于分类互斥性的损失函数计算方法,其特征在于,所述计算损失中具体包括以下步骤:
获取所述分类结果概率矩阵中第i个数据对应的分类概率向量,具体公式如下:
通过损失函数计算第i个数据对应的分类概率向量的损失,具体公式如下:
lossi=LF(ki,pi)
通过每一个数据对应的分类概率向量的损失生成总体损失,具体公式如下:
其中,pi为第i个数据对应的分类概率向量,lossi为第i个数据对应的分类概率向量的损失,Loss为总体损失,LF为损失函数,ki为数据Si的真实分类结果。
4.如权利要求3所述的基于分类互斥性的损失函数计算方法,其特征在于,所述计算互斥惩罚项中具体包括以下步骤:
通过互斥惩罚项计算方法计算每一所述分类概率向量中当前数据属于除当前分类外其他分类的概率总和占当前数据属于当前分类的概率的比值,具体公式如下:
其中,MPF(p)为总体互斥惩罚项,MPF(pi)为数据Si在分类算法CA下的分类惩罚矩阵,具体公式如下:
其中,为数据Si属于m分类概率对应的互斥惩罚项,具体公式如下:
5.如权利要求4所述的基于分类互斥性的损失函数计算方法,其特征在于:所述损失重构中具体包括以下步骤:
将所述总体损失中第i个数据对应的分类概率向量的损失及第i个数据在分类算法CA下的分类惩罚矩阵进行整合,具体公式为:
MPLF(lossi,MPF(pi))
其中,MPLF()为整合lossi与MPF(pi)的复合函数;
将所述总体损失中每一数据对应的分类概率向量的损失与所述总体互斥惩罚项中每一数据在分类算法CA下的分类惩罚矩阵进行整合,得到带互斥惩罚项的损失函数,具体公式如下:
MPL=MPLF(Loss,MPF(p))
其中,MPL为带互斥惩罚项的损失函数。
6.如权利要求5所述的基于分类互斥性的损失函数计算方法,其特征在于:所述损失重构中,通过所述复合函数计算所述分类概率向量的损失与分类惩罚矩阵的乘积,具体公式如下:
MPLF(lossi,MPF(pi))=lossi·MPF(pi)
其中,·为lossi与MPF(pi)的乘积运算符号。
7.一种电子设备,其特征在于包括:处理器;
存储器;以及程序,其中所述程序被存储在所述存储器中,并且被配置成由处理器执行,所述程序包括用于执行权利要求1-6任意一项所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行如权利要求1-6任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811033060.8A CN109447102A (zh) | 2018-09-05 | 2018-09-05 | 基于分类互斥性的损失函数计算方法、电子设备、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811033060.8A CN109447102A (zh) | 2018-09-05 | 2018-09-05 | 基于分类互斥性的损失函数计算方法、电子设备、介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109447102A true CN109447102A (zh) | 2019-03-08 |
Family
ID=65530942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811033060.8A Pending CN109447102A (zh) | 2018-09-05 | 2018-09-05 | 基于分类互斥性的损失函数计算方法、电子设备、介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109447102A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112587146A (zh) * | 2020-11-25 | 2021-04-02 | 上海数创医疗科技有限公司 | 基于改进损失函数的神经网络的心律类型识别方法和装置 |
CN112603324A (zh) * | 2020-11-25 | 2021-04-06 | 上海数创医疗科技有限公司 | 基于改进损失函数的神经网络的训练方法 |
CN116524420A (zh) * | 2023-07-03 | 2023-08-01 | 武汉大学 | 一种交通场景下的关键目标检测方法及系统 |
-
2018
- 2018-09-05 CN CN201811033060.8A patent/CN109447102A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112587146A (zh) * | 2020-11-25 | 2021-04-02 | 上海数创医疗科技有限公司 | 基于改进损失函数的神经网络的心律类型识别方法和装置 |
CN112603324A (zh) * | 2020-11-25 | 2021-04-06 | 上海数创医疗科技有限公司 | 基于改进损失函数的神经网络的训练方法 |
CN112587146B (zh) * | 2020-11-25 | 2022-08-16 | 上海数创医疗科技有限公司 | 基于改进损失函数的神经网络的心律类型识别方法和装置 |
CN116524420A (zh) * | 2023-07-03 | 2023-08-01 | 武汉大学 | 一种交通场景下的关键目标检测方法及系统 |
CN116524420B (zh) * | 2023-07-03 | 2023-09-12 | 武汉大学 | 一种交通场景下的关键目标检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Non-iterative and fast deep learning: Multilayer extreme learning machines | |
Phan et al. | Stable low-rank tensor decomposition for compression of convolutional neural network | |
US11003949B2 (en) | Neural network-based action detection | |
Recanatesi et al. | Dimensionality compression and expansion in deep neural networks | |
Yaseen et al. | Deep learning hyper-parameter optimization for video analytics in clouds | |
US20200027012A1 (en) | Systems and methods for bayesian optimization using non-linear mapping of input | |
EP3029606A2 (en) | Method and apparatus for image classification with joint feature adaptation and classifier learning | |
CN109447102A (zh) | 基于分类互斥性的损失函数计算方法、电子设备、介质 | |
CN109063743B (zh) | 基于半监督多任务学习的医疗数据分类模型的构建方法 | |
CN113128478B (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
Kamyshanska et al. | On autoencoder scoring | |
CN106991132A (zh) | 一种基于图集重构与图核降维的图分类方法 | |
US11568212B2 (en) | Techniques for understanding how trained neural networks operate | |
Murugan | Implementation of deep convolutional neural network in multi-class categorical image classification | |
CN106599856A (zh) | 一种联合人脸检测、定位和识别的方法 | |
Girshick et al. | Discriminatively activated sparselets | |
Bône et al. | Learning joint shape and appearance representations with metamorphic auto-encoders | |
Teimouri et al. | A real-time ball detection approach using convolutional neural networks | |
Sang et al. | Discriminative deep feature learning for facial emotion recognition | |
Mudavathu et al. | Auxiliary conditional generative adversarial networks for image data set augmentation | |
CN109947938A (zh) | 多标记分类方法、系统、可读存储介质及计算机设备 | |
Palo et al. | Dimensionality reduction techniques: Principles, benefits, and limitations | |
CN109325528A (zh) | 基于统计概率的损失函数计算方法、电子设备、存储介质 | |
CN111738074A (zh) | 基于弱监督学习的行人属性识别方法、系统及装置 | |
CN111652349A (zh) | 一种神经网络的处理方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190308 |