CN107346448A - 基于深度神经网络的识别装置、训练装置及方法 - Google Patents
基于深度神经网络的识别装置、训练装置及方法 Download PDFInfo
- Publication number
- CN107346448A CN107346448A CN201610298158.0A CN201610298158A CN107346448A CN 107346448 A CN107346448 A CN 107346448A CN 201610298158 A CN201610298158 A CN 201610298158A CN 107346448 A CN107346448 A CN 107346448A
- Authority
- CN
- China
- Prior art keywords
- sample
- neural network
- deep neural
- positive
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供一种基于深度神经网络的识别装置、训练装置及方法,其中,所述深度神经网络是通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练而得到的,所述识别装置包括:判定单元,所述判定单元用于当所述深度神经网络的输出层输出的分类结果中各个正样本分类的置信度均小于预定阈值时,判定待识别样本是疑似异常样本。这样,能够有效的提高深度神经网络输出的分类结果置信度的可靠性。
Description
技术领域
本发明涉及信息技术领域,尤其涉及一种基于深度神经网络的识别装置、训练装置及方法。
背景技术
近年来,随着信息技术的不断发展,基于深度神经网络(Deep Neural Network,DNN)的识别方法在分类领域取得了巨大的成功。现有的深度神经网络是一种层级模型,图1是现有的深度神经网络的示意图,如图1所示,现有的深度神经网络由一个输入层101、若干个隐含层102和一个输出层103组成。其中,输入层101一般输入待处理的数据;隐含层102的类型可以包括卷积层、池化层或全连接层等;对于分类问题而言,输出层103可以是分类器,例如softmax分类器或支持向量机(SupportVector Machine,SVM)等。
现有的深度神经网络在进行训练时,一般以网络损失(又称为分类误差)最小化作为优化目标,优化方法为后向传播算法。图2是现有的对深度神经网络进行训练的示意图,如图2所示,首先,将训练样本输入到输入层101,并且信息随着深度神经网络做前向传播,经由各隐含层102传播到输出层103,输出层103所输出的分类结果与训练样本的类别的真值进行比较,得到网络损失;然后,该网络损失逐层回传,从而修正输出层103、隐含层102、以及输入层101中每一层的参数。重复进行上述步骤,直到该网络损失满足一定的收敛条件,则认为达到了深度神经网络的优化目标,训练结束。
图3是利用由现有训练方法训练后的深度神经网络进行识别的示意图。如图3所示,当输入的待识别样本是一个异常样本(例如,负样本)时,输出的各个正样本分类的置信度分别为3%、7%和90%。
应该注意,上面对技术背景的介绍只是为了方便对本发明的技术方案进行清楚、完整的说明,并方便本领域技术人员的理解而阐述的。不能仅仅因为这些方案在本发明的背景技术部分进行了阐述而认为上述技术方案为本领域技术人员所公知。
发明内容
当利用由现有训练方法训练后的深度神经网络进行识别时,在输入的待识别样本为异常样本的情况下,输出分类结果中某一种正样本分类的置信度(例如图3中的90%)依然很高,从而导致该分类结果不可靠。
本发明实施例提供一种基于深度神经网络的识别装置、训练装置及方法,通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练,并且在输出的各个正样本分类的置信度均小于预定阈值时判定待识别样本是疑似异常样本,能够有效的提高深度神经网络输出的分类结果置信度的可靠性。
根据本发明实施例的第一方面,提供一种基于深度神经网络的识别装置,所述深度神经网络是通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练而得到的,所述装置包括:判定单元,所述判定单元用于当所述深度神经网络的输出层输出的分类结果中各个正样本分类的置信度均小于预定阈值时,判定待识别样本是疑似异常样本。
根据本发明实施例的第二方面,提供一种深度神经网络的训练装置,包括:输入单元,其用于将包括正样本和负样本的训练样本输入到深度神经网络的输入层中;设置单元,其用于对于所述训练样本中的正样本,将所述正样本所在正样本分类的真值标签设为1,并将其他正样本分类的真值标签设为0;对于所述训练样本中的负样本,将所有正样本分类的真值标签均设为0;输出单元,其用于使得所述深度神经网络的输出层输出所述训练样本与各个正样本分类的相似度。
根据本发明实施例的第三方面,提供一种电子设备,所述电子设备包括根据本发明实施例的第一方面所述的识别装置或本发明实施例的第二方面所述的训练装置。
本发明的有益效果在于:通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练,并且在输出的各个正样本分类的置信度均小于预定阈值时判定待识别样本是疑似异常样本,能够有效的提高深度神经网络输出的分类结果置信度的可靠性。
参照后文的说明和附图,详细公开了本发明的特定实施方式,指明了本发明的原理可以被采用的方式。应该理解,本发明的实施方式在范围上并不因而受到限制。在所附权利要求的精神和条款的范围内,本发明的实施方式包括许多改变、修改和等同。
针对一种实施方式描述和/或示出的特征可以以相同或类似的方式在一个或更多个其它实施方式中使用,与其它实施方式中的特征相组合,或替代其它实施方式中的特征。
应该强调,术语“包括/包含”在本文使用时指特征、整件、步骤或组件的存在,但并不排除一个或更多个其它特征、整件、步骤或组件的存在或附加。
附图说明
所包括的附图用来提供对本发明实施例的进一步的理解,其构成了说明书的一部分,用于例示本发明的实施方式,并与文字描述一起来阐释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1是现有的深度神经网络的示意图;
图2是现有的对深度神经网络进行训练的示意图;
图3是利用由现有训练方法训练后的深度神经网络进行识别的示意图;
图4是本发明实施例1基于深度神经网络的识别装置的示意图;
图5是本发明实施例1的利用深度神经网络进行识别的一个示意图;
图6是本发明实施例1的利用深度神经网络进行识别的另一个示意图;
图7是本发明实施例1的深度神经网络的训练装置的示意图;
图8是本发明实施例1的对深度神经网络进行训练的一个示意图;
图9是本发明实施例1的对深度神经网络进行训练的另一个示意图;
图10是本发明实施例1的将负样本分类及其置信度设置为无效的示意图;
图11是本发明实施例2的电子设备的示意图;
图12是本发明实施例2的电子设备的系统构成的示意框图;
图13是本发明实施例3的基于深度神经网络的识别方法的示意图;
图14是本发明实施例3的深度神经网络的训练方法的示意图。
具体实施方式
参照附图,通过下面的说明书,本发明的前述以及其它特征将变得明显。在说明书和附图中,具体公开了本发明的特定实施方式,其表明了其中可以采用本发明的原则的部分实施方式,应了解的是,本发明不限于所描述的实施方式,相反,本发明包括落入所附权利要求的范围内的全部修改、变型以及等同物。
实施例1
图4是本发明实施例1基于深度神经网络的识别装置的示意图。如图4所示,该装置400包括:
判定单元401,用于当深度神经网络的输出层输出的分类结果中各个正样本分类的置信度均小于预定阈值时,判定待识别样本是疑似异常样本。
在本实施例中,该深度神经网络(DNN)是通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练而得到的。
在本实施例中,该装置400可以包括该深度神经网络,也可以不包括该深度神经网络,而是利用该深度神经网络的输出分类结果进行判定。
由上述实施例可知,通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练,并且在输出的各个正样本分类的置信度均小于预定阈值时判定待识别样本是疑似异常样本,能够有效的提高深度神经网络输出的分类结果置信度的可靠性。
在本实施例中,该深度神经网络可以是现有的任一种深度神经网络,例如,该深度神经网络是现有的卷积神经网络(Convolutional Neural Network,CNN)。该深度神经网络可以包括一个输入层、若干个隐含层和一个输出层。
在本实施例中,该深度神经网络的输出层输出的分类结果中仅包括各个正样本分类以及相应正样本分类的置信度,而不包括负样本分类及其置信度。
在本实施例中,该异常样本指的是不包括在该深度神经网络的输出层输出的各个正样本分类中的样本,即,该异常样本是负样本。而待识别样本是疑似异常样本,指的是该待识别样本有可能是异常样本。
在本实施例中,正样本分类的置信度可以用待识别样本与各个正样本分类的相似度来表示,也可以用待识别样本属于各个正样本分类的概率来表示,本发明实施例不对该置信度的表示方法进行限制。
在本实施例中,当输入的待识别样本为异常样本时,该深度神经网络的输出层输出的各个正样本分类的置信度之和可以不为1。
图5是本发明实施例1的利用深度神经网络进行识别的一个示意图。如图5所示,输入的待识别样本为五角星形样本,即,该待识别样本为异常样本,该深度神经网络输出的各个正样本分类的置信度用待识别样本与各个正样本分类的相似度来表示,其输出的分类结果分别为方形0.1、圆形0.15、三角形0.25。
图6是本发明实施例1的利用深度神经网络进行识别的另一个示意图。如图6所示,输入的待识别样本为五角星形样本,即,该待识别样本为异常样本,该深度神经网络输出的各个正样本分类的置信度以属于各个正样本分类的概率表示,其输出结果分别为方形5%、圆形10%、三角形20%。
在本实施例中,该预定阈值可根据实际需要而设置,例如,该预定阈值为0.3。这样,由于图5和图6中的该深度神经网络输出的各个正样本分类的置信度均小于0.3,判定单元401判定该待识别样本为异常样本。
在本实施例中,该深度神经网络(DNN)是通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练而得到的。下面,根据识别过程中正样本分类的置信度用待识别样本与各个正样本分类的相似度来表示或者用待识别样本属于各个正样本分类的概率来表示这两种情况,分别对本发明实施例的深度神经网络的训练装置以及训练方法进行示例性的说明。
图7是本发明实施例1的深度神经网络的训练装置的示意图。如图7所示,该装置700包括:
输入单元701,其用于将包括正样本和负样本的训练样本输入到深度神经网络的输入层中;
设置单元702,其用于对于该训练样本中的正样本,将该正样本所在正样本分类的真值标签设为1,并将其他正样本分类的真值标签设为0;对于该训练样本中的负样本,将所有正样本分类的真值标签均设为0;
输出单元703,其用于使得该深度神经网络的输出层输出该训练样本与各个正样本分类的相似度。
在本实施例中,将训练样本输入到深度神经网络中之后,设置单元702对该深度神经网络的各个正样本分类的真值标签进行设置。
图8是本发明实施例1的对深度神经网络进行训练的一个示意图。如图8所示,对于训练样本中的正样本方形,将该正样本所在正样本分类的真值标签设为1,并将其他正样本分类的真值标签设为0;对于该训练样本中的负样本五角星形,将所有正样本分类的真值标签均设为0。
这样,对于训练样本中的负样本直接将所有正样本分类的真值标签均设为0,并且仅输出该训练样本与各个正样本分类的相似度,能够提高识别时输出的相似度的可靠性。
在本实施例中,输出单元703可以使用现有方法使得该深度神经网络的输出层输出该训练样本与各个正样本分类的相似度,例如,使用sigmoid层作为输出层,在训练过程中,该深度神经网络输出的该训练样本与各个正样本分类的相似度的初始值可以使用现有方法设定,例如,随机设定该相似度的初始值。
在本实施例中,该训练样本与各个正样本分类的相似度例如可以用欧氏距离来表示,但是本发明实施例不对该相似度的表示方法进行限制。
在本实施例中,该相似度为小于1的正数,不需要对该相似度进行归一化。也就是说,该深度神经网络的输出层输出该训练样本与各个正样本分类的相似度之和可以不为1。
在本实施例中,如图7所示,该装置700还可以包括:
获取单元704,其用于根据该深度神经网络的输出层输出的该训练样本与各个正样本分类的相似度、以及根据该真值标签获得的该训练样本的真值,获得网络损失;
调整单元705,其用于对于该训练样本中的正样本,根据预设的权重对该网络损失进行调整;以及
后向传播单元706,其用于根据调整后的该网络损失进行该深度神经网络的后向传播。
在本实施例中,训练样本的真值通过设置单元702设置的真值标签而获得,获取单元704获得网络损失(又称为分类误差)的方法可以使用现有方法而获得,例如,将该深度神经网络输出的该训练样本与各个正样本分类的相似度与该训练样本的真值之差作为网络损失。
在本实施例中,调整单元705可以根据以下的公式(1)对网络损失进行调整:
其中,l′表示调整后的网络损失;l表示调整前的网络损失,w表示预设的权重,w为大于或小于1的正数,s∈{negative}表示当前训练样本为负样本,s∈{positive}表示当前训练样本为正样本。
在本实施例中,该预设的权重可根据实际情况而设置,例如,当负样本较为简单时,将预设的权重设置为小于1的正数,当负样本较为复杂时,将预设的权重设置为大于1的正数。
这样,通过设置正样本的权重而对网络损失进行调整,能够进一步提高深度神经网络输出的分类结果的可靠性。
在本实施例中,后向传播单元706根据调整后的该网络损失进行该深度神经网络的后向传播的方法可使用现有方法。
例如,修正该深度神经网络的输出层、隐含层以及输入层中每一层的参数,重复进行上述调整步骤,直到该网络损失满足一定的收敛条件为止。
上面是针对识别过程中正样本分类的置信度用待识别样本与各个正样本分类的相似度来表示的情况,对本发明实施例的深度神经网络的训练装置以及训练方法进行示例性的说明。下面,针对识别过程中正样本分类的置信度用待识别样本属于各个正样本分类的概率来表示的情况,对本发明实施例的深度神经网络的训练方法进行示例性的说明。
图9是本发明实施例1的对深度神经网络进行训练的另一个示意图。该深度神经网络的输出层例如为softmax层。如图9所示,其输出的分类结果包括各个正样本分类及该训练样本属于各个正样本分类的概率以及负样本分类以及该训练样本属于负样本分类的概率。
在本实施例中,对于识别过程中正样本分类的置信度用待识别样本属于各个正样本分类的概率来表示的情况,在对深度神经网络进行训练时,也可以使用调整单元705对网络损失进行调整,其调整方法与前面的记载相同,此处不再赘述。
在本实施例中,当训练过程中深度神经网络的输出结果包括负样本分类及其置信度时,如图4所示,该识别装置400还可以包括:
无效单元402,其用于当该深度神经网络的输出层输出分类结果时,将负样本分类以及负样本分类的置信度设置为无效。
在本实施例中,无效单元402为可选部件,在图4中用虚线框表示。
图10是本发明实施例1的将负样本分类及其置信度设置为无效的示意图。如图10所示,识别过程中输出的各个正样本分类及其概率分别为方形5%、圆形10%、三角形20%,负样本分类的概率为65%,将该负样本分类及其概率设置为无效,即不输出该负样本分类及其概率。这样,识别过程中输出的各个分类结果的概率之和小于100%。
这样,由于仅输出正样本分类及其置信度,能够进一步提高输出的分类结果置信度的可靠性。
由上述实施例可知,通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练,并且在输出的各个正样本分类的置信度均小于预定阈值时判定待识别样本是疑似异常样本,能够有效的提高深度神经网络输出的分类结果置信度的可靠性。
实施例2
本发明实施例还提供了一种电子设备,图11是本发明实施例2的电子设备的示意图。如图11所示,电子设备1100包括基于深度神经网络的识别装置1101或深度神经网络的训练装置1102,其中,识别装置1101以及训练装置1102的结构和功能与实施例1中的记载相同,此处不再赘述。
图12是本发明实施例2的电子设备的系统构成的示意框图。如图12所示,电子设备1200可以包括中央处理器1201和存储器1202;存储器1202耦合到中央处理器1201。该图是示例性的;还可以使用其它类型的结构,来补充或代替该结构,以实现电信功能或其它功能。
如图12所示,该电子设备1200还可以包括:输入单元1203、显示器1204、电源1205。
在一个实施方式中,实施例1所述的基于深度神经网络的识别装置的功能可以被集成到中央处理器1201中。其中,中央处理器1201可以被配置为:当所述深度神经网络的输出层输出的分类结果中各个正样本分类的置信度均小于预定阈值时,判定待识别样本是疑似异常样本。
其中,所述各个正样本分类的置信度是所述待识别样本与各个正样本分类的相似度。
其中,中央处理器1201还可以被配置为:当所述深度神经网络的输出层输出所述分类结果时,将负样本分类以及所述负样本分类的置信度设置为无效。
在另一个实施方式中,实施例1所述的深度神经网络的训练装置的功能可以被集成到中央处理器1201中。其中,中央处理器1201可以被配置为:将包括正样本和负样本的训练样本输入到深度神经网络的输入层中;对于所述训练样本中的正样本,将所述正样本所在正样本分类的真值标签设为1,并将其他正样本分类的真值标签设为0;对于所述训练样本中的负样本,将所有正样本分类的真值标签均设为0;使得所述深度神经网络的输出层输出所述训练样本与各个正样本分类的相似度。
其中,中央处理器1201还可以被配置为:根据所述深度神经网络的输出层输出的所述训练样本与各个正样本分类的相似度、以及根据所述真值标签获得的所述训练样本的真值,获得网络损失;对于所述训练样本中的正样本,根据预设的权重对所述网络损失进行调整;根据调整后的所述网络损失进行所述深度神经网络的后向传播。
在本实施例中电子设备1200也并不是必须要包括图12中所示的所有部件。
如图12所示,中央处理器1201有时也称为控制器或操作控件,可以包括微处理器或其它处理器装置和/或逻辑装置,中央处理器1201接收输入并控制电子设备1200的各个部件的操作。
存储器1202,例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其它合适装置中的一种或更多种。并且中央处理器1201可执行该存储器1202存储的该程序,以实现信息存储或处理等。其它部件的功能与现有类似,此处不再赘述。电子设备1200的各部件可以通过专用硬件、固件、软件或其结合来实现,而不偏离本发明的范围。
由上述实施例可知,通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练,并且在输出的各个正样本分类的置信度均小于预定阈值时判定待识别样本是疑似异常样本,能够有效的提高深度神经网络输出的分类结果置信度的可靠性。
实施例3
本发明实施例还提供一种基于深度神经网络的识别方法,其对应于实施例1的基于深度神经网络的识别装置。图13是本发明实施例3的基于深度神经网络的识别方法的示意图。如图13所示,该方法包括:
步骤1301:当深度神经网络的输出层输出的分类结果中各个正样本分类的置信度均小于预定阈值时,判定待识别样本是疑似异常样本。
图14是本发明实施例3的深度神经网络的训练方法的示意图。如图14所示,该方法包括:
步骤1401:将包括正样本和负样本的训练样本输入到深度神经网络的输入层中;
步骤1402:对于训练样本中的正样本,将该正样本所在正样本分类的真值标签设为1,并将其他正样本分类的真值标签设为0;对于训练样本中的负样本,将所有正样本分类的真值标签均设为0;
步骤1403:使得该深度神经网络的输出层输出该训练样本与各个正样本分类的相似度。
在本实施例中,判定待识别样本的方法、设置真值标签的方法以及输出相似度的方法与实施例1中的记载相同,此处不再赘述。
由上述实施例可知,通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练,并且在输出的各个正样本分类的置信度均小于预定阈值时判定待识别样本是疑似异常样本,能够有效的提高深度神经网络输出的分类结果置信度的可靠性。
本发明实施例还提供一种计算机可读程序,其中当在基于深度神经网络的识别装置、深度神经网络的训练装置或电子设备中执行所述程序时,所述程序使得计算机在所述基于深度神经网络的识别装置、深度神经网络的训练装置或电子设备中执行实施例3所述的识别方法或训练方法。
本发明实施例还提供一种存储有计算机可读程序的存储介质,其中所述计算机可读程序使得计算机在基于深度神经网络的识别装置、深度神经网络的训练装置或电子设备中执行实施例3所述的识别方法或训练方法。
结合本发明实施例描述的在基于深度神经网络的识别装置、深度神经网络的训练装置或电子设备中执行识别方法或训练方法可直接体现为硬件、由处理器执行的软件模块或二者组合。例如,图4和图7中所示的功能框图中的一个或多个和/或功能框图的一个或多个组合,既可以对应于计算机程序流程的各个软件模块,亦可以对应于各个硬件模块。这些软件模块,可以分别对应于图13和图14所示的各个步骤。这些硬件模块例如可利用现场可编程门阵列(FPGA)将这些软件模块固化而实现。
软件模块可以位于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、移动磁盘、CD-ROM或者本领域已知的任何其它形式的存储介质。可以将一种存储介质耦接至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息;或者该存储介质可以是处理器的组成部分。处理器和存储介质可以位于ASIC中。该软件模块可以存储在移动终端的存储器中,也可以存储在可插入移动终端的存储卡中。例如,若设备(例如移动终端)采用的是较大容量的MEGA-SIM卡或者大容量的闪存装置,则该软件模块可存储在该MEGA-SIM卡或者大容量的闪存装置中。
针对图4和图7描述的功能框图中的一个或多个和/或功能框图的一个或多个组合,可以实现为用于执行本申请所描述功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑器件、分立硬件组件、或者其任意适当组合。针对图4和图7描述的功能框图中的一个或多个和/或功能框图的一个或多个组合,还可以实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、与DSP通信结合的一个或多个微处理器或者任何其它这种配置。
以上结合具体的实施方式对本发明进行了描述,但本领域技术人员应该清楚,这些描述都是示例性的,并不是对本发明保护范围的限制。本领域技术人员可以根据本发明的精神和原理对本发明做出各种变型和修改,这些变型和修改也在本发明的范围内。
Claims (7)
1.一种基于深度神经网络的识别装置,所述深度神经网络是通过将包括正样本和负样本的训练样本输入到深度神经网络的输入层中进行训练而得到的,
所述装置包括:
判定单元,所述判定单元用于当所述深度神经网络的输出层输出的分类结果中各个正样本分类的置信度均小于预定阈值时,判定待识别样本是疑似异常样本。
2.根据权利要求1所述的装置,其中,所述各个正样本分类的置信度是所述待识别样本与各个正样本分类的相似度。
3.根据权利要求1所述的装置,其中,所述装置还包括:
无效单元,所述无效单元用于当所述深度神经网络的输出层输出所述分类结果时,将负样本分类以及所述负样本分类的置信度设置为无效。
4.一种深度神经网络的训练装置,包括:
输入单元,所述输入单元用于将包括正样本和负样本的训练样本输入到深度神经网络的输入层中;
设置单元,所述设置单元用于对于所述训练样本中的正样本,将所述正样本所在正样本分类的真值标签设为1,并将其他正样本分类的真值标签设为0;对于所述训练样本中的负样本,将所有正样本分类的真值标签均设为0;
输出单元,所述输出单元用于使得所述深度神经网络的输出层输出所述训练样本与各个正样本分类的相似度。
5.根据权利要求4所述的装置,其中,所述装置还包括:
获取单元,所述获取单元用于根据所述深度神经网络的输出层输出的所述训练样本与各个正样本分类的相似度、以及根据所述真值标签获得的所述训练样本的真值,获得网络损失;
调整单元,所述调整单元用于对于所述训练样本中的正样本,根据预设的权重对所述网络损失进行调整;
后向传播单元,其用于根据调整后的所述网络损失进行所述深度神经网络的后向传播。
6.根据权利要求5所述的装置,其中,所述调整单元根据以下的公式(1)对所述网络损失进行调整:
其中,l′表示调整后的网络损失;l表示调整前的网络损失,w表示预设的权重,w为大于或小于1的正数,s∈{negative}表示当前训练样本为负样本,s∈{positive}表示当前训练样本为正样本。
7.一种电子设备,包括根据权利要求1所述的识别装置或权利要求4所述的训练装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610298158.0A CN107346448B (zh) | 2016-05-06 | 2016-05-06 | 基于深度神经网络的识别装置、训练装置及方法 |
KR1020170054482A KR102048390B1 (ko) | 2016-05-06 | 2017-04-27 | 심층 신경망 기반의 인식 장치, 트레이닝 장치, 및 이들의 방법 |
EP17168391.5A EP3242255A1 (en) | 2016-05-06 | 2017-04-27 | Recognition apparatus based on deep natural network, training apparatus and methods thereof |
JP2017089573A JP6922387B2 (ja) | 2016-05-06 | 2017-04-28 | ディープニューラルネットワークに基づく認識装置、トレーニング装置及び方法 |
US15/587,803 US11049007B2 (en) | 2016-05-06 | 2017-05-05 | Recognition apparatus based on deep neural network, training apparatus and methods thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610298158.0A CN107346448B (zh) | 2016-05-06 | 2016-05-06 | 基于深度神经网络的识别装置、训练装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107346448A true CN107346448A (zh) | 2017-11-14 |
CN107346448B CN107346448B (zh) | 2021-12-21 |
Family
ID=58638757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610298158.0A Active CN107346448B (zh) | 2016-05-06 | 2016-05-06 | 基于深度神经网络的识别装置、训练装置及方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11049007B2 (zh) |
EP (1) | EP3242255A1 (zh) |
JP (1) | JP6922387B2 (zh) |
KR (1) | KR102048390B1 (zh) |
CN (1) | CN107346448B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993065A (zh) * | 2019-03-06 | 2019-07-09 | 开易(北京)科技有限公司 | 基于深度学习的驾驶员行为检测方法和系统 |
CN111353511A (zh) * | 2018-12-20 | 2020-06-30 | 富士通株式会社 | 号码识别装置及方法 |
CN111652664A (zh) * | 2019-03-04 | 2020-09-11 | 富士通株式会社 | 训练混合元学习网络的装置和方法 |
CN111931799A (zh) * | 2019-05-13 | 2020-11-13 | 百度在线网络技术(北京)有限公司 | 图像识别方法及装置 |
CN112132088A (zh) * | 2020-09-29 | 2020-12-25 | 动联(山东)电子科技有限公司 | 一种巡检点位漏巡识别方法 |
CN113344415A (zh) * | 2021-06-23 | 2021-09-03 | 中国平安财产保险股份有限公司 | 基于深度神经网络的业务分配方法、装置、设备及介质 |
CN117313899A (zh) * | 2023-11-23 | 2023-12-29 | 全芯智造技术有限公司 | 用于数据处理的方法、设备和介质 |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3566177A1 (en) * | 2017-02-03 | 2019-11-13 | Siemens Aktiengesellschaft | A method and apparatus for detecting objects of interest in images |
US11100399B2 (en) * | 2017-11-21 | 2021-08-24 | International Business Machines Corporation | Feature extraction using multi-task learning |
US11068787B2 (en) * | 2017-12-15 | 2021-07-20 | Uber Technologies, Inc. | Training neural networks using evolution based strategies and novelty search |
JP6993863B2 (ja) * | 2017-12-18 | 2022-01-14 | 株式会社日立製作所 | 情報処理システムおよび情報処理システムの学習方法 |
CN108229555B (zh) * | 2017-12-29 | 2019-10-25 | 深圳云天励飞技术有限公司 | 样本权重分配方法、模型训练方法、电子设备及存储介质 |
CN110022182A (zh) * | 2018-01-10 | 2019-07-16 | 富士通株式会社 | 干扰源预测模型建立方法、干扰源识别方法、装置和终端设备 |
KR101889510B1 (ko) * | 2018-02-05 | 2018-08-17 | 문경훈 | 심층 신경망을 이용한 정수 처리에서의 응집제 주입률 예측 방법 |
US11501157B2 (en) | 2018-07-30 | 2022-11-15 | International Business Machines Corporation | Action shaping from demonstration for fast reinforcement learning |
US11537872B2 (en) | 2018-07-30 | 2022-12-27 | International Business Machines Corporation | Imitation learning by action shaping with antagonist reinforcement learning |
US11734575B2 (en) | 2018-07-30 | 2023-08-22 | International Business Machines Corporation | Sequential learning of constraints for hierarchical reinforcement learning |
CN109376757B (zh) * | 2018-09-06 | 2020-09-08 | 苏州飞搜科技有限公司 | 一种多标签分类方法及系统 |
CN111046891A (zh) * | 2018-10-11 | 2020-04-21 | 杭州海康威视数字技术股份有限公司 | 车牌识别模型的训练方法、车牌识别方法和装置 |
CN109583301B (zh) * | 2018-10-29 | 2021-08-31 | 广东奥博信息产业股份有限公司 | 一种农作物生长过程最优外部种植条件预测方法及装置 |
CN109948651A (zh) * | 2019-02-13 | 2019-06-28 | 平安科技(深圳)有限公司 | 卷积神经网络的池化方法、装置及存储介质、计算机设备 |
CN111783932A (zh) * | 2019-04-03 | 2020-10-16 | 华为技术有限公司 | 训练神经网络的方法和装置 |
CN110362681B (zh) * | 2019-06-19 | 2023-09-22 | 平安科技(深圳)有限公司 | 问答系统重复问题识别方法、装置及存储介质 |
CN110428052B (zh) * | 2019-08-01 | 2022-09-06 | 江苏满运软件科技有限公司 | 深度神经网络模型的构建方法、装置、介质及电子设备 |
WO2021026805A1 (zh) * | 2019-08-14 | 2021-02-18 | 东莞理工学院 | 对抗样本检测方法、装置、计算设备及计算机存储介质 |
CN110517670A (zh) * | 2019-08-28 | 2019-11-29 | 苏州思必驰信息科技有限公司 | 提升唤醒性能的方法和装置 |
CN110993028B (zh) * | 2019-12-17 | 2022-03-29 | 清华大学 | 突变数据识别方法、训练方法、处理装置及存储介质 |
CN111160454B (zh) * | 2019-12-27 | 2023-12-22 | 北京旋极信息技术股份有限公司 | 一种速变信号检测方法和装置 |
CN113190646B (zh) * | 2020-01-14 | 2024-05-07 | 北京达佳互联信息技术有限公司 | 一种用户名样本的标注方法、装置、电子设备及存储介质 |
CN111461164B (zh) * | 2020-02-25 | 2024-04-12 | 清华大学 | 样本数据集的扩容方法及模型的训练方法 |
CN112380319B (zh) * | 2020-11-12 | 2023-10-17 | 平安科技(深圳)有限公司 | 一种模型训练的方法及相关装置 |
CN112396513B (zh) * | 2020-11-27 | 2024-02-20 | 中国银联股份有限公司 | 一种数据处理的方法及装置 |
CN112966110A (zh) * | 2021-03-17 | 2021-06-15 | 中国平安人寿保险股份有限公司 | 文本类别识别方法及相关设备 |
CN114462465A (zh) * | 2021-09-30 | 2022-05-10 | 马上消费金融股份有限公司 | 一种分类模型的训练方法、质检预测方法及对应装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5903884A (en) * | 1995-08-08 | 1999-05-11 | Apple Computer, Inc. | Method for training a statistical classifier with reduced tendency for overfitting |
CN101814149A (zh) * | 2010-05-10 | 2010-08-25 | 华中科技大学 | 一种基于在线学习的自适应级联分类器训练方法 |
CN104408475A (zh) * | 2014-12-08 | 2015-03-11 | 深圳市捷顺科技实业股份有限公司 | 一种车牌识别方法及车牌识别设备 |
CN104951784A (zh) * | 2015-06-03 | 2015-09-30 | 杨英仓 | 一种车辆无牌及车牌遮挡实时检测方法 |
CN105447730A (zh) * | 2015-12-25 | 2016-03-30 | 腾讯科技(深圳)有限公司 | 目标用户定向方法及装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3238178B2 (ja) * | 1990-12-27 | 2001-12-10 | 株式会社東芝 | 学習機械の学習法 |
GB0209780D0 (en) | 2002-04-29 | 2002-06-05 | Neural Technologies Ltd | Method of encoding data for decoding data from and constraining a neural network |
US8364617B2 (en) * | 2007-01-19 | 2013-01-29 | Microsoft Corporation | Resilient classification of data |
JP5846553B2 (ja) * | 2010-09-13 | 2016-01-20 | 国立大学法人東京工業大学 | 属性の学習及び転移システム、認識器生成装置、認識器生成方法及び認識装置 |
US9015082B1 (en) * | 2010-12-14 | 2015-04-21 | Symantec Corporation | Data quality assessment for vector machine learning |
CN102521656B (zh) | 2011-12-29 | 2014-02-26 | 北京工商大学 | 非平衡样本分类的集成迁移学习方法 |
JP5974576B2 (ja) * | 2012-03-26 | 2016-08-23 | 富士ゼロックス株式会社 | 文字認識学習装置、文字認識装置、およびプログラム |
JP2016006626A (ja) * | 2014-05-28 | 2016-01-14 | 株式会社デンソーアイティーラボラトリ | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 |
CN104102919B (zh) | 2014-07-14 | 2017-05-24 | 同济大学 | 一种有效防止卷积神经网络过拟合的图像分类方法 |
US9646634B2 (en) * | 2014-09-30 | 2017-05-09 | Google Inc. | Low-rank hidden input layer for speech recognition neural network |
CN105354568A (zh) | 2015-08-24 | 2016-02-24 | 西安电子科技大学 | 基于卷积神经网络的车标识别方法 |
US10579923B2 (en) * | 2015-09-15 | 2020-03-03 | International Business Machines Corporation | Learning of classification model |
-
2016
- 2016-05-06 CN CN201610298158.0A patent/CN107346448B/zh active Active
-
2017
- 2017-04-27 KR KR1020170054482A patent/KR102048390B1/ko active IP Right Grant
- 2017-04-27 EP EP17168391.5A patent/EP3242255A1/en not_active Ceased
- 2017-04-28 JP JP2017089573A patent/JP6922387B2/ja active Active
- 2017-05-05 US US15/587,803 patent/US11049007B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5903884A (en) * | 1995-08-08 | 1999-05-11 | Apple Computer, Inc. | Method for training a statistical classifier with reduced tendency for overfitting |
CN101814149A (zh) * | 2010-05-10 | 2010-08-25 | 华中科技大学 | 一种基于在线学习的自适应级联分类器训练方法 |
CN104408475A (zh) * | 2014-12-08 | 2015-03-11 | 深圳市捷顺科技实业股份有限公司 | 一种车牌识别方法及车牌识别设备 |
CN104951784A (zh) * | 2015-06-03 | 2015-09-30 | 杨英仓 | 一种车辆无牌及车牌遮挡实时检测方法 |
CN105447730A (zh) * | 2015-12-25 | 2016-03-30 | 腾讯科技(深圳)有限公司 | 目标用户定向方法及装置 |
Non-Patent Citations (1)
Title |
---|
高大启: "《自适应RBF-LBF 串联神经网络结构与参数优化方法》", 《计算机学报》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111353511A (zh) * | 2018-12-20 | 2020-06-30 | 富士通株式会社 | 号码识别装置及方法 |
CN111353511B (zh) * | 2018-12-20 | 2024-03-08 | 富士通株式会社 | 号码识别装置及方法 |
CN111652664A (zh) * | 2019-03-04 | 2020-09-11 | 富士通株式会社 | 训练混合元学习网络的装置和方法 |
CN109993065A (zh) * | 2019-03-06 | 2019-07-09 | 开易(北京)科技有限公司 | 基于深度学习的驾驶员行为检测方法和系统 |
CN109993065B (zh) * | 2019-03-06 | 2022-08-23 | 开易(北京)科技有限公司 | 基于深度学习的驾驶员行为检测方法和系统 |
CN111931799A (zh) * | 2019-05-13 | 2020-11-13 | 百度在线网络技术(北京)有限公司 | 图像识别方法及装置 |
CN112132088A (zh) * | 2020-09-29 | 2020-12-25 | 动联(山东)电子科技有限公司 | 一种巡检点位漏巡识别方法 |
CN112132088B (zh) * | 2020-09-29 | 2024-01-12 | 动联(山东)电子科技有限公司 | 一种巡检点位漏巡识别方法 |
CN113344415A (zh) * | 2021-06-23 | 2021-09-03 | 中国平安财产保险股份有限公司 | 基于深度神经网络的业务分配方法、装置、设备及介质 |
CN117313899A (zh) * | 2023-11-23 | 2023-12-29 | 全芯智造技术有限公司 | 用于数据处理的方法、设备和介质 |
CN117313899B (zh) * | 2023-11-23 | 2024-02-23 | 全芯智造技术有限公司 | 用于数据处理的方法、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
US11049007B2 (en) | 2021-06-29 |
US20170323202A1 (en) | 2017-11-09 |
KR20170125720A (ko) | 2017-11-15 |
CN107346448B (zh) | 2021-12-21 |
JP2017201526A (ja) | 2017-11-09 |
JP6922387B2 (ja) | 2021-08-18 |
KR102048390B1 (ko) | 2019-11-25 |
EP3242255A1 (en) | 2017-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107346448A (zh) | 基于深度神经网络的识别装置、训练装置及方法 | |
Ji et al. | Refine myself by teaching myself: Feature refinement via self-knowledge distillation | |
CN108304936B (zh) | 机器学习模型训练方法和装置、表情图像分类方法和装置 | |
CN110309840B (zh) | 风险交易识别方法、装置、服务器及存储介质 | |
US10892050B2 (en) | Deep image classification of medical images | |
CN109034159A (zh) | 图像信息提取方法和装置 | |
CN108345641B (zh) | 一种爬取网站数据的方法、存储介质和服务器 | |
CN107563280A (zh) | 基于多模型的人脸识别方法和装置 | |
CN110263673A (zh) | 面部表情识别方法、装置、计算机设备及存储介质 | |
CN109657694A (zh) | 图片自动分类方法、装置及计算机可读存储介质 | |
US11348238B2 (en) | Method and system for training a separation of overlapping chromosome recognition model based on simulation | |
CN109460774B (zh) | 一种基于改进的卷积神经网络的鸟类识别方法 | |
CN108108767A (zh) | 一种谷物识别方法、装置和计算机存储介质 | |
CN107229952A (zh) | 图像的识别方法及装置 | |
CN108009481A (zh) | 一种cnn模型的训练方法及装置、人脸识别方法及装置 | |
Deng et al. | Deep and structured robust information theoretic learning for image analysis | |
CN108446817A (zh) | 确定业务对应的决策策略的方法、装置和电子设备 | |
Saberian et al. | Boosting algorithms for detector cascade learning | |
CN113255573A (zh) | 基于混合簇中心标签学习的行人重识别方法和存储介质 | |
CN109299785A (zh) | 一种机器学习模型的实现方法及装置 | |
CN111626250A (zh) | 文本图像的分行方法、装置、计算机设备及可读存储介质 | |
CN109034279B (zh) | 手写模型训练方法、手写字识别方法、装置、设备及介质 | |
CN110175500A (zh) | 指静脉比对方法、装置、计算机设备及存储介质 | |
Zeng et al. | Learning-based multiple pooling fusion in multi-view convolutional neural network for 3D model classification and retrieval | |
CN115114992A (zh) | 分类模型训练的方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |