CN111382834B - 一种置信度比较方法及装置 - Google Patents

一种置信度比较方法及装置 Download PDF

Info

Publication number
CN111382834B
CN111382834B CN201811641109.8A CN201811641109A CN111382834B CN 111382834 B CN111382834 B CN 111382834B CN 201811641109 A CN201811641109 A CN 201811641109A CN 111382834 B CN111382834 B CN 111382834B
Authority
CN
China
Prior art keywords
target
layer
feature
target feature
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811641109.8A
Other languages
English (en)
Other versions
CN111382834A (zh
Inventor
胡锋杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201811641109.8A priority Critical patent/CN111382834B/zh
Publication of CN111382834A publication Critical patent/CN111382834A/zh
Application granted granted Critical
Publication of CN111382834B publication Critical patent/CN111382834B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种置信度比较方法及装置,所述方法应用于深度学习网络,可以通过获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和目标特征二;通过计算所述目标特征一与所述目标特征二之差比较置信度大小。本申请通过将两个变量参数的softmax计算等价于两个变量参数的减法操作,在保证算法结果完全不变的前提下,去除了softmax层,从而精简了深度学习网络的结构,解决了实际工程中softmax层计算耗时和精度损失的问题,提升了整个网络的性能。

Description

一种置信度比较方法及装置
技术领域
本申请涉及目标检测技术领域,尤其涉及一种置信度比较方法及装置。
背景技术
计算机视觉中的目标检测算法作为人工智能的一个热门技术,近年来得到了飞速发展,Faster RCNN是一种广泛应用的基于神经网络结构的目标检测算法。在Faster RCNN的候选区域生成网络(RPN)中,通过Softmax层计算可得到候选区域的置信度。
由于Softmax层的核心计算是求指数运算exp操作,一些智能芯片在硬件上没有设计针对exp操作的电路,不支持exp操作。因此,在实际工程中处理RPN网络的Softmax层时,一般采用软件层面模拟的方式实现,由于该层计算量大,软件模拟的方法会增加整个算法的耗时,目标检测效率低,且影响整个算法的检测效果。
发明内容
有鉴于此,为了解决现有技术中采用软件模拟的方法会增加整个算法耗时的问题,本申请提供一种置信度比较方法及装置,可以在保证算法结果完全不变的前提下,去除了softmax层,从而精简了深度学习的网络结构,解决了实际工程中softmax层计算耗时和精度损失的问题,提升了整个网络的性能。
具体地,本申请是通过如下技术方案实现的:
根据本申请实施例的第一方面,提供一种置信度比较方法,所述方法应用于深度学习网络,所述方法包括:
获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二;
通过计算所述目标特征一与所述目标特征二之差比较置信度大小。
作为一个实施例,通过计算所述目标特征一与所述目标特征二之差比较置信度大小,包括:
当计算出第一目标特征一与第一目标特征二之差为第一差值,计算出第二目标特征一与第二目标特征二之差为第二差值时,当第一差值大于第二差值时,确定第一目标特征一对应的置信度大于第二目标特征一对应的置信度。
作为一个实施例,所述深度学习网络包括:RPN子网络;
所述RPN子网络包括:隐含层、Conv层和Proposal层;
所述Proposal层用于获取所述Conv层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值,根据多个差值的排序生成目标候选区域。
作为一个实施例,所述深度学习网络还包括:目标分类子网络;
所述目标分类子网络包括:Roipooling层、隐含层、Fc层和Frout层;
所述Frout层用于获取所述Fc层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值,根据多个差值的排序和RPN子网络输入的目标候选区域生成目标区域。
根据本申请实施例的第二方面,提供一种置信度比较装置,所述装置应用于深度学习网络,所述装置包括:
获取单元,用于获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二;
计算单元,用于通过计算所述目标特征一与所述目标特征二之差比较置信度大小。
作为一个实施例,所述计算单元,还用于当计算出第一目标特征一与第一目标特征二之差为第一差值,计算出第二目标特征一与第二目标特征二之差为第二差值时,当第一差值大于第二差值时,确定第一目标特征一对应的置信度大于第二目标特征一对应的置信度。
作为一个实施例,所述深度学习网络包括:RPN子网络;
所述RPN子网络包括:隐含层、Conv层和Proposal层;
所述Proposal层用于获取所述Conv层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值,根据多个差值的排序生成目标候选区域。
作为一个实施例,所述深度学习网络还包括:目标分类子网络;
所述目标分类子网络包括:Roipooling层、隐含层、Fc层和Frout层;
所述Frout层用于获取所述Fc层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值,根据多个差值的排序和RPN子网络输入的目标候选区域生成目标区域。
根据本申请实施例的第三方面,提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现任一所述置信度比较方法的步骤。
根据本申请实施例的第四方面,提供一种计算机设备,其特征在于,所述计算机设备包括存储器、处理器、通信接口以及通信总线;其中,所述存储器、处理器、通信接口通过所述通信总线进行相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的计算机程序,所述处理器执行所述计算机程序时实现任一所述置信度比较方法的步骤。
由上述实施例可见,本申请可以通过获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二;通过计算所述目标特征一与所述目标特征二之差比较置信度大小。本申请通过将两个变量参数的softmax计算等价于两个变量参数的减法操作,在保证算法结果完全不变的前提下,去除了softmax层,从而精简了深度学习网络的结构,解决了实际工程中softmax层计算耗时和精度损失的问题,提升了整个网络的性能。
附图说明
图1为本申请示例性的Faster RCNN算法流程图;
图2为本申请示例性的RPN子网络的结构示意图;
图3为本申请示例性的目标分类子网络的结构示意图;
图4本申请示例性的RPN子网络的功能模块示意图;
图5为本申请示例性的一种置信度比较方法的实施例流程图;
图6为本申请示例性的RPN子网络优化的结构示意图;
图7为本申请示例性的目标分类子网络优化的结构示意图;
图8为本申请置信度比较装置的一个实施例框图;
图9为本申请一种计算机设备的一个实施例框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本申请适用于深度学习网络,该深度学习网络包括与Faster RCNN目标检测网络类似的多种网络模型,下述实施例中,以Faster RCNN目标检测网络为例,对本发明的方案进行示例性说明。
请参见图1,是Faster RCNN算法流程图,其中Faster RCNN目标检测网络包括三个子网络,具体为:特征提取子网络,RPN子网络(Region Proposal Network,区域生成网络)和目标分类子网络,整个算法输入图像数据,输出目标区域。其中:
特征提取子网络由Conv、Relu、Pool等一系列层隐含层构成,它用于输入原始图片,输出一个3维特征数据,称为特征图;
RPN子网络用于输入特征图和原始图片的、宽高信息,输出N个用坐标形式(x0,y0,x1,y1)表示的目标候选区域。目标候选区域的物理意义是:将原图左上角对应二维坐标轴原点,沿宽度向右为X轴,沿高度向下为Y轴,则根据候选区域坐标点(x0,y0,x1,y1)所形成的矩形,表征原图一个可能的目标区域。图2是RPN子网络的典型网络结构,其中求置信度Conv0+Softamx层、求修正值Conv1层和求目标候选区域Proposal层是标准结构;
目标分类网络用于络输入特征图、原始图片宽高信息和目标候选区域,输出最终的检测目标区域。图3是目标生成子网络的典型网络结构,其中Roipooling层、求置信度fc0+softmax层、求修正参数fc1层和求目标区域的输出层Frout是标准结构。
图4是RPN的功能模块示意图,本发明作用于RPN子网络的功能模块404和功能模块405,以下是RPN各功能模块的详细介绍:
生成锚点401用于令原始图片的宽和高为width和height,将width和height等间距切分,形成M个相同面积的矩形,称为锚点(Anchor),每个Anchor按照S个尺度和R个倍率进行扩展成,一共形成M*S*R个Anchor,每个Anchor用坐标(x0’,y0’,x1’,y1’)表示;
生成修正参数402用于在特征图经过一些隐含层后,输入到Covn层中,输出大小为M*S*R*4个修正参数,与M*S*R个Anchor一一对应,即一个Anchor对应4个修正参数,这4个修正参数可以产生x轴方向移位,y轴方向移位,宽度尺寸变换系数、高度尺度变换系数,用来对Anchor位置进行修正;
生成备选候选区域403用于在每个Anchor的坐标值(x0’,y0’,x1’,y1’)经过修正参数修正后,变成坐标值为(x0,y0,x1,y1)的框,称为备选候选区域,表征该框坐标范围内的区域可能是一个目标。
生成置信度404用于在特征图经过一些隐含层后,输入到Covn层和Softmax层串联的网络中,输出置信度。首先。由隐含层输出的新特征输入到Conv层中,输出大小为M*S*R*2的目标特征一和目标特征二,在Faster RCNN网络中,目标特征一对应为前景特征,目标特征二对应为背景特征。其中前M*S*R个点对应的目标特征二,后M*S*R个点对应目标特征一;然后,将目标特征一、目标特征二输入到Softmax层中输出M*S*R个前景置信度和M*S*R个背景置信度,其中M*S*R个前景置信度与备选候选区域对应,表征备选候选区域是前景的概率,另外M*S*R个背景置信度与备选候选区域对应,表征备选候选区域是背景的概率。此处,目标特征一和目标特征二做Softmax的过程具体为:令符号i表示一个前景点,对应的背景点用符号j表示,max是i和j两者的最大值,则前景点i的置信度confi可以用面的公式计算:
生成候选区域405用于与生成备选候选区域403生成的备选候选区域和生成置信度404生成的前景置信度一一对应。令最高置信度的备选候选区域为基准候选区域,它与剩下的备选候选区域逐个进行NMS抑制,基准候选区域和被抑制的候选区域从基准备选区域中删除,基准候选区域作为一个候选区域输出(其中NMS抑制原理为:令基准框的面积为S1,另一个框的面积为S2,若S1交集S2的面积大于K倍的S1面积和S2面积之和,则S2的框被删除,K∈(0,1));剩余的备选候选区域重复上述过程,直到输出N个有效的目标候选区域,或所有备选候选区域均被删除为止。
在生成置信度404中,公式1表明Softmax层的核心计算部分是求指数操作exp,一些智能芯片在硬件设计上没有支持exp,它们处理exp往往采用软件模拟的方式,这会带来耗时增大和精度损失的问题,使得深度学习网络无法应用或性能不高。同理,目标分类子网络中的Softmax层也存在同样的问题。
为了解决现有技术中深度学习网络采用Softamx层计算量较大导致的计算耗时问题,本申请提供一种置信度比较方法及装置,可以通过获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二;通过计算所述目标特征一与所述目标特征二之差比较置信度大小。本申请通过将两个变量参数的softmax计算等价于两个变量参数的减法操作,在保证算法结果完全不变的前提下,去除了softmax层,从而精简了深度学习网络的结构,解决了实际工程中softmax层计算耗时和精度损失的问题,提升了整个网络的性能。
如下,示出下述实施例对本申请提供的置信度比较方法进行说明。
请参见图5,为本申请示例性的一种置信度比较方法的实施例流程图,该方法应用于深度学习网络,所述深度学习网络包括Faster RCNN网络等,该方法包括以下步骤:
步骤501、获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二;
步骤502、通过计算所述目标特征一与所述目标特征二之差比较置信度大小。
需要说明的是,本申请中的目标特征一和目标特征二是从特征提取子网络中获取的变量参数,例如所述目标特征一是前景特征,目标特征二是背景特征,两者作为变量参数是用于进行置信度比较,并非是特征提取子网络的最终输出结果。
由于在上述生成候选区域405中,选取最高置信度的备选候选区域需要通过比较置信度高低的方法实现,结合softmax公式(一),以置信度i和置信度p的比较过程为例,可以通过下列公式(二)进行:
此处,maxa=max(i,j),maxb=max(p,q),其中i和j分别为置信度i的目标特征一的置信度和目标特征二的置信度,p和q分别为置信度p的目标特征一的置信度和目标特征二的置信度,则将公式(二)进行推导:
在数学上,由于exp是个单调递增函数,且其值均大于0,因此可以推导出:
confi-confp>0等价于(i-j)-(p-j)>0 公式(三)
因此,根据公式(三)可知,在选取最高置信度候选区域时,用目标特征一和目标特征二作差的结果作为判断置信度高低的依据,和用softmax结果作为判断置信度高低的依据,得到的结果是一致的。
因此根据上述推导结果可知,本申请可以通过获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二;并通过计算所述目标特征一与所述目标特征二之差,来比较置信度的大小。具体来讲,当计算出第一目标特征一与第一目标特征二之差为第一差值,计算出第二目标特征一与第二目标特征二之差为第二差值时,当第一差值大于第二差值时,确定第一目标特征一对应的置信度大于第二目标特征一对应的置信度。
作为一个实施例,请参考图6所示的RPN子网络优化结构,其中该RPN子网络包括:隐含层、Conv层和Proposal层;所述Proposal层用于获取所述Conv层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值,根据多个差值的排序生成目标候选区域。
按上述原理,本发明中对RPN子网络的功能模块404修改为:
生成前景目标特征二404:用于获取前景和目标特征二,前M*S*R个点对应背景,后M*S*R个点对应前景。其中目标特征一和目标特征二之差得到的结果作为前景置信度。从而生成候选区域405可以根据生成前景目标特征二404输出的前景置信度比较置信度的大小,从而选择出目标候选区域。
由于在单目标检测任务中,目标分类子网络输出最终目标区域的原理与RPN子网络生成目标候选区域的原理相似,其中选取最高置信度候选区域与其它候选区域进行NMS抑制的过程是相同的,因此,本申请的置信度比较方法也可以应用到Faster RCNN单目标检测任务的目标分类子网络中。
作为一个实施例,请参考图7所示的目标分类子网络优化结构,其中该目标分类子网络包括:Roipooling层、隐含层、Fc层和Frout层;所述Frout层用于获取所述Fc层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值,Frout层中以前景背景的差值结果进行排序,得到最终的目标区域后再计算置信度,从而减少了求置信度的计算量。
由此可见,本申请将两个变量参数的softmax计算等价于两个变量参数的减法操作,在保证算法结果完全不变的前提下,精简了深度学习网络的结构,具体的,它去除了RPN子网络中的softmax层;对于FRCNN单目标检测应用,它还能去除目标分类子网络中的softmax层。因此解决了实际工程中softmax计算耗时和精度损失的问题,提升了整个网络的性能。
与前述置信度比较方法的实施例相对应,本申请还提供了置信度比较装置的实施例。
请参见图8,为本申请置信度比较装置的一个实施例框图,该装置应用于深度学习网络,该装置80可以包括:
获取单元81,用于获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二;
计算单元82,用于通过计算所述目标特征一与所述目标特征二之差比较置信度大小。
作为一个实施例,所述计算单元82,还用于当计算出第一目标特征一与第一目标特征二之差为第一差值,计算出第二目标特征一与第二目标特征二之差为第二差值时,当第一差值大于第二差值时,确定第一目标特征一对应的置信度大于第二目标特征一对应的置信度。
作为一个实施例,所述深度学习网络包括:RPN子网络;
所述RPN子网络包括:隐含层、Conv层和Proposal层;
所述Proposal层用于获取所述Conv层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值,根据多个差值的排序生成目标候选区域。
作为一个实施例,所述深度学习网络还包括:目标分类子网络;
所述目标分类子网络包括:Roipooling层、隐含层、Fc层和Frout层;
所述Frout层用于获取所述Fc层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值,根据多个差值的排序和RPN子网络输入的目标候选区域生成目标区域。
由上述实施例可见,本申请可以通过获取深度学习网络中的特征提取子网络输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二;通过计算所述目标特征一与所述目标特征二之差比较置信度大小。本申请通过将两个变量参数的softmax计算等价于两个变量参数的减法操作,在保证算法结果完全不变的前提下,去除了softmax层,从而精简了深度学习网络的结构,解决了实际工程中softmax层计算耗时和精度损失的问题,提升了整个网络的性能。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
与前述置信度比较方法的实施例相对应,本申请还提供了用于执行上述置信度比较方法的计算机设备的实施例。
作为一个实施例,请参考图9,一种计算机设备,包括处理器91、通信接口92、存储器93和通信总线94;
其中,所述处理器91、通信接口92、存储器93通过所述通信总线94进行相互间的通信;
所述存储器93,用于存放计算机程序;
所述处理器91,用于执行所述存储器93上所存放的计算机程序,所述处理器91执行所述计算机程序时实现任一所述置信度比较方法的步骤。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于计算机设备的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
与前述置信度比较方法的实施例相对应,本申请还提供了用于执行上述置信度比较方法的计算机可读存储介质的实施例。
作为一个实施例,本申请还包括一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现任一所述置信度比较方法的步骤。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例以及计算机可读存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (8)

1.一种置信度比较方法,其特征在于,所述方法应用于深度学习网络,所述方法包括:
获取深度学习网络中的特征提取子网络对输入的图像数据进行特征提取后输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二,所述目标特征一为前景特征,所述目标特征二为背景特征;
计算出第一目标特征一与第一目标特征二的差值为第一差值,计算出第二目标特征一与第二目标特征二为第二差值,将计算出的差值作为所述深度学习网络的softmax结果,当第一差值大于第二差值时,确定第一目标特征一对应的置信度大于第二目标特征二目标特征一对应的置信度,置信度比较结果用于确定进行目标检测的目标区域。
2.根据权利要求1所述的方法,其特征在于,所述深度学习网络包括:RPN子网络;
所述RPN子网络包括:隐含层、Conv层和Proposal层;
所述Proposal层用于获取所述Conv层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值;根据多个差值的排序生成目标候选区域。
3.根据权利要求1所述的方法,其特征在于,所述深度学习网络还包括:目标分类子网络;
所述目标分类子网络包括: Roipooling层、隐含层、Fc层和Frout层;
所述Frout层用于获取所述Fc层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值;根据多个差值的排序和RPN子网络输入的目标候选区域生成目标区域。
4.一种置信度比较装置,其特征在于,所述装置应用于深度学习网络,所述装置包括:
获取单元,用于获取深度学习网络中的特征提取子网络对输入的图像数据进行特征提取后输出的用于置信度比较的变量参数,所述变量参数包括目标特征一和对应的目标特征二,所述目标特征一为前景特征,所述目标特征二为背景特征;
计算单元,用于计算出第一目标特征一与第一目标特征二的差值为第一差值,计算出第二目标特征一与第二目标特征二为第二差值,将计算出的差值作为所述深度学习网络的softmax结果,当第一差值大于第二差值时,确定第一目标特征一对应的置信度大于第二目标特征二目标特征一对应的置信度,置信度比较结果用于确定进行目标检测的目标区域。
5.根据权利要求4所述的装置,其特征在于,所述深度学习网络包括:RPN子网络;
所述RPN子网络包括:隐含层、Conv层和Proposal层;
所述Proposal层用于获取所述Conv层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值;根据多个差值的排序生成目标候选区域。
6.根据权利要求4所述的装置,其特征在于,所述深度学习网络还包括:目标分类子网络;
所述目标分类子网络包括: Roipooling层、隐含层、Fc层和Frout层;
所述Frout层用于获取所述Fc层输出的多个目标特征一和对应的多个目标特征二;计算每一对目标特征一和目标特征二对应的差值;根据多个差值的排序和RPN子网络输入的目标候选区域生成目标区域。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-3任一所述方法的步骤。
8.一种计算机设备,其特征在于,所述计算机设备包括存储器、处理器、通信接口以及通信总线;其中,所述存储器、处理器、通信接口通过所述通信总线进行相互间的通信;
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的计算机程序,所述处理器执行所述计算机程序时实现权利要求1-3任一所述方法的步骤。
CN201811641109.8A 2018-12-29 2018-12-29 一种置信度比较方法及装置 Active CN111382834B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811641109.8A CN111382834B (zh) 2018-12-29 2018-12-29 一种置信度比较方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811641109.8A CN111382834B (zh) 2018-12-29 2018-12-29 一种置信度比较方法及装置

Publications (2)

Publication Number Publication Date
CN111382834A CN111382834A (zh) 2020-07-07
CN111382834B true CN111382834B (zh) 2023-09-29

Family

ID=71222281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811641109.8A Active CN111382834B (zh) 2018-12-29 2018-12-29 一种置信度比较方法及装置

Country Status (1)

Country Link
CN (1) CN111382834B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668666A (zh) * 2021-01-12 2021-04-16 北京格灵深瞳信息技术股份有限公司 基于ssd的目标检测方法、装置、终端及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107229904A (zh) * 2017-04-24 2017-10-03 东北大学 一种基于深度学习的目标检测与识别方法
CN107368845A (zh) * 2017-06-15 2017-11-21 华南理工大学 一种基于优化候选区域的Faster R‑CNN目标检测方法
CN107480730A (zh) * 2017-09-05 2017-12-15 广州供电局有限公司 电力设备识别模型构建方法和系统、电力设备的识别方法
CN108256630A (zh) * 2018-01-23 2018-07-06 深圳市唯特视科技有限公司 一种基于低维流形正则化神经网络的过拟合解决方法
CN108648211A (zh) * 2018-05-16 2018-10-12 思百达物联网科技(北京)有限公司 一种基于深度学习的小目标检测方法、装置、设备和介质
CN109063649A (zh) * 2018-08-03 2018-12-21 中国矿业大学 基于孪生行人对齐残差网络的行人重识别方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9842585B2 (en) * 2013-03-11 2017-12-12 Microsoft Technology Licensing, Llc Multilingual deep neural network
US10210418B2 (en) * 2016-07-25 2019-02-19 Mitsubishi Electric Research Laboratories, Inc. Object detection system and object detection method
US10380741B2 (en) * 2016-12-07 2019-08-13 Samsung Electronics Co., Ltd System and method for a deep learning machine for object detection
US10657424B2 (en) * 2016-12-07 2020-05-19 Samsung Electronics Co., Ltd. Target detection method and apparatus
US10817509B2 (en) * 2017-03-16 2020-10-27 Massachusetts Institute Of Technology System and method for semantic mapping of natural language input to database entries via convolutional neural networks
CN115035403B (zh) * 2022-05-17 2024-08-06 三峡大学 多通道u型深度网络的高分辨率遥感影像变化检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107229904A (zh) * 2017-04-24 2017-10-03 东北大学 一种基于深度学习的目标检测与识别方法
CN107368845A (zh) * 2017-06-15 2017-11-21 华南理工大学 一种基于优化候选区域的Faster R‑CNN目标检测方法
CN107480730A (zh) * 2017-09-05 2017-12-15 广州供电局有限公司 电力设备识别模型构建方法和系统、电力设备的识别方法
CN108256630A (zh) * 2018-01-23 2018-07-06 深圳市唯特视科技有限公司 一种基于低维流形正则化神经网络的过拟合解决方法
CN108648211A (zh) * 2018-05-16 2018-10-12 思百达物联网科技(北京)有限公司 一种基于深度学习的小目标检测方法、装置、设备和介质
CN109063649A (zh) * 2018-08-03 2018-12-21 中国矿业大学 基于孪生行人对齐残差网络的行人重识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种基于Faster R-CNN的车辆检测算法;韩凯;张红英;王远;徐敏;;西南科技大学学报(第04期);全文 *
基于多尺度和多方向特征的人脸超分辨率算法;黄丽, 庄越挺, 苏从勇, 吴飞;计算机辅助设计与图形学学报(07);全文 *

Also Published As

Publication number Publication date
CN111382834A (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
CN114186632B (zh) 关键点检测模型的训练方法、装置、设备、存储介质
CN105260740B (zh) 一种元件识别方法及装置
CN111241924A (zh) 基于尺度估计的人脸检测及对齐方法、装置、存储介质
CN111008631A (zh) 图像的关联方法及装置、存储介质和电子装置
CN111105452A (zh) 基于双目视觉的高低分辨率融合立体匹配方法
CN112330569A (zh) 模型训练方法、文本去噪方法、装置、设备及存储介质
CN111707262B (zh) 基于最近点向量投影的点云匹配方法、介质、终端和装置
CN117671031A (zh) 双目相机标定方法、装置、设备及存储介质
CN113269280B (zh) 文本检测方法、装置、电子设备及计算机可读存储介质
CN111382834B (zh) 一种置信度比较方法及装置
JP2017068577A (ja) 演算装置、方法及びプログラム
CN116188917B (zh) 缺陷数据生成模型训练方法、缺陷数据生成方法及装置
CN112308917A (zh) 一种基于视觉的移动机器人定位方法
Shen et al. Fast adaptive optimization of weighted vector median filters
CN112907750A (zh) 一种基于卷积神经网络的室内场景布局估计方法及系统
CN117216591A (zh) 三维模型匹配、多模态特征映射模型的训练方法及装置
CN116543417A (zh) 人体姿态估计方法、装置、设备以及存储介质
CN116503282A (zh) 基于流形的挖掘机施工环境场点云去噪方法及系统
CN116071625A (zh) 深度学习模型的训练方法、目标检测方法及装置
CN107292840B (zh) 图像复原方法及装置、计算机可读存储介质、终端
CN112801045B (zh) 一种文本区域检测方法、电子设备及计算机存储介质
CN113034675B (zh) 一种场景模型构建方法、智能终端及计算机可读存储介质
CN113971687A (zh) 对象跟踪方法、装置电子设备及存储介质
CN116228850A (zh) 物体姿态估计方法、装置、电子设备及可读存储介质
US11393069B2 (en) Image processing apparatus, image processing method, and computer readable recording medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant