CN113780270A - 目标检测方法和装置 - Google Patents
目标检测方法和装置 Download PDFInfo
- Publication number
- CN113780270A CN113780270A CN202110307914.2A CN202110307914A CN113780270A CN 113780270 A CN113780270 A CN 113780270A CN 202110307914 A CN202110307914 A CN 202110307914A CN 113780270 A CN113780270 A CN 113780270A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- region
- value
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 102
- 238000012549 training Methods 0.000 claims abstract description 64
- 238000000034 method Methods 0.000 claims abstract description 58
- 238000011176 pooling Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 12
- 238000012886 linear function Methods 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 10
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 43
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000000605 extraction Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000000903 blocking effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241000009328 Perro Species 0.000 description 1
- 241000220317 Rosa Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本申请公开了一种目标检测方法和装置,涉及人工智能技术领域。该方法的一具体实施方式包括:获取待测图像;将待测图像输入已训练的目标检测模型,得到目标检测模型输出的待测图像上的目标边界框以及待测图像中目标的类别;目标检测模型包括:用于区分图像中的各个目标并生成包围各个目标的候选框的候选区域生成网络,候选区域生成网络参与训练的交并比被替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。该实施方式提高了目标检测的精度。
Description
技术领域
本申请涉及计算机技术领域,具体涉及人工智能技术领域,尤其涉及目标检测方法和装置、电子设备、计算机可读介质以及计算机程序产品。
背景技术
对于多尺度目标检测方法,现有技术中已经有相当多的研究。但是对于道路遮挡场景下遮挡物体或人物的检测,尚无成熟的方法及体系。在国际公开的道路场景遮挡行人的检测数据集上,采用常规的多尺度目标方法,仍然不能达到令人满意的程度。
发明内容
本申请的实施例提出了目标检测方法和装置、电子设备、计算机可读介质以及计算机程序产品。
第一方面,本申请的实施例提供了一种目标检测方法,该方法包括:获取待测图像;将待测图像输入已训练的目标检测模型,得到目标检测模型输出的待测图像上的目标边界框以及待测图像中目标的类别;目标检测模型包括:用于区分图像中的各个目标并生成包围各个目标的候选框的候选区域生成网络,候选区域生成网络参与训练的交并比被替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。
在一些实施例中,上述可见区域衰减系数随可见比例变化而变化,可见比例为真值框内的可见区域占目标全部可见区域的比例,其中,真值框内的可见区域为真值框与候选框两者之间可见区域的交集,目标全部可见区域为真值框中未被遮挡物遮挡的所有区域。
在一些实施例中,上述候选区域生成网络包括串联连接的第一卷积层和第二卷积层,第一卷积层采用分段线性函数作为激活函数,第二卷积层采用归一化函数作为激活函数;
分段线性函数公式为:
归一化函数的公式为:
在一些实施例中,目标检测模型还包括:池化层以及分类回归网络,分类回归网络用于在得到池化层从各个目标的候选框提取的感兴趣区域之后,修正感兴趣区域相对于真值框的偏差。
在一些实施例中,修正感兴趣区域相对于真值框的偏差包括:基于真值框和回归目标值,对感兴趣区域进行预测得到预测偏差值;基于预测偏差值和感兴趣区域,计算得到与感兴趣区域对应的目标边界框。
在一些实施例中,回归目标值通过下式计算得到:
其中,(gx,gy,gw,gh)为回归目标值,其中,(x*,y*,w*,h*)表示真值框的位置与大小,(x,y,w,h)表示目标感兴趣区域的位置与大小。
在一些实施例中,分类回归网络参与训练的损失值由回归目标值与分类回归网络的预测偏差值得到。
在一些实施例中,分类回归网络在训练过程中所采用的损失函数在原点为最小平方误差,在原点以外的区域为最小绝对值偏差。
在一些实施例中,上述分类回归网络还用于:获取目标边界框的参数的阈值;对阈值范围内的数值采用不同符号进行分类,并输出分类后的符号。
在一些实施例中,目标边界框对应的参数的阈值为交并比与可见区域衰减系数的乘积大于设定阈值时得到的值。
第二方面,本申请的实施例提供了一种目标检测装置,装置包括:获取单元,被配置成获取待测图像;检测单元,被配置成将待测图像输入已训练的目标检测模型,得到目标检测模型输出的待测图像上的目标边界框以及待测图像中目标的类别;目标检测模型包括:用于区分图像中的各个目标并生成包围各个目标的候选框的候选区域生成网络,候选区域生成网络参与训练的交并比被替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。
在一些实施例中,上述可见区域衰减系数随可见比例变化而变化,可见比例为真值框内的可见区域占目标全部可见区域的比例,其中,真值框内的可见区域为真值框与候选框两者之间可见区域的交集,目标全部可见区域为真值框中未被遮挡物遮挡的所有区域。
在一些实施例中,上述候选区域生成网络包括串联连接的第一卷积层和第二卷积层,第一卷积层采用分段线性函数作为激活函数,第二卷积层采用归一化函数作为激活函数;
分段线性函数公式为:
归一化函数的公式为:
在一些实施例中,目标检测模型还包括:池化层以及分类回归网络,分类回归网络用于在得到池化层从各个目标的候选框提取的感兴趣区域之后,修正感兴趣区域相对于真值框的偏差。
在一些实施例中,分类回归网络采用以下方式修正感兴趣区域相对于真值框的偏差:基于真值框和回归目标值,对感兴趣区域进行预测得到预测偏差值;基于预测偏差值和感兴趣区域,计算得到与感兴趣区域对应的目标边界框。
在一些实施例中,回归目标值通过下式计算得到:
其中,(gx,gy,gw,gh)为回归目标值,其中,(x*,y*,w*,h*)表示真值框的位置与大小,(x,y,w,h)表示目标感兴趣区域的位置与大小。
在一些实施例中,分类回归网络参与训练的损失值由回归目标值与分类回归网络的预测偏差值得到。
在一些实施例中,分类回归网络在训练过程中所采用的损失函数在原点为最小平方误差,在原点以外的区域为最小绝对值偏差。
在一些实施例中,上述分类回归网络还用于:获取目标边界框的参数的阈值;对阈值范围内的数值采用不同符号进行分类,并输出分类后的符号。
在一些实施例中,目标边界框对应的参数的阈值为交并比与可见区域衰减系数的乘积大于设定阈值时得到的值。
第三方面,本申请的实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面或第二方面中任一实现方式描述的方法。
第四方面,本申请的实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面或第二方面中任一实现方式描述的方法。
第五方面,本申请的实施例提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面或第二方面任一实现方式描述的方法。
本申请的实施例提供的目标检测方法和装置,目标检测模型包括:候选区域生成网络,候选区域生成网络用于区分图像中的各个目标并生成包围各个目标的候选框,候选区域生成网络参与训练的交并比被替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。由此,本申请针对遮挡物体部分区域不可见,以及同类物体群内的个体难以区分的问题,改进了已有的候选区域生成网络基于交并比进行目标区域度量的方法,该实施方式提高了目标检测的精度,提升了目标检测模型进行目标检测定位的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的目标检测方法的一个实施例的流程图;
图3是本申请中可见区域衰减系数涉及区域的结构示意图;
图4是本申请中分段线性函数衰减曲线的示意图;
图5是本申请中归一化函数衰减曲线的示意图;
图6是根据本申请的目标检测装置的实施例的结构示意图;
图7是适于用来实现本申请的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的目标检测模型训练方法、目标检测模型训练装置、目标检测方法或目标检测装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端101、102,网络103、数据库服务器104和服务器105。网络103用以在终端101、102,数据库服务器104与服务器105之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端101、102通过网络103与服务器105进行交互,以接收或发送消息等。终端101、102上可以安装有各种客户端应用,例如模型训练类应用、图像检测类应用、购物类应用、支付类应用、网页浏览器和即时通讯工具等。
这里的终端101、102可以是硬件,也可以是软件。当终端101、102为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、膝上型便携计算机和台式计算机等等。当终端101、102为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
当终端101、102为硬件时,其上还可以安装有图像采集设备。图像采集设备可以是各种能实现采集图像功能的设备,如摄像头、传感器等等。用户110可以利用终端101、102上的图像采集设备,采集待测图像。
数据库服务器104可以是提供各种服务的数据库服务器。例如数据库服务器中可以存储有样本集。样本集中包含有大量的样本。其中,样本可以包括至少一个具有真值框和可见区域的图像样本。例如,数据集为图像样本中每个行人标注有一个真值框,有另外一个包围框可以标注出行人的可见区域。这样,用户110也可以通过终端101、102,从数据库服务器104所存储的样本集中选取样本。
服务器105也可以是提供各种服务的服务器,例如对终端101、102上显示的各种应用提供支持的后台服务器。后台服务器可以利用终端101、102发送的样本集中的图像样本,对初始模型进行训练,并可以将训练结果(如生成的目标检测模型)发送给终端101、102。这样,用户可以应用生成的目标检测模型进行目标检测。
这里的数据库服务器104和服务器105同样可以是硬件,也可以是软件。当它们为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当它们为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的目标检测模型训练方法或目标检测方法一般由服务器105执行。相应地,目标检测装置一般也设置于服务器105中。
需要指出的是,在服务器105可以实现数据库服务器104的相关功能的情况下,系统架构100中也可以不设置数据库服务器104。
应该理解,图1中的终端、网络、数据库服务器和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端、网络、数据库服务器和服务器。
请参见图2,其示出了本申请提供的目标检测方法的一个实施例的流程200。该目标检测方法可以包括以下步骤:
步骤201,获取待测图像。
在本实施例中,目标检测方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取待测图像。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的获取待测图像。再例如,执行主体也可以接收终端(例如图1所示的终端101、102)或其他设备采集的待测图像。
在本实施例中,获取的待测图像可以是彩色图像和/或灰度图像等等。且该获取的待测图像的格式在本申请中也不限制。
步骤202,将待测图像输入已训练的目标检测模型中,得到目标检测模型输出的待测图像上的目标边界框以及待测图像中目标的类别。
本实施例中,目标目标检测模型包括:用于区分图像中的各个目标并生成包围各个目标的候选框的候选区域生成网络,候选区域生成网络参与训练的交并比被替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。
传统的交并比仅对于物体真实值和样本的整体位置进行建模,计算二者包围框的交叠区域占总体区域的比例,其定义如下:
式(1)中ROI代表样本区域,GT代表物体真值区域(真值框标定的图像区域),|·|代表区域内的面积大小。基于交并比的阈值筛选方法忽略了样本包围框内真正属于受遮挡物体的区域占比,当受遮挡物体的遮挡区域面积较大时,交并比并不能真实反映样本区域与真值区域之间的距离。
本实施例中,将候选区域生成网络参与训练的交并比替换为交并比与可见区域衰减系数的乘积。可见区域衰减系数是对交并比进行比例衰减的系数,并且可见区域衰减系数的值可以是0~1之间的值。进一步地,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。可选地,可见区域衰减系数可以等于候选框、真值框以及可见区域三者的交集与真值框的比值。
在本实施例中,执行主体可以将步骤201中获取的待测图像输入已训练的目标检测模型中,从而生成框取目标的目标边界框以及待测图像中目标的类别。
本实施例中,目标边界框为目标检测模型为待测图像中的各种目标生成的轮廓框,目标的类别是待测图像中各个目标的类别,该类别可以是各种目标对应的大分类;该类别还可以是各个目标的具体的类型名称。
训练生成的目标检测模型可以将待测图像中目标通过目标边界框取并且标注出目标的类别(比如,人物、动物、植物)。
在本实施例中,目标检测模型可以是采用目标检测模型训练方法而生成的。具体生成过程可以下面实施例的相关描述,在此不再赘述。
需要说明的是,本实施例目标检测方法可以用于测试上述目标检测模型的训练效果,进而根据转换结果可以不断地优化目标检测模型。该方法也可以是上述各实施例所生成的目标检测模型的实际应用方法。采用上述各实施例所生成的目标检测模型,进行图像中目标的识别,有助于提高图像中目标识别的准确性。
本申请的实施例提供的目标检测方法和装置,目标检测模型包括:候选区域生成网络,候选区域生成网络用于区分图像中的各个目标并生成包围各个目标的候选框,候选区域生成网络参与训练的交并比被替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。由此,本申请针对遮挡物体部分区域不可见,以及同类物体群内的个体难以区分的问题,改进了已有的候选区域生成网络基于交并比进行目标区域度量的方法,该实施方式提高了目标检测的精度,提升了目标检测模型进行目标检测定位的准确性。
在本实施例的一些可选实现方式中,可见区域衰减系数随可见比例visratio变化而变化,如图3所示,可见比例为真值框1内的可见区域占目标全部可见区域的比例,其中,真值框1内的可见区域31为真值框1与候选框3两者之间可见区域的交集,目标全部可见区域为真值框中未被遮挡物2遮挡的所有区域。可见比例参见下式:
在式(2)中,V代表目标在真值框中的所有可见区域,ROI∩V为候选框的可见区域与真值框的可见区域的交集。可视区域交并比利用样本的可见比例,在原始交并比的基础上进行调整,然后可使用固定阈值进行划分。
对于受遮挡物体的样本筛选,必须要考虑其可见区域,本申请提出了可视区域交并比建模可见区域,以提升样本筛选的合理性。可视区域交并比为交并比与可见区域衰减系数的乘积,可视区域交并比的公式为:
IOUvis=IOU·f(visratio) (3)
在式(3)中,f()为可见比例衰减曲线,该比例衰减曲线用于表征不同的可见比例产生对应的可见区域衰减系数,并对于原始的交并比进行衰减。
本可选实现方式中,可见区域衰减系数随可见比例变化而变化,可见比例更加精确地反映了遮挡情况下目标的定位精度,可以实现图像中更加合理的前景背景样本划分。
由上述可视区域交并比的定义可知,其核心要素在于对交并比的衰减,即可见比例衰减曲线。可见比例衰减曲线的自变量为图像样本包围框中的可见区域比例,因变量为可见区域衰减系数。图像样本内部的可见比例越大,则该样本越接近真实值,因此对交并比的衰减应当越小,对应的衰减系数越大。
可见比例衰减曲线为单调递增曲线,受到卷积神经网络中的激活函数的启发,在本实施例的一些可选实现方式中,候选区域生成网络包括串联连接的第一卷积层和第二卷积层,第一卷积层采用分段线性函数作为激活函数,第二卷积层采用归一化函数作为激活函数;分段线性函数如式(4)所示,归一化函数如式(5)所示。
其中,在式(4)中,δ为超参数,x为输入数据。
其中,在式(5)中,β为超参数,x′为输入数据。
分段线性函数和归一化函数均被设置为关于(0.5,0.5)旋转对称。两种函数的可视化曲线如图4、图5所示(两个曲线的横轴均表示可见比例,纵轴表示衰减系数值),当δ降低或β增加时,衰减函数均在输入数据是0.5附近更加陡峭,即可见比例大于0.5时,对于相同的可见比例,δ减小或β增大,均使衰减系数增大,则IOUvis越接近IOU,从而更多的样本的可视区域交并比大于阈值,得到更多的前景样本。由此可见,δ和β超参数主要决定了前景样本的数量以及前景样本的可见比例大小,当保留更多的前景样本时,会使得前景样本中的平均可见比例降低。
本可选实现方式,将候选区域生成网络中的卷积层的激活函数调整成与可见区域衰减系数相对应的函数公式,提高了候选区域生成网络中前景和背景区域划分的效果。
在本实施例中,可选地,目标检测模型还包括:池化层和分类回归网络,其中,池化层与候选区域生成网络的输出端连接,池化层用于在得到各个目标的候选框之后,从各个目标的候选框提取感兴趣区域。本实施例中,候选区域生成网络输出的候选框的尺寸不固定,而目标检测模型的输出图像的目标边界框的尺寸必须是固定的,池化层特点是输入特征图尺寸不固定,但是输出特征图尺寸固定,即池化层提取的感兴趣区域的尺寸是固定的。
本实施例中,分类回归网络在池化层提取的感兴趣区域的基础上,对感兴趣区域进行精确的位置提取,得到图像中各个目标的目标边界框以及各个目标的类别。实践中,目标的类别表现为目标属于类别的概率,该概率值越大则目标属于该类别的机率越大。
可选地,分类回归网络用于完成目标的边界框的位置预测,具体地,在池化层模块提取感兴趣区域的特征后,分类回归网络(比如,分类回归网络采用多个全连接层)对感兴趣区域的特征进行非线性变换,从而拟合出目标的目标边界框的定位结果。
在本实施例的一些可选实现方式中,在本实施例的一些可选实现方式中,分类回归网络用于在得到池化层提取的感兴趣区域之后,修正感兴趣区域相对于真值框的偏差。
分类回归网络的作用即为修正感兴趣区域(ROI)的四个维度的取值,使其尽量接近真实值。分类回归网络并不直接回归真实值的位置,而是回归ROI相对于真实值的偏差,从而使偏差量的分布更接近于零均值分布,且方差更低,从而降低了分类回归网络的训练难度,提高了分类回归网络的训练的速度。
在本实施例的一些可选实现方式中,修正感兴趣区域相对于真值框的偏差包括:
基于真值框和回归目标值,对感兴趣区域进行预测得到预测偏差值;基于预测偏差值和感兴趣区域,计算得到与感兴趣区域对应的目标边界框。
本可选实现方式中,回归目标值可以基于训练过程中不同的修正需求确定,比如,回归目标值为固定值,或者回归目标值为与多个目标的真值框对应的值。进一步,在得到预测偏差值之后,对感兴趣区域调整预测偏差值的指示的大小,可以得到感兴趣区域对应的目标边界框。
本可选实现方式中,首先基于真值框和回归目标值,确定感兴趣区域的预测偏差值,基于预测偏差值和感兴趣区域,计算得到目标边界框,提高了目标边界框修正的可靠性。
假设某个作为前景样本的感兴趣区域(ROI)的位置与大小由(x,y,w,h)表示,其中x和y分别代表ROI中心点的坐标,w和h分别代表ROI的宽和高。另外,假设该前景样本对应的真值框由(x*,y*,w*,h*)表示,其中,x*,y*表示真值框的中心点的坐标,w*,h*表示真值框的宽和高。在本申请的一些可选实现方式中,分类回归网络四个维度的回归目标值为(gx,gy,gw,gh),则其值可由下式计算得出
本实施例中,回归目标值中gx,gy分别为中心点横纵坐标的偏移值;gw,gh分别为宽和高的偏移值。可以看出,分类回归网络的回归目标值为相对于基准框(真值框)的偏移量,且偏移量均经过归一化或非线性变换。对偏移量进行回归相对于直接回归真实位置的优势在于,偏移量的分布更接近于零均值分布,且方差更低,使得分类回归网络的训练难度降低。相反地,假设分类回归网络四个维度的预测结果(预测偏差值)为(tx,ty,tw,th),则经过修正的ROI目标边界框的位置和大小(x′,y′,w′,h′)可由下式计算得出:
在式(7)中,tx,ty为分类回归网络预测的中心点坐标的偏差值,tw,th为分类回归网络预测的框的宽和高的偏差值。x′,y′分别为经过修正的ROI目标边界框的中心坐标,w′,h′分别为经过修正的ROI目标边界框的宽和高。
在本实施例的一些可选实现方式中,分类回归网络参与训练的损失值由回归目标值与分类回归网络的预测偏差值得到。
具体地,分类回归网络参与训练的损失值可以由回归目标值与分类回归网络的预测偏差值的差值得到;可选的,分类回归网络参与训练的损失值可由回归目标值与分类回归网络的预测偏差值的均方值得到。
本可选实现方式中,通过回归目标值与分类回归网络的预测偏差值得到分类回归网络参与训练的损失值,可以保证分类回归网络训练的可靠性。
在本实施例的一些可选实现方式中,分类回归网络在训练过程中所采用的损失函数在原点为最小平方误差,在原点以外的区域为最小绝对值偏差。
具体地,可以使用平滑L1损失函数计算损失值,其定义如下式所示:
其中,式(8)中σ代表损失函数的平滑比例。平滑L1损失函数在原点附近为L2损失,在其他区域为L1损失,且对整个数轴均可导。因为在大部分区域内为L1损失,所以可以有效地控制损失函数产生的梯度大小,一定程度上避免训练发散。
可选地,分类回归网络用于完成目标的边界框的位置预测,具体地,在池化层模块提取感兴趣区域的特征后,分类回归网络(比如,分类回归网络采用多个全连接层)对感兴趣区域的特征进行非线性变换,从而拟合出目标的目标边界框的定位结果。
在本实施例的一些可选实现方式中,上述分类回归网络还用于:获取目标边界框对应的参数的阈值;对阈值范围内的数值采用不同符号进行分类,并输出分类后的符号。
本实施例中,分类回归网络包括符号预测单元和检测框回归单元,其中,检测框回归单元用于预测得到目标的目标边界框,符合预测单元用于得到目标的与目标边界框对应的类别,即分类回归网络输出的结果为连续型数值,连续型数值可以分解为符号和模值两部分,符号预测单元则是对其中的符号部分进行预测,本申请将与目标的目标边界框的数轴裁剪为更多的区间,每个区间作为一个类别,则该多分类任务能够以一定的精度近似完成检测框的回归任务。
使用多区间预测方式,可以完全将检测框回归任务转变为概率预测任务,从而与预训练特征达到更好的适配。
本可选实现方式中,将感兴趣区域的数轴裁剪成更多的区间,每个区间一个类别,则该多类任务能够以一定的精度近似完成目标边界框的回归任务,从而可构建与目标类别有关的多类目标边界框。
在本实施例的一些可选实现方式中,上述目标边界框对应的参数的阈值为交并比与可见区域衰减系数的乘积大于设定阈值时得到的值。
本可选实现方式中,由于前景样本与真实值的交并比需要高于阈值,本申请中,目标检测模型参与训练的交并比由交并比与可见区域衰减系数的乘积替换,因此,需要交并比与可见区域衰减系数的乘积大于设定阈值,设定阈值可以根据目标检测模型的训练需求确定,进一步,目标边界框的数轴一般有界,以0.5的交并比阈值为例,则tx与ty的回归范围为[-0.5,0.5],tw与th的回归范围为[-ln2,ln2],因此,可以保证区间的数目是有限的,从而得到有限类别的分类任务。
本可选实现方式中,目标边界框对应的参数的阈值为交并比与可见区域衰减系数的乘积大于设定阈值时得到的值,提高了目标边界框对应的符号的可靠性,保证了目标检测模型输出的目标的类别的可靠性。
本申请还提供了一种目标检测模型训练方法,该目标检测模型训练方法包括以下步骤:
第一,获取预置的样本集。
在本实施例中,目标检测模型训练方法的执行主体(例如图1所示的服务器)可以通过多种方式来获取样本集。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(例如图1所示的数据库服务器104)中获取存储于其中的现有的样本集。再例如,用户可以通过终端(例如图1所示的终端101、102)来收集图像样本,这样,执行主体可以接收终端所收集的图像样本,对收集的图像样本进行真值框和可见区域的标注,并将这些标注完成的图像样本存储在本地,从而生成样本集。
在这里,样本集中可以包括至少一个图像样本。其中,图像样本可包括具有真值框和可见区域的图像。本实施例中,真值框是包围图像样本中目标的真实的轮廓框,可见区域是图像样本中各个目标未被遮挡物遮挡的区域,通过可见区域可以实现对图像样本中目标是否遮挡以及未遮挡面积大小的标注。
第二,获取预先设置的卷积神经网络。
其中,卷积神经网络包括候选区域生成网络,候选区域生成网络用于区分图像中的各个目标并生成包围各个目标的候选框。
卷积神经网络可以由四部分构成:特征提取网络、候选区域生成网络、池化层以及分类回归网络,其中,特征提取网络用于提取图像的图像特征,可以用VGG(VisualGeometry Group Network,视觉几何群网络)、ResNet(残差网络)等各种常见的结构实现(只使用VGG、ResNet中全连接层之前的部分)。
候选区域生成网络可以识别前景图像中不同的目标,并为各个目标生成候选框,池化层是针对候选框中感兴趣区域进行感兴趣区域提取,例如,在单个图像中检测多个汽车和行人,其目的是对非均匀尺寸的输入执行最大池化以获得固定尺寸的特征图。分类回归网络对获取的固定尺寸的特征图进行分类得到图像中包围目标的目标边界框以及图像中目标的类别。上述卷积神经网络的结构具体可以参见Faster R-CNN(Fast Region-basedConvolutional Neural Networks)或Fast R-CNN(Fast Region-based ConvolutionalNeural Networks)的网络框架。
本实施例中,候选区域生成网络的目标识别有两个步骤:首先确定图像中目标的预估位置,即从图片中找出要识别的前景区域,然后将识别到的前景区域去分类。在FasterR-CNN提出之前,候选区域生成网络常用的提取前景的方法是Selective Search,简称SS法,SS法通过比较相邻区域的相似度来把相似的区域合并到一起,反复这个过程,最终就得到目标区域,提取前景过程比为前景分类的过程慢,无法达到实时处理图像的目的。而在Faster R-CNN中,将提取前景的过程也通过网络训练来完成,部分网络还可以和分类过程共用,新的方法称为RPN(Reginal Proposal Network),速度大大提升。
RPN工作步骤为:把图像特征(特征提取网络提取的)分割成多个区域,在每个区域上采用滑窗,每个滑窗都将映射一部分图片的特征,特征输入至两个全连接层,分别输出框选前景图像的前景区域、前景区域的坐标。
对于训练RPN,为每个锚点分配一个双值标签,两类正标签:具备与真值框(groundtruth)的最大交并比(IOU);与任意真值框存在大于0.7的交并比对于所有交并比均小于0.3锚点赋予负标签,非正非负标签对于训练无帮助。由上可知,交并比是候选区域生成网络是参与训练的一个参数。
第三,将候选区域生成网络参与训练的交并比替换为交并比与可见区域衰减系数的乘积。
本实施例中,可见区域衰减系数是对交并比进行比例衰减的系数,并且可见区域衰减系数的值可以是0~1之间的值。进一步地,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。可选地,可见区域衰减系数可以等于候选框、真值框以及可见区域三者的交集与真值框的比值。
第四,从样本集选取图像样本。
在本实施例中,执行主体可以从第一步中获取的样本集中选取图像样本,以及执行第四步至第六步的训练步骤。其中,样本的选取方式和选取数量在本申请中并不限制。例如可以是随机选取至少一个图像样本,也可以是从中选取清晰度较好(即像素较高)的图像样本。每个图像样本可以是一张图像,每个图像样本还可以是一对图像。一对图像中包括框选目标的真值框第一图像样本和标注有目标的可见区域的第二图像样本,第一图像样本和第二图像样本可以采用同一张图像,还可根据实际需求选择第一图像样本和第二图像样本。
第五,将选取的图像样本输入卷积神经网络。
本实施例中,选取的图像样本首先可以经过特征提取网络进行图像特征提取,其次特征提取网络提取得到的特征图像输入候选区域生成网络。
候选区域生成网络在特征图像上均匀的划分出K*H*W个区域(该区域称为锚点,K=9,H是特征图像的高度,W是特征图像的宽度),通过比较锚点和真值框中图像间的重叠情况确定前景锚点,和背景锚点,也就是给每一个锚点都打上前景或背景的标签。通过标签可以对候选区域生成网络进行训练使其对任意输入的图像都具备识别前景、背景的能力。
本实施例中,卷积神经网络还包括:池化层和分类回归网络,其中,池化层与候选区域生成网络的输出端连接,池化层用于在得到各个目标的候选框之后,从各个目标的候选框提取感兴趣区域。本实施例中,候选区域生成网络输出的候选框的尺寸不固定,而目标检测模型的输出图像的目标边界框的尺寸必须是固定的,池化层特点是输入特征图尺寸不固定,但是输出特征图尺寸固定,即池化层提取的感兴趣区域的尺寸是固定的。
本实施例中,分类回归网络在池化层提取的感兴趣区域的基础上,对感兴趣区域进行精确的位置提取,得到图像中各个目标的目标边界框以及各个目标的类别。实践中,目标的类别表现为目标属于类别的概率,该概率值越大则目标属于该类别的机率越大。
可选地,分类回归网络在池化层提取的感兴趣区域之后,还可以修正感兴趣区域相对于真值框的偏差。
进一步地,分类回归网络修正感兴趣区域相对于真值框的偏差包括:基于真值框和回归目标值,对感兴趣区域进行预测得到预测偏差值;基于预测偏差值和感兴趣区域,计算得到与感兴趣区域对应的目标边界框。
进一步地,分类回归网络参与训练的损失值由回归目标值与分类回归网络的预测偏差值得到。
分类回归网络在训练过程中所采用的损失函数在原点为最小平方误差,在原点以外的区域为最小绝对值偏差。
分类回归网络还还用:获取目标边界框对应的参数的阈值,对该阈值范围内的数据采用不同符号进行分类,并输出分类后的符号,该输出的分类后的符号为目标检测模型输出的目标的类别。
第六,响应于确定卷积神经网络满足训练完成条件,则将卷积神经网络作为目标检测模型。
在本实施例中,训练完成条件是指卷积神经网络中各个网络(特征提取网络、候选区域生成网络、分类回归网络)在训练过程中均已满足各自训练条件,其中各个网络训练条件包括以下至少一项:训练迭代次数达到预定迭代阈值,损失函数值小于预定损失值阈值。例如,训练迭代达到5千次,损失函数值小于0.05。设置训练完成条件可以加快模型收敛速度。
针对卷积神经网络中的各个网络,若该网络在训练过程中不满足训练完成条件,则调整该网络中的相关参数使得损失值收敛,基于调整后的网络,继续执行第四~第六步。
本实施例中,向目标检测模型输入图像,可以得到目标检测模型输出的图像上的目标边界框以及图像中目标的类别。实践中,目标的类别可以是多个类别以及各个类别对应的概率值,通过选取概率值最大的类型确定目标的类别。
本实施例中,目标边界框为目标检测模型为图像中的各种目标生成的轮廓框,目标的类别是图像中各个目标的类别,该类别可以是各种目标对应的大分类,比如,动物,植物、人物。该类别还可以是各个目标的具体的类型名称,比如,狗、猫、月季花、小孩、成人等。
本申请的实施例提供的目标检测模型训练方法,待训练的卷积神经网络包括:候选区域生成网络,候选区域生成网络用于区分图像中的各个目标并生成包围各个目标的候选框,将候选区域生成网络参与训练的交并比替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。由此,本申请针对遮挡物体部分区域不可见,以及同类物体群内的个体难以区分的问题,改进了已有的候选区域生成网络基于交并比进行目标区域度量的方法,该实施方式提高了目标检测模型训练的精度,提升了目标检测模型进行目标检测定位的准确性。
继续参见图6,作为对上述图2所示方法的实现,本申请提供了一种目标检测装置的一个实施例。该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的目标检测装置600可以包括:获取单元601,被配置成获取待测图像。检测单元602,被配置成将待测图像输入已训练的目标检测模型,得到目标检测模型输出的待测图像上的目标边界框以及待测图像中目标的类别。
其中,目标检测模型包括:用于区分图像中的各个目标并生成包围各个目标的候选框的候选区域生成网络,候选区域生成网络参与训练的交并比被替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。
在一些实施例中,上述可见区域衰减系数随可见比例变化而变化,可见比例为真值框内的可见区域占目标全部可见区域的比例,其中,真值框内的可见区域为真值框与候选框两者之间可见区域的交集,目标全部可见区域为真值框中未被遮挡物遮挡的所有区域。
在一些实施例中,上述候选区域生成网络包括串联连接的第一卷积层和第二卷积层,第一卷积层采用分段线性函数作为激活函数,第二卷积层采用归一化函数作为激活函数;
分段线性函数公式为:
归一化函数的公式为:
在一些实施例中,目标检测模型还包括:池化层以及分类回归网络,分类回归网络用于在得到池化层从各个目标的候选框提取的感兴趣区域之后,修正感兴趣区域相对于真值框的偏差。
在一些实施例中,分类回归网络采用以下方式修正感兴趣区域相对于真值框的偏差:基于真值框和回归目标值,对感兴趣区域进行预测得到预测偏差值;基于预测偏差值和感兴趣区域,计算得到与感兴趣区域对应的目标边界框。
在一些实施例中,回归目标值通过下式计算得到:
其中,(gx,gy,gw,gh)为回归目标值,其中,(x*,y*,w*,h*)表示真值框的位置与大小,(x,y,w,h)表示目标感兴趣区域的位置与大小。
在一些实施例中,分类回归网络参与训练的损失值由回归目标值与分类回归网络的预测偏差值得到。
在一些实施例中,分类回归网络在训练过程中所采用的损失函数在原点为最小平方误差,在原点以外的区域为最小绝对值偏差。
在一些实施例中,上述分类回归网络还用于:获取目标边界框的参数的阈值;对阈值范围内的数值采用不同符号进行分类,并输出分类后的符号。
在一些实施例中,目标边界框对应的参数的阈值为交并比与可见区域衰减系数的乘积大于设定阈值时得到的值。
可以理解的是,该装置600中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置600及其中包含的单元,在此不再赘述。
下面参考图7,其示出了适于用来实现本申请的实施例的电子设备700的结构示意图。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、等的输入装置706;包括例如液晶显示器(LCD,Liquid Crystal Display)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM702被安装。在该计算机程序被处理装置701执行时,执行本申请的实施例的方法中限定的上述功能。
需要说明的是,本申请的实施例的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(Radio Frequency,射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取待测图像;将待测图像输入已训练的目标检测模型,得到目标检测模型输出的待测图像上的目标边界框以及待测图像中目标的类别;目标检测模型包括:用于区分图像中的各个目标并生成包围各个目标的候选框的候选区域生成网络,候选区域生成网络参与训练的交并比被替换为交并比与可见区域衰减系数的乘积,可见区域衰减系数由目标的候选框、真值框以及可见区域确定。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请的各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器,包括获取单元、检测单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“被配置成获取待测图像”的单元。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种目标检测方法,所述方法包括:
获取待测图像;
将所述待测图像输入已训练的目标检测模型,得到所述目标检测模型输出的所述待测图像上的目标边界框以及所述待测图像中目标的类别;
所述目标检测模型包括:用于区分图像中的各个目标并生成包围各个目标的候选框的候选区域生成网络,所述候选区域生成网络参与训练的交并比被替换为所述交并比与可见区域衰减系数的乘积,所述可见区域衰减系数由目标的候选框、真值框以及可见区域确定。
2.根据权利要求1所述的方法,其中,所述可见区域衰减系数随可见比例变化而变化,所述可见比例为真值框内的可见区域占目标全部可见区域的比例,其中,所述真值框内的可见区域为所述真值框与所述候选框两者之间可见区域的交集,目标全部可见区域为真值框中未被遮挡物遮挡的所有区域。
4.根据权利要求1所述的方法,其中,所述目标检测模型还包括:池化层以及分类回归网络,所述分类回归网络用于在得到所述池化层从各个目标的候选框提取的感兴趣区域之后,修正所述感兴趣区域相对于所述真值框的偏差。
5.根据权利要求4所述的方法,其中,所述修正所述感兴趣区域相对于所述真值框的偏差包括:
基于所述真值框和回归目标值,对所述感兴趣区域进行预测得到预测偏差值;
基于所述预测偏差值和所述感兴趣区域,计算得到与所述感兴趣区域对应的目标边界框。
7.根据权利要求5所述的方法,其中,所述分类回归网络参与训练的损失值由所述回归目标值与所述分类回归网络的预测偏差值得到。
8.根据权利要求7所述的方法,其中,所述分类回归网络在训练过程中所采用的损失函数在原点为最小平方误差,在原点以外的区域为最小绝对值偏差。
9.根据权利要求5所述的方法,所述分类回归网络还用于:获取所述目标边界框对应的参数的阈值;
对所述阈值范围内的数值采用不同符号进行分类,并输出分类后的符号。
10.根据权利要求9所述的方法,其中,所述目标边界框对应的参数的阈值为所述交并比与可见区域衰减系数的乘积大于设定阈值时得到的值。
11.一种目标检测装置,所述装置包括:
获取单元,被配置成获取待测图像;
检测单元,被配置成将所述待测图像输入已训练的目标检测模型,得到所述目标检测模型输出的所述待测图像上的目标边界框以及所述待测图像中目标的类别;
所述目标检测模型包括:用于区分图像中的各个目标并生成包围各个目标的候选框的候选区域生成网络,所述候选区域生成网络参与训练的交并比被替换为所述交并比与可见区域衰减系数的乘积,所述可见区域衰减系数由目标的候选框、真值框以及可见区域确定。
12.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-10中任一所述的方法。
14.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110307914.2A CN113780270A (zh) | 2021-03-23 | 2021-03-23 | 目标检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110307914.2A CN113780270A (zh) | 2021-03-23 | 2021-03-23 | 目标检测方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113780270A true CN113780270A (zh) | 2021-12-10 |
Family
ID=78835555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110307914.2A Pending CN113780270A (zh) | 2021-03-23 | 2021-03-23 | 目标检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113780270A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114004963A (zh) * | 2021-12-31 | 2022-02-01 | 深圳比特微电子科技有限公司 | 目标类别识别方法、装置及可读存储介质 |
CN116128954A (zh) * | 2022-12-30 | 2023-05-16 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
WO2024012179A1 (zh) * | 2022-07-15 | 2024-01-18 | 马上消费金融股份有限公司 | 模型训练方法、目标检测方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109613006A (zh) * | 2018-12-22 | 2019-04-12 | 中原工学院 | 一种基于端到端神经网络的织物疵点检测方法 |
CN109977780A (zh) * | 2019-02-26 | 2019-07-05 | 广东工业大学 | 一种基于深度学习算法的硅藻的检测与识别方法 |
CN112258558A (zh) * | 2020-10-23 | 2021-01-22 | 复旦大学 | 基于多尺度孪生网络的目标追踪方法、电子设备及介质 |
CN112270252A (zh) * | 2020-10-26 | 2021-01-26 | 西安工程大学 | 一种改进YOLOv2模型的多车辆目标识别方法 |
WO2021027135A1 (zh) * | 2019-08-15 | 2021-02-18 | 平安科技(深圳)有限公司 | 细胞检测模型训练方法、装置、计算机设备及存储介质 |
US20210056708A1 (en) * | 2019-06-26 | 2021-02-25 | Beijing Sensetime Technology Development Co., Ltd. | Target detection and training for target detection network |
-
2021
- 2021-03-23 CN CN202110307914.2A patent/CN113780270A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109613006A (zh) * | 2018-12-22 | 2019-04-12 | 中原工学院 | 一种基于端到端神经网络的织物疵点检测方法 |
CN109977780A (zh) * | 2019-02-26 | 2019-07-05 | 广东工业大学 | 一种基于深度学习算法的硅藻的检测与识别方法 |
US20210056708A1 (en) * | 2019-06-26 | 2021-02-25 | Beijing Sensetime Technology Development Co., Ltd. | Target detection and training for target detection network |
WO2021027135A1 (zh) * | 2019-08-15 | 2021-02-18 | 平安科技(深圳)有限公司 | 细胞检测模型训练方法、装置、计算机设备及存储介质 |
CN112258558A (zh) * | 2020-10-23 | 2021-01-22 | 复旦大学 | 基于多尺度孪生网络的目标追踪方法、电子设备及介质 |
CN112270252A (zh) * | 2020-10-26 | 2021-01-26 | 西安工程大学 | 一种改进YOLOv2模型的多车辆目标识别方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114004963A (zh) * | 2021-12-31 | 2022-02-01 | 深圳比特微电子科技有限公司 | 目标类别识别方法、装置及可读存储介质 |
CN114004963B (zh) * | 2021-12-31 | 2022-03-29 | 深圳比特微电子科技有限公司 | 目标类别识别方法、装置及可读存储介质 |
WO2024012179A1 (zh) * | 2022-07-15 | 2024-01-18 | 马上消费金融股份有限公司 | 模型训练方法、目标检测方法及装置 |
CN116128954A (zh) * | 2022-12-30 | 2023-05-16 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
CN116128954B (zh) * | 2022-12-30 | 2023-12-05 | 上海强仝智能科技有限公司 | 一种基于生成网络的商品布局识别方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109117831B (zh) | 物体检测网络的训练方法和装置 | |
CN108960090B (zh) | 视频图像处理方法及装置、计算机可读介质和电子设备 | |
CN108898086B (zh) | 视频图像处理方法及装置、计算机可读介质和电子设备 | |
CN108520220B (zh) | 模型生成方法和装置 | |
US11361456B2 (en) | Systems and methods for depth estimation via affinity learned with convolutional spatial propagation networks | |
CN110458107B (zh) | 用于图像识别的方法和装置 | |
CN113780270A (zh) | 目标检测方法和装置 | |
US11392792B2 (en) | Method and apparatus for generating vehicle damage information | |
CN108280477B (zh) | 用于聚类图像的方法和装置 | |
US20100322474A1 (en) | Detecting multiple moving objects in crowded environments with coherent motion regions | |
Alldieck et al. | Context-aware fusion of RGB and thermal imagery for traffic monitoring | |
US20160364472A1 (en) | Functional space-time trajectory clustering | |
US11442891B2 (en) | Holographic quantum dynamics simulation | |
CN110689043A (zh) | 一种基于多重注意力机制的车辆细粒度识别方法及装置 | |
CN110472599B (zh) | 对象数量确定方法、装置、存储介质与电子设备 | |
CN112801227B (zh) | 一种台风识别模型的生成方法、装置、设备及存储介质 | |
CN112183627A (zh) | 生成预测密度图网络的方法和车辆年检标数量检测方法 | |
CN113569911A (zh) | 车辆识别方法、装置、电子设备及存储介质 | |
Shit et al. | An encoder‐decoder based CNN architecture using end to end dehaze and detection network for proper image visualization and detection | |
CN111583417A (zh) | 一种图像语义和场景几何联合约束的室内vr场景构建的方法、装置、电子设备和介质 | |
Yaghoobi Ershadi | Improving vehicle tracking rate and speed estimation in dusty and snowy weather conditions with a vibrating camera | |
CN112926681B (zh) | 一种基于深度卷积神经网络的目标检测方法及装置 | |
CN113610856A (zh) | 训练图像分割模型和图像分割的方法和装置 | |
CN112541915A (zh) | 用于高分辨率图像的高效布匹缺陷检测方法、系统及设备 | |
CN111986243A (zh) | 路肩提取方法及装置、电子设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |