CN112308011B - 多特征联合目标检测方法及装置 - Google Patents
多特征联合目标检测方法及装置 Download PDFInfo
- Publication number
- CN112308011B CN112308011B CN202011265449.2A CN202011265449A CN112308011B CN 112308011 B CN112308011 B CN 112308011B CN 202011265449 A CN202011265449 A CN 202011265449A CN 112308011 B CN112308011 B CN 112308011B
- Authority
- CN
- China
- Prior art keywords
- feature
- detected
- undetected
- image
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 68
- 238000013135 deep learning Methods 0.000 claims abstract description 29
- 238000012935 Averaging Methods 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 abstract description 35
- 230000000694 effects Effects 0.000 abstract description 7
- 210000003128 head Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种多特征联合目标检测方法及装置,该方法包括:基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,确定所述未检测到的特征在所述待检测图像中是否存在;若存在,则根据每个图像样本中所述未检测到的特征与所述检测到的特征的中心点坐标之间的比值,以及边界框尺寸之间的比值,计算待检测图像中未检测到的特征的中心点坐标和边界框尺寸。本发明提升目标检测效果,降低漏检效率,并且鲁棒性较高。
Description
技术领域
本发明涉及图像检测技术领域,尤其涉及一种多特征联合目标检测方法及装置。
背景技术
目前人们的生活水平不断提高,视频监控设备也逐步应用于各个领域。目标检测的应用场景也随之不断增多,成为视频监控领域的热点研究课题,特别是在深度学习方法出现后,目标检测技术迎来了空前的发展。
但是深度学习模型在检测目标的时候,往往希望同类目标尽可能相似,而不同类的目标尽可能不像。即类内距离小,而类间距离大。这就造成了一部分目标在同类之间特征差距较大的时候,无法被检测出来,使得漏检率较大。例如,在人头检测模型中,模型往往对于头部的正视和侧面的目标较为敏感,识别率较高;而由于后视和俯视的特征差距与前者差距过大,造成目标识别率较低。因此提供一种能解决类内距离较大时,仍能正确检测本类目标的方法非常重要。
针对上述问题,当前有学者提出了一些方法去解决此问题。有学者提出了基于联合学习的多视角室内人员检测网络模型。此模型组成结构为输入数据层、特征提取层、可变形处理层、可见性估计层和分类判别层等,并且在其中加入了多视角模型和区域建议模型以用来提升算法的检测精度。该方法对不同角度的同一人体目标的检测效果有明显提升。但是此方法需要架设多个摄像头,以拍摄多角度图像,仅适用于室内的检测环境。
还有学者提出一种多特征融合的运动目标检测算法。该方法将包含上下文信息的局部二值模式纹理特征和HSV(Hue,Saturation,Value,色调,饱和度,亮度)颜色特征的色调信息相结合,利用CLBP(Completed Local Binary Patterns,完全局部二进制)直方图向量和局部色度向量与高斯背景模型进行匹配实现运动目标检测。但无法区分人脸和人眼等细节目标。
发明内容
本发明提供一种多特征联合目标检测方法及装置,用以解决现有技术中在类内距离较大时检测本类目标需要拍摄多角度图像,无法区分细节目标的缺陷,实现在类内距离较大时检测细节目标,且只需要单摄像头拍摄。
本发明提供一种多特征联合目标检测方法,包括:
基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;
将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在;
若存在,则根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸。
根据本发明提供的一种多特征联合目标检测方法,所述预设阈值包括第一预设阈值和第二预设阈值;
相应地,所述将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,包括:
获取所述检测到的特征的置信度和未检测到的特征的置信度中大于相应的所述第一预设阈值的置信度,将大于相应的所述第一预设阈值的置信度相加,获取所述未检测到的特征在所述待检测图像中存在的第一概率;其中,所述检测到的特征和未检测到的特征与所述第一预设阈值预先关联存储;
获取所述检测到的特征的置信度和未检测到的特征的置信度中大于相应的所述第二预设阈值的任意两个置信度,将所述任意两个置信度中的最大值相加,获取所述未检测到的特征在所述待检测图像中存在的第二概率;其中,所述检测到的特征和未检测到的特征与所述第二预设阈值预先关联存储;
根据所述第一概率和第二概率,确定所述未检测到的特征在所述待检测图像中存在的概率。
根据本发明提供的一种多特征联合目标检测方法,所述根据所述第一概率和第二概率,确定所述未检测到的特征在所述待检测图像中存在的概率,包括:
获取所述第一概率和第二概率中大于相应的第三预设阈值的概率;其中,所述第一概率和第二概率与所述第三预设阈值预先关联存储;
若大于相应的所述第三预设阈值的概率为一个,则将大于相应的所述第三预设阈值的概率作为所述未检测到的特征在所述待检测图像中存在的概率;
若大于相应的所述第三预设阈值的概率为两个,则将所述第一概率和第二概率之和作为所述未检测到的特征在所述待检测图像中存在的概率。
根据本发明提供的一种多特征联合目标检测方法,所述根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在,包括:
基于所述深度学习网络模型对每个图像样本中目标的所述多个特征进行检测,获取所述检测到的特征和未检测到的特征的置信度;
将每个图像样本中检测到的特征的置信度和未检测到的特征的置信度分别与相应的所述预设阈值进行比较,根据比较结果确定所述未检测到的特征在每个图像样本中存在的概率;
计算所述未检测到的特征在所有图像样本中存在的概率的平均值;
若所述未检测到的特征在所述待检测图像中存在的概率大于所述未检测到的特征在所有图像样本中存在的概率的平均值,则获知所述未检测到的特征在所述待检测图像中存在。
根据本发明提供的一种多特征联合目标检测方法,所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,之前还包括:
根据所述图像样本中的部分图像样本中已标记的未检测到的特征和检测到的特征的边界框,获取所述部分图像样本中未检测到的特征和检测到的特征的中心点坐标,以及未检测到的特征和检测到的特征的边界框尺寸;
基于所述深度学习网络模型对所述图像样本中的另一部分图像样本中未标记的多个特征进行检测,获取所述另一部分图像样本中未检测到的特征和检测到的特征的中心点坐标,以及未检测到的特征和检测到的特征的边界框尺寸。
根据本发明提供的一种多特征联合目标检测方法,所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,包括:
计算所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间比值的平均值;
将每个检测到的特征对应的中心点坐标比值的平均值乘以每个检测到的特征的中心点坐标后求平均,获取所述待检测图像中未检测到的特征的中心点坐标;
计算所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间比值的平均值;
将每个检测到的特征对应的边界框尺寸比值的平均值乘以每个检测到的特征的边界框尺寸后求平均,获取所述待检测图像中未检测到的特征的边界框尺寸。
根据本发明提供的一种多特征联合目标检测方法,所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,包括:
基于k-means算法对所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间的比值进行聚类,获取多类中心点坐标比值;
将所述中心点坐标比值的个数最多的类中所有中心点坐标比值的平均值作为每个检测到的特征的最优中心点坐标比值;
将每个检测到的特征对应的最优中心点坐标比值乘以每个检测到的特征的中心点坐标后求平均,获取所述待检测图像中未检测到的特征的中心点坐标;
基于k-means算法对所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间的比值进行聚类,获取多类边界框尺寸比值;
将所述边界框尺寸比值的个数最多的类中所有边界框尺寸比值的平均值作为每个检测到的特征的最优边界框尺寸比值;
将每个检测到的特征对应的最优边界框尺寸比值乘以每个检测到的特征的边界框尺寸后求平均,获取所述待检测图像中未检测到的特征的边界框尺寸。
本发明还提供一种多特征联合目标检测装置,包括:
获取模块,用于基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;
确定模块,用于将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在;
计算模块,用于若存在,则根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述多特征联合目标检测方法的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述多特征联合目标检测方法的步骤。
本发明提供的多特征联合目标检测方法及装置,通过对目标的多个特征进行检测,利用同一目标中检测出的特征的置信度判断目标的类间距离较大的特征是否存在,利用同一目标中检测出的特征的位置推断目标的类间距离较大的特征的具体位置,从而在内部特征相差较大的情况,也能检测出目标,提升目标检测效果,降低漏检效率,并且鲁棒性较高,能有效解决在未检测到的目标特征因为图像角度问题不太明显,或是被遮挡,或是存在光照阴影等环境下不能准确识别出目标的问题。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的多特征联合目标检测方法的流程示意图之一;
图2是本发明提供的多特征联合目标检测方法中通过非极大抑制方法获取到最终边界框的效果示意图;
图3是本发明提供的多特征联合目标检测方法中检测的多目标特征的边界框效果示意图;
图4是本发明提供的多特征联合目标检测方法的流程示意图之二;
图5是本发明提供的多特征联合目标检测方法中特征的边界框尺寸和中心点位置示意图;
图6是本发明提供的多特征联合目标检测装置的结构示意图;
图7是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合图1描述本发明的一种多特征联合目标检测方法,包括:步骤101,基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;
本实施例对用于目标检测的深度学习网络模型不作限定,可以为SSD(SingleShot MultiBox Detector,单发多盒探测器)等。本实施例不限于待检测图像中目标的类型,也不限于目标的多个特征的数量和类型。在对目标的单一特征进行检测时,使用该特征的数据集,让深度学习网络通过训练学习检测目标的该特征,生成适用于目标的本特征检测模型。在检测过程中,将深度学习网络模型应用于整个图像,将图像分割成多个区域,同时预测每个区域的检测目标特征的边界框和概率。运用非极大值抑制方法选取出置信度最高的检测结果作为最终的目标检测结果,如图2所示。并且记录下此目标特征的中心点坐标(x,y)、预测边界框大小(w,h)以及置信度obj。
将目标的单一特征检测方法应用于多个特征检测上,训练出能同时检测目标的多种特征的深度学习网络模型,将其应用到整个待检测图像上的时候,能同时预测出多种特征的中心点位置(xn,yn),边界框大小(wn,hn),以及置信度objn,如图3所示。
在使用深度学习网络模型对待检测图像中目标的多个特征进行检测时,为了适应不同环境下的目标检测,类内距离会被无形增大,造成漏检率也相应增大,导致有的特征检测不到。例如待检测图像为运动人体图像时,单个人的目标个体图像通过深度学习网络模型可同时检测人体4种特征,即人头、人脸、人眼和人体。由于图像拍摄角度、目标遮挡和光照阴影的不同,可能四种特征并不是在每个画面中都同时可见。如无法直接检测出人头这一特征时,通过检测到的人眼、人脸和人体三种特征来联合推断出人头这一目标特征出现的可能性,从而更高精度的检测到人头这一未检测到的特征具体位置。
步骤102,将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在;
为了判断未检测到的特征在待检测图像中是否存在,需要联合其他检测到的特征来推断。推断过程主要存在两种情况。第一种情况是,如果任一检测的特征置信度较高,则待检测图像中应该对应存在未检测到的特征。另一种情况是,如果任意两种检测的特征组合的可能性较高,则待检测对象中也应该对应存在未检测到的特征。从而根据推断过程确定未检测到的特征存在的概率,概率较高时说明未检测到的特征存在。
例如,将未检测到的人头特征设为a,同一个体中其他检测得到的显性特征设为人脸b、人眼c和人体d。人头特征a存在的概率设为Proba,特征a、b、c、d的置信度为obja、objb、objc和objd。如果a、b、c或d任意一种特征的执行度较高,则待检测图像中应该对应存在特征a。如果b和a,c和a,或d和a任意一种组合特征的执行度较高,则待检测图像中也应该对应存在特征a。
步骤103,若存在,则根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸。
若判断未检测到的特征真实存在,则进一步计算未检测到的特征的中心点坐标和边界框尺寸。具体根据未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标在图像样本中的比值,以及边界框尺寸在图像样本中的比值,计算出未检测到的特征的中心点坐标和边界框尺寸。
本实施例通过对目标的多个特征进行检测,利用同一目标中检测出的特征的置信度判断目标的类间距离较大的特征是否存在,利用同一目标中检测出的特征的位置推断目标的类间距离较大的特征的具体位置,从而在内部特征相差较大的情况,也能检测出目标,提升目标检测效果,降低漏检效率,并且鲁棒性较高,能有效解决在未检测到的目标特征因为图像角度问题不太明显,或是被遮挡,或是存在光照阴影等环境下不能准确识别出目标的问题。
在上述实施例的基础上,本实施例中所述预设阈值包括第一预设阈值和第二预设阈值;相应地,所述将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,包括:获取所述检测到的特征的置信度和未检测到的特征的置信度中大于相应的所述第一预设阈值的置信度,将大于相应的所述第一预设阈值的置信度相加,获取所述未检测到的特征在所述待检测图像中存在的第一概率;其中,所述检测到的特征和未检测到的特征与所述第一预设阈值预先关联存储;
例如,未检测到的人头特征的第一概率的公式如下:
其中,为人头特征a存在的第一概率,H(t)为阶跃函数,当t大于0时,则H(t)为1;当t小于0时,则H(t)为0。/> 和/>分别为特征a、b、c和d对应的第一预设阈值,通过实验记录得出。
获取所述检测到的特征的置信度和未检测到的特征的置信度中大于相应的所述第二预设阈值的任意两个置信度,将所述任意两个置信度中的最大值相加,获取所述未检测到的特征在所述待检测图像中存在的第二概率;其中,所述检测到的特征和未检测到的特征与所述第二预设阈值预先关联存储;
未检测到的人头特征的第二概率的公式如下:
其中,为人头特征a存在的第二概率,/>和/>分别为特征a、b、c和d对应的第二预设阈值,通过实验记录得出。
根据所述第一概率和第二概率,确定所述未检测到的特征在所述待检测图像中存在的概率。
如将第一概率或第二概率直接相加,或是加权后相加得出未检测到的特征在待检测图像中存在的概率,但本实施例不限于这两种方法。
在上述实施例的基础上,本实施例中所述根据所述第一概率和第二概率,确定所述未检测到的特征在所述待检测图像中存在的概率,包括:获取所述第一概率和第二概率中大于相应的第三预设阈值的概率;其中,所述第一概率和第二概率与所述第三预设阈值预先关联存储;若大于相应的所述第三预设阈值的概率为一个,则将大于相应的所述第三预设阈值的概率作为所述未检测到的特征在所述待检测图像中存在的概率;若大于相应的所述第三预设阈值的概率为两个,则将所述第一概率和第二概率之和作为所述未检测到的特征在所述待检测图像中存在的概率。
具体地,通过以下公式计算未检测到的特征在待检测图像中存在的概率:
其中,Proba为未检测到的特征a存在的概率,θA为第一概率对应的第三预设阈值,θB为第二概率对应的第三预设阈值。
在上述实施例的基础上,本实施例中所述根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在,包括:基于所述深度学习网络对每个图像样本中目标的所述多个特征进行检测,获取所述检测到的特征和未检测到的特征的置信度;将每个图像样本中检测到的特征的置信度和未检测到的特征的置信度分别与相应的所述预设阈值进行比较,根据比较结果确定所述未检测到的特征在每个图像样本中存在的概率;计算所述未检测到的特征在所有图像样本中存在的概率的平均值;
具体地,图像样本中存在待检测图像中未检测到的特征,使用深度学习网络检测出每个特征的位置和大小,并使用上述方法根据每个特征的置信度计算待检测图像中未检测到的特征的存在概率。然后计算待检测图像中未检测到的特征在所有图像样本中存在的概率平均值
若所述未检测到的特征在所述待检测图像中存在的概率大于所述未检测到的特征在所有图像样本中存在的概率的平均值,则获知所述未检测到的特征在所述待检测图像中存在。
若未检测到的特征存在的概率Prob大于则判断未检测到的特征真实存在,进一步计算未检测到的特征的中心点坐标和边界框尺寸,如图4所示。反之,Prob小于或等于/>则判断未检测到的特征不存在。
在上述各实施例的基础上,本实施例中所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,之前还包括:根据所述图像样本中的部分图像样本中已标记的未检测到的特征和检测到的特征的边界框,获取所述部分图像样本中未检测到的特征和检测到的特征的中心点坐标,以及未检测到的特征和检测到的特征的边界框尺寸;
例如,图像样本为2n张,从中选取n张已标记的图像样本。根据人工在每个图像样本中标记的每个特征的边界框,获取每个特征的边界框的尺寸(w,h)和中心点坐标(x,y),如图5所示。特征a的中心点坐标记为A(xa,ya),特征a的边界框大小记为(wa,ha);特征b的中心点坐标记为B(xb,yb),特征b的边界框大小记为(wb,hb);特征c的中心点坐标记为C(xc,yc),特征c的边界框大小记为(wc,hc);特征d的中心点坐标记为D(xd,yd),特征d的边界框大小记为(wd,hd)。从而计算出中心点的坐标比例C以及边界框的尺寸之间的比例P的值。其中特征a与特征b的中心点坐标比例和边界框的尺寸之间的比例,分别记为Cab和Pab;特征a与特征c的中心点坐标比例和边界框的尺寸之间的比例,分别记为Cac和Pac;特征a与特征d的中心点坐标比例和边界框的尺寸之间的比例,分别记为Cad和Pad。
基于所述深度学习网络对所述图像样本中的另一部分图像样本中未标记的多个特征进行检测,获取所述另一部分图像样本中未检测到的特征和检测到的特征的中心点坐标,以及未检测到的特征和检测到的特征的边界框尺寸。
使用深度学习网络对2n张图像样本中另外n张未标记图像样本中的每个特征进行检测,通过检测出的通过检测出的每个特征的中心点坐标和框的尺寸,计算出检测得到的中心点坐标比值C和边界框尺寸比值P。
在上述各实施例的基础上,本实施例中所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,包括:计算所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间比值的平均值;
对于上述2n张图像样本,求中心点坐标比值C的平均值,即:
将每个检测到的特征对应的中心点坐标比值的平均值乘以每个检测到的特征的中心点坐标后求平均,获取所述待检测图像中未检测到的特征的中心点坐标;
未检测到的特征a的中心点坐标计算公式如下:
计算所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间比值的平均值;
对于上述2n张图像样本,求边界框尺寸比值P的平均值,即:
将每个检测到的特征对应的边界框尺寸比值的平均值乘以每个检测到的特征的边界框尺寸后求平均,获取所述待检测图像中未检测到的特征的边界框尺寸。
未检测到的特征a的边界框尺寸计算公式如下:
在上述各实施例的基础上,本实施例中所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,包括:基于k-means算法对所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间的比值进行聚类,获取多类中心点坐标比值;将所述中心点坐标比值的个数最多的类中所有中心点坐标比值的平均值作为每个检测到的特征的最优中心点坐标比值;将每个检测到的特征对应的最优中心点坐标比值乘以每个检测到的特征的中心点坐标后求平均,获取所述待检测图像中未检测到的特征的中心点坐标;
基于k-means算法对所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间的比值进行聚类,获取多类边界框尺寸比值;将所述边界框尺寸比值的个数最多的类中所有边界框尺寸比值的平均值作为每个检测到的特征的最优边界框尺寸比值;将每个检测到的特征对应的最优边界框尺寸比值乘以每个检测到的特征的边界框尺寸后求平均,获取所述待检测图像中未检测到的特征的边界框尺寸。
其中,k-means算法的输入数据集为D={x1,x2,x3,…,xm},将数据集聚类成k个簇C=C1,C2,…,Ck。从数据集里面随机选取k个质心向量{μ1,μ2,…,μk},计算xi和各个质心向量μj(j=1,2,…,k)之间的距离,即最小化损失函数为:
其中,μi为簇Ci的中心点,公式为:
将每个检测到的特征对应的中心点坐标比值带入上述公式,得出每个检测到的特征的最优中心点坐标比值。将每个检测到的特征对应的边界框尺寸比值带入上述公式,得出每个检测到的特征的最优边界框尺寸比值。
下面对本发明提供的多特征联合目标检测装置进行描述,下文描述的多特征联合目标检测装置与上文描述的多特征联合目标检测方法可相互对应参照。
如图6所述,该装置包括获取模块601、确定模块602和计算模块603,其中:
获取模块601用于基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;
本实施例对用于目标检测的深度学习网络模型不作限定,可以为SSD等。本实施例不限于待检测图像中目标的类型,也不限于目标的多个特征的数量和类型。在对目标的单一特征进行检测时,使用该特征的数据集,让深度学习网络通过训练学习检测目标的该特征,生成适用于目标的本特征检测模型。在检测过程中,将深度学习网络模型应用于整个图像,将图像分割成多个区域,同时预测每个区域的检测目标特征的边界框和概率。运用非极大值抑制方法选取出置信度最高的检测结果作为最终的目标检测结果。
确定模块602用于将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在;
为了判断未检测到的特征在待检测图像中是否存在,需要联合其他检测到的特征来推断。推断过程主要存在两种情况。第一种情况是,如果任一检测的特征置信度较高,则待检测图像中应该对应存在未检测到的特征。另一种情况是,如果任意两种检测的特征组合的可能性较高,则待检测对象中也应该对应存在未检测到的特征。从而根据推断过程确定未检测到的特征存在的概率,概率较高时说明未检测到的特征存在。
计算模块603用于若存在,则根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸。
若判断未检测到的特征真实存在,则进一步计算未检测到的特征的中心点坐标和边界框尺寸。具体根据未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标在图像样本中的比值,以及边界框尺寸在图像样本中的比值,计算出未检测到的特征的中心点坐标和边界框尺寸。
本实施例通过对目标的多个特征进行检测,利用同一目标中检测出的特征的置信度判断目标的类间距离较大的特征是否存在,利用同一目标中检测出的特征的位置推断目标的类间距离较大的特征的具体位置,从而在内部特征相差较大的情况,也能检测出目标,提升目标检测效果,降低漏检效率,并且鲁棒性较高,能有效解决在未检测到的目标特征因为图像角度问题不太明显,或是被遮挡,或是存在光照阴影等环境下不能准确识别出目标的问题。
图7示例了一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行多特征联合目标检测方法,该方法包括:基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,确定所述未检测到的特征在所述待检测图像中是否存在;若存在,则根据每个图像样本中所述未检测到的特征与所述检测到的特征的中心点坐标之间的比值,以及边界框尺寸之间的比值,计算待检测图像中未检测到的特征的中心点坐标和边界框尺寸。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的多特征联合目标检测方法,该方法包括:基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,确定所述未检测到的特征在所述待检测图像中是否存在;若存在,则根据每个图像样本中所述未检测到的特征与所述检测到的特征的中心点坐标之间的比值,以及边界框尺寸之间的比值,计算待检测图像中未检测到的特征的中心点坐标和边界框尺寸。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的多特征联合目标检测方法,该方法包括:基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,确定所述未检测到的特征在所述待检测图像中是否存在;若存在,则根据每个图像样本中所述未检测到的特征与所述检测到的特征的中心点坐标之间的比值,以及边界框尺寸之间的比值,计算待检测图像中未检测到的特征的中心点坐标和边界框尺寸。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种多特征联合目标检测方法,其特征在于,包括:
基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;
将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在;
若存在,则根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸;
所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,包括:
计算所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间比值的平均值;
将所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间比值的平均值,乘以每个检测到的特征的中心点坐标后求平均,获取所述待检测图像中未检测到的特征的中心点坐标;
计算所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间比值的平均值;
将所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间比值的平均值,乘以每个检测到的特征的边界框尺寸后求平均,获取所述待检测图像中未检测到的特征的边界框尺寸。
2.根据权利要求1所述的多特征联合目标检测方法,其特征在于,所述预设阈值包括第一预设阈值和第二预设阈值;
相应地,所述将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,包括:
获取所述检测到的特征的置信度和未检测到的特征的置信度中大于相应的所述第一预设阈值的置信度,将大于相应的所述第一预设阈值的置信度相加,获取所述未检测到的特征在所述待检测图像中存在的第一概率;其中,所述检测到的特征和未检测到的特征与所述第一预设阈值预先关联存储;
获取所述检测到的特征的置信度和未检测到的特征的置信度中大于相应的所述第二预设阈值的任意两个置信度,将所述任意两个置信度中的最大值相加,获取所述未检测到的特征在所述待检测图像中存在的第二概率;其中,所述检测到的特征和未检测到的特征与所述第二预设阈值预先关联存储;
根据所述第一概率和第二概率,确定所述未检测到的特征在所述待检测图像中存在的概率。
3.根据权利要求2所述的多特征联合目标检测方法,其特征在于,所述根据所述第一概率和第二概率,确定所述未检测到的特征在所述待检测图像中存在的概率,包括:
获取所述第一概率和第二概率中大于相应的第三预设阈值的概率;其中,所述第一概率和第二概率与所述第三预设阈值预先关联存储;
若大于相应的所述第三预设阈值的概率为一个,则将大于相应的所述第三预设阈值的概率作为所述未检测到的特征在所述待检测图像中存在的概率;
若大于相应的所述第三预设阈值的概率为两个,则将所述第一概率和第二概率之和作为所述未检测到的特征在所述待检测图像中存在的概率。
4.根据权利要求1所述的多特征联合目标检测方法,其特征在于,所述根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在,包括:
基于所述深度学习网络模型对每个图像样本中目标的所述多个特征进行检测,获取所述检测到的特征和未检测到的特征的置信度;
将每个图像样本中检测到的特征的置信度和未检测到的特征的置信度分别与相应的所述预设阈值进行比较,根据比较结果确定所述未检测到的特征在每个图像样本中存在的概率;
计算所述未检测到的特征在所有图像样本中存在的概率的平均值;
若所述未检测到的特征在所述待检测图像中存在的概率大于所述未检测到的特征在所有图像样本中存在的概率的平均值,则获知所述未检测到的特征在所述待检测图像中存在。
5.根据权利要求1-4任一所述的多特征联合目标检测方法,其特征在于,所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,之前还包括:
根据所述图像样本中的部分图像样本中已标记的未检测到的特征和检测到的特征的边界框,获取所述部分图像样本中未检测到的特征和检测到的特征的中心点坐标,以及未检测到的特征和检测到的特征的边界框尺寸;
基于所述深度学习网络模型对所述图像样本中的另一部分图像样本中未标记的多个特征进行检测,获取所述另一部分图像样本中未检测到的特征和检测到的特征的中心点坐标,以及未检测到的特征和检测到的特征的边界框尺寸。
6.根据权利要求1-4任一所述的多特征联合目标检测方法,其特征在于,所述根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸,包括:
基于k-means算法对所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间的比值进行聚类,获取多类中心点坐标比值;
将所述中心点坐标比值的个数最多的类中所有中心点坐标比值的平均值作为每个检测到的特征的最优中心点坐标比值;
将每个检测到的特征对应的最优中心点坐标比值乘以每个检测到的特征的中心点坐标后求平均,获取所述待检测图像中未检测到的特征的中心点坐标;
基于k-means算法对所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间的比值进行聚类,获取多类边界框尺寸比值;
将所述边界框尺寸比值的个数最多的类中所有边界框尺寸比值的平均值作为每个检测到的特征的最优边界框尺寸比值;
将每个检测到的特征对应的最优边界框尺寸比值乘以每个检测到的特征的边界框尺寸后求平均,获取所述待检测图像中未检测到的特征的边界框尺寸。
7.一种多特征联合目标检测装置,其特征在于,包括:
获取模块,用于基于深度学习网络模型对待检测图像中目标的多个特征进行检测,获取所述多个特征中检测到的特征和未检测到的特征,以及所述检测到的特征和未检测到的特征的置信度;
确定模块,用于将所述检测到的特征的置信度和未检测到的特征的置信度分别与相应的预设阈值进行比较,根据比较结果确定所述未检测到的特征在所述待检测图像中存在的概率,根据所述概率确定所述未检测到的特征在所述待检测图像中是否存在;
计算模块,用于若存在,则根据每个图像样本中所述未检测到的特征的中心点坐标与所述检测到的特征的中心点坐标之间的比值,以及所述未检测到的特征的边界框尺寸与所述检测到的特征的边界框尺寸之间的比值,计算所述待检测图像中未检测到的特征的中心点坐标和边界框尺寸;
所述计算模块具体用于:
计算所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间比值的平均值;
将所有图像样本中所述未检测到的特征的中心点坐标与每个检测到的特征的中心点坐标之间比值的平均值,乘以每个检测到的特征的中心点坐标后求平均,获取所述待检测图像中未检测到的特征的中心点坐标;
计算所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间比值的平均值;
将所有图像样本中所述未检测到的特征的边界框尺寸与每个检测到的特征的边界框尺寸之间比值的平均值,乘以每个检测到的特征的边界框尺寸后求平均,获取所述待检测图像中未检测到的特征的边界框尺寸。
8.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至6任一项所述多特征联合目标检测方法的步骤。
9.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述多特征联合目标检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011265449.2A CN112308011B (zh) | 2020-11-12 | 2020-11-12 | 多特征联合目标检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011265449.2A CN112308011B (zh) | 2020-11-12 | 2020-11-12 | 多特征联合目标检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112308011A CN112308011A (zh) | 2021-02-02 |
CN112308011B true CN112308011B (zh) | 2024-03-19 |
Family
ID=74326041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011265449.2A Active CN112308011B (zh) | 2020-11-12 | 2020-11-12 | 多特征联合目标检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112308011B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105320921A (zh) * | 2014-07-31 | 2016-02-10 | 腾讯科技(深圳)有限公司 | 双眼定位方法及双眼定位装置 |
WO2016037300A1 (en) * | 2014-09-10 | 2016-03-17 | Xiaoou Tang | Method and system for multi-class object detection |
CN107358149A (zh) * | 2017-05-27 | 2017-11-17 | 深圳市深网视界科技有限公司 | 一种人体姿态检测方法和装置 |
KR101825459B1 (ko) * | 2016-08-05 | 2018-03-22 | 재단법인대구경북과학기술원 | 다중 클래스 객체 검출 장치 및 그 방법 |
CN109271970A (zh) * | 2018-10-30 | 2019-01-25 | 北京旷视科技有限公司 | 人脸检测模型训练方法及装置 |
KR20190023389A (ko) * | 2017-08-29 | 2019-03-08 | 인하대학교 산학협력단 | 변화점 검출을 활용한 다중클래스 다중물체 추적 방법 |
CN109858569A (zh) * | 2019-03-07 | 2019-06-07 | 中国科学院自动化研究所 | 基于目标检测网络的多标签物体检测方法、系统、装置 |
CN110163096A (zh) * | 2019-04-16 | 2019-08-23 | 北京奇艺世纪科技有限公司 | 人物识别方法、装置、电子设备和计算机可读介质 |
CN110298318A (zh) * | 2019-07-01 | 2019-10-01 | 北京中星微电子有限公司 | 人头人体联合检测方法、装置和电子设备 |
CN111079699A (zh) * | 2019-12-30 | 2020-04-28 | 北京每日优鲜电子商务有限公司 | 商品识别方法及装置 |
-
2020
- 2020-11-12 CN CN202011265449.2A patent/CN112308011B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105320921A (zh) * | 2014-07-31 | 2016-02-10 | 腾讯科技(深圳)有限公司 | 双眼定位方法及双眼定位装置 |
WO2016037300A1 (en) * | 2014-09-10 | 2016-03-17 | Xiaoou Tang | Method and system for multi-class object detection |
KR101825459B1 (ko) * | 2016-08-05 | 2018-03-22 | 재단법인대구경북과학기술원 | 다중 클래스 객체 검출 장치 및 그 방법 |
CN107358149A (zh) * | 2017-05-27 | 2017-11-17 | 深圳市深网视界科技有限公司 | 一种人体姿态检测方法和装置 |
KR20190023389A (ko) * | 2017-08-29 | 2019-03-08 | 인하대학교 산학협력단 | 변화점 검출을 활용한 다중클래스 다중물체 추적 방법 |
CN109271970A (zh) * | 2018-10-30 | 2019-01-25 | 北京旷视科技有限公司 | 人脸检测模型训练方法及装置 |
CN109858569A (zh) * | 2019-03-07 | 2019-06-07 | 中国科学院自动化研究所 | 基于目标检测网络的多标签物体检测方法、系统、装置 |
CN110163096A (zh) * | 2019-04-16 | 2019-08-23 | 北京奇艺世纪科技有限公司 | 人物识别方法、装置、电子设备和计算机可读介质 |
CN110298318A (zh) * | 2019-07-01 | 2019-10-01 | 北京中星微电子有限公司 | 人头人体联合检测方法、装置和电子设备 |
CN111079699A (zh) * | 2019-12-30 | 2020-04-28 | 北京每日优鲜电子商务有限公司 | 商品识别方法及装置 |
Non-Patent Citations (2)
Title |
---|
"HeadNet: Pedestrian Head Detection Utilizing Body in Context";Gang Chen et al.;《2018 13th IEEE International Conference on Automatic Face & Gesture Recognition》;20181231;全文 * |
"基于视觉的目标检测方法综述";李章维等;《计算机工程与应用》;20200317;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112308011A (zh) | 2021-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200279121A1 (en) | Method and system for determining at least one property related to at least part of a real environment | |
Hou et al. | People counting and human detection in a challenging situation | |
KR100851981B1 (ko) | 비디오 영상에서 실 객체 판별 방법 및 장치 | |
JP4216668B2 (ja) | 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法 | |
CN113011385B (zh) | 人脸静默活体检测方法、装置、计算机设备及存储介质 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
KR20010054674A (ko) | 화자 위치 검출 장치 및 그 방법 | |
TWI503756B (zh) | 人型影像追蹤系統及其人型影像偵測方法與追蹤方法 | |
Huerta et al. | Chromatic shadow detection and tracking for moving foreground segmentation | |
CN111144207A (zh) | 一种基于多模态信息感知的人体检测和跟踪方法 | |
Cheong et al. | A novel face detection algorithm using thermal imaging | |
Jaffré et al. | Non-rigid object localization from color model using mean shift | |
CN111274851A (zh) | 一种活体检测方法及装置 | |
CN112288780B (zh) | 多特征动态加权的目标跟踪算法 | |
Amato et al. | Robust real-time background subtraction based on local neighborhood patterns | |
CN117475353A (zh) | 基于视频的异常烟雾识别方法及系统 | |
CN112308011B (zh) | 多特征联合目标检测方法及装置 | |
CN111104857A (zh) | 一种基于步态能量图的身份识别方法及系统 | |
Choi et al. | Improved pupil center localization method for eye-gaze tracking-based human-device interaction | |
CN107545270A (zh) | 一种目标检测方法及系统 | |
Chen et al. | An indoor video surveillance system with intelligent fall detection capability | |
CN108985216A (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
Zhang et al. | A new method for face detection in colour images for emotional bio-robots | |
Chowdhury et al. | Human detection and localization in secure access control by analysing facial features | |
Cao et al. | Method of Unsupervised Static Recognition and Dynamic Tracking for Vehicles. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |