CN107944369A - 一种基于级联区域生成网络和增强随机森林的行人检测方法 - Google Patents
一种基于级联区域生成网络和增强随机森林的行人检测方法 Download PDFInfo
- Publication number
- CN107944369A CN107944369A CN201711142150.6A CN201711142150A CN107944369A CN 107944369 A CN107944369 A CN 107944369A CN 201711142150 A CN201711142150 A CN 201711142150A CN 107944369 A CN107944369 A CN 107944369A
- Authority
- CN
- China
- Prior art keywords
- mrow
- pedestrian
- msub
- msup
- candidate region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及行人检测领域,具体是一种基于级联区域生成网络和增强型随机森林的行人检测方法。首先,采用卷积神经网络在行人图像上提取行人图像特征;其次,采用级联区域生成网络在上述的行人图像特征上进行候选框的提取,根据提取的候选框的置信度值的高低,选取置信度较好的候选框作为行人候选区域,最后将提取的行人特征、行人候选区域以及与行人候选区域相对应的置信度值一块输入增强型的随机森林分类器训练出最终行人检测模型,完成对行人的检测。本发明对行人图像利用级联的区域生成网络方法提取候选区域,用数量较少的候选区域结合行人图像特征训练级联的增强型随机森林分类器,使行人检测复杂度低,检测的精确率更高。
Description
技术领域
本发明涉及行人检测领域,具体涉及一种基于级联区域生成网络和增强随机森林机制的行人检测方法。
背景技术
行人检测技术由于应用的广泛性使其在计算机视觉领域成为一个重要分支,对视频监控、车辆辅助驾驶智能机器人等多个领域提供了重要的技术支持。然而现实生活中由于行人在衣着上的多样性、形态变化的多样性、所处背景的多样性、光照强弱的多样性、行人之间相互遮挡使得行人检测存在着诸多需要解决的问题。近几年发展起来的FasterRCNN的目标检测方法,将窗口提取方法由滑动窗口发展到区域生成网络,新提出的区域生成网络方法将网络中的各个卷积层的特征用来预测类别相关的候选区域。这种方法大大降低了窗口提取的耗时问题,用最少的候选窗口达到最终候选区域同样的功能。这样,使得目标检测的流程变得精简,精度越来越高,速度也越来越快。
由于行人检测在目标检测领域的特殊性,为解决Faster RCNN在行人检测领域效果不理想的问题,研究者提出了基于区域生成网络和引导随机森林的机制进行行人检测。“RPN+BF”的方法通过从更浅层的但是分辨率高的层上来进行特征的采样,利用“Hole”算法来增加特征映射的尺寸。通过重新利用的卷积特征来训练随机森林,这种策略不但通过共享特征降低了分类器的计算代价,也探索了深度学习到的特征。上述方法在行人检测领域取得了显著效果,但由于现在数据集规模较大,也存在利用RPN提取的候选区域数量较多,耗时过多,区域生成网络对特征的分类效果还不是太理想等问题。
发明内容
鉴于以上缺陷,本发明提出了一种基于级联区域生成网络和增强随机森林的行人检测方法“CASRPN+BF”,对区域生成网络提取的候选区域导入级联的区域生成网络框架中进行候选框进一步的筛选和修正,对行人检测的候选区域的训练的耗时性和行人检测的精度都进行了提升。
为实现上述发明目的,本发明采用以下技术方案:
步骤1:采用卷积神经网络在行人图像上提取行人图像特征;
步骤2:采用级联区域生成网络在上述的行人图像特征上进行候选框的提取,根据提取的候选框的置信度值的高低,选取置信度较好的候选框作为行人候选区域,行人候选区域和对应的置信度值被用于后续行人检测器的训练。经过级联区域生成网络提取的候选区域,置信度较好的数量增多,从中挑选的候选区域的质量更高;
步骤3:基于步骤1提取的行人图像特征和基于步骤2选取的行人候选区域以及与行人候选区域相对应的置信度值,将三者一起导入增强型的随机森林分类器训练行人检测模型,完成对行人的检测;相对于其他分类器,增强型的随机森林分类器更为灵活,对输入数据的限制较少,效果也较为理想。
进一步地,步骤1中行人图像特征的提取利用卷积神经网络VGG框架,针对行人图像检测的特殊性,选取conv3_3层卷积特征作为共享特征使用。
进一步地,步骤2中级联区域生成网络是根据下面方法模型对行人候选区域进行进一步的筛选和修正的:
其中,i表示行人候选区域的索引,pi表示区域生成网络生成候选区域中行人分类预测概率,pi *代表候选区域对应的行人标签概率,pi'表示级联区域生成网络生成候选区域中行人分类预测概率,(pi')*代表级联后候选区域对应的行人标签概率;t代表区域生成网络预测的行人候选区域,ti'代表级联区域生成网络预测的行人候选区域,t*代表对应的行人区域标签。
进一步地,步骤3中增强型随机森林分类器,分6个人阶段来逐渐增强得到行人检测器。
具体的,步骤1包括以下具体步骤:
(1)对于一副任意大小P×Q的图像,首先缩放为固定大小M×N,记录缩放比例。然后将M×N图像送入卷积神经网络,这里采用VGG-16网络框架进行图像原始特征的提取;
(2)考虑到常规场景下的行人检测,如自动驾驶和智能监控,行人的尺寸都是很小,低分辨率的特征映射上可能导致特征不明显。这些特征在小物体上不具有区分性,这里选取分辨率较高的conv3_3卷积层的特征进行后续的操作。
步骤2包括以下具体步骤:
(1)在特征图上使用3*3的卷积核与特征图进行卷积,然后将每个特征图的位置编码成一个特征向量。
(2)对特征中每一个位置考虑9个可能的候选窗口(也称为行人候选框):三种面积{128×128,256×256,512×512}×三种比例{1:1,1:2,2:1}。将行人候选框输入softmax层,初步提取出含有行人的候选框。
(3)根据行人区域标签,利用边框回归原理计算行人候选框的边框回归偏移量,对位置进行精修,输出更接近行人标签的候选框。按照softmax层对含有行人窗口分类得分由高到低排序,选取前面(约6000个)含有行人的候选框,即提取修正位置后的行人候选框。然后,根据上述图像的缩放比例M×N尺度映射到P×Q原图,判断行人候选框是否大范围超过边界,剔除严重超出边界的行人候选框。接着对筛选过的行人候选框进行非极大值抑制,最后再次按照非极大值抑制后的行人分类得分由大到小排序,挑选前边较高的(约2000个)作为行人候选区域。
(4)将第一次选取的行人候选区域作为行人候选窗口,再次根据行人位置标签进行边框回归,对行人候选框的位置进行精修。之后将精修后的行人数据框映射回原图,剔除严重超出边界的行人候选框,剩下的候选框进行非极大值抑制,之后按照行人分类得分由大到小排序,挑选得分较高的(约100个)作为行人的最终候选区域,候选区域对应的行人得分作为行人候选区域的置信度值。
步骤3包括以下具体步骤:
根据步骤2提取到的候选区域,采用ROI pooling在区域中提取固定长度的特征。由于随机森林分类器对于特征维度没有限制,可以利用这些来增强分辨率。基于步骤2提取到的候选区域,候选区域对应的置信度值,步骤1提取的行人特征,将三者输入到增强型随机森林分类器训练。发明采用增强型的随机森林分类器,分6个人阶段来逐渐增强,每个阶段随机森林包含{64,128,256,512,1024,1536}种树。初始的时刻,训练集合包含所有的正样本,以及同样个数的随机采样出来的负样本。在每一个阶段,额外的负样本难例被挖掘出来,并且添加到训练集中。最终,在所有的6个阶段完毕之后训练一个2048个树的森林。最终的增强型随机森林行人检测器被用来在行人测试集上进行验证。在行人检测问题上,错误的预测,一般都是由于难以区分的背景的混淆导致的,通过采用了级联的增强型随机森林,执行有效的难例削减和样本的权值更新。通过重新利用的卷积特征来训练随机森林,这种策略不但通过共享特征降低了分类器的计算代价,也探索了深度学习到的特征。
与现有技术相比,本发明的有益效果是:本发明在区域生成网络方法基础上,引入级联生成区域方法,对行人候选区域进行更精确和高效的筛选,用数量更少的候选区域训练出更好的窗口提取模型,在合理利用候选区域同时,能够结合级联增强型随机森林分类器,用简单高效的训练复杂度,使行人检测的误失率更低。
附图说明
图1CASRPN+BF方法流程示意图;
图2CASRPN+BF和RPN+BF在FPPI标准下误失率的比较结果图。
具体实施方式
以下结合附图和具体实施方式对本发明作进一步详细说。
参见图1,为实现本发明的行人检测提高候选框质量,降低训练复杂度,提高检测精度目的:首先,获取行人图像样本集,提取行人图像的卷积特征作为共享特征;然后,利用级联的区域生成网络框架提取行人候选区域;最后,将提取的行人候选区域、候选区域对应的置信度值、提取的行人特征一块输入增强型的随机森林分类器训练行人检测器。利用行人检测器在测试数据集上进行验证,完成行人检测。
实施例1
本发明实验数据来自于加利福尼亚大学大学的Caltech行人数据库,实验数据库训练集包含42782个行人图像,每张尺寸大小为640*480像素,测试集包含4024个行人图像。以下为具体过程:
步骤1:获取Caltech行人图像库中训练样本图像集,训练样本数分别为前6个视频集中set00~set05每隔3帧提取一幅行人图像。
对训练图像数据集中的所有图像,利用卷积神将网络VGG16提取卷积特征,在框架中所有的卷积层都是:卷积核为3,步长为1,所有的池化层层都是:卷积核为2,步长为2。这样一个M×N大小的矩阵经过卷积神经网络框架后固定变为(M/16)×(N/16)。这样卷积层生成的特征都可以和原图对应起来。针对行人图像的特殊性,为了提高行人分辨率,我们选取conv3_3层提取的卷积特征作为共享特征进行后续的处理。
步骤2:利用级联区域生成网络在上述提取图像特征上提取候选区域:
直接在步骤一提取的行人特征上进行候选区域的提取,对特征中每一个位置考虑9个可能的候选窗口:三种面积{128×128,256×256,512×512}×三种比例{1:1,1:2,2:1},这些候选窗口称为行人候选框。对于提取到的一个40*60的特征映射,总共有约20000(40*60*9)个窗口,也就是预测20000个候选窗口。后边接入到两个全连接层,即分类层和回归层,分别用于行人分类和边框回归。分类层包含2个元素,用于判别目标和非目标的估计概率。回归层包含4个坐标元素(x,y,w,h),用于确定目标位置。分类:正样本,与真实区域重叠大于0.7,负样本,与真实区域重叠小于0.3,那些重合度在0.3到0.7之间的候选框则不参与训练。回归:返回区域位置。这里我们将这些候选框输入softmax层,初步提取出含有行人的候选框。根据行人区域标签,利用边框回归原理计算行人候选框的边框回归偏移量,对位置进行精修,输出更接近行人标签的候选框。按照softmax层对含有行人窗口分类得分由高到低排序,选取前面(约6000个)含有行人的候选框,即提取修正位置后的行人候选框。根据候选区域得分高低,选取前2000个候选区域进行后续的操作。将第一次选取的行人候选区域作为行人候选窗口,再次根据行人位置标签进行边框回归,对行人候选框的位置进行精修。之后将精修后的行人数据框映射回原图,剔除严重超出边界的行人候选框,剩下的候选框进行非极大值抑制,之后按照行人分类得分由大到小排序,挑选得分较高的100个作为行人的最终候选区域,候选区域对应的行人得分作为行人候选区域的置信度值。
步骤3:基于步骤2提取到的候选区域,候选区域对应的置信度值,步骤1提取的行人特征,将三者输入到增强型随机森林分类器训练。这里我们采用增强型的随机森林分类器,分6个人阶段来逐渐增强,每个阶段随机森林包含{64,128,256,512,1024,1536}种树。初始的时刻,训练集合包含所有的正样本,以及同样个数的随机采样出来的负样本。在每一个阶段,额外的负样本难例被挖掘出来,并且添加到训练集中。最终,在所有的6个阶段完毕之后训练一个2048个树的森林,构成行人检测器。在测试集上用FPPI评估方法获得的行人误失率,对行人检测进行评价,检测结果见附图2。
实施例2
根据以上步骤,本发明比较了CASRPN+BF方法和其他行人检测先进的方法,见表1。从图2中可以看出本发明提出的方法在行人检测优于性能先进的RPN+BF方法,误失率降到9.39%。
表1 CASRPN+BF与其它行人检测方法在误失率上的比较结果
综上所述,本发明提出的CASRPN+BF方法对给定的行人图像数据有很好的检测效果,具有很强的鲁棒性。用提取数量更少,质量更高的行人候选区域训练窗口模型,然后在训练级联的增强型随机森林分类器时复杂度更低所用的时间更低,构成最终的行人检测器效果较稳定,易于在实际系统中使用。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围内。
Claims (4)
1.一种基于级联区域生成网络和增强随机森林的行人检测方法,其特征在于,包括以下步骤:
步骤1:采用卷积神经网络在行人图像上提取行人图像特征;
步骤2:采用级联区域生成网络在上述的行人图像特征上进行候选框的提取,根据提取的候选框的置信度值的高低,选取置信度较好的候选框作为行人候选区域;
步骤3:基于步骤1提取的行人图像特征和基于步骤2选取的行人候选区域以及与行人候选区域相对应的置信度值,将三者一起导入增强型的随机森林分类器训练行人检测模型,完成对行人的检测。
2.如权根据权利要求1所述的一种基于级联区域生成网络和增强随机森林的行人检测方法,其特征在于,步骤1中行人图像特征的提取利用卷积神经网络VGG框架,针对行人图像检测的特殊性,选取conv3_3层卷积特征作为共享特征使用。
3.如权根据权利要求1所述的一种基于级联区域生成网络和增强随机森林的行人检测方法,其特征在于,步骤2中级联区域生成网络是根据下面方法模型对行人候选区域进行进一步的筛选和修正的:
<mrow>
<msub>
<mi>L</mi>
<mrow>
<mi>c</mi>
<mi>a</mi>
<mi>s</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<mrow>
<mo>{</mo>
<msubsup>
<mi>p</mi>
<mi>i</mi>
<mo>&prime;</mo>
</msubsup>
<mo>}</mo>
</mrow>
<mo>,</mo>
<mrow>
<mo>{</mo>
<msubsup>
<mi>t</mi>
<mi>i</mi>
<mo>&prime;</mo>
</msubsup>
<mo>}</mo>
</mrow>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msup>
<msub>
<mi>N</mi>
<mrow>
<mi>c</mi>
<mi>l</mi>
<mi>s</mi>
</mrow>
</msub>
<mo>&prime;</mo>
</msup>
</mrow>
</mfrac>
<munder>
<mi>&Sigma;</mi>
<mi>i</mi>
</munder>
<msup>
<msub>
<mi>L</mi>
<mrow>
<mi>c</mi>
<mi>l</mi>
<mi>s</mi>
</mrow>
</msub>
<mo>&prime;</mo>
</msup>
<mrow>
<mo>{</mo>
<mrow>
<mfrac>
<mn>1</mn>
<msub>
<mi>N</mi>
<mrow>
<mi>c</mi>
<mi>l</mi>
<mi>s</mi>
</mrow>
</msub>
</mfrac>
<munder>
<mi>&Sigma;</mi>
<mi>i</mi>
</munder>
<msub>
<mi>L</mi>
<mrow>
<mi>c</mi>
<mi>l</mi>
<mi>s</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msup>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>*</mo>
</msup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
<mo>+</mo>
<msup>
<mi>&lambda;</mi>
<mo>&prime;</mo>
</msup>
<mfrac>
<mn>1</mn>
<mrow>
<msup>
<msub>
<mi>N</mi>
<mrow>
<mi>r</mi>
<mi>e</mi>
<mi>g</mi>
</mrow>
</msub>
<mo>&prime;</mo>
</msup>
</mrow>
</mfrac>
<munder>
<mi>&Sigma;</mi>
<mi>i</mi>
</munder>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msup>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mo>&prime;</mo>
</msup>
</mrow>
<mo>)</mo>
</mrow>
<mo>*</mo>
</msup>
<msup>
<msub>
<mi>L</mi>
<mrow>
<mi>r</mi>
<mi>e</mi>
<mi>g</mi>
</mrow>
</msub>
<mo>&prime;</mo>
</msup>
<mrow>
<mo>{</mo>
<mrow>
<mfrac>
<mn>1</mn>
<msub>
<mi>N</mi>
<mrow>
<mi>r</mi>
<mi>e</mi>
<mi>g</mi>
</mrow>
</msub>
</mfrac>
<msubsup>
<mi>p</mi>
<mi>i</mi>
<mo>*</mo>
</msubsup>
<msub>
<mi>L</mi>
<mrow>
<mi>r</mi>
<mi>e</mi>
<mi>g</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msup>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>*</mo>
</msup>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
<mo>}</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>L</mi>
<mrow>
<mi>r</mi>
<mi>e</mi>
<mi>g</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msup>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>*</mo>
</msup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>&Element;</mo>
<mo>{</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>,</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>}</mo>
</mrow>
</munder>
<msub>
<mi>smooth</mi>
<mrow>
<mi>L</mi>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msup>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>*</mo>
</msup>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>smooth</mi>
<mrow>
<mi>L</mi>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>0.5</mn>
<msup>
<mi>x</mi>
<mn>2</mn>
</msup>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
<mo>|</mo>
<mi>x</mi>
<mo>|</mo>
<mo><</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>|</mo>
<mi>x</mi>
<mo>|</mo>
<mo>-</mo>
<mn>0.5</mn>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,i表示行人候选区域的索引,pi表示区域生成网络生成候选区域中行人分类预测概率,pi *代表候选区域对应的行人标签概率,pi'表示级联区域生成网络生成候选区域中行人分类预测概率,(pi')*代表级联后候选区域对应的行人标签概率;t代表区域生成网络预测的行人候选区域,ti'代表级联区域生成网络预测的行人候选区域,t*代表对应的行人区域标签。
4.如权根据权利要求1所述的一种基于级联区域生成网络和增强随机森林的行人检测方法,其特征在于,步骤3中增强型随机森林分类器,分6个人阶段来逐渐增强得到行人检测器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711142150.6A CN107944369A (zh) | 2017-11-17 | 2017-11-17 | 一种基于级联区域生成网络和增强随机森林的行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711142150.6A CN107944369A (zh) | 2017-11-17 | 2017-11-17 | 一种基于级联区域生成网络和增强随机森林的行人检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107944369A true CN107944369A (zh) | 2018-04-20 |
Family
ID=61931647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711142150.6A Pending CN107944369A (zh) | 2017-11-17 | 2017-11-17 | 一种基于级联区域生成网络和增强随机森林的行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107944369A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921058A (zh) * | 2018-06-19 | 2018-11-30 | 厦门大学 | 基于深度学习的鱼类识别方法、介质、终端设备及装置 |
CN109063593A (zh) * | 2018-07-13 | 2018-12-21 | 北京智芯原动科技有限公司 | 一种人脸跟踪方法及装置 |
CN109214353A (zh) * | 2018-09-27 | 2019-01-15 | 云南大学 | 一种基于剪枝模型的人脸图像快速检测训练方法和装置 |
CN109241999A (zh) * | 2018-08-07 | 2019-01-18 | 北京云迹科技有限公司 | 机器人、用于机器人的物体识别装置及物体识别方法 |
CN109344702A (zh) * | 2018-08-23 | 2019-02-15 | 北京华捷艾米科技有限公司 | 基于深度图像和彩色图像的行人检测方法及装置 |
CN109583518A (zh) * | 2018-12-26 | 2019-04-05 | 天津大学 | 一种基于多流区域推荐网络的行人检测方法 |
CN109684992A (zh) * | 2018-12-21 | 2019-04-26 | 联创汽车电子有限公司 | 行为检测系统及其检测方法 |
CN109919214A (zh) * | 2019-02-27 | 2019-06-21 | 南京地平线机器人技术有限公司 | 一种神经网络模型的训练方法及训练装置 |
CN110490058A (zh) * | 2019-07-09 | 2019-11-22 | 北京迈格威科技有限公司 | 行人检测模型的训练方法、装置、系统和计算机可读介质 |
CN110807359A (zh) * | 2019-09-19 | 2020-02-18 | 江苏濠汉信息技术有限公司 | 基于部署在无人机中模型的杆塔缺陷巡检的方法 |
CN111260643A (zh) * | 2020-02-12 | 2020-06-09 | 江苏濠汉信息技术有限公司 | 基于部署在后端服务器中模型的杆塔缺陷巡检的方法 |
CN111368625A (zh) * | 2019-11-08 | 2020-07-03 | 深圳北航新兴产业技术研究院 | 一种基于级联优化的行人目标检测方法 |
WO2021018106A1 (zh) * | 2019-07-30 | 2021-02-04 | 华为技术有限公司 | 行人检测方法、装置、计算机可读存储介质和芯片 |
CN112785377A (zh) * | 2021-01-22 | 2021-05-11 | 华南理工大学 | 基于数据分布的订单完工期预测模型构建方法及预测方法 |
CN117934486A (zh) * | 2024-03-25 | 2024-04-26 | 国网辽宁省电力有限公司电力科学研究院 | 变压器元件检测方法、装置、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106845430A (zh) * | 2017-02-06 | 2017-06-13 | 东华大学 | 基于加速区域卷积神经网络的行人检测与跟踪方法 |
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
CN107240087A (zh) * | 2016-11-01 | 2017-10-10 | 北京深鉴智能科技有限公司 | 目标检测系统和方法 |
-
2017
- 2017-11-17 CN CN201711142150.6A patent/CN107944369A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
CN107240087A (zh) * | 2016-11-01 | 2017-10-10 | 北京深鉴智能科技有限公司 | 目标检测系统和方法 |
CN106845430A (zh) * | 2017-02-06 | 2017-06-13 | 东华大学 | 基于加速区域卷积神经网络的行人检测与跟踪方法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108921058A (zh) * | 2018-06-19 | 2018-11-30 | 厦门大学 | 基于深度学习的鱼类识别方法、介质、终端设备及装置 |
CN109063593A (zh) * | 2018-07-13 | 2018-12-21 | 北京智芯原动科技有限公司 | 一种人脸跟踪方法及装置 |
CN109241999A (zh) * | 2018-08-07 | 2019-01-18 | 北京云迹科技有限公司 | 机器人、用于机器人的物体识别装置及物体识别方法 |
CN109344702A (zh) * | 2018-08-23 | 2019-02-15 | 北京华捷艾米科技有限公司 | 基于深度图像和彩色图像的行人检测方法及装置 |
CN109214353B (zh) * | 2018-09-27 | 2021-11-23 | 云南大学 | 一种基于剪枝模型的人脸图像快速检测训练方法和装置 |
CN109214353A (zh) * | 2018-09-27 | 2019-01-15 | 云南大学 | 一种基于剪枝模型的人脸图像快速检测训练方法和装置 |
CN109684992A (zh) * | 2018-12-21 | 2019-04-26 | 联创汽车电子有限公司 | 行为检测系统及其检测方法 |
CN109583518A (zh) * | 2018-12-26 | 2019-04-05 | 天津大学 | 一种基于多流区域推荐网络的行人检测方法 |
CN109919214A (zh) * | 2019-02-27 | 2019-06-21 | 南京地平线机器人技术有限公司 | 一种神经网络模型的训练方法及训练装置 |
CN109919214B (zh) * | 2019-02-27 | 2023-07-21 | 南京地平线机器人技术有限公司 | 一种神经网络模型的训练方法及训练装置 |
CN110490058A (zh) * | 2019-07-09 | 2019-11-22 | 北京迈格威科技有限公司 | 行人检测模型的训练方法、装置、系统和计算机可读介质 |
CN110490058B (zh) * | 2019-07-09 | 2022-07-26 | 北京迈格威科技有限公司 | 行人检测模型的训练方法、装置、系统和计算机可读介质 |
US20220148328A1 (en) * | 2019-07-30 | 2022-05-12 | Huawei Technologies Co., Ltd. | Pedestrian detection method and apparatus, computer-readable storage medium, and chip |
WO2021018106A1 (zh) * | 2019-07-30 | 2021-02-04 | 华为技术有限公司 | 行人检测方法、装置、计算机可读存储介质和芯片 |
CN110807359A (zh) * | 2019-09-19 | 2020-02-18 | 江苏濠汉信息技术有限公司 | 基于部署在无人机中模型的杆塔缺陷巡检的方法 |
CN111368625A (zh) * | 2019-11-08 | 2020-07-03 | 深圳北航新兴产业技术研究院 | 一种基于级联优化的行人目标检测方法 |
CN111368625B (zh) * | 2019-11-08 | 2024-02-27 | 深圳北航新兴产业技术研究院 | 一种基于级联优化的行人目标检测方法 |
CN111260643A (zh) * | 2020-02-12 | 2020-06-09 | 江苏濠汉信息技术有限公司 | 基于部署在后端服务器中模型的杆塔缺陷巡检的方法 |
CN112785377A (zh) * | 2021-01-22 | 2021-05-11 | 华南理工大学 | 基于数据分布的订单完工期预测模型构建方法及预测方法 |
CN112785377B (zh) * | 2021-01-22 | 2022-05-24 | 华南理工大学 | 基于数据分布的订单完工期预测模型构建方法及预测方法 |
CN117934486A (zh) * | 2024-03-25 | 2024-04-26 | 国网辽宁省电力有限公司电力科学研究院 | 变压器元件检测方法、装置、电子设备和存储介质 |
CN117934486B (zh) * | 2024-03-25 | 2024-06-07 | 国网辽宁省电力有限公司电力科学研究院 | 变压器元件检测方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107944369A (zh) | 一种基于级联区域生成网络和增强随机森林的行人检测方法 | |
CN109800778A (zh) | 一种基于难分样本挖掘的Faster RCNN目标检测方法 | |
Junos et al. | An optimized YOLO‐based object detection model for crop harvesting system | |
CN109977918A (zh) | 一种基于无监督域适应的目标检测定位优化方法 | |
CN108830188A (zh) | 基于深度学习的车辆检测方法 | |
CN109711474A (zh) | 一种基于深度学习的铝材表面缺陷检测算法 | |
CN109961024A (zh) | 基于深度学习的小麦田间杂草检测方法 | |
CN109272500B (zh) | 基于自适应卷积神经网络的织物分类方法 | |
CN108764228A (zh) | 一种图像中文字目标检测方法 | |
CN108109160A (zh) | 一种基于深度学习的免交互式GrabCut舌体分割方法 | |
CN109829893A (zh) | 一种基于注意力机制的缺陷目标检测方法 | |
CN110263705A (zh) | 面向遥感技术领域两期高分辨率遥感影像变化检测方法 | |
CN107909015A (zh) | 基于卷积神经网络及空谱信息融合的高光谱图像分类方法 | |
CN108182454A (zh) | 安检识别系统及其控制方法 | |
CN108446662A (zh) | 一种基于语义分割信息的行人检测方法 | |
CN107358258A (zh) | 基于nsct双cnn通道和选择性注意机制的sar图像目标分类 | |
CN109671102A (zh) | 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法 | |
CN108805900A (zh) | 一种跟踪目标的确定方法及装置 | |
CN107798348A (zh) | 基于邻域信息深度学习的高光谱图像分类方法 | |
CN105426919A (zh) | 基于显著性指导非监督特征学习的图像分类方法 | |
CN107316036A (zh) | 一种基于级联分类器的害虫识别方法 | |
CN107203606A (zh) | 基于卷积神经网络的自然场景下文本检测与识别方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN110348437A (zh) | 一种基于弱监督学习与遮挡感知的目标检测方法 | |
CN107918772A (zh) | 基于压缩感知理论和gcForest的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180420 |
|
RJ01 | Rejection of invention patent application after publication |