CN108121972A - 一种局部遮挡条件下的目标识别方法 - Google Patents
一种局部遮挡条件下的目标识别方法 Download PDFInfo
- Publication number
- CN108121972A CN108121972A CN201711421020.6A CN201711421020A CN108121972A CN 108121972 A CN108121972 A CN 108121972A CN 201711421020 A CN201711421020 A CN 201711421020A CN 108121972 A CN108121972 A CN 108121972A
- Authority
- CN
- China
- Prior art keywords
- target
- sift feature
- feature
- partial occlusion
- sift
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种局部遮挡条件下的目标识别方法,是图像处理与模式识别领域一个重要的研究方向。(1)输入待检测的视频,提取含有目标的图像帧进行预处理;(2)选取所要识别的目标,利用SIFT算法提取目标特征点;(3)利用隐马尔科夫模型为概率密度模型对提取的目标SIFT特征进行训练,建立目标特征匹配库;(4)输入目标被局部遮挡的图像帧,将图像SIFT特征与目标特征匹配库进行匹配,便可将目标SIFT特征从图像所有SIFT特征中分类出来,实现视频序列图像中的目标识别。本发明的识别精度高,计算简单,工程实现容易。
Description
技术领域
本发明属于数字图像处理领域,具体涉及一种局部遮挡条件下的目标识别方法,针对如何快速、准确地识别出图像中被遮挡目标的问题,采用基于SIFT特征进行训练的算法,能够很好地解决遮挡情况下的目标识别问题。
背景技术
图像的目标识别是图像处理与模式识别领域一个重要的研究方向,它在安全监控、国防安全和医疗诊断等领域得到了越来越广泛的应用。传统算法能够准确地识别背景简单、无遮挡的目标,然而对于存在局部遮挡的目标常常会出现虚警或漏报。在实际应用中,由于目标和视觉传感器之间的相对运动以及目标自身的运动,目标易被遮挡,这使得局部遮挡条件下的目标识别成为一个极具挑战性的难题。
Kordelas等利用三维空间信息,完成了有遮挡的目标识别问题;Zhang等通过新的本地仿射变换和相似性度量函数建立新的模板匹配方法,大大提高了遮挡情况下的目标识别精度,而且具有较好的抗噪性能;Krolupper等利用轮廓分段的方法,实现了目标识别。
除以上方法外,近年来公开发表的文献中对局部遮挡条件下的目标识别方法的研究也比较多。
但上述已有方法存在的缺点主要体现在:(1)大面积遮挡情况下目标识别精度不高;(2)缺少对有效特征点的筛选;(3)轮廓划分不合理,没有解决复杂背景及遮挡物对轮廓提取造成的影响,目标的识别也受到较大影响。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提供一种局部遮挡条件下的目标识别方法,能够获得较高的识别精度,同时计算简单,工程实现容易。
为了解决上述技术问题,本发明所采用的技术解决方案如下所述。
本发明的技术解决方案是:一种局部遮挡条件下的目标识别方法,步骤如下:
(1)输入待检测的视频,提取含有目标的图像帧进行预处理;
首先,在视频序列图像中提取含有目标的图像帧,需要保证该帧中的目标无遮挡;
然后,预处理主要是对图像进行灰度变换,用以解决由于目标大小、距离远近及大气环境等因素造成的目标与背景的对比度较低、目标特征较模糊等问题,增强待识别图像的对比度,便于目标图像的识别和特征点的提取,转化公式为:
Gray=0.3*R+0.59*G+0.11*B
其中,Gray为灰度图像中各像素点的灰度值,R、G、B为彩色图像中各像素点的三个通道的分量;
进行灰度变换后,将目标图像进行尺度归一化。
(2)在上述步骤(1)获得的图像中选取所要识别的目标,利用SIFT算法提取目标特征点,SIFT特征提取算法的实现过程包括以下几个步骤:
首先假设经过步骤(1)后的目标图像有N个SIFT特征点,每个SIFT特征点的尺度为mj,则N个特征点尺度信息组成的特征向量MN如下所示:
MN=(m1,m2,…,mN)
然后,对N个SIFT特征点的尺度信息进行从大到小排序:
PN=sort(MN,'descend')
其中,PN表示MN从大到小排序组成的特征向量,sort表示将向量重新进行排序,descend表示排序方式为从大到小;
截取前K个P值(P1,P2,…,PK-1,PK)作为特征向量,从而得到提取的SIFT特征图。
(3)通过概率密度模型对提取的目标SIFT特征进行训练,建立目标特征匹配库;
选择隐马尔科夫模型对提取的目标SIFT特征进行训练,利用提取的目标SIFT特征对该模型的参数进行设定,建立目标所对应模型的状态转移矩阵A和概率矩阵B。
A为状态转移概率矩阵:
A={aij|i,j=1,2,…L}
其中,aij是指在第k个特征向量Pk的状态为Si,而第k+1个特征向量Pk+1的状态为Sj的概率,即aij=q(Pk+1=Sj|Pk=Si),q表示概率的大小,1≤i,j≤L,L为设定值,表示隐含状态个数。
B为概率矩阵,是状态Sj的观测值概率分布:
B={bj(t)|j=1,2,…L;t=1,2,,Q}
并且满足
其中bj(t)是指在隐含状态为Sj、观察状态为Vt条件下的观测值概率,1≤t≤Q,Q表示观察状态个数。
在利用概率密度模型对图像中目标的SIFT特征训练后,由目标SIFT特征模型输出的最大值组成的连续数值范围作为目标和非目标的分类依据,即为目标特征匹配库。
(4)输入目标被局部遮挡的图像帧,将图像SIFT特征与步骤(3)得到的目标特征匹配库进行匹配,便可将目标SIFT特征从图像所有SIFT特征中分类出来,实现视频序列图像中的目标识别。
首先,步骤(2)提取目标的特征点时主要是取在x,y方向上同时变化较大的点作为特征点,但在目标存在局部遮挡时,取到的特征点有可能不是目标的特征点,因此需要对每个特征点的有效性进行分析,筛选有效的SIFT特征点:
其中,Pi为第i个特征点的概率密度,n为以特征点为中心的邻域内在x,y方向的方向导数符号与模板对应的方向导数符号相同点的个数,m为邻域的尺度。
假设共有N个特征点,将这N个特征点的概密度按从大到小的顺序排列,将特征点的概率密度以阈值T分为两类:
u=w0u0+w1u1
σ2=w0(u0-u)2+w1(u1-u)2=w0w1(u0-u1)2
其中,w0和w1分别为第一类和第二类的概率,u0和u1分别为两类的均值,u为均值,σ2为类间方差,T为整数,从0开始逐步递增,最终选出使σ2最大的Tc。
然后,将筛选得到的SIFT特征与步骤(3)得到的目标特征匹配库进行匹配,即可有效地将目标SIFT特征从图像所有SIFT特征中识别出来,从而实现视频序列图像中的目标识别。
本发明与现有技术相比的优点在于:
(1)本发明的局部遮挡条件下的目标识别方法区别于其它目标识别方法,具有实时性高,精度高,虚警率低,可靠性高等特点。
(2)本发明经过大量试验验证,方法可行,工程技术易实现,因此具有实用性。
附图说明
图1为本发明局部遮挡条件下的目标识别方法流程图;
图2为目标SIFT特征提取图;
图3为采用本发明方法获得的遮挡比例为20%时的目标特征提取图;
图4为采用本发明方法获得的遮挡比例为30%时的目标特征提取图;
图5为采用本发明方法获得的遮挡比例为40%时的目标特征提取图。
具体实施方式
下面结合附图及实施例对本发明进行详细说明。
如图1所示,本发明的具体实现步骤如下:
(1)输入待检测的视频,提取含有目标的图像帧进行预处理,包括以下几个步骤:
首先,在视频序列图像中提取含有目标的图像帧,需要保证该帧中的目标无遮挡;然后,预处理主要是对图像进行灰度变换,用以解决由于目标大小、距离远近及大气环境等因素造成的目标与背景的对比度较低、目标特征较模糊等问题,增强待识别图像的对比度,便于目标图像的识别和特征点的提取,转化公式为:
Gray=0.3*R+0.59*G+0.11*B
其中,Gray为灰度图像中各像素点的灰度值,R、G、B为彩色图像中各像素点的三个通道的分量;
进行灰度变换后,将目标图像进行尺度归一化,本发明实例中将目标图像大小统一归一化为256*256。
(2)利用SIFT算法提取所要识别的目标特征点。
SIFT特征具有以下优点:是一种稳定的图像局部特征,具有对光照突变、旋转以及尺度缩放等保持不变的特性;包含丰富的特征信息,能够在大量特征数据中实现快速、精准匹配;目标局部被遮挡也能够产生数量可观的SIFT特征向量。
SIFT特征提取算法的实现过程包括以下几个步骤:
首先假设经过步骤(1)后的目标图像有N个SIFT特征点,每个SIFT特征点的尺度为mj,则N个特征点尺度信息组成的特征向量MN如下所示:
MN=(m1,m2,…,mN)
然后,对N个SIFT特征点的尺度信息进行从大到小排序:
PN=sort(MN,'descend')
其中,PN表示MN从大到小排序组成的特征向量,sort表示将向量重新进行排序,descend表示排序方式为从大到小;
截取前K个P值(P1,P2,…,PK-1,PK)作为特征向量,从而得到提取的SIFT特征图,本实例中得到的SIFT特征提取图如图2所示。
(3)通过概率密度模型对提取的目标SIFT特征进行训练,建立目标特征匹配库。
具体地,概率密度模型选择隐马尔科夫模型,利用提取的目标SIFT特征对该模型的参数进行设定,建立目标所对应模型的状态转移矩阵A和概率矩阵B。
A为状态转移概率矩阵:
A={aij|i,j=1,2,…L}
其中,aij是指在第k个特征向量Pk的状态为Si,而第k+1个特征向量Pk+1的状态为Sj的概率,即aij=q(Pk+1=Sj|Pk=Si),q表示概率的大小,1≤i,j≤L,L为设定值,表示隐含状态个数,本发明实例中L取8。
B为概率矩阵,是状态Sj的观测值概率分布:
B={bj(t)|j=1,2,…L;t=1,2,…,Q}
并且满足
其中bj(t)是指在隐含状态为Sj、观察状态为Vt条件下的观测值概率,1≤t≤Q,Q表示观察状态个数。
在利用概率密度模型对图像中目标的SIFT特征训练后,由目标SIFT特征模型输出的最大值组成的连续数值范围作为目标和非目标的分类依据,即为目标特征匹配库,本实例中与目标SIFT特征相对应的连续数值范围为465.34~474.87。
(4)输入目标被局部遮挡的图像帧,将该帧图像的SIFT特征与步骤(3)得到的目标特征匹配库进行匹配,便可将目标SIFT特征从图像所有SIFT特征中分类出来,实现视频序列图像中的目标识别。
首先,步骤(2)提取目标的特征点时主要是取在x,y方向上同时变化较大的点作为特征点,但在目标存在局部遮挡时,取到的特征点有可能不是目标的特征点,因此需要对每个特征点的有效性进行分析,筛选有用的特征点:
其中,Pi为第i个特征点的概率密度,n为以特征点为中心的邻域内在x,y方向的方向导数符号与模板对应的方向导数符号相同点的个数,m为邻域的尺度。
假设共有N个特征点,将这N个特征点的概密度按从大到小的顺序排列,将特征点的概率密度以阈值T分为两类:
u=w0u0+w1u1
σ2=w0(u0-u)2+w1(u1-u)2=w0w1(u0-u1)2
其中,w0和w1分别为第一类和第二类的概率,u0和u1分别为两类的均值,u为均值,σ2为类间方差,T为整数,从0开始逐步递增,最终选出使σ2最大的Tc。
然后,将筛选得到的SIFT特征与步骤(3)得到的目标特征匹配库进行匹配,即可有效地将目标SIFT特征从图像所有SIFT特征中识别出来,从而实现视频序列图像中的目标识别。
图3为本实例中遮挡比例为20%情况下的目标特征提取图,本发明所介绍方法获取的识别率为96.89%。
图4为本实例中遮挡比例为30%情况下的目标特征提取图,本发明所介绍方法获取的识别率为93.95%。
图5为本实例中遮挡比例为40%情况下的目标特征提取图,本发明所介绍方法获取的识别率为90.45%。
由图3、图4、图5可以发现,使用本发明所介绍的方法能够较准确地识别出局部遮挡条件下的目标。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (8)
1.一种局部遮挡条件下的目标识别方法,其特征在于,包括以下步骤:
(1)对视频中包含目标的图像帧预处理;
(2)从包含目标的图像帧选取待识别的目标,提取目标的SIFT特征;
(3)通过概率密度模型对目标的SIFT特征训练,并建立目标特征匹配库;
(4)提取目标被局部遮挡的图像帧的SIFT特征,与步骤(1)得到的目标特征匹配库进行匹配,将目标SIFT特征从图像所有SIFT特征中分类出来,实现目标被局部遮挡的图像帧的目标识别。
2.根据权利要求1所述的局部遮挡条件下的目标识别方法,其特征在于:所述步骤(1)中包含目标的图像帧指所述图像帧的目标无遮挡,对视频中包含目标的图像帧的预处理包括对所属图像帧进行灰度变换,并尺度归一化。
3.根据权利要求1所述的局部遮挡条件下的目标识别方法,其特征在于:所述步骤(2)中,从包含目标的图像帧选取待识别的目标,提取目标的SIFT特征的过程包括:构建所述目标的SIFT特征点的特征向量并排序,保留设定阈值前的特征向量,从而得到所述目标的SIFT特征。
4.根据权利要求3所述的局部遮挡条件下的目标识别方法,其特征在于:所述特征向量的构建并排序,保留设定阈值前的特征向量,从而得到所述目标的SIFT特征的具体过程为:
(1)首先,目标有N个SIFT特征点,每个SIFT特征点的尺度信息为mj,则N个特征点的尺度信息组成的特征向量MN,如下所示:
MN=(m1,m2,…,mN)
(2)然后,对N个SIFT特征点的尺度信息进行从大到小排序:
PN=sort(MN,'descend')
其中,PN表示MN从大到小排序组成的特征向量,sort表示将向量重新进行排序,descend表示排序方式为从大到小;
(3)截取PN中前K个值(P1,P2,…,PK-1,PK)作为特征向量,从而得到提取的SIFT特征图,K为设定值。
5.根据权利要求1所述的局部遮挡条件下的目标识别方法,其特征在于:所述步骤(3)中,概率密度模型采用隐马尔科夫模型,利用隐马尔科夫模型对目标的SIFT特征训练,由所述模型输出的最大值组成的连续数值范围作为识别是否为目标的分类依据,从得到目标特征匹配库。
6.根据权利要求5所述的局部遮挡条件下的目标识别方法,其特征在于:具体实现为:
(1)选择隐马尔科夫模型对提取的目标SIFT特征进行训练,利用提取的目标SIFT特征对所述模型的参数进行设定,建立目标所对应所述模型的状态转移矩阵A和概率矩阵B;
A为状态转移概率矩阵:
A={aij|i,j=1,2,…L}
其中,aij是指在第k个特征向量Pk的状态为Si,而第k+1个特征向量Pk+1的状态为Sj的概率,即aij=q(Pk+1=Sj|Pk=Si),q表示概率的大小,1≤i,j≤L,L为设定值,表示隐含状态个数;
B为概率矩阵,是状态Sj的观测值概率分布:
B={bj(t)|j=1,2,…L;t=1,2,…,Q}
并且满足
其中bj(t)是指在隐含状态为Sj、观察状态为Vt条件下的观测值概率,1≤t≤Q,Q表示观察状态个数。
7.根据权利要求1所述的局部遮挡条件下的目标识别方法,其特征在于:所述步骤(3)中,与所述的目标特征匹配库进行匹配的过程包括:
(1)提取目标被局部遮挡的图像帧的SIFT特征,确定目标被局部遮挡的图像帧的SIFT特征有效性的阈值,并筛选出满足所述阈值的有效的SIFT特征;
(2)将步骤(1)得到的有用SIFT特征与目标特征库进行匹配,将目标的SIFT特征从目标被局部遮挡的图像帧的有效的SIFT特征中分出,实现目标被局部遮挡的图像帧的目标识别。
8.根据权利要求7所述的局部遮挡条件下的目标识别方法,其特征在于:利用类间方差最大的方法确定所述阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711421020.6A CN108121972A (zh) | 2017-12-25 | 2017-12-25 | 一种局部遮挡条件下的目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711421020.6A CN108121972A (zh) | 2017-12-25 | 2017-12-25 | 一种局部遮挡条件下的目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108121972A true CN108121972A (zh) | 2018-06-05 |
Family
ID=62231753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711421020.6A Pending CN108121972A (zh) | 2017-12-25 | 2017-12-25 | 一种局部遮挡条件下的目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108121972A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345629A (zh) * | 2018-08-08 | 2019-02-15 | 安徽慧软科技有限公司 | 一种三维医学图像模糊凸显显示方法 |
CN109753894A (zh) * | 2018-12-19 | 2019-05-14 | 国网北京市电力公司 | 告警方法及装置 |
CN110798677A (zh) * | 2018-08-01 | 2020-02-14 | Oppo广东移动通信有限公司 | 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备 |
CN111709288A (zh) * | 2020-05-15 | 2020-09-25 | 北京百度网讯科技有限公司 | 人脸关键点检测方法、装置以及电子设备 |
CN114235148A (zh) * | 2022-02-25 | 2022-03-25 | 南京信息工程大学 | 一种基于夜光遥感数据的道路夜间照明质量监测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101383899A (zh) * | 2008-09-28 | 2009-03-11 | 北京航空航天大学 | 一种空基平台悬停视频稳像方法 |
CN101556647A (zh) * | 2009-05-20 | 2009-10-14 | 哈尔滨理工大学 | 一种基于改进sift算法的移动机器人视觉定位方法 |
CN102693421A (zh) * | 2012-05-31 | 2012-09-26 | 东南大学 | 基于sift 特征包的牛眼虹膜图像识别方法 |
CN102800104A (zh) * | 2012-06-18 | 2012-11-28 | 西安空间无线电技术研究所 | 一种基于isar图像序列的二维散射中心自动关联方法 |
CN104318548A (zh) * | 2014-10-10 | 2015-01-28 | 西安电子科技大学 | 一种基于空间稀疏度和sift特征提取的快速图像配准实现方法 |
CN104392208A (zh) * | 2014-11-10 | 2015-03-04 | 成都信升斯科技有限公司 | 一种数据智能识别的加工处理方法 |
CN105976399A (zh) * | 2016-04-29 | 2016-09-28 | 北京航空航天大学 | 一种基于sift特征匹配的运动目标检测方法 |
CN106886987A (zh) * | 2017-03-23 | 2017-06-23 | 重庆大学 | 一种列车车牌二值化图像融合方法 |
-
2017
- 2017-12-25 CN CN201711421020.6A patent/CN108121972A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101383899A (zh) * | 2008-09-28 | 2009-03-11 | 北京航空航天大学 | 一种空基平台悬停视频稳像方法 |
CN101556647A (zh) * | 2009-05-20 | 2009-10-14 | 哈尔滨理工大学 | 一种基于改进sift算法的移动机器人视觉定位方法 |
CN102693421A (zh) * | 2012-05-31 | 2012-09-26 | 东南大学 | 基于sift 特征包的牛眼虹膜图像识别方法 |
CN102800104A (zh) * | 2012-06-18 | 2012-11-28 | 西安空间无线电技术研究所 | 一种基于isar图像序列的二维散射中心自动关联方法 |
CN104318548A (zh) * | 2014-10-10 | 2015-01-28 | 西安电子科技大学 | 一种基于空间稀疏度和sift特征提取的快速图像配准实现方法 |
CN104392208A (zh) * | 2014-11-10 | 2015-03-04 | 成都信升斯科技有限公司 | 一种数据智能识别的加工处理方法 |
CN105976399A (zh) * | 2016-04-29 | 2016-09-28 | 北京航空航天大学 | 一种基于sift特征匹配的运动目标检测方法 |
CN106886987A (zh) * | 2017-03-23 | 2017-06-23 | 重庆大学 | 一种列车车牌二值化图像融合方法 |
Non-Patent Citations (1)
Title |
---|
顾苏杭等: "融合SIFT特征和HMM的运动目标识别与跟踪算法", 《科技通报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110798677A (zh) * | 2018-08-01 | 2020-02-14 | Oppo广东移动通信有限公司 | 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备 |
CN110798677B (zh) * | 2018-08-01 | 2021-08-31 | Oppo广东移动通信有限公司 | 三维场景建模方法及装置、电子装置、可读存储介质及计算机设备 |
CN109345629A (zh) * | 2018-08-08 | 2019-02-15 | 安徽慧软科技有限公司 | 一种三维医学图像模糊凸显显示方法 |
CN109753894A (zh) * | 2018-12-19 | 2019-05-14 | 国网北京市电力公司 | 告警方法及装置 |
CN111709288A (zh) * | 2020-05-15 | 2020-09-25 | 北京百度网讯科技有限公司 | 人脸关键点检测方法、装置以及电子设备 |
CN114235148A (zh) * | 2022-02-25 | 2022-03-25 | 南京信息工程大学 | 一种基于夜光遥感数据的道路夜间照明质量监测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108510467B (zh) | 基于深度可变形卷积神经网络的sar图像目标识别方法 | |
Yang et al. | Real-time face detection based on YOLO | |
CN108121972A (zh) | 一种局部遮挡条件下的目标识别方法 | |
Du et al. | Weak and occluded vehicle detection in complex infrared environment based on improved YOLOv4 | |
Gao et al. | Automatic change detection in synthetic aperture radar images based on PCANet | |
CN102831618B (zh) | 基于霍夫森林的视频目标跟踪方法 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
JP6088792B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
US8611604B2 (en) | Object detection device | |
CN107464252A (zh) | 一种基于混合特征的可见光与红外异源图像识别方法 | |
CN107909081B (zh) | 一种深度学习中图像数据集的快速获取和快速标定方法 | |
CN106384345B (zh) | 一种基于rcnn的图像检测以及流量统计方法 | |
CN105335725A (zh) | 一种基于特征融合的步态识别身份认证方法 | |
CN107330397A (zh) | 一种基于大间隔相对距离度量学习的行人重识别方法 | |
CN106682641A (zh) | 基于fhog‑lbph特征的图像行人识别方法 | |
CN104574401A (zh) | 一种基于平行线匹配的图像配准方法 | |
CN108805050B (zh) | 基于局部二值模式的电线检测方法 | |
Kim et al. | Autonomous vehicle detection system using visible and infrared camera | |
CN111539330B (zh) | 一种基于双svm多分类器的变电站数显仪表识别方法 | |
CN104966305A (zh) | 基于运动矢量划分的前景检测方法 | |
CN106600613B (zh) | 基于嵌入式gpu的改进lbp红外目标检测方法 | |
CN105354547A (zh) | 一种结合纹理和彩色特征的行人检测方法 | |
Bi et al. | A hierarchical salient-region based algorithm for ship detection in remote sensing images | |
CN105512682B (zh) | 一种基于Krawtchouk矩和KNN-SMO分类器的密级标识识别方法 | |
CN111079585B (zh) | 图像增强结合伪孪生卷积神经网络的行人再识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180605 |
|
RJ01 | Rejection of invention patent application after publication |