CN102722712B - 基于连续度的多尺度高分辨图像目标检测方法 - Google Patents
基于连续度的多尺度高分辨图像目标检测方法 Download PDFInfo
- Publication number
- CN102722712B CN102722712B CN201210000364.0A CN201210000364A CN102722712B CN 102722712 B CN102722712 B CN 102722712B CN 201210000364 A CN201210000364 A CN 201210000364A CN 102722712 B CN102722712 B CN 102722712B
- Authority
- CN
- China
- Prior art keywords
- target
- image
- sample characteristics
- convergent
- activity value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提出了一种基于连续度的目标检测方法,主要解决现有目标检测技术中虚警率高及耗时的问题。其实现步骤为:从50幅正类训练样本中提取基于forstner算子的样本特征;结合样本特征间的空间关系特征构造字典,对字典进行聚类;使用稀疏神经网络训练分类器;输入待检测图像,进行均值滤波与二值化,提取基于突变的感兴趣区域;对感兴趣区域进行多尺度缩放,在每一层上滑动100×40的窗口,将分类器应用到窗口计算活性值,得到活性值分布图;利用邻域抑制和重复部件消除方法,寻找目标活性峰值点;计算目标连续度,根据连续度得到最终目标检测结果。本发明具有检测正确率高、虚警率低、时效性高的优点,可用于大尺度高分辨图像的目标检测与定位。
Description
技术领域
本发明属于图像处理技术领域,涉及图像分割以及分类,可用于自然图像中各种大尺度高分辨复杂背景场景中的目标检测与定位。
背景技术
随着计算机技术的发展和计算机视觉原理的广泛应用,利用计算机图像处理技术对目标进行实时跟踪研究越来越热门,目标的检测定位在智能化交通系统、智能监控系统、军事目标检测及医学导航手术中手术器械定位等方面具有广泛的应用价值。
目标检测,是一种基于目标几何和统计特征的图像分割,它将目标的分割和识别合二为一,其准确性和实时性是整个系统的一项重要能力。尤其是在复杂场景中,需要对多个目标进行实时处理时,目标自动提取和识别就显得特别重要。
目标检测主要包括两个步骤:特征提取和分类器的训练。
特征的表征能力将直接影响分类器的性能。常用的特征有:原始灰度特征、Haaris小波特征、形状描述符特征、Gabor特征、有向梯度直方图HOG特征、Forstner特征和SIFT特征等。常用的分类器有:基于神经网络的方法、隐马尔科夫模型(HMM)、基于Kullback信息理论的方法、基于支持矢量机SVM的方法、贝叶斯决策方法和基于AdaBoost的方法。
比较经典的目标检测算法是利用HOG算子提取特征,AdaBoost训练分类器的目标检测框架。在背景中存在干扰边缘时,HOG特征表现的比较差,会出现把一些背景中的特征判断为目标特征的情况,因此检测的虚警率较高。AdaBoost是一种具有自适应性的Boosting算法,它通过建立多学习机组合使得弱学习机的性能得到提升,由于其独有的对学习机性能的自适应和对过学习现象的免疫性,近年来引起了广泛的关注。但是这种方法同样还存在一些缺陷,HOG算子结合AdaBoost的方法需要对大量未知的特征进行训练得到最终的分类器,整个过程需要对海量数据进行处理分析,计算复杂度与时间复杂度都非常高。
后来有些学者研究了人眼视觉成像的机理,人眼在识别目标时,是将目标分解为多个组件,根据人眼检测到的许多目标组件,结合目标组件的空间结构分布,识别目标。对于某种目标来说,仅仅需要几个关键的部件,联合部件的空间关系,就可以用来表征这个目标,形成了最初基于稀疏的目标检测原理。Shivani Agarwal和Dan Roth最早提出了基于稀疏表示的目标检测方法,在该目标检测框架中,采用了Forstner算子提取目标关键特征,采用稀疏神经网络框架(Sparse Networkof Winnow,SNOW)框架进行分类器的训练。该框架可以使用极少数的特征来进行目标的表征,通过对这些极少数特征的训练,来得到一个可以用于对一个窗口进行判决的分类器。对一幅待检测图像进行尺度缩放、滑窗扫描,利用得到的分类器实现图像中的目标检测。
经实验验证,该算法对于小尺度、低分辨率图像中的目标检测具有较高的准确率与较低的虚警率。但是对于大尺度、高分辨率的图像,该算法具有较高的虚警率,并且对于大尺度的图像,进行多尺度缩放以及在每个尺度上滑窗扫描,是一个非常耗时的过程。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于连续度的多尺度高分辨图像目标检测方法,以有效降低复杂背景中的虚警,并降低计算复杂度,提高目标检测的准确率与时效性。
实现本发明目的的技术原理是:利用Forstner算子提取目标特征,采用稀疏神经网络框架SNOW进行分类器的训练,对输入的待检测图像,提取基于突变的感兴趣区域,并对感兴趣区域进行多尺度缩放,得到基于连续度的目标检测结果,具体步骤包括如下:
1.一种基于连续度的目标检测方法,包括如下步骤:
(1)从网络或视频中获取大小为100×40的正训练样本和负训练样本,构成训练样本集合;
(2)从正类训练样本集中提取基于Forstner算子的像素块作为正类样本特征,构造正类样本特征字典,然后对字典进行聚类,得到多类特征子集,并为每一类子集赋予类别标记;
(3)计算正类样本特征之间存在的所有空间关系,该空间关系包括距离和角度,给每种空间关系特征分别赋予类别标记;
(4)对步骤(2)得到的正类样本特征,利用稀疏神经网络框架SNOW进行训练,得到分类器;
(5)输入任意大小的待检测图像,依次进行均值滤波与二值化处理,得到二值图像;
(6)从二值图像中检测灰度连续突变,根据突变提取感兴趣区域ROI:
(6a)在一幅二值图像中,用x,y分别表示像素的横纵坐标点,f(x,y)为该坐标点的像素灰度值,按照从下往上,从左到右的方式对二值图像进行扫描,若在坐标点(x,y)处检测到突变点,则f(x,y)为突变点的像素灰度值,坐标(x,y)为突变行的左端点,在横坐标中继续向右,判断坐标点(x+1,y)处的像素灰度值f(x+1,y)是否与f(x,y)值相同,如此不断往右检测,当检测到连续数量坐标点的像素灰度值与f(x,y)不同时,记录此时坐标点(x+k,y)为突变行的右端点;
(6b)从突变行右端点的下一个坐标(x+k+1,y)开始,继续检测下一个突变行;
(6c)对整幅图像自下而上,从左至右,不断检测突变行,并将突变行上像素标记为1,其余像素标记为0,得到最终突变结果图;
(6d)选取突变的长度为宽、突变长度按100∶40的比例缩放得到的长度为高构成的矩形区域,标记为感兴趣区域。
(7)对图像中的感兴趣区域进行多尺度缩放,并用一个100×40的窗口在每一层缩放图像上滑窗扫描,将每个扫描窗口中的图像用步骤(2)和步骤(3)得到的样本特征表示为特征矢量,并将该特征矢量输入到步骤(4)得到的分类器中,由分类器输出该窗口图像的目标活性值,并在该缩放尺度的整幅图像上不断滑动窗口,由分类器输出所有滑动窗口的目标活性值,最终得到该层缩放图像的目标活性值分布图;
(8)在每一层缩放尺度活性值分布图中,利用邻域抑制和重复样本特征消除法,查找活性值峰值点作为该缩放尺度上的目标点,同时记录目标点所在的缩放尺度上的缩放倍数Ti、该点的横纵坐标Li、Ri,计算目标在多层缩放尺度上的连续度C:
其中,Ti表示第i个目标的缩放倍数,n表示连续检测到的目标的个数。
(9)根据目标的连续度以及在多个缩放尺度上的缩放倍数以及横纵坐标,计算目标在待检测图像中的位置与大小:若在某邻域范围内的多个缩放尺度上检测到目标,目标个数为n,目标连续度C大于0.02,并且个数n大于4,则确定该邻域内存在目标,并用如下公式计算目标在待检测图像中的位置以及宽和高:
其中,L表示目标在待检测图像中横坐标,R表示目标在待检测图像中纵坐标,W表示目标的宽,H表示目标的高。
本发明与现有的技术相比具有以下优点:
1、本发明由于利用了目标在多个尺度缩放上连续一致的特点,保证了目标被准确检测出来,同时,由于背景中的误检不具备多尺度连续性,被有效去除,使得目标检测的准确率大大提高。
2、本发明由于在检测之前首先提取出感兴趣区域,然后对感兴趣区域使用滑窗扫描进行目标检测,避免了对待测高分辨大尺度图像进行多次尺度缩放并在每一层上对整个图像做窗口滑动扫描,从而有效减小了检测时间,显著提高检测效率。
实验数据表明,本发明中使用的基于连续度的目标检测方法能够将目标准确的检测出来,同时降低了背景中的错检,提取感兴趣区域使得对912x684的高分辨图像目标检测的时间从1小时降低到了1秒以内,有效提升了检测的速率。
附图说明
图1是本发明基于连续度的目标检测总流程图;
图2是本发明训练分类器的子流程图;
图3是本发明提取感兴趣区域的子流程图;
图4为使用的部分正负训练样本图;
图5是使用现有基于稀疏的目标检测方法的实验结果图;
图6是用本发明提取待检测图像感兴趣区域的实验结果图;
图7是本发明方法进行目标检测的实验结果图。
具体实施方式
参照图1,本发明的具体实现过程如下:
步骤一,获取正负训练样本集,从正类样本集中提取样本特征构造字典,并对字典进行聚类。
(1.1)本发明选用如图4所示的大小为100×40的550幅包含目标的图像和500幅不包含目标的图像,作为正负训练样本集;
(1.2)在训练样本集中取50幅正样本,应用Forstner算子检测特征点,提取特征点周围13×13大小的像素块作为正类样本特征,共得到400个正类样本特征;再将每一个13×13的正类样本特征转换成1×169的特征矢量,用所有正类样本特征构成400×169的二维的特征矢量,将该二维的特征矢量作为正类样本特征字典;
(1.3)使用自底向上Bottom-Up聚类方法对字典进行聚类,即先将字典中每一个正类样本特征独立为一个子类,然后计算每两个子类的相似度,合并相似度高的子类,不断重复合并子类过程,将所有相似度较高的子类聚集到同一个类中,并为每一个子类赋予类别标记,得到最终的字典聚类结果。
步骤二,提取训练样本中所有的特征块之间的空间关系作为第二类特征。
空间关系特征包括距离特征与角度特征,其提取步骤如下:
(2.1)将空间关系中的距离划分为5个尺度,每一个尺度对应一个距离范围,给每个范围赋予对应的尺度特征标记,计算两个样本特征在原图中的欧式距离,根据距离大小赋予相对应的尺度特征标记;
(2.2)将空间关系中的角度离散为4个角度特征,分别对应角度范围为0-45°、45°-90°、90°-135°、135°-180°,计算两个样本特征在原图中的角度,分配对应的角度特征标记;
(2.3)级联5个距离特征与4个角度特征,则样本特征之间存在的20种空间关系特征,分别给每一种空间关系特征分配一个空间关系特征标记。
步骤三,对剩余的1000幅正、负训练样本提取样本特征与空间关系特征,构成二元特征矢量,输入到稀疏神经网络中进行训练得到分类器。
参照图2,本步骤的实现步骤如下:
(3.1)给样本特征字典中的每一类样本特征及20种空间关系特征赋予初始权重;
(3.2)按照步骤一的方法从每一个训练样本中提取N个样本特征,分别计算每一个样本特征与字典中的每一个特征子类的相似度,取相似度最大的特征子类类标为该样本特征的标记,则一个训练样本由N个特征子类标记构成,再计算该训练样本中所有样本特征间存在的(N-1)!个空间关系特征,同时赋予对应的空间关系特征标记,两种特征共同组合,构成该训练样本的N×(N-1)!的特征矢量;
(3.3)将特征矢量输入到稀疏神经网络中,根据稀疏神经网络的输出结果是否与训练样本的标记一致,修正和更新样本特征与空间特征的权重;
(3.4)重复步骤(3.3),得到最终的分类器。
步骤四,输入任意大小的待检测图像,并进行均值滤波与二值化处理;
参照图3,本步骤的实现步骤如下:
(4.1)在待检测图像上,用3×3的窗口扫描,求扫描窗口内所有像素点的像素平均值,取代窗口内所有的像素点;
(4.2)在图像上从左至右,从上至下,步长为2个像素滑动3×3的窗口,对所有窗口采用步骤(4.1)方法,完成整幅图像的均值滤波;
(4.3)在滤波图像上查找频率最高的灰度值,将该灰度值作为阈值,将图像所有像素中大于该阈值的像素点灰度值置为1,小于该阈值的像素点灰度值置为0,完成二值化处理。
步骤五,从二值图像中检测灰度连续突变行,根据突变提取感兴趣区域ROI:
参照图3,本步骤的实现步骤如下:
(5.1)在二值图像中,用x,y分别表示像素的横纵坐标点,f(x,y)为该坐标点的像素值,按照从下往上,从左到右的方式对二值图像进行扫描,若在坐标点(x,y)处检测到突变点,则f(x,y)为突变点的像素灰度值,坐标(x,y)为突变行的左端点,在横坐标中继续向右,判断坐标点(x+1,y)处的像素灰度值f(x+1,y)是否与f(x,y)值相同,如此不断往右检测,当检测到连续数量坐标点的像素灰度值与f(x,y)不同时,记录此时坐标点(x+k,y)为突变行的右端点;
(5.2)从突变行右端点的下一个坐标(x+k+1,y)开始,继续检测下一个突变行;
(5.3)对整幅图像从下至上,从左至右,不断检测突变行,并将突变行上像素点标记为1,其余像素标记为0,得到最终突变结果图;
(5.4)选取突变的长度为宽、突变长度按100∶40的比例缩放得到的长度为高构成的矩形区域,标记为感兴趣区域。
步骤六,在感兴趣区域内,对图像进行多尺度缩放,采用滑窗扫描的方法对每一层感兴趣区域扫描,并计算所有扫描窗口图像的分类器输出结果,具体实现步骤如下:
(6.1)使用最近邻插值方法对图像按比例缩放;
(6.2)将缩放图像左上角的100x40的区域作为第一个扫描窗口,每向右平移5个像素或向下平移5个像素作为一个新的扫描窗口,按此方法对整幅图像进行滑窗扫描;
(6.3)对扫描窗口中的图像进行Forstner算子操作,检测到N个特征点,取邻域块作为样本特征,N个样本特征构成(N-1)!个空间关系特征,两类特征组合构成该窗口的二元特征矢量;
(6.4)将所有扫描窗口的特征矢量输入到步骤三得到的分类器中进行分类,得到一组金字塔式的活性值分布图。采用邻域抑制以及重复块消除法在活性值分布图上寻找活性峰值点,作为每个缩放图像上的最终目标。
步骤七,将多个缩放尺度的目标检测结果映射到原图中,进行基于目标连续度的最终目标检测与定位,具体步骤如下:
(7.1)在每一层缩放尺度活性值分布图中,利用邻域抑制和重复样本特征消除法,查找活性值峰值点作为该缩放尺度上的目标点,同时记录目标点所在的缩放尺度上的缩放倍数Ti、该点的横纵坐标Li、Ri,计算目标在多层缩放尺度上的连续度C:
其中,Ti表示第i个目标的缩放倍数,n表示连续检测到的目标的个数。
(7.2)根据目标的连续度以及在多个缩放尺度上的缩放倍数以及横纵坐标,计算目标在待检测图像中的位置与大小:若在某邻域范围内的多个缩放尺度上检测到目标,目标个数为n,目标连续度C大于0.02,并且个数n大于4,则确定该邻域内存在目标,并用如下公式计算目标在待检测图像中的位置以及宽和高:
其中,L表示目标在待检测图像中横坐标,R表示目标在待检测图像中纵坐标,W表示目标的宽,H表示目标的高。
本发明的效果可通过下面仿真结果说明:
1.仿真内容:
本发明使用正训练样本550个,负训练样本500个,其中50个正样本用于生成特征字典,剩下的500个正样本和500个负样本用以训练分类器。图4给出了其中的部分训练样本图像,其中图4a为正样本,图4b为负样本。
测试图像采用是912×618的高分辨图像和256×205的低分辨图像,滑动扫描窗口均为100×40,缩放范围为0.01-0.69,缩放尺度间隔为0.01。对待检测图像感兴趣区域扫描时,采用密集扫描的策略,X方向步长为5个,Y方向步长为2。
稀疏神经网络框架训练分类器的参数如表1所示:
表1
硬件平台为:Intel Core2 Duo CPU E6550 2.33GHZ、1.99GB RAM,软件平台为visual studio 2008,编程语言是C语言。
2.仿真内容及结果:
仿真一、使用现有基于稀疏部件的多尺度缩放目标检测方法对256×205的低分辨图像和912×684的高分辨图像进行目标检测实验仿真,仿真结果如图5,其中图5a为对256×205的低分辨图像的实验仿真结果,图5b为对912×684的高分辨图像的实验仿真结果。
表2
仿真二、使用本发明方法对912×684的高分辨图像进行目标检测的实验仿真,本发明提取待检测图像感兴趣区域的实验结果如图6所示,其中,图6a为待检测图像,图6b为均值滤波结果图,图6c为二值结果图,图6d为突变行检测结果图,图6e为提取的感兴趣区域结果图,图6f为最终目标检测的结果。最终进行基于连续度的目标检测,仿真结果如组图7所示,其中,图7a是多尺度缩放中的第三层、第五层、第七层和第八层缩放尺度上的目标检测结果图,图7b是在第十九层、第二十层、第二十一层和第二十二层中的目标检测结果图,图7c是在第二十九层、第三十层、第三十一层、第三十二层缩放尺度上的目标检测结果图,图7d是最终的目标检测结果图。用本发明方法进行最终目标检测仿真的统计如表3所示。
表3
从组图5及表2可以看出,现有的基于稀疏部件的多尺度缩放目标检测方法仅仅对于小尺度低分辨图像检测有效,对于大尺度高分辨图像,存在许多漏检,而且存在大量背景被错误检测为目标。
从组图6可以看出,用本发明提取感兴趣区域的过程将检测图像中的大量背景滤除,窗口滑动范围大大减小。
组图7表明,目标在多个连续缩放尺度上均被检测出来,而从背景中错检出来的伪目标并不具有多尺度缩放的高度连续性,因此,提取感兴趣区域可以在保证将目标检测出来的同时,有效滤除了背景中的错检。
对比表2与表3可看出,本发明所述的基于多尺度缩放连续度的目标检测准确率有所提高,但是平均耗时为1个小时,表3中最后一行结果统计显示,本发明所述的基于连续度与感兴趣区域提取的目标检测,显著提升了目标检测的效率,将目标检测的时间缩短到了1s以内,同时,该方法极大抑制了背景中的错误检测,显著提升了目标检测的准确率。
仿真结果表明,使用本发明所述的基于连续度的目标检测可以极大的降低错误检测的概率,极大的抑制了复杂背景下对目标检测准确检测定位的干扰,而感兴趣区域提取的预处理,则在极大程度上提高了目标检测的效率,本发明方法对于大尺度高分辨复杂背景图像的目标检测效率很高。
Claims (6)
1.一种基于连续度的目标检测方法,包括如下步骤:
(1)从网络或视频中获取大小为100×40的正类训练样本和负类训练样本,构成训练样本集合;
(2)从正类训练样本集中提取基于Forstner算子的像素块作为正类样本特征,构造样本特征字典,然后对字典进行聚类,得到多类特征子集,并为每一类子集赋予类别标记;
(3)计算样本特征之间存在的所有空间关系,该空间关系包括距离和角度,给每种空间关系特征分别赋予类别标记;
(4)对步骤(2)得到的正类样本特征,利用稀疏神经网络框架SNOW进行训练,得到分类器;
(5)输入任意大小的待检测图像,依次进行均值滤波与二值化处理,得到二值图像;
(6)从二值化图像中检测像素灰度连续突变,根据突变提取感兴趣区域ROI:
(6a)在一幅二值图像中,用x,y分别表示像素的横纵坐标点,f(x,y)为该坐标点的像素值,按照从下往上,从左到右的方式对二值图像进行扫描,若在点(x,y)处检测到突变点,则f(x,y)为突变点的像素灰度值,坐标点(x,y)为突变行的左端点,在横坐标中继续向右,判断坐标点(x+1,y)处的像素灰度值f(x+1,y)是否与f(x,y)值相同,如此不断往右检测,当检测到连续k个坐标点的像素与f(x,y)不同时,记录此时坐标点(x+k,y)为突变行的右端点;
(6b)从突变行右端点的下一个坐标(x+k+1,y)开始,继续检测下一个突变行;
(6c)对整幅图像自下而上,自左至右,不断检测突变行,并将突变行上像素标记为1,其余像素标记为0,得到最终突变结果图;
(6d)选取突变的长度为宽、突变长度按100:40的比例缩放得到的长度为高构成的矩形区域,标记为感兴趣区域;
(7)对图像中的感兴趣区域进行多尺度缩放,并用一个100×40的窗口在每一层缩放图像上从左至右、从上而下滑窗扫描,将每个扫描窗口中的图像用步骤(2)和步骤(3)得到的样本特征表示为特征矢量,并将该特征矢量输入到步骤(4)得到的分类器中,由分类器输出该窗口图像的目标活性值,并在该缩放尺度的整幅图像上不断滑动窗口,由分类器输出所有滑动窗口的目标活性值,最终得到该层缩放图像的目标活性值分布图;
(8)在每一层缩放尺度活性值分布图中,利用邻域抑制和重复样本特征消除法,查找活性值峰值点作为该缩放尺度上的目标点,同时记录目标点所在的缩放尺度上的缩放倍数Ti、该点的横纵坐标Li、Ri,计算目标在多层缩放尺度上的连续度C:
其中,Ti表示第i个目标的缩放倍数,n表示连续检测到的目标的个数;
(9)根据目标的连续度、在多个缩放尺度上的缩放倍数以及横纵坐标,计算目标在待检测图像中的位置与大小:若在某邻域范围内的多个缩放尺度上检测到目标,目标个数为n,目标连续度C大于0.02,并且个数n大于4,则确定该邻域内存在目标,并用如下公式计算目标在待检测图像中的位置以及宽和高:
其中,L表示目标在待检测图像中横坐标,R表示目标在待检测图像中纵坐标,W表示目标的宽,H表示目标的高。
2.根据权利要求1所述的目标检测方法,其中步骤(2)所述的从正类训练样本集中提取基于Forstner算子的像素块作为正类样本特征,构造正类样本特征字典,按如下步骤进行:
(2a)对大小均为100×40的50幅正类训练样本,应用Forstner算子检测特征点,提取特征点周围13×13大小的像素块作为正类样本特征,共得到400个正类样本特征;
(2b)将每一个13×13的正类样本特征转换成1×169的特征矢量,用所有正类样本特征构成400×169的二维的特征矢量,将二维的特征矢量作为正类样本特征字典。
3.根据权利要求1所述的目标检测方法,其中步骤(2)所述的对字典进行聚类,按如下步骤进行:
(2a)使用自底向上Bottom-Up聚类方法进行字典聚类,即先将字典中每一个正类样本特征独立为一个子类,然后计算每两个子类的相似度,合并相似度高的子类;
(2b)重复步骤(2a),将所有相似度高的子类聚集到同一个类中,得到字典最终的聚类结果。
4.根据权利要求1所述的目标检测方法,其中步骤(3)所述的计算正类样本特征之间存在的所有空间关系,按如下步骤进行:
(3a)将空间关系中的距离划分为5个尺度,每一个尺度对应一个距离范围,给每个范围赋予对应的尺度特征标记,计算两个样本特征在原图中的欧式距离,根据距离大小赋予相对应的尺度特征标记;
(3b)将空间关系中的角度离散为4个角度特征,分别对应角度范围为0-45°、45°-90°、90°-135°、135°-180°,计算两个样本特征在原图中的角度关系,分配对应的角度特征标记;
(3c)级联5个距离特征与4个角度特征,则样本特征之间存在的20种空间关系特征,分别给每一种空间关系特征分配一个空间关系特征标记。
5.根据权利要求1所述的目标检测方法,其中步骤(4)所述的对步骤(2)得到的正类样本特征利用稀疏神经网络框架SNOW进行训练,具体步骤如下;
(4a)给每一类样本特征与空间关系特征分配初始权重;
(4b)用500个正训练样本与500个负训练样本训练分类器,输入训练样本,将每一个训练样本表示为由正类样本特征与空间关系特征构成的二元特征矢量,该二元特征矢量作为稀疏神经网络的输入,稀疏神经网络输出目标活性值,根据目标活性值进 行分类,判断分类结果与输入的训练样本标记是否一致,从而修正并更新特征权重;
(4c)重复步骤(4b),不断修正并更新特征权重,得到最终的分类器。
6.根据权利要求1所述的目标检测方法,其中步骤(8)所述的在每一层缩放尺度活性值分布图中,利用邻域抑制和重复样本特征消除法,查找活性值峰值点作为该缩放尺度上的目标点,具体步骤如下:
(8a)在活性值分布图中,目标点邻域分布多个不同的活性值,查找其中活性值最大的点;
(8b)在活性值最大点所在邻域中如果有其他点的活性值已被确定为活性峰值点,则将该点处活性值置为0,如果没有其他点已被确定为活性峰值点,则将该活性值最大的点确定为目标点,将邻域内其他点的活性值全置为0,该活性峰值点即为当前缩放尺度上最终检测到的目标点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210000364.0A CN102722712B (zh) | 2012-01-02 | 2012-01-02 | 基于连续度的多尺度高分辨图像目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210000364.0A CN102722712B (zh) | 2012-01-02 | 2012-01-02 | 基于连续度的多尺度高分辨图像目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102722712A CN102722712A (zh) | 2012-10-10 |
CN102722712B true CN102722712B (zh) | 2014-04-16 |
Family
ID=46948462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210000364.0A Active CN102722712B (zh) | 2012-01-02 | 2012-01-02 | 基于连续度的多尺度高分辨图像目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102722712B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930301B (zh) * | 2012-10-16 | 2015-05-20 | 西安电子科技大学 | 基于特征权重学习与核稀疏表示的图像分类方法 |
CN103198332B (zh) * | 2012-12-14 | 2016-08-03 | 华南理工大学 | 一种实时鲁棒的远红外车载行人检测方法 |
CN103065163B (zh) * | 2013-02-04 | 2015-10-14 | 成都神州数码索贝科技有限公司 | 一种基于静态图片的快速目标检测识别系统及方法 |
CN106688011B (zh) * | 2014-09-10 | 2018-12-28 | 北京市商汤科技开发有限公司 | 用于多类别物体检测的方法和系统 |
CN104392432A (zh) * | 2014-11-03 | 2015-03-04 | 深圳市华星光电技术有限公司 | 基于方向梯度直方图的显示面板缺陷检测方法 |
EP3158498A4 (en) * | 2014-11-15 | 2017-08-16 | Beijing Kuangshi Technology Co. Ltd. | Face detection using machine learning |
CN104376565B (zh) * | 2014-11-26 | 2017-03-29 | 西安电子科技大学 | 基于离散余弦变换和稀疏表示的无参考图像质量评价方法 |
TWI550440B (zh) * | 2014-12-09 | 2016-09-21 | 由田新技股份有限公司 | 人員使用手持裝置的偵測方法以及系統 |
CN104680134B (zh) * | 2015-02-04 | 2018-01-12 | 四川长虹电器股份有限公司 | 快速人体检测方法 |
JP6348431B2 (ja) * | 2015-02-24 | 2018-06-27 | 株式会社日立製作所 | 画像処理方法、画像処理装置 |
US10373019B2 (en) * | 2016-01-13 | 2019-08-06 | Ford Global Technologies, Llc | Low- and high-fidelity classifiers applied to road-scene images |
CN105989608B (zh) * | 2016-04-25 | 2019-03-26 | 北京光年无限科技有限公司 | 一种面向智能机器人的视觉捕捉方法及装置 |
CN106067041B (zh) * | 2016-06-03 | 2019-05-31 | 河海大学 | 一种改进的基于稀疏表示的多目标检测方法 |
US11354577B2 (en) | 2017-03-15 | 2022-06-07 | Samsung Electronics Co., Ltd | System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions |
US10803378B2 (en) | 2017-03-15 | 2020-10-13 | Samsung Electronics Co., Ltd | System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions |
CN108629378A (zh) * | 2018-05-10 | 2018-10-09 | 上海鹰瞳医疗科技有限公司 | 图像识别方法和设备 |
CN109635822B (zh) * | 2018-12-07 | 2022-06-21 | 浙江科技学院 | 基于深度学习编码译码网络的立体图像视觉显著提取方法 |
CN109919999B (zh) * | 2019-01-31 | 2021-06-11 | 深兰科技(上海)有限公司 | 一种目标位置检测的方法及装置 |
CN109919214B (zh) * | 2019-02-27 | 2023-07-21 | 南京地平线机器人技术有限公司 | 一种神经网络模型的训练方法及训练装置 |
CN110084814B (zh) * | 2019-05-13 | 2021-11-02 | 苏州微创关节医疗科技有限公司 | 表面涂层测量方法、装置、计算机设备和存储介质 |
CN110674698B (zh) * | 2019-08-30 | 2021-12-07 | 杭州电子科技大学 | 一种密集子区域切割的遥感图像旋转舰船目标检测方法 |
CN111079624B (zh) * | 2019-12-11 | 2023-09-01 | 北京金山云网络技术有限公司 | 一种样本信息采集的方法、装置、电子设备以及介质 |
US11790489B2 (en) | 2020-04-07 | 2023-10-17 | Samsung Electronics Co., Ltd. | Systems and method of training networks for real-world super resolution with unknown degradations |
CN113516165B (zh) * | 2021-05-07 | 2023-10-10 | 北京惠朗时代科技有限公司 | 一种基于图像金字塔匹配后验的客户满意度判别方法 |
CN117422813A (zh) * | 2023-11-08 | 2024-01-19 | 上海卓昕医疗科技有限公司 | 基于像素的医学图像三维重建方法、装置、设备和介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101551856A (zh) * | 2009-05-22 | 2009-10-07 | 西安电子科技大学 | 基于稀疏最小二乘支撑向量机的sar目标识别方法 |
EP2273424A1 (en) * | 2009-07-08 | 2011-01-12 | Honeywell International Inc. | Automated target detection and recognition system and method |
CN102096819A (zh) * | 2011-03-11 | 2011-06-15 | 西安电子科技大学 | 利用稀疏表示与字典学习进行图像分割的方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7538764B2 (en) * | 2001-01-05 | 2009-05-26 | Interuniversitair Micro-Elektronica Centrum (Imec) | System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display |
US8121356B2 (en) * | 2006-09-15 | 2012-02-21 | Identix Incorporated | Long distance multimodal biometric system and method |
-
2012
- 2012-01-02 CN CN201210000364.0A patent/CN102722712B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101551856A (zh) * | 2009-05-22 | 2009-10-07 | 西安电子科技大学 | 基于稀疏最小二乘支撑向量机的sar目标识别方法 |
EP2273424A1 (en) * | 2009-07-08 | 2011-01-12 | Honeywell International Inc. | Automated target detection and recognition system and method |
CN102096819A (zh) * | 2011-03-11 | 2011-06-15 | 西安电子科技大学 | 利用稀疏表示与字典学习进行图像分割的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102722712A (zh) | 2012-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102722712B (zh) | 基于连续度的多尺度高分辨图像目标检测方法 | |
Wei et al. | Multi-vehicle detection algorithm through combining Harr and HOG features | |
Sun et al. | Research on the hand gesture recognition based on deep learning | |
US20210342585A1 (en) | Systems and methods for extracting and vectorizing features of satellite imagery | |
CN106874894B (zh) | 一种基于区域全卷积神经网络的人体目标检测方法 | |
Zhang et al. | A multilevel point-cluster-based discriminative feature for ALS point cloud classification | |
CN102682287B (zh) | 基于显著度信息的行人检测方法 | |
CN109918969B (zh) | 人脸检测方法及装置、计算机装置和计算机可读存储介质 | |
CN102147869B (zh) | 基于前景分析和模式识别的行人检测方法 | |
Zhang et al. | Pedestrian detection method based on Faster R-CNN | |
CN102043945B (zh) | 基于车辆实时跟踪和二进指数分类车牌字符识别的方法 | |
CN103679158B (zh) | 人脸认证方法和装置 | |
CN106778687A (zh) | 基于局部评估和全局优化的注视点检测方法 | |
CN111898627B (zh) | 一种基于pca的svm云微粒子优化分类识别方法 | |
CN102332086A (zh) | 一种基于双阈值局部二进制模式的人脸识别方法 | |
CN103020614B (zh) | 基于时空兴趣点检测的人体运动识别方法 | |
CN103606164B (zh) | 基于高维三重马尔可夫场的sar图像分割方法 | |
CN103971106A (zh) | 多视角人脸图像性别识别方法及装置 | |
Guo et al. | Image classification based on SURF and KNN | |
Yılmaz et al. | Recurrent binary patterns and cnns for offline signature verification | |
CN103336830B (zh) | 基于结构语义直方图的图像检索方法 | |
CN102129557A (zh) | 一种基于lda子空间学习的人脸识别方法 | |
CN106548195A (zh) | 一种基于改进型hog‑ulbp特征算子的目标检测方法 | |
CN104239854A (zh) | 一种基于区域稀疏积分通道的行人特征提取和表示方法 | |
Sirmacek et al. | Road detection from remotely sensed images using color features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |