CN106127209B - 一种基于局部边缘特征整合的目标物体轮廓提取方法 - Google Patents

一种基于局部边缘特征整合的目标物体轮廓提取方法 Download PDF

Info

Publication number
CN106127209B
CN106127209B CN201610440406.0A CN201610440406A CN106127209B CN 106127209 B CN106127209 B CN 106127209B CN 201610440406 A CN201610440406 A CN 201610440406A CN 106127209 B CN106127209 B CN 106127209B
Authority
CN
China
Prior art keywords
pixel
point
periphery
region
central
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610440406.0A
Other languages
English (en)
Other versions
CN106127209A (zh
Inventor
赵荣昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201610440406.0A priority Critical patent/CN106127209B/zh
Publication of CN106127209A publication Critical patent/CN106127209A/zh
Application granted granted Critical
Publication of CN106127209B publication Critical patent/CN106127209B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于局部边缘特征整合的目标物体轮廓提取方法,首先采用一组不同朝向的Gabor滤波器组对输入的原始图像进行滤波处理,得到朝向信息图及其对应的能量分布图像;然后根据所处理像素点坐标,将图像区域划分为中心区域和外周区域,而外周区域又由若干能够独立感知局部特征并对中心区响应进行非线性调制的子区组成,设计基于朝向分布差异的外周中心作用机制,从而通过灵活的局部边缘特征整合来实现鲁棒的轮廓提取方法。本发明的轮廓提取方法可以根据像素所在大范围区域内的上下文关系,自适应地计算特征整合参数,可以有效提高复杂场景目标物体轮廓提取的鲁棒性和有效性。

Description

一种基于局部边缘特征整合的目标物体轮廓提取方法
技术领域
本发明属于计算机视觉技术领域,特别涉及一种基于局部边缘特征整合的目标物体轮廓提取方法。
背景技术
目标物体轮廓提取是图像目标识别和场景分析的关键步骤。人类视觉系统可以根据视觉场景的变化,通过自适应地调节神经元间的相互作用进行复杂的视觉加工和处理,使得目标物体轮廓检测问题变得简单有效。模拟哺乳动物视觉加工机制,建立受人类视觉系统神经信息加工机制启发的计算模型,解决计算机对数字图像中目标物体轮廓的检测问题是现代智能信息处理的一个有效途径,也受到越来越多的关注。目前,受视觉信息加工机制启发的轮廓提取方法主要是基于特征捆绑(feature binding)或特征整合(featureintegration)机制,非经典感受野抑制特性是实现特征整合的一种有效方式。这种方法是基于初级视皮层神经元非经典感受野对经典感受野刺激响应的非线性作用,通过抑制图像中的背景纹理,达到检测目标物体轮廓的目的,其中包括各向同性抑制,各向异性抑制和多尺度自适应抑制方法。这些方法取得了比传统方法更好的轮廓检测效果,但是对场景背景干扰的鲁棒性不强,无法适用于复杂自然场景中的目标轮廓检测和提取。
发明内容
本发明的目的是为了提高现有生物视觉启发的轮廓提取方法对复杂背景干扰的鲁棒性,提出一种更灵活有效的目标物体轮廓提取方法。
本发明基于神经生理学和局部边缘特征整合思想,设计了一种鲁棒的目标物体轮廓提取方法。神经生理学研究发现,视觉系统中初级视皮层神经元经典感受野(classicalreceptive field,CRF)的周边存在一块很大的区域(surround),该区域内的单独刺激不能引发神经元放电,但对经典感受野起调制性作用,并且这种作用是动态变化的。神经元群通过感受野间的这种动态调制作用相互影响邻域内的刺激响应模式,从而实现大范围内特征的选取、匹配和组织,将分布在不同局部区域的图像边缘特征整合成一个完整的对象轮廓。
一种基于局部边缘特征整合的目标物体轮廓提取方法,通过对图像边缘特征的大范围整合,提取自然场景中目标物体的完整轮廓,具体过程如下:
首先,采用一组不同朝向的Gabor滤波器组对输入的原始图像进行滤波处理,得到朝向信息图及其对应的能量分布图像;
接着,依次以原始图像中的每个像素点作为待处理的中心像素点,获得每个像素点的特征整合参数,每个中心像素点的处理过程如下:
1)依据待处理的中心像素点将原始图像划分为中心区域和外周区域;对外周区域进行像素点采样获得外周像素采样点,以外周像素采样点为基础,将外周区域划分为若干大小相同、朝向各异的外周椭圆子区域;
原始图像中每个像素点作为一个中心像素点获得一个中心区域和一个对应的外周区域;
2)在朝向信息图及其对应的能量分布图像的基础上,分别计算中心区域和每个外周椭圆子区域内的局部边缘特征分布;
3)根据每个外周像素采样点和对应的中心像素点的最优朝向的角度差、外周像素采样点空间位置以及外周椭圆子区域与中心区域的局部边缘特征分布差异,计算所有外周像素采样点对中心像素点的特征整合参数;
每个中心像素点依次为原图像中的像素点,每个中心像素点的特征整合参数即为原始图像中对应像素点的特征整合参数;
最后,依据每个像素点的特征整合参数和对应的能量分布图像,得到整合信息图像;从能量分布图像中减去整合信息图像,得到整合后的轮廓信息图像,经过二值化操作后得到最终的轮廓图像。
所述能量分布图和朝向信息图是指与原始图像相对应的各像素点的能量值和最优朝向组成的矩阵,矩阵中的每个元素分别为原始图像经过不同朝向的Gabor滤波器组滤波后,每一个像素点在不同朝向Gabor滤波器下的最大响应强度值和对应朝向。
所述中心区域是指以中心像素点所在的位置作为中心,绘制长轴为15-31个像素,短轴为7-15个像素,长轴方向为中心像素点的最优朝向所得的椭圆区域;
所述外周区域是指以中心像素点所在位置作为中心,绘制半径为50个像素所得的圆形区域,从所得的圆形区域中减去中心区域所得的区域;
所述外周椭圆子区域是指在以1-4个像素为间隔,等间隔的采样外周区域内的像素点,并以每个采样点为中心,分别绘制长轴为15-31个像素,短轴为7-15个像素,长轴方向为相应采样点的最优朝向所得的椭圆区域。
所述中心区域和每个外周椭圆子区域内的局部边缘特征分布是指提取每个区域内各像素点的边缘方向直方图;
所述边缘方向直方图是以20°为间隔,将180°等间隔划分成9个区间,每个区间的朝向范围分别为1-20°,21-40°,41-60°,61-80°,81-100°,101-120°,121-140°,141-160°,161-180°,每个区间的中心位置朝向分别为10°,30°,50°,70°,90°,110°,130°,150°,170°;搜索区域内每个像素点的最优朝向并确认与之最接近的两个朝向区间,以每个像素点能量值为权值,利用三线性插值法,计算此像素点最优朝向在对应区间内的分布贡献,累积区域内每个像素点对相应朝向区间的分布贡献,得到该区域的边缘方向直方图;
所述每个外周椭圆子区域的中心点均为外周像素采样点。
所述特征整合参数为朝向抑制权值、空间位置整合权值和特征差异权值之积;
其中,所述朝向抑制权值是依据公式计算获得;
其中,Δθ(x,y)=θ-θb,θ表示外周像素采样点与中心像素点连线与水平轴的夹角,θb表示中心像素点的最优朝向;(x,y)为外周像素采样点在原始图像中的坐标,M表示归一化系数,取值范围为1-2;b为偏移量,取值范围为-1-1;
所述空间位置整合权值是指将外周像素采样点和中心像素点在原始图像中的坐标代入双高斯差函数获得的函数计算值,所述双高斯差函数中尺度比值参数k的取值为4,双高斯差函数中的尺度取值与Gabor滤波器的尺度取值相同;
所述特征差异权值是指以外周像素采样点为中心的椭圆子区域的局部边缘特征分布和中心区域的局部边缘特征分布之间的KL散度,分别将两个区域局部边缘特征分布代入KL散度计算公式计算获得。
所述的二值化方法为非极大值抑制和滞后门限方法。
所述不同朝向的Gabor滤波器组的方向数为45个,Gabor滤波器组的方向在180度内等弧度分布,Gabor函数的尺度参数值为1.0-2.4。
有益效果
本发明提供了一种基于局部边缘特征整合的目标物体轮廓提取方法,首先采用一组不同朝向的Gabor滤波器组对输入的原始图像进行滤波处理,得到朝向信息图及其对应的能量分布图像;然后根据所处理像素点位置,将图像区域划分为中心区和外周区域,而外周区域又由若干能够独立感知局部特征并对中心区响应进行非线性调制的子区组成,设计基于朝向分布差异的外周中心作用机制,从而通过灵活的局部边缘特征整合来实现鲁棒的轮廓提取方法。测试实验证明,利用这种动态非线性作用能够有效抑制局部纹理边缘的干扰,准确整合分布在不同位置的目标轮廓特征,实现了有效的轮廓检测方法。本发明的轮廓提取方法可以根据像素所在大范围区域内的上下文关系,自适应地计算整合方式,可以有效提高复杂场景目标物体轮廓提取的鲁棒性和有效性。本发明模拟视觉皮层神经元感受野中心外周作用的信息加工机制,构建新的视神经计算模型,通过整合不同区域内局部边缘特征完成鲁棒的目标轮廓提取。
附图说明
图1是本发明基于局部边缘特征整合的目标物体轮廓提取方法的流程示意图;
图2是本发明所采用的模型示意图,其中,(a)为中心区域和外周区域的椭圆子区域分布示意图,其中灰色部分为外周区域,白色椭圆区域为中心区域,黑色椭圆表示中心点的特征响应特性,外周区域内的椭圆区域为子区;(b)为外周区域中某外周像素采样点与中心像素点坐标位置和方位关系,(c)表示朝向抑制权值随角度差变化曲线;
图3是采用本发明方法的实施示例示意图,其中,(a)为原始图像,(b)为手动勾画的标准轮廓图像,(c)是Gabor滤波和局部边缘特征提取后的能量分布图,(d)和(e)分别为传统的采用各向异性抑制技术所得的轮廓图像,(f)为采用本发明方法提取得到的轮廓图像。
具体实施方式
实施示例一:以自然场景图像的轮廓检测为例。
从国际公认的验证轮廓检测与提取算法的图像库RUG中选取任意一幅图像,这里以Elephant_2为例,该图像大小为512×512像素,其标准轮廓是由多个人工勾画后平均得到的。采用本发明的轮廓提取方法流程如图1所示,其具体步骤如下:
S1.Gabor滤波:给定每个Gabor滤波器的尺度参数为2.0,在180度范围内均匀选取45个方向,其方向分别为iπ/45,(i=0,1,2,…,44),得到一组有45个不同朝向的Gabor滤波器组;然后用每一个朝向的滤波器与输入图像进行卷积操作,对原始图像进行滤波处理,得到45幅滤波处理后的灰度图像组,即不同朝向下的信息分布图;
S2.提取局部边缘特征:对原始图像的每一个像素点,在S1得到的一组不同朝向下信息分布图中,寻找对应位置的最大值,并以此最大值及其对应的Gabor滤波器朝向分别作为这个像素点的能量信息和最优朝向。比如对坐标为(200,200)的像素点,不同朝向下信息分布图中相应位置的值分别为0.5247,0.4480,0.4540,0.5467,0.6416,0.6198,0.5423,0.7634,1.1822,1.5299,1.7498,1.8741,1.9449,1.9746,1.9245,1.7726,1.5656,1.3482,1.1112,0.8458,0.5973,0.4375,0.3466,0.2096,0.5341,1.2243,1.8537,2.1664,2.1042,1.7747,1.3223,0.8806,0.6808,0.8521,1.1031,1.2587,1.2366,0.9843,0.5373,0.1463,0.4580,0.6860,0.7641,0.7395,0.6420,最大值2.1664对应的朝向是112度,所以这个像素点对应的能量信息为2.1664,最优朝向为112度。对图像中的每个像素点都进行上述操作,寻找每个点的能量信息和最优朝向,组成原始图像的能量分布图和朝向信息图;
对每一个像素点进行步骤S3、S4、S5、S6操作:
S3.确定中心区和外周区域:以当前处理的像素点(200,200)为中心,计算长轴为25个像素,短轴为12个像素的椭圆边界,椭圆长轴方向为原始图像中点(200,200)对应的最优朝向,确定椭圆所包围的像素点坐标范围,并标记这些像素点为中心区域;以当前待处理像素点(200,200)为中心,半径为50个像素的圆形区域中,除去中心区域的部分为外周区域。
以4个像素为间隔,等间隔的采样外周区域内的像素点,并以每个采样点为中心,长轴为25个像素,短轴为12个像素的椭圆区域为子区,椭圆长轴方向为中心点在原图像中对应的最优朝向,计算子区包含的像素点,即确定子区内像素点坐标。如图2a所示。
S4.计算中心区域内局部边缘特征分布:根据步骤S2得到的能量分布图和朝向信息图,计算中心区域内的边缘特征分布,具体为如下操作:以20°为间隔,将180度分成9个区间,每个区间的朝向范围分别为1-20°,21-40°,41-60°,61-80°,81-100°,101-120°,121-140°,141-160°,161-180°,对应的中心位置朝向分别为10°,30°,50°,70°,90°,110°,130°,150°,170°,搜索中心区域内每个像素点上的最优朝向对应的朝向区间,以其对应的能量分布为权值,利用三线性插值法,计算此像素点最优朝向在对应区间内的分布贡献。如坐标为(220,213)的像素点为中心像素点(200,200)的中心区域内的任意一点,其最优朝向为96度,属于第5个区间,这个点的能量信息2.4568应对与最优朝向接近的两个区间(第5、6区间)都有贡献,按照三线性插值法,其对第5区间(81-100度区间)的贡献值为2.4568×(110-96)/20=1.7198,对第6区间(101-120度区间)的贡献值为2.4568×(1-(110-96)/20)=0.7370,依次计算区域内所有像素点,累积得到中心区域内的边缘特征分布为23.5153,56.8252,121.8591,311.7096,888.8248,450.1438,445.3725,160.5156,31.7118。即以局部区域内各像素点的边缘方向直方图,作为此区域的局部边缘特征分布。
S5.计算子区内的局部边缘特征分布:对属于同一个外周区域的所有子区,按照步骤S4中方法,计算子区内的局部边缘特征分布。如坐标为(224,167)的像素点为以(232,156)为中心的椭圆子区内一点,其最优朝向为152度,属于第8个区间,这个点的能量信息1.1945应对与最优朝向接近的两个区间(第8、9区间)都有贡献,按照三线性插值法,其对第8区间(141-160度区间)的贡献值为1.1945×(170-152)/20=1.075,对第9区间(161-180度区间)的贡献值为1.1945×(1-(170-152)/20)=0.1194,依次计算区域内所有像素点,累积得到该区域内的边缘特征分布为136.669,202.1292,92.813,63.995,89.427,175.6808,158.8480,392.7656,143.4268。
S6.确定特征整合参数:为每一个像素点确定来自外周区域的各采样点对其边缘特征的整合参数,由三部分组成,下面以外周区域像素点(232,156)对中心像素点(200,200)的整合权值为例,计算分别如下:
朝向抑制权值:如图2b所示,依据与中心像素点最优朝向的角度差,将外周区域划分为连续变化的四个区域,整个外周区域内的朝向抑制权值遵从余弦曲线,当角度差为π/2的奇数倍时,朝向抑制权值达到最大,当为π/2的偶数倍时达到最小。朝向抑制权值随角度差变化曲线如图2c所示。外周像素采样点(232,256)到中心像素点(200,200)的夹角为29.74度,而中心像素点的最优朝向为112度,它们二者的差值为82.26,带入到图2b中公式,可以得到此时的朝向抑制权值为0.9637。其中M为1,b为0.
空间位置整合权值:空间位置整合权值将随着到中心像素点距离的增加而减弱,其值与到中心像素点(200,200)距离遵从双高斯差函数。将中心像素点坐标(200,200)和当前外周区域采样点坐标(232,256)代入非负二维双高斯差函数,计算所得的值即为外周区域采样点(232,256)对中心像素点(200,200)的空间位置整合权值。其中,双高斯差函数中的尺度参数与步骤S1所述的Gabor滤波器的尺度参数相同,为2.0,而双高斯差函数中尺度比值参数k的取值为4,也就是说两个高斯函数的尺度参数分别为2.0和8.0。
特征差异权值:将以外周像素采样点(232,156)为中心的外周椭圆子区域和以中心像素点(200,200)为中心的中心区域内的边缘特征分布代入KL散度(Kullback-Leiblerdivergence)公式,计算可得两个区域的局部边缘特征分布差异。
外周像素采样点(232,156)对中心像素点(200,200)的整合参数为朝向抑制权值、空间位置整合权值和特征差异权值三者之积。
S7.计算整合信息图:按照S6中方法,计算所有外周像素采样点对中心像素点(200,200)的特征整合参数,然后乘以能量信息图中对应位置的能量值,通过加权求和的方法得到外周区域对中心像素点的整合信息。其中的权值为0.8。依次完成每个像素点与其外周像素的非线性整合作用,得到完整的整合信息图。
S8.确定轮廓信息图:用步骤S2得到的能量分布图中的像素点(200,200)的能量值减去该位置由S7得到的整合信息,得到整合后的该像素点的灰度值,实际处理中灰度值如果出现负值,按0处理,从而得到像素点(200,200)在轮廓信息图中的灰度值。按照同样的方法,逐点完成以上操作,得到整合后的轮廓信息图。
S9.二值化处理:采用非极大值抑制和滞后门限方法,对步骤S8得到的轮廓信息图进行二值化处理,得到最终的轮廓图像。
图3为采用本发明方法对自然场景图像进行轮廓提取得到的结果与标准轮廓图像的对比结果。其中图3a为原始图像,图3b为手动勾画的标准轮廓图像,图3c是Gabor滤波和局部边缘特征提取后的能量分布图,图3d和图3e分别为传统的采用各向异性抑制技术所得的轮廓图像,图3f为采用本发明方法提取得到的轮廓图像,从图中可以直观地看到,采用本发明方法从自然场景图像中提取到的目标物体轮廓,既可以完整保持目标物体轮廓的完整性和准确性,又能抑制背景纹理、微小边缘的干扰。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于局部边缘特征整合的目标物体轮廓提取方法,其特征在于,通过对图像边缘特征的大范围整合,提取自然场景中目标物体的完整轮廓,具体过程如下:
首先,采用一组不同朝向的Gabor滤波器组对输入的原始图像进行滤波处理,得到朝向信息图及其对应的能量分布图像;
接着,依次以原始图像中的每个像素点作为待处理的中心像素点,通过以下处理过程,获得周围像素点对中心像素点的特征整合参数:
1)依据待处理的中心像素点坐标将原始图像划分为中心区域和外周区域;对外周区域进行像素点采样获得外周像素采样点,以外周像素采样点为基础,将外周区域划分为若干大小相同、朝向各异的外周椭圆子区域;
2)在朝向信息图及其对应的能量分布图像的基础上,分别计算中心区域和每个外周椭圆子区域内的局部边缘特征分布;
3)根据每个外周像素采样点和对应的中心像素点的最优朝向的角度差、外周像素采样点空间位置以及外周椭圆子区域与中心区域的局部边缘特征分布差异,计算所有外周像素采样点对中心像素点的特征整合参数;
最后,依据每个像素点的特征整合参数和对应的能量分布图像,得到整合信息图像;从能量分布图像中减去整合信息图像,得到整合后的轮廓信息图像,经过二值化操作后得到最终的轮廓图像。
2.根据权利要求1所述的方法,其特征在于,所述能量分布图和朝向信息图是指与原始图像相对应的各像素点的能量值和最优朝向组成的矩阵,矩阵中的每个元素分别为原始图像经过不同朝向的Gabor滤波器组滤波后,每一个像素点在不同朝向Gabor滤波器下的最大响应强度值和对应朝向。
3.根据权利要求1所述的方法,其特征在于,所述中心区域是指以中心像素点所在的位置作为中心,绘制长轴为15-31个像素,短轴为7-15个像素,长轴方向为中心像素点的最优朝向所得的椭圆区域;
所述外周区域是指以中心像素点所在位置作为中心,绘制半径为50个像素所得的圆形区域,从所得的圆形区域中减去中心区域所得的区域;
所述外周椭圆子区域是指在以1-4个像素为间隔,等间隔的采样外周区域内的像素点,并以每个采样点为中心,分别绘制长轴为15-31个像素,短轴为7-15个像素,长轴方向为相应采样点的最优朝向所得的椭圆区域。
4.根据权利要求3所述的方法,其特征在于,所述中心区域和每个外周椭圆子区域内的局部边缘特征分布是指提取每个区域内各像素点的边缘方向直方图;
所述边缘方向直方图是以20°为间隔,将180°等间隔划分成9个区间,每个区间的朝向范围分别为1-20°,21-40°,41-60°,61-80°,81-100°,101-120°,121-140°,141-160°,161-180°,每个区间的中心位置朝向分别为10°,30°,50°,70°,90°,110°,130°,150°,170°;搜索区域内每个像素点的最优朝向并确认与之最接近的两个朝向区间,以每个像素点能量值为权值,利用三线性插值法,计算此像素点最优朝向在对应区间内的分布贡献,累积区域内每个像素点对相应朝向区间的分布贡献,得到该区域的边缘方向直方图;
所述每个外周椭圆子区域的中心点均为外周像素采样点。
5.根据权利要求4所述的方法,其特征在于,所述特征整合参数为朝向抑制权值、空间位置整合权值和特征差异权值之积;
其中,所述朝向抑制权值是依据公式计算获得;
其中,Δθ(x,y)=θ-θb,θ表示外周像素采样点与中心像素点连线与水平轴的夹角,θb表示中心像素点的最优朝向;(x,y)为外周像素采样点在原始图像中的坐标,M表示归一化系数,取值范围为1-2;b为偏移量,取值范围为-1-1;
所述空间位置整合权值是指将外周像素采样点和中心像素点在原始图像中的坐标代入双高斯差函数获得的函数计算值,所述双高斯差函数中尺度比值参数k的取值为4,双高斯差函数中的尺度取值与Gabor滤波器的尺度取值相同;
所述特征差异权值是指以外周像素采样点为中心的椭圆子区域的局部边缘特征分布和中心区域的局部边缘特征分布之间的KL散度,分别将两个区域局部边缘特征分布代入KL散度计算公式计算获得。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述的二值化方法为非极大值抑制和滞后门限方法。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述不同朝向的Gabor滤波器组的方向数为45个,Gabor滤波器组的方向在180度内等弧度分布,Gabor函数的尺度参数值为1.0-2.4。
CN201610440406.0A 2016-06-17 2016-06-17 一种基于局部边缘特征整合的目标物体轮廓提取方法 Expired - Fee Related CN106127209B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610440406.0A CN106127209B (zh) 2016-06-17 2016-06-17 一种基于局部边缘特征整合的目标物体轮廓提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610440406.0A CN106127209B (zh) 2016-06-17 2016-06-17 一种基于局部边缘特征整合的目标物体轮廓提取方法

Publications (2)

Publication Number Publication Date
CN106127209A CN106127209A (zh) 2016-11-16
CN106127209B true CN106127209B (zh) 2019-05-17

Family

ID=57470037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610440406.0A Expired - Fee Related CN106127209B (zh) 2016-06-17 2016-06-17 一种基于局部边缘特征整合的目标物体轮廓提取方法

Country Status (1)

Country Link
CN (1) CN106127209B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107742302B (zh) * 2017-11-13 2019-12-31 广西科技大学 基于初级视皮层多尺度轮廓融合的轮廓检测方法
CN108021886B (zh) * 2017-12-04 2021-09-14 西南交通大学 一种无人机重复纹理影像局部显著特征点匹配方法
CN109598205A (zh) * 2018-11-09 2019-04-09 国网山东省电力公司淄博供电公司 基于Gabor变换的指纹特征提取与压缩编码的方法
CN109949324B (zh) * 2019-02-01 2022-04-22 广西科技大学 基于非经典感受野非线性亚单元响应的轮廓检测方法
CN115035004B (zh) * 2022-04-15 2023-02-10 腾讯科技(深圳)有限公司 图像处理方法、装置、设备、可读存储介质及程序产品
CN117475410B (zh) * 2023-12-27 2024-03-15 山东海润数聚科技有限公司 基于前景点筛选的三维目标检测方法、系统、设备、介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101571924A (zh) * 2009-05-31 2009-11-04 北京航空航天大学 一种多区域特征融合的步态识别方法及系统
CN101916379A (zh) * 2010-09-03 2010-12-15 华中科技大学 一种基于对象积累视觉注意机制的目标搜索和识别方法
CN101976338A (zh) * 2010-10-29 2011-02-16 杭州电子科技大学 一种基于梯度方向直方图的判决式视觉显著性检测方法
CN102201120A (zh) * 2011-06-17 2011-09-28 电子科技大学 一种基于多特征的目标物体轮廓检测方法
CN104484667A (zh) * 2014-12-30 2015-04-01 华中科技大学 一种基于亮度特征和轮廓完整性的轮廓提取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9092692B2 (en) * 2012-09-13 2015-07-28 Los Alamos National Security, Llc Object detection approach using generative sparse, hierarchical networks with top-down and lateral connections for combining texture/color detection and shape/contour detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101571924A (zh) * 2009-05-31 2009-11-04 北京航空航天大学 一种多区域特征融合的步态识别方法及系统
CN101916379A (zh) * 2010-09-03 2010-12-15 华中科技大学 一种基于对象积累视觉注意机制的目标搜索和识别方法
CN101976338A (zh) * 2010-10-29 2011-02-16 杭州电子科技大学 一种基于梯度方向直方图的判决式视觉显著性检测方法
CN102201120A (zh) * 2011-06-17 2011-09-28 电子科技大学 一种基于多特征的目标物体轮廓检测方法
CN104484667A (zh) * 2014-12-30 2015-04-01 华中科技大学 一种基于亮度特征和轮廓完整性的轮廓提取方法

Also Published As

Publication number Publication date
CN106127209A (zh) 2016-11-16

Similar Documents

Publication Publication Date Title
CN106127209B (zh) 一种基于局部边缘特征整合的目标物体轮廓提取方法
CN107230202B (zh) 路面病害图像的自动识别方法和系统
CN107292310B (zh) 一种圆形指针式表盘视觉定位及自动读数方法
CN104200442B (zh) 基于改进的canny边缘检测的非局部均值MRI图像去噪方法
Lü et al. Leaf area measurement based on image processing
CN102222229B (zh) 手指静脉图像预处理方法
CN108564124A (zh) 一种基于支持向量机的稻瘟病菌孢子显微图像检测识别方法
CN104732536A (zh) 一种基于改进形态学的亚像素边缘检测方法
CN109919960B (zh) 一种基于多尺度Gabor滤波器的图像连续边缘检测方法
CN107358237A (zh) 一种去环境干扰的多仪表盘自动读数方法
CN101930592B (zh) 一种基于视觉非经典感受野模型的图像去噪方法
CN105654496B (zh) 基于视觉特性的仿生自适应模糊边缘检测方法
CN108376403B (zh) 基于霍夫圆变换的网格菌落图像分割方法
CN104217221A (zh) 基于纹理特征的书画作品检测方法
CN106682678A (zh) 一种基于支撑域的图像角点检测和分类方法
CN102306378B (zh) 一种图像增强方法
CN107507175A (zh) 一种用于计算玉米叶部小斑病病斑所占面积比例的装置
CN105225216A (zh) 基于空间距圆标记边缘检测的虹膜预处理算法
Sahoo et al. Design and simulation of various edge detection techniques using Matlab Simulink
CN104657947A (zh) 针对碱基图像的一种降噪方法
CN106709500A (zh) 一种图像特征匹配的方法
CN107590512A (zh) 一种模板匹配中参数的自适应方法和系统
CN104794440A (zh) 一种基于多分块多尺度lbp的假指纹检测方法
CN105894474A (zh) 一种非线性图像增强方法及边缘检测方法
CN103745231B (zh) 小麦矮腥黑穗病tck及其近似种tct的冬孢子图像鉴定方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190517

Termination date: 20210617