CN107909593B - 基于感受野子区域的非方向选择性轮廓检测方法 - Google Patents

基于感受野子区域的非方向选择性轮廓检测方法 Download PDF

Info

Publication number
CN107909593B
CN107909593B CN201711084068.2A CN201711084068A CN107909593B CN 107909593 B CN107909593 B CN 107909593B CN 201711084068 A CN201711084068 A CN 201711084068A CN 107909593 B CN107909593 B CN 107909593B
Authority
CN
China
Prior art keywords
pixel point
subregion
sub
receptive field
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711084068.2A
Other languages
English (en)
Other versions
CN107909593A (zh
Inventor
林川
李福章
张晴
曹以隽
赵浩钧
韦江华
覃溪
潘勇才
刘青正
张玉薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi University of Science and Technology
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN201711084068.2A priority Critical patent/CN107909593B/zh
Publication of CN107909593A publication Critical patent/CN107909593A/zh
Application granted granted Critical
Publication of CN107909593B publication Critical patent/CN107909593B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明旨在提供一种基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:A、输入经灰度处理的待检测图像,计算各像素点的经典感受野刺激响应;B、在感受野中心区域外部构建一组环绕中心区域的圆形的子区域,各子区域相对于中心区域具有不同偏离角度;C、计算各像素点的中心区域的各方向的能量分布值以及各子区域的各方向的能量分布值;D、计算各像素点的中心区域‑子区域抑制权重以及子区域‑子区域抑制权重,进而得到各像素点的中心区域‑子区域抑制权值与子区域‑子区域抑制权值;F、计算各像素点的轮廓响应。该方法具有仿真效果好、轮廓识别率高的特点。

Description

基于感受野子区域的非方向选择性轮廓检测方法
技术领域
本发明涉及计算机图像处理领域,具体涉及一种基于感受野子区域的非方向选择性轮廓检测方法。
背景技术
轮廓检测是计算机视觉领域的一个基本任务,不同于被定义为强烈的亮度变化所表征的边缘,轮廓通常表示一个目标到其他目标的边界。提高轮廓检测性能的基本方法就是融合全局的信息,为了提高轮廓检测模型的性能,许多研究者尽力的去发现不同的视觉线索,包括亮度,颜色或者纹理信息。
现有方法会考虑多重的图像特征,例如亮度,纹理,并且使用统计和学习技术、活动轮廓、图论的方法构建了一个亮度,颜色和纹理通道的统计框架,并且用了一个逻辑回归分类器去预测边缘的可能性;进一步的还有的通过冲图像块中提取千个简单特征,用这些特征去学习一种概率提升树的分类器去做轮廓提取或是为了融合多尺度的信息使用局部轮廓线索:对比度、局部对比度以及局部位置去训练一个逻辑回归分类器来融合这些特征。
发明内容
本发明旨在提供一种基于感受野子区域的非方向选择性轮廓检测方法,该方法具有仿真效果好、轮廓识别率高的特点。
本发明的技术方案如下:
一种基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行二维高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
B、预设圆形的感受野,将该感受野分为两个同心圆,圆形的中心区域为经典感受野,中心区域外的环形区域为非经典感受野;在非经典感受野内构建一组环绕中心区域分布的圆形的子区域,每一个子区域至少与其相邻的两个子区域相交;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
优选地,所述的步骤A具体为:
二维高斯一阶滤波函数如下:
Figure GDA0002398375840000021
其中
Figure GDA0002398375840000022
γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θi,σ)| (2);
其中
Figure GDA0002398375840000023
i=1,2,…Nθ;θi为方向参数中的某一方向;Nθ为方向参数的数量;I(x,y)为待检测图像中的各像素点的灰度值;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,…Nθ} (3)。
优选地,所述的步骤B中,所述的中心区域的圆心与任两个相邻的子区域的圆心连线所形成的夹角相等;
所述的子区域的直径为感受野半径与中心区域半径的差值,每一个子区域分别与其邻近的四个子区域相交。
优选地,所述的步骤B中,所述的中心区域的半径为2.5σ,所述的子区域的半径为3.75σ,所述的子区域的数量为Ns,各个子区域中心的角度为
Figure GDA0002398375840000031
),k=1,2,...Ns,该角度为以Y轴正半轴为起点,逆时针旋转的角度。
优选地,所述的步骤C具体为:
所述的各像素点的各方向的能量值
Figure GDA0002398375840000032
Figure GDA0002398375840000033
其中
Figure GDA0002398375840000034
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
Figure GDA0002398375840000039
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
Figure GDA0002398375840000035
各像素点各子区域的各方向的能量分布值Esk(x,y)为:
Figure GDA0002398375840000036
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfk和NAsfk分别表示某个子区域以及该子区域内的像素点个数。
优选地,所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
Figure GDA0002398375840000037
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
Figure GDA0002398375840000038
其中
Figure GDA0002398375840000047
是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
CS(x,y)=ΔENS(x,y)·Dc(x,y) (10);
各像素点的子区域-子区域抑制权重SS(x,y)为:
Figure GDA0002398375840000041
其中
Figure GDA0002398375840000048
为各个子区域的||Esk(x,y)||1值的平均值。
优选地,所述的步骤E具体为:
中心区域-子区域抑制权值
Figure GDA0002398375840000042
为:
Figure GDA0002398375840000043
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差参数;
子区域-子区域抑制权值
Figure GDA0002398375840000044
为:
Figure GDA0002398375840000045
其中,σss为SS(x,y)的标准差参数。
优选地,各像素点的非经典感受野刺激响应Inhu(x,y)为:
Figure GDA0002398375840000046
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
本发明轮廓检测方法考虑了感受野中心区域的响应与其外部的非经典感受野区域的抑制响应,其中感受野中心区域的响应能够对需识别的边缘轮廓进行保护,降低了漏识别率,保证轮廓检测质量;
而非经典感受野区域的抑制影响包括中心区域-子区域抑制权值与子区域-子区域抑制权值;中心区域-子区域抑制权值能够有效地抑制常规纹理,减低错误识别率;而对于图像中的密集纹理以及被纹理包裹的孤立无用的边缘,子区域-子区域抑制权值能够给予很好的抑制效果;将中心区域-子区域抑制权值与子区域-子区域抑制权值进行结合作为非经典感受野区域的抑制响应,能够完善对各类纹理的抑制,弥补前述抑制的不足;综上,对边缘的保护和纹理抑制进行兼顾,使得运算结果更为符合人眼感受野的生理特性,轮廓识别的效率和正确率更高;
并且,结合感受野中心区域的方向显著度进行考量,考虑了人眼感受野特性的生物学原理,较高的方向显著度往往意味着该处存在轮廓,因此,结合感受野中心区域的方向显著度能够进一步提高的轮廓检测的正确率。
附图说明
图1为基于感受野子区域的非方向选择性轮廓检测方法的感受野子区域划分示意图;
图2为实施例1与文献方法的轮廓识别对比图。
具体实施方式
下面结合附图和实施例具体说明本发明。
实施例1
本实施例提供的基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
所述的步骤A具体为:
所述的高斯一阶函数如下:
Figure GDA0002398375840000051
其中
Figure GDA0002398375840000052
γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θi,σ)| (2);
其中
Figure GDA0002398375840000053
i=1,2,…Nθ;θi为方向参数中的某一方向;Nθ为方向参数的数量;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,…Nθ} (3);
B、在感受野中心区域外部构建一组环绕中心区域的圆形的子区域,各子区域相对于中心区域具有不同偏离角度;如图1所示为感受野中心区域以及其外部子区域的示意图,图中中心的实心圆为中心区域,外围的虚线圆为各个子区域;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
所述的步骤C具体为:
所述的各像素点的各方向的能量值
Figure GDA0002398375840000061
Figure GDA0002398375840000062
其中
Figure GDA0002398375840000063
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
Figure GDA0002398375840000064
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
Figure GDA0002398375840000065
各像素点各子区域的各方向的能量分布值Esk(x,y)为:
Figure GDA0002398375840000066
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfk和NAsfk分别表示某个子区域以及该子区域内的像素点个数;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
Figure GDA0002398375840000071
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
Figure GDA0002398375840000072
其中
Figure GDA0002398375840000073
是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
CS(x,y)=ΔENS(x,y)·Dc(x,y) (10);
各像素点的子区域-子区域抑制权重SS(x,y)为:
Figure GDA0002398375840000074
其中
Figure GDA0002398375840000077
为各个子区域的||Esk(x,y)||1值的平均值;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
所述的步骤E具体为:
中心区域-子区域抑制权值
Figure GDA0002398375840000075
为:
Figure GDA0002398375840000076
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差参数;
子区域-子区域抑制权值
Figure GDA0002398375840000081
为:
Figure GDA0002398375840000082
其中,σss为SS(x,y)的标准差参数;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图;
所述的步骤F具体为:
各像素点的非经典感受野刺激响应Inhu(x,y)为:
Figure GDA0002398375840000083
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
下面将本实施例的轮廓检测方法与文献1提供的轮廓检测各项同性模型进行有效性对比,文献1如下:
文献1:K.-F.Yang,C.-Y.Li,and Y.-J.Li,"Multifeature-based surroundinhibition improves contour detection in natural images,"IEEE Transactions onImage Processing,vol.23,pp.5020-5032,2014.;
为保证对比的有效性,对于本实施例采用与文献1中相同的非极大值抑制和双阈值处理,其中包含的两个阈值th,tl设置为tl=0.5th,由阈值分位数p计算而得;
其中性能评价指标P采用文献1中给出的如下标准:
Figure GDA0002398375840000084
式中nTP、nFP、nFN分别表示检测得到的正确轮廓、错误轮廓以及遗漏的轮廓的数目,评测指标P取值在[0,1]之间,越接近1表示轮廓检测的效果越好,另外,定义容忍度为:在5*5的邻域内检测到的都算正确检测;
选取熊、大象、山羊3副经典图像进行有效性对比,分别采用文献1中的各项同性模型以及实施例1方法对上述3幅图进行轮廓检测,其中实施例1方法选用的参数组如表1所示,
表1 实施例1参数组表
Figure GDA0002398375840000091
文献1中的各项同性模型采用如下80组参数:α={1.0,1.2},
σ={1.4,1.6,1.8,2.0,2.2,2.4,2.6,2.8},p={0.5,0.4,0.3,0.2,0.1};
如图2所示为分别为熊、大象、山羊3副经典图像的原图、实际轮廓图、文献1方法检测的最优轮廓,实施例1方法检测的最优轮廓;如表1所示为上述3幅图像的文献1方法检测的的最优P值与实施例1方法检测的的最优P值;
表1 P值对比图
Figure GDA0002398375840000092
从上述结果可以看出,不论从轮廓提取的效果上还是从性能指标参数上看,实施例1方法均优于文献1中的各项同性模型。

Claims (8)

1.一种基于感受野子区域的非方向选择性轮廓检测方法,其特征在于包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行二维高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
B、预设圆形的感受野,将该感受野分为两个同心圆,圆形的中心区域为经典感受野,中心区域外的环形区域为非经典感受野;在非经典感受野内构建一组环绕中心区域分布的圆形的子区域,每一个子区域至少与其相邻的两个子区域相交;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
2.如权利要求1所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤A具体为:
二维高斯一阶滤波函数如下:
Figure FDA0002398375830000021
其中
Figure FDA0002398375830000022
γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θi,σ)| (2);
其中
Figure FDA0002398375830000023
θi为方向参数中的某一方向;Nθ为方向参数的数量;I(x,y)为待检测图像中的各像素点的灰度值;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,…Nθ} (3)。
3.如权利要求2所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤B中,所述的中心区域的圆心与任两个相邻的子区域的圆心连线所形成的夹角相等;
所述的子区域的直径为感受野半径与中心区域半径的差值,每一个子区域分别与其邻近的四个子区域相交。
4.如权利要求2所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤B中,所述的中心区域的半径为2.5σ,所述的子区域的半径为3.75σ,所述的子区域的数量为Ns,各个子区域中心的角度为
Figure FDA0002398375830000024
该角度为以Y轴正半轴为起点,逆时针旋转的角度。
5.如权利要求4所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤C具体为:
所述的各像素点的各方向的能量值
Figure FDA0002398375830000025
Figure FDA0002398375830000026
其中
Figure FDA0002398375830000027
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
Figure FDA0002398375830000031
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
Figure FDA0002398375830000032
各像素点各子区域的各方向的能量分布值Esk(x,y)为:
Figure FDA0002398375830000033
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfk和NAsfk分别表示某个子区域以及该子区域内的像素点个数。
6.如权利要求5所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
Figure FDA0002398375830000034
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
Figure FDA0002398375830000035
其中
Figure FDA0002398375830000036
是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
CS(x,y)=ΔENS(x,y)·Dc(x,y) (10);
各像素点的子区域-子区域抑制权重SS(x,y)为:
Figure FDA0002398375830000037
其中
Figure FDA0002398375830000038
为各个子区域的||Esk(x,y)||1值的平均值。
7.如权利要求6所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤E具体为:
中心区域-子区域抑制权值
Figure FDA0002398375830000039
为:
Figure FDA0002398375830000041
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差参数;
子区域-子区域抑制权值
Figure FDA0002398375830000042
为:
Figure FDA0002398375830000043
其中,σss为SS(x,y)的标准差参数。
8.如权利要求7所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
各像素点的非经典感受野刺激响应Inhu(x,y)为:
Figure FDA0002398375830000044
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
CN201711084068.2A 2017-11-07 2017-11-07 基于感受野子区域的非方向选择性轮廓检测方法 Active CN107909593B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711084068.2A CN107909593B (zh) 2017-11-07 2017-11-07 基于感受野子区域的非方向选择性轮廓检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711084068.2A CN107909593B (zh) 2017-11-07 2017-11-07 基于感受野子区域的非方向选择性轮廓检测方法

Publications (2)

Publication Number Publication Date
CN107909593A CN107909593A (zh) 2018-04-13
CN107909593B true CN107909593B (zh) 2020-05-05

Family

ID=61842698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711084068.2A Active CN107909593B (zh) 2017-11-07 2017-11-07 基于感受野子区域的非方向选择性轮廓检测方法

Country Status (1)

Country Link
CN (1) CN107909593B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080663B (zh) * 2019-12-30 2020-09-22 广西科技大学 一种基于动态感受野的仿生型轮廓检测方法
CN111161253B (zh) * 2019-12-31 2020-12-15 柳州快速制造工程技术有限公司 一种基于深度信息的模具检验方法
CN111539969B (zh) * 2020-04-23 2023-06-09 武汉铁路职业技术学院 图像边缘检测方法、装置、计算机设备及存储介质
CN111968140B (zh) * 2020-06-24 2023-07-14 广西科技大学 基于经典感受野固视微动机制的轮廓检测方法
CN113255547B (zh) * 2021-06-03 2024-02-09 上海申瑞继保电气有限公司 电力仪表指针图像轮廓计算方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5422962A (en) * 1992-03-19 1995-06-06 Fujitsu Limited Method and apparatus for extracting line segments from an image of an object
US8081209B2 (en) * 2008-06-26 2011-12-20 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system of sparse code based object classification with sensor fusion
US9275326B2 (en) * 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9014481B1 (en) * 2014-04-22 2015-04-21 King Fahd University Of Petroleum And Minerals Method and apparatus for Arabic and Farsi font recognition
CN104484667B (zh) * 2014-12-30 2018-02-23 华中科技大学 一种基于亮度特征和轮廓完整性的轮廓提取方法
CN106033608B (zh) * 2015-07-24 2018-10-19 广西科技大学 仿生物平滑跟踪眼动信息处理机制的目标轮廓检测方法
CN106033610B (zh) * 2016-03-22 2018-10-26 广西科技大学 基于非经典感受野空间总和调制的轮廓检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Contour Detection Based on the Property of Orientation Selective Inhibition of Nonclassical Receptive Field;Li Long 等;《2008 IEEE Conference on Cybernetics and Intelligent Systems》;20081111;第1002-1006页 *
Multifeature-Based Surround Inhibition Improves Contour Detection in Natural Images;Kai-Fu Yang 等;《IEEE Transactions on Image Processing》;20141231;第23卷(第2期);第5020-5032页 *
Object Boundary Edge Selection Using Normal Direction Derivatives of a Contour in a Complex Scene;Tae-Yong Kim 等;《Proceedings of the 17th International Conference on Pattern Recognition》;20040920;第4卷;第1-4页 *

Also Published As

Publication number Publication date
CN107909593A (zh) 2018-04-13

Similar Documents

Publication Publication Date Title
CN107909593B (zh) 基于感受野子区域的非方向选择性轮廓检测方法
CN107766866B (zh) 基于感受野子区域的方向选择性轮廓检测方法
US10262190B2 (en) Method, system, and computer program product for recognizing face
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN103886589B (zh) 面向目标的自动化高精度边缘提取方法
JP6192271B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN107767387B (zh) 基于可变感受野尺度全局调制的轮廓检测方法
CN106033610B (zh) 基于非经典感受野空间总和调制的轮廓检测方法
CN103955922A (zh) 基于Gabor滤波器的印花织物疵点检测方法
CN102521579B (zh) 一种基于二维平面摄像头推的动作识别方法及系统
CN106033608B (zh) 仿生物平滑跟踪眼动信息处理机制的目标轮廓检测方法
CN107067407B (zh) 基于非经典感受野和线性非线性调制的轮廓检测方法
CN105160305B (zh) 一种手指多模态特征融合方法
CN103218605A (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN109949324B (zh) 基于非经典感受野非线性亚单元响应的轮廓检测方法
CN108090492B (zh) 基于尺度线索抑制的轮廓检测方法
CN107742302B (zh) 基于初级视皮层多尺度轮廓融合的轮廓检测方法
CN102663706A (zh) 基于菱形模板的自适应加权均值滤波方法
CN103544478A (zh) 一种全方位人脸检测的方法及系统
CN106033609B (zh) 仿生物跳跃眼动信息处理机制的目标轮廓检测方法
CN110633749B (zh) 基于改进视点特征直方图的三维点云识别方法
Gurrala et al. A new segmentation method for plant disease diagnosis
CN104463896B (zh) 基于核相似区分布特性的图像角点检测方法及系统
CN107194402A (zh) 一种并行细化骨架提取方法
CN105551048A (zh) 一种基于空间面片的三维角点检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant