CN107909593A - 基于感受野子区域的非方向选择性轮廓检测方法 - Google Patents

基于感受野子区域的非方向选择性轮廓检测方法 Download PDF

Info

Publication number
CN107909593A
CN107909593A CN201711084068.2A CN201711084068A CN107909593A CN 107909593 A CN107909593 A CN 107909593A CN 201711084068 A CN201711084068 A CN 201711084068A CN 107909593 A CN107909593 A CN 107909593A
Authority
CN
China
Prior art keywords
mrow
msub
subregion
pixel
central area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711084068.2A
Other languages
English (en)
Other versions
CN107909593B (zh
Inventor
林川
李福章
张晴
曹以隽
赵浩钧
韦江华
覃溪
潘勇才
刘青正
张玉薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi University of Science and Technology
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN201711084068.2A priority Critical patent/CN107909593B/zh
Publication of CN107909593A publication Critical patent/CN107909593A/zh
Application granted granted Critical
Publication of CN107909593B publication Critical patent/CN107909593B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明旨在提供一种基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:A、输入经灰度处理的待检测图像,计算各像素点的经典感受野刺激响应;B、在感受野中心区域外部构建一组环绕中心区域的圆形的子区域,各子区域相对于中心区域具有不同偏离角度;C、计算各像素点的中心区域的各方向的能量分布值以及各子区域的各方向的能量分布值;D、计算各像素点的中心区域‑子区域抑制权重以及子区域‑子区域抑制权重,进而得到各像素点的中心区域‑子区域抑制权值与子区域‑子区域抑制权值;F、计算各像素点的轮廓响应。该方法具有仿真效果好、轮廓识别率高的特点。

Description

基于感受野子区域的非方向选择性轮廓检测方法
技术领域
本发明涉及计算机图像处理领域,具体涉及一种基于感受野子区域的非方向选择性轮廓检测方法。
背景技术
轮廓检测是计算机视觉领域的一个基本任务,不同于被定义为强烈的亮度变化所表征的边缘,轮廓通常表示一个目标到其他目标的边界。提高轮廓检测性能的基本方法就是融合全局的信息,为了提高轮廓检测模型的性能,许多研究者尽力的去发现不同的视觉线索,包括亮度,颜色或者纹理信息。
现有方法会考虑多重的图像特征,例如亮度,纹理,并且使用统计和学习技术、活动轮廓、图论的方法构建了一个亮度,颜色和纹理通道的统计框架,并且用了一个逻辑回归分类器去预测边缘的可能性;进一步的还有的通过冲图像块中提取千个简单特征,用这些特征去学习一种概率提升树的分类器去做轮廓提取或是为了融合多尺度的信息使用局部轮廓线索:对比度、局部对比度以及局部位置去训练一个逻辑回归分类器来融合这些特征。
发明内容
本发明旨在提供一种具有仿真效果好、轮廓识别率高的特点。
本发明的技术方案如下:
一种基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行二维高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
B、预设圆形的感受野,将该感受野分为两个同心圆,圆形的中心区域为经典感受野,中心区域外的环形区域为非经典感受野;在非经典感受野内构建一组环绕中心区域分布的圆形的子区域,每一个子区域至少与其相邻的两个子区域相交;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
优选地,所述的步骤A具体为:
所述的二维高斯一阶函数如下:
其中γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θ,σ)| (2);
其中θi为方向参数中的某一方向;Nθ为方向参数的数量;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,...Nθ} (3)。
优选地,所述的步骤B中,所述的中心区域的圆心与任两个相邻的子区域的圆心连线所形成的夹角相等;
所述的子区域的直径为感受野半径与中心区域半径的差值,每一个子区域分别与其邻近的四个子区域相交。
优选地,所述的步骤B中,所述的中心区域的半径为2.5σ,所述的子区域的半径为3.75σ,所述的子区域的数量为Ns,所述的各个子区域中心的角度为k=1,2,...Ns,该角度为以Y轴正半轴为起点,逆时针旋转的角度。
优选地,所述的步骤C具体为:
所述的各像素点的各方向的能量值
其中
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
各像素点各子区域的各方向的能量分布值Esi(x,y)为:
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfj和NAsfj分别表示某个子区域以及该子区域内的像素点个数。
优选地,所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
其中是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
各像素点的子区域-子区域抑制权重SS(x,y)为:
其中为各个子区域的||Esj(x,y)||1值的平均值。
优选地,所述的步骤E具体为:
中心区域-子区域抑制权值为:
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差;
子区域-子区域抑制权值为:
其中,σss为SS(x,y)的标准差。
优选地,各像素点的非经典感受野刺激响应Inhu(x,y)为:
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
本发明轮廓检测方法考虑了感受野中心区域的响应与其外部的非经典感受野区域的抑制响应,其中感受野中心区域的响应能够对需识别的边缘轮廓进行保护,降低了漏识别率,保证轮廓检测质量;
而非经典感受野区域的抑制影响包括中心区域-子区域抑制权值与子区域-子区域抑制权值;中心区域-子区域抑制权值能够有效地抑制常规纹理,减低错误识别率;而对于图像中的密集纹理以及被纹理包裹的孤立无用的边缘,子区域-子区域抑制权值能够给予很好的抑制效果;将中心区域-子区域抑制权值与子区域-子区域抑制权值进行结合作为非经典感受野区域的抑制响应,能够完善对各类纹理的抑制,弥补前述抑制的不足;综上,对边缘的保护和纹理抑制进行兼顾,使得运算结果更为符合人眼感受野的生理特性,轮廓识别的效率和正确率更高;
并且,结合感受野中心区域的方向显著度进行考量,考虑了人眼感受野特性的生物学原理,较高的方向显著度往往意味着该处存在轮廓,因此,结合感受野中心区域的方向显著度能够进一步提高的轮廓检测的正确率。
附图说明
图1为基于感受野子区域的非方向选择性轮廓检测方法的感受野子区域划分示意图;
图2为实施例1与文献方法的轮廓识别对比图。
具体实施方式
下面结合附图和实施例具体说明本发明。
实施例1
本实施例提供的基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
所述的步骤A具体为:
所述的高斯一阶函数如下:
其中γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θ,σ)| (2);
其中i=1,2,...Nθ;θi为方向参数中的某一方向;Nθ为方向参数的数量;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,...Nθ} (3);
B、在感受野中心区域外部构建一组环绕中心区域的圆形的子区域,各子区域相对于中心区域具有不同偏离角度;如图1所示为感受野中心区域以及其外部子区域的示意图,图中中心的实心圆为中心区域,外围的虚线圆为各个子区域;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
所述的步骤C具体为:
所述的各像素点的各方向的能量值
其中
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
各像素点各子区域的各方向的能量分布值Esi(x,y)为:
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfj和NAsfj分别表示某个子区域以及该子区域内的像素点个数;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
其中是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
各像素点的子区域-子区域抑制权重SS(x,y)为:
其中μEs为各个子区域的||Esj(x,y)||1值的平均值;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
所述的步骤E具体为:
中心区域-子区域抑制权值为:
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差参数;
子区域-子区域抑制权值为:
其中,σss为SS(x,y)的标准差参数;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图;
所述的步骤F具体为:
各像素点的非经典感受野刺激响应Inhu(x,y)为:
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
下面将本实施例的轮廓检测方法与文献1提供的轮廓检测各项同性模型进行有效性对比,文献1如下:
文献1:K.-F.Yang,C.-Y.Li,and Y.-J.Li,"Multifeature-based surroundinhibition improves contour detection in natural images,"IEEE Transactions onImage Processing,vol.23,pp.5020-5032,2014.;
为保证对比的有效性,对于本实施例采用与文献1中相同的非极大值抑制和双阈值处理,其中包含的两个阈值th,tl设置为tl=0.5th,由阈值分位数p计算而得;
其中性能评价指标P采用文献1中给出的如下标准:
式中nTP、nFP、nFN分别表示检测得到的正确轮廓、错误轮廓以及遗漏的轮廓的数目,评测指标P取值在[0,1]之间,越接近1表示轮廓检测的效果越好,另外,定义容忍度为:在5*5的邻域内检测到的都算正确检测;
选取熊、大象、山羊3副经典图像进行有效性对比,分别采用文献1中的各项同性模型以及实施例1方法对上述3幅图进行轮廓检测,其中实施例1方法选用的参数组如表1所示,
表1实施例1参数组表
文献1中的各项同性模型采用如下80组参数:α={1.0,1.2},σ={1.4,1.6,1.8,2.0,2.2,2.4,2.6,2.8},p={0.5,0.4,0.3,0.2,0.1};
如图2所示为分别为熊、大象、山羊3副经典图像的原图、实际轮廓图、文献1方法检测的最优轮廓,实施例1方法检测的最优轮廓;如表1所示为上述3幅图像的文献1方法检测的的最优P值与实施例1方法检测的的最优P值;
表1P值对比图
从上述结果可以看出,不论从轮廓提取的效果上还是从性能指标参数上看,实施例1方法均优于文献1中的各项同性模型。

Claims (8)

1.一种基于感受野子区域的非方向选择性轮廓检测方法,其特征在于包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行二维高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
B、预设圆形的感受野,将该感受野分为两个同心圆,圆形的中心区域为经典感受野,中心区域外的环形区域为非经典感受野;在非经典感受野内构建一组环绕中心区域分布的圆形的子区域,每一个子区域至少与其相邻的两个子区域相交;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
2.如权利要求1所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤A具体为:
所述的二维高斯一阶函数如下:
<mrow> <mi>G</mi> <mi>D</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;theta;</mi> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mo>-</mo> <mover> <mi>x</mi> <mo>~</mo> </mover> </mrow> <mrow> <msup> <mi>&amp;sigma;</mi> <mn>3</mn> </msup> <msqrt> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> </mrow> </msqrt> </mrow> </mfrac> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mover> <mi>x</mi> <mo>~</mo> </mover> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;gamma;</mi> <msup> <mover> <mi>y</mi> <mo>~</mo> </mover> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θ,σ)| (2);
其中θi为方向参数中的某一方向;Nθ为方向参数的数量;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,...Nθ} (3)。
3.如权利要求2所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤B中,所述的中心区域的圆心与任两个相邻的子区域的圆心连线所形成的夹角相等;
所述的子区域的直径为感受野半径与中心区域半径的差值,每一个子区域分别与其邻近的四个子区域相交。
4.如权利要求2所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤B中,所述的中心区域的半径为2.5σ,所述的子区域的半径为3.75σ,所述的子区域的数量为Ns,所述的各个子区域中心的角度为该角度为以Y轴正半轴为起点,逆时针旋转的角度。
5.如权利要求4所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤C具体为:
所述的各像素点的各方向的能量值
<mrow> <msub> <mover> <mi>e</mi> <mo>&amp;OverBar;</mo> </mover> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <msub> <mi>&amp;theta;</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>e</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <msub> <mi>&amp;theta;</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>*</mo> <mi>G</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
<mrow> <mi>E</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>&amp;lsqb;</mo> <msub> <mover> <mi>e</mi> <mo>&amp;OverBar;</mo> </mover> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <msub> <mi>&amp;theta;</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>,</mo> <msub> <mover> <mi>e</mi> <mo>&amp;OverBar;</mo> </mover> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <msub> <mi>&amp;theta;</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>...</mo> <msub> <mover> <mi>e</mi> <mo>&amp;OverBar;</mo> </mover> <msub> <mi>N</mi> <mi>&amp;theta;</mi> </msub> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>;</mo> <msub> <mi>&amp;theta;</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>&amp;sigma;</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
<mrow> <msub> <mi>E</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;Sigma;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> <mo>&amp;Element;</mo> <msub> <mi>A</mi> <mrow> <mi>c</mi> <mi>r</mi> <mi>f</mi> </mrow> </msub> </mrow> </msub> <mi>E</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>/</mo> <msub> <mi>N</mi> <mrow> <mi>A</mi> <mi>c</mi> <mi>r</mi> <mi>f</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
各像素点各子区域的各方向的能量分布值Esi(x,y)为:
<mrow> <msub> <mi>E</mi> <mrow> <mi>s</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;Sigma;</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> <mo>&amp;Element;</mo> <msub> <mi>A</mi> <mrow> <mi>s</mi> <mi>f</mi> <mi>f</mi> </mrow> </msub> </mrow> </msub> <mi>E</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>/</mo> <msub> <mi>N</mi> <mrow> <mi>A</mi> <mi>s</mi> <mi>f</mi> <mi>j</mi> </mrow> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfj和NAsfj分别表示某个子区域以及该子区域内的像素点个数。
6.如权利要求5所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
<mrow> <msub> <mi>&amp;Delta;E</mi> <mrow> <mi>N</mi> <mi>S</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>S</mi> </msub> </msubsup> <mo>|</mo> <mo>|</mo> <msub> <mi>E</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>E</mi> <mrow> <mi>s</mi> <mi>i</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
<mrow> <msub> <mi>D</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <msub> <mi>N</mi> <mi>&amp;theta;</mi> </msub> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>&amp;theta;</mi> </msub> </msubsup> <msup> <mrow> <mo>(</mo> <msub> <mi>E</mi> <mi>c</mi> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>-</mo> <msub> <mi>&amp;mu;</mi> <msub> <mi>E</mi> <mi>c</mi> </msub> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
各像素点的子区域-子区域抑制权重SS(x,y)为:
<mrow> <mi>S</mi> <mi>S</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <msub> <mi>N</mi> <mi>S</mi> </msub> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mi>S</mi> </msub> </msubsup> <msup> <mrow> <mo>(</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>E</mi> <mrow> <mi>s</mi> <mi>j</mi> </mrow> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> <mo>-</mo> <msub> <mi>&amp;mu;</mi> <msub> <mi>E</mi> <mi>s</mi> </msub> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中为各个子区域的||Esj(x,y)||1值的平均值。
7.如权利要求6所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤E具体为:
中心区域-子区域抑制权值为:
<mrow> <mover> <mrow> <mi>C</mi> <mi>S</mi> </mrow> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <mi>N</mi> <mrow> <mo>(</mo> <msub> <mi>CS</mi> <mi>u</mi> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <msup> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>c</mi> <mi>s</mi> </mrow> </msub> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>12</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差;
子区域-子区域抑制权值为:
<mrow> <mover> <mrow> <mi>S</mi> <mi>S</mi> </mrow> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <mi>S</mi> <mi>S</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mn>2</mn> <msup> <msub> <mi>&amp;sigma;</mi> <mrow> <mi>s</mi> <mi>s</mi> </mrow> </msub> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>13</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中,σss为SS(x,y)的标准差。
8.如权利要求7所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
各像素点的非经典感受野刺激响应Inhu(x,y)为:
<mrow> <msub> <mi>Inh</mi> <mi>u</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mover> <mrow> <mi>C</mi> <mi>S</mi> </mrow> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>+</mo> <mover> <mrow> <mi>S</mi> <mi>S</mi> </mrow> <mo>&amp;OverBar;</mo> </mover> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
CN201711084068.2A 2017-11-07 2017-11-07 基于感受野子区域的非方向选择性轮廓检测方法 Active CN107909593B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711084068.2A CN107909593B (zh) 2017-11-07 2017-11-07 基于感受野子区域的非方向选择性轮廓检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711084068.2A CN107909593B (zh) 2017-11-07 2017-11-07 基于感受野子区域的非方向选择性轮廓检测方法

Publications (2)

Publication Number Publication Date
CN107909593A true CN107909593A (zh) 2018-04-13
CN107909593B CN107909593B (zh) 2020-05-05

Family

ID=61842698

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711084068.2A Active CN107909593B (zh) 2017-11-07 2017-11-07 基于感受野子区域的非方向选择性轮廓检测方法

Country Status (1)

Country Link
CN (1) CN107909593B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080663A (zh) * 2019-12-30 2020-04-28 广西科技大学 一种基于动态感受野的仿生型轮廓检测方法
CN111161253A (zh) * 2019-12-31 2020-05-15 柳州快速制造工程技术有限公司 一种基于深度信息的模具检验方法
CN111539969A (zh) * 2020-04-23 2020-08-14 武汉铁路职业技术学院 图像边缘检测方法、装置、计算机设备及存储介质
CN111968140A (zh) * 2020-06-24 2020-11-20 广西科技大学 基于经典感受野固视微动机制的轮廓检测方法
CN113255547A (zh) * 2021-06-03 2021-08-13 上海申瑞继保电气有限公司 电力仪表指针图像轮廓计算方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5422962A (en) * 1992-03-19 1995-06-06 Fujitsu Limited Method and apparatus for extracting line segments from an image of an object
US20090322871A1 (en) * 2008-06-26 2009-12-31 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system of sparse code based object classification with sensor fusion
US20140156574A1 (en) * 2012-11-30 2014-06-05 Brain Corporation Rate stabilization through plasticity in spiking neuron network
CN104484667A (zh) * 2014-12-30 2015-04-01 华中科技大学 一种基于亮度特征和轮廓完整性的轮廓提取方法
US9014481B1 (en) * 2014-04-22 2015-04-21 King Fahd University Of Petroleum And Minerals Method and apparatus for Arabic and Farsi font recognition
CN106033610A (zh) * 2016-03-22 2016-10-19 广西科技大学 基于非经典感受野空间总和调制的轮廓检测方法
CN106033608A (zh) * 2015-07-24 2016-10-19 广西科技大学 仿生物平滑跟踪眼动信息处理机制的目标轮廓检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5422962A (en) * 1992-03-19 1995-06-06 Fujitsu Limited Method and apparatus for extracting line segments from an image of an object
US20090322871A1 (en) * 2008-06-26 2009-12-31 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system of sparse code based object classification with sensor fusion
US20140156574A1 (en) * 2012-11-30 2014-06-05 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9014481B1 (en) * 2014-04-22 2015-04-21 King Fahd University Of Petroleum And Minerals Method and apparatus for Arabic and Farsi font recognition
CN104484667A (zh) * 2014-12-30 2015-04-01 华中科技大学 一种基于亮度特征和轮廓完整性的轮廓提取方法
CN106033608A (zh) * 2015-07-24 2016-10-19 广西科技大学 仿生物平滑跟踪眼动信息处理机制的目标轮廓检测方法
CN106033610A (zh) * 2016-03-22 2016-10-19 广西科技大学 基于非经典感受野空间总和调制的轮廓检测方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
CHUAN LIN 等: "Improved contour detection model with spatial summation properties based on nonclassical receptive field", 《JOURNAL OF ELECTRONIC IMAGING》 *
COSMIN GRIGORESCU 等: "Contour detection operators based on surround inhibition", 《PROCEEDINGS 2003 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 *
KAI-FU YANG 等: "Multifeature-Based Surround Inhibition Improves Contour Detection in Natural Images", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 *
LI LONG 等: "Contour Detection Based on the Property of Orientation Selective Inhibition of Nonclassical Receptive Field", 《2008 IEEE CONFERENCE ON CYBERNETICS AND INTELLIGENT SYSTEMS》 *
RONGCHANG ZHAO 等: "Orientation Histogram-Based Center-Surround Interaction: An Integration Approach for Contour Detection", 《NEURAL COMPUTATION》 *
TAE-YONG KIM 等: "Object Boundary Edge Selection Using Normal Direction Derivatives of a Contour in a Complex Scene", 《PROCEEDINGS OF THE 17TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 *
李康群 等: "基于视通路多感受野朝向性关联的轮廓检测方法", 《中国生物医药工程学报》 *
林川 等: "考虑微动机制与感受野特性的轮廓检测模型", 《计算机工程与应用》 *
许跃颖 等: "基于非经典感受野多尺度机制的图像分析方法", 《信息技术》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111080663A (zh) * 2019-12-30 2020-04-28 广西科技大学 一种基于动态感受野的仿生型轮廓检测方法
CN111080663B (zh) * 2019-12-30 2020-09-22 广西科技大学 一种基于动态感受野的仿生型轮廓检测方法
CN111161253A (zh) * 2019-12-31 2020-05-15 柳州快速制造工程技术有限公司 一种基于深度信息的模具检验方法
CN111161253B (zh) * 2019-12-31 2020-12-15 柳州快速制造工程技术有限公司 一种基于深度信息的模具检验方法
CN111539969A (zh) * 2020-04-23 2020-08-14 武汉铁路职业技术学院 图像边缘检测方法、装置、计算机设备及存储介质
CN111539969B (zh) * 2020-04-23 2023-06-09 武汉铁路职业技术学院 图像边缘检测方法、装置、计算机设备及存储介质
CN111968140A (zh) * 2020-06-24 2020-11-20 广西科技大学 基于经典感受野固视微动机制的轮廓检测方法
CN111968140B (zh) * 2020-06-24 2023-07-14 广西科技大学 基于经典感受野固视微动机制的轮廓检测方法
CN113255547A (zh) * 2021-06-03 2021-08-13 上海申瑞继保电气有限公司 电力仪表指针图像轮廓计算方法
CN113255547B (zh) * 2021-06-03 2024-02-09 上海申瑞继保电气有限公司 电力仪表指针图像轮廓计算方法

Also Published As

Publication number Publication date
CN107909593B (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
CN107909593A (zh) 基于感受野子区域的非方向选择性轮廓检测方法
CN107766866A (zh) 基于感受野子区域的方向选择性轮廓检测方法
CN107292310B (zh) 一种圆形指针式表盘视觉定位及自动读数方法
CN101763641B (zh) 一种模拟视觉机制的图像目标物体轮廓检测方法
CN103996018B (zh) 基于4dlbp的人脸识别方法
CN107767387B (zh) 基于可变感受野尺度全局调制的轮廓检测方法
CN108022233A (zh) 一种基于改进型Canny算子的工件边缘提取方法
CN105139388B (zh) 一种倾斜航空影像中建筑物立面损毁检测的方法和装置
CN107392929A (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
CN113012098B (zh) 一种基于bp神经网络的铁塔角钢冲孔缺陷检测方法
CN109489576A (zh) 一种基于初级视觉通路计算模型的轮廓检测方法
CN107463895A (zh) 基于邻域向量pca的弱小损伤目标检测方法
CN107871137A (zh) 一种基于图像识别的物料匹配方法
CN108090492B (zh) 基于尺度线索抑制的轮廓检测方法
CN106778541A (zh) 一种基于视觉的多层梁中外梁孔的识别与定位方法
CN115797361B (zh) 一种铝模板表面缺陷检测方法
CN107742302A (zh) 基于初级视皮层多尺度轮廓融合的轮廓检测方法
CN103778619A (zh) 一种基于Zernike矩的图像匹配方法
CN104463896B (zh) 基于核相似区分布特性的图像角点检测方法及系统
CN105718947A (zh) 基于lbp和小波矩融合特征的肺癌图像精细分类方法
CN102831445B (zh) 基于语义Hough变换和偏最小二乘法的目标检测方法
CN112270720B (zh) 一种基于二基点的标定板特征点自动排序方法
CN106504211A (zh) 基于改进surf特征匹配的低照度成像方法
CN109978898A (zh) 基于矢量场能量计算的轮廓检测方法
CN106340008A (zh) 基于特征值选择及svm参数优化的肺部影像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant