CN107909593A - 基于感受野子区域的非方向选择性轮廓检测方法 - Google Patents
基于感受野子区域的非方向选择性轮廓检测方法 Download PDFInfo
- Publication number
- CN107909593A CN107909593A CN201711084068.2A CN201711084068A CN107909593A CN 107909593 A CN107909593 A CN 107909593A CN 201711084068 A CN201711084068 A CN 201711084068A CN 107909593 A CN107909593 A CN 107909593A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- subregion
- pixel
- central area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明旨在提供一种基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:A、输入经灰度处理的待检测图像,计算各像素点的经典感受野刺激响应;B、在感受野中心区域外部构建一组环绕中心区域的圆形的子区域,各子区域相对于中心区域具有不同偏离角度;C、计算各像素点的中心区域的各方向的能量分布值以及各子区域的各方向的能量分布值;D、计算各像素点的中心区域‑子区域抑制权重以及子区域‑子区域抑制权重,进而得到各像素点的中心区域‑子区域抑制权值与子区域‑子区域抑制权值;F、计算各像素点的轮廓响应。该方法具有仿真效果好、轮廓识别率高的特点。
Description
技术领域
本发明涉及计算机图像处理领域,具体涉及一种基于感受野子区域的非方向选择性轮廓检测方法。
背景技术
轮廓检测是计算机视觉领域的一个基本任务,不同于被定义为强烈的亮度变化所表征的边缘,轮廓通常表示一个目标到其他目标的边界。提高轮廓检测性能的基本方法就是融合全局的信息,为了提高轮廓检测模型的性能,许多研究者尽力的去发现不同的视觉线索,包括亮度,颜色或者纹理信息。
现有方法会考虑多重的图像特征,例如亮度,纹理,并且使用统计和学习技术、活动轮廓、图论的方法构建了一个亮度,颜色和纹理通道的统计框架,并且用了一个逻辑回归分类器去预测边缘的可能性;进一步的还有的通过冲图像块中提取千个简单特征,用这些特征去学习一种概率提升树的分类器去做轮廓提取或是为了融合多尺度的信息使用局部轮廓线索:对比度、局部对比度以及局部位置去训练一个逻辑回归分类器来融合这些特征。
发明内容
本发明旨在提供一种具有仿真效果好、轮廓识别率高的特点。
本发明的技术方案如下:
一种基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行二维高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
B、预设圆形的感受野,将该感受野分为两个同心圆,圆形的中心区域为经典感受野,中心区域外的环形区域为非经典感受野;在非经典感受野内构建一组环绕中心区域分布的圆形的子区域,每一个子区域至少与其相邻的两个子区域相交;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
优选地,所述的步骤A具体为:
所述的二维高斯一阶函数如下:
其中γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θ,σ)| (2);
其中θi为方向参数中的某一方向;Nθ为方向参数的数量;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,...Nθ} (3)。
优选地,所述的步骤B中,所述的中心区域的圆心与任两个相邻的子区域的圆心连线所形成的夹角相等;
所述的子区域的直径为感受野半径与中心区域半径的差值,每一个子区域分别与其邻近的四个子区域相交。
优选地,所述的步骤B中,所述的中心区域的半径为2.5σ,所述的子区域的半径为3.75σ,所述的子区域的数量为Ns,所述的各个子区域中心的角度为k=1,2,...Ns,该角度为以Y轴正半轴为起点,逆时针旋转的角度。
优选地,所述的步骤C具体为:
所述的各像素点的各方向的能量值为
其中
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
各像素点各子区域的各方向的能量分布值Esi(x,y)为:
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfj和NAsfj分别表示某个子区域以及该子区域内的像素点个数。
优选地,所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
其中是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
各像素点的子区域-子区域抑制权重SS(x,y)为:
其中为各个子区域的||Esj(x,y)||1值的平均值。
优选地,所述的步骤E具体为:
中心区域-子区域抑制权值为:
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差;
子区域-子区域抑制权值为:
其中,σss为SS(x,y)的标准差。
优选地,各像素点的非经典感受野刺激响应Inhu(x,y)为:
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
本发明轮廓检测方法考虑了感受野中心区域的响应与其外部的非经典感受野区域的抑制响应,其中感受野中心区域的响应能够对需识别的边缘轮廓进行保护,降低了漏识别率,保证轮廓检测质量;
而非经典感受野区域的抑制影响包括中心区域-子区域抑制权值与子区域-子区域抑制权值;中心区域-子区域抑制权值能够有效地抑制常规纹理,减低错误识别率;而对于图像中的密集纹理以及被纹理包裹的孤立无用的边缘,子区域-子区域抑制权值能够给予很好的抑制效果;将中心区域-子区域抑制权值与子区域-子区域抑制权值进行结合作为非经典感受野区域的抑制响应,能够完善对各类纹理的抑制,弥补前述抑制的不足;综上,对边缘的保护和纹理抑制进行兼顾,使得运算结果更为符合人眼感受野的生理特性,轮廓识别的效率和正确率更高;
并且,结合感受野中心区域的方向显著度进行考量,考虑了人眼感受野特性的生物学原理,较高的方向显著度往往意味着该处存在轮廓,因此,结合感受野中心区域的方向显著度能够进一步提高的轮廓检测的正确率。
附图说明
图1为基于感受野子区域的非方向选择性轮廓检测方法的感受野子区域划分示意图;
图2为实施例1与文献方法的轮廓识别对比图。
具体实施方式
下面结合附图和实施例具体说明本发明。
实施例1
本实施例提供的基于感受野子区域的非方向选择性轮廓检测方法,包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
所述的步骤A具体为:
所述的高斯一阶函数如下:
其中γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θ,σ)| (2);
其中i=1,2,...Nθ;θi为方向参数中的某一方向;Nθ为方向参数的数量;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,...Nθ} (3);
B、在感受野中心区域外部构建一组环绕中心区域的圆形的子区域,各子区域相对于中心区域具有不同偏离角度;如图1所示为感受野中心区域以及其外部子区域的示意图,图中中心的实心圆为中心区域,外围的虚线圆为各个子区域;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
所述的步骤C具体为:
所述的各像素点的各方向的能量值为
其中
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
各像素点各子区域的各方向的能量分布值Esi(x,y)为:
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfj和NAsfj分别表示某个子区域以及该子区域内的像素点个数;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
其中是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
各像素点的子区域-子区域抑制权重SS(x,y)为:
其中μEs为各个子区域的||Esj(x,y)||1值的平均值;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
所述的步骤E具体为:
中心区域-子区域抑制权值为:
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差参数;
子区域-子区域抑制权值为:
其中,σss为SS(x,y)的标准差参数;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图;
所述的步骤F具体为:
各像素点的非经典感受野刺激响应Inhu(x,y)为:
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
下面将本实施例的轮廓检测方法与文献1提供的轮廓检测各项同性模型进行有效性对比,文献1如下:
文献1:K.-F.Yang,C.-Y.Li,and Y.-J.Li,"Multifeature-based surroundinhibition improves contour detection in natural images,"IEEE Transactions onImage Processing,vol.23,pp.5020-5032,2014.;
为保证对比的有效性,对于本实施例采用与文献1中相同的非极大值抑制和双阈值处理,其中包含的两个阈值th,tl设置为tl=0.5th,由阈值分位数p计算而得;
其中性能评价指标P采用文献1中给出的如下标准:
式中nTP、nFP、nFN分别表示检测得到的正确轮廓、错误轮廓以及遗漏的轮廓的数目,评测指标P取值在[0,1]之间,越接近1表示轮廓检测的效果越好,另外,定义容忍度为:在5*5的邻域内检测到的都算正确检测;
选取熊、大象、山羊3副经典图像进行有效性对比,分别采用文献1中的各项同性模型以及实施例1方法对上述3幅图进行轮廓检测,其中实施例1方法选用的参数组如表1所示,
表1实施例1参数组表
文献1中的各项同性模型采用如下80组参数:α={1.0,1.2},σ={1.4,1.6,1.8,2.0,2.2,2.4,2.6,2.8},p={0.5,0.4,0.3,0.2,0.1};
如图2所示为分别为熊、大象、山羊3副经典图像的原图、实际轮廓图、文献1方法检测的最优轮廓,实施例1方法检测的最优轮廓;如表1所示为上述3幅图像的文献1方法检测的的最优P值与实施例1方法检测的的最优P值;
表1P值对比图
从上述结果可以看出,不论从轮廓提取的效果上还是从性能指标参数上看,实施例1方法均优于文献1中的各项同性模型。
Claims (8)
1.一种基于感受野子区域的非方向选择性轮廓检测方法,其特征在于包括以下步骤:
A、输入经灰度处理的待检测图像,预设抑制强度,预设均分圆周的多个方向参数,对待检测图像中的各像素点分别按照各方向参数进行二维高斯一阶滤波,获得各像素点的各方向的响应值;对于各像素点,选取其各方向的响应值中的最大值,作为该像素点的经典感受野刺激响应;
B、预设圆形的感受野,将该感受野分为两个同心圆,圆形的中心区域为经典感受野,中心区域外的环形区域为非经典感受野;在非经典感受野内构建一组环绕中心区域分布的圆形的子区域,每一个子区域至少与其相邻的两个子区域相交;
C、将各像素点的各方向的响应值进行高斯滤波后得到各像素点的各方向的能量值;
对于各像素点:在以该像素点为中心的感受野中,将中心区域内各像素点的各方向的能量值分别除以中心区域内的像素点个数并求和得到该像素点中心区域的各方向的能量分布值;将各子区域内各像素点的各方向的能量值分别除以该子区域内的像素点个数并求和得到该像素点各子区域的各方向的能量分布值;
D、对于各像素点:计算各子区域的各方向的能量分布值与中心区域的对应方向的能量分布值的差值,对该差值进行L1正则化之后进行求和,得到该像素点的中心区域-子区域能量分布差值;
对中心区域的各方向的能量分布值计算方差,得到该像素点中心区域的能量方向显著度;
将中心区域-子区域能量分布差值与该像素点中心区域的能量方向显著度相乘,得到该像素点的中心区域-子区域抑制权重;
将该像素点各子区域的各方向的能量分布值进行L1正则化之后计算标准差,得到该像素点的子区域-子区域抑制权重;
E、对于各像素点:将像素点的中心区域-子区域抑制权重与子区域-子区域抑制权重分别进行径向基函数计算之后分别得到中心区域-子区域抑制权值与子区域-子区域抑制权值;
F、对于各像素点:将中心区域-子区域抑制权值与子区域-子区域抑制权值相加得到该像素点的非经典感受野刺激响应;将该像素点的经典感受野刺激响应减去非经典感受野刺激响应与抑制强度的乘积,得到该像素点的轮廓响应,对轮廓响应使用非极大值抑制和双阈值处理,得到各像素点的最终轮廓值,进而得到最终轮廓图。
2.如权利要求1所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤A具体为:
所述的二维高斯一阶函数如下:
<mrow>
<mi>G</mi>
<mi>D</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>;</mo>
<mi>&theta;</mi>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mo>-</mo>
<mover>
<mi>x</mi>
<mo>~</mo>
</mover>
</mrow>
<mrow>
<msup>
<mi>&sigma;</mi>
<mn>3</mn>
</msup>
<msqrt>
<mrow>
<mn>2</mn>
<mi>&pi;</mi>
</mrow>
</msqrt>
</mrow>
</mfrac>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mrow>
<msup>
<mover>
<mi>x</mi>
<mo>~</mo>
</mover>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&gamma;</mi>
<msup>
<mover>
<mi>y</mi>
<mo>~</mo>
</mover>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中γ=0.5,σ为尺度,θ为角度参数;
所述的各像素点的各方向的响应值ei(x,y;θi,σ)为:
ei(x,y;θi,σ)=|I(x,y)*GD(x,y;θ,σ)| (2);
其中θi为方向参数中的某一方向;Nθ为方向参数的数量;
各像素点的经典感受野刺激响应CRF(x,y;σ)为:
CRF(x,y;σ)=max{ei(x,y;θi,σ)|i=1,2,...Nθ} (3)。
3.如权利要求2所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤B中,所述的中心区域的圆心与任两个相邻的子区域的圆心连线所形成的夹角相等;
所述的子区域的直径为感受野半径与中心区域半径的差值,每一个子区域分别与其邻近的四个子区域相交。
4.如权利要求2所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤B中,所述的中心区域的半径为2.5σ,所述的子区域的半径为3.75σ,所述的子区域的数量为Ns,所述的各个子区域中心的角度为该角度为以Y轴正半轴为起点,逆时针旋转的角度。
5.如权利要求4所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤C具体为:
所述的各像素点的各方向的能量值为
<mrow>
<msub>
<mover>
<mi>e</mi>
<mo>&OverBar;</mo>
</mover>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>e</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>*</mo>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>;</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中
将各像素点的各方向的能量值构成向量得到能量矩阵E(x,y);
<mrow>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mo>&lsqb;</mo>
<msub>
<mover>
<mi>e</mi>
<mo>&OverBar;</mo>
</mover>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<msub>
<mover>
<mi>e</mi>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>...</mo>
<msub>
<mover>
<mi>e</mi>
<mo>&OverBar;</mo>
</mover>
<msub>
<mi>N</mi>
<mi>&theta;</mi>
</msub>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>;</mo>
<msub>
<mi>&theta;</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
各像素点中心区域的各方向的能量分布值Ec(x,y)为:
<mrow>
<msub>
<mi>E</mi>
<mi>c</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
<mo>&Element;</mo>
<msub>
<mi>A</mi>
<mrow>
<mi>c</mi>
<mi>r</mi>
<mi>f</mi>
</mrow>
</msub>
</mrow>
</msub>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>/</mo>
<msub>
<mi>N</mi>
<mrow>
<mi>A</mi>
<mi>c</mi>
<mi>r</mi>
<mi>f</mi>
</mrow>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
各像素点各子区域的各方向的能量分布值Esi(x,y)为:
<mrow>
<msub>
<mi>E</mi>
<mrow>
<mi>s</mi>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
<mo>&Element;</mo>
<msub>
<mi>A</mi>
<mrow>
<mi>s</mi>
<mi>f</mi>
<mi>f</mi>
</mrow>
</msub>
</mrow>
</msub>
<mi>E</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>/</mo>
<msub>
<mi>N</mi>
<mrow>
<mi>A</mi>
<mi>s</mi>
<mi>f</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
</mrow>
其中Acrf和NAcrf分别表示中心区域以及中心区域内的像素点个数;Asfj和NAsfj分别表示某个子区域以及该子区域内的像素点个数。
6.如权利要求5所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤D具体为:
各像素点的中心区域-子区域能量分布差值ΔENS(x,y)为:
<mrow>
<msub>
<mi>&Delta;E</mi>
<mrow>
<mi>N</mi>
<mi>S</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<mi>S</mi>
</msub>
</msubsup>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>E</mi>
<mi>c</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>E</mi>
<mrow>
<mi>s</mi>
<mi>i</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中||·||1为L1正则化范数;
各像素点中心区域的能量方向显著度Dc(x,y)为:
<mrow>
<msub>
<mi>D</mi>
<mi>c</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>N</mi>
<mi>&theta;</mi>
</msub>
</mfrac>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<mi>&theta;</mi>
</msub>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>E</mi>
<mi>c</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<msub>
<mi>E</mi>
<mi>c</mi>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中是Ec(x,y)的各方向值的平均值;
各像素点的中心区域-子区域抑制权重CS(x,y)为:
各像素点的子区域-子区域抑制权重SS(x,y)为:
<mrow>
<mi>S</mi>
<mi>S</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>N</mi>
<mi>S</mi>
</msub>
</mfrac>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<mi>S</mi>
</msub>
</msubsup>
<msup>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>E</mi>
<mrow>
<mi>s</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>|</mo>
<msub>
<mo>|</mo>
<mn>1</mn>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<msub>
<mi>E</mi>
<mi>s</mi>
</msub>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中为各个子区域的||Esj(x,y)||1值的平均值。
7.如权利要求6所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
所述的步骤E具体为:
中心区域-子区域抑制权值为:
<mrow>
<mover>
<mrow>
<mi>C</mi>
<mi>S</mi>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>N</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>CS</mi>
<mi>u</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mn>2</mn>
<msup>
<msub>
<mi>&sigma;</mi>
<mrow>
<mi>c</mi>
<mi>s</mi>
</mrow>
</msub>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>12</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中N(x)=min(1,max(0,x)),该函数保证输出值在[0,1]区间,σcs为CS(x,y)的标准差;
子区域-子区域抑制权值为:
<mrow>
<mover>
<mrow>
<mi>S</mi>
<mi>S</mi>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mrow>
<mi>S</mi>
<mi>S</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mn>2</mn>
<msup>
<msub>
<mi>&sigma;</mi>
<mrow>
<mi>s</mi>
<mi>s</mi>
</mrow>
</msub>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>13</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中,σss为SS(x,y)的标准差。
8.如权利要求7所述的基于感受野子区域的非方向选择性轮廓检测方法,其特征在于:
各像素点的非经典感受野刺激响应Inhu(x,y)为:
<mrow>
<msub>
<mi>Inh</mi>
<mi>u</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mover>
<mrow>
<mi>C</mi>
<mi>S</mi>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mover>
<mrow>
<mi>S</mi>
<mi>S</mi>
</mrow>
<mo>&OverBar;</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>14</mn>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
各像素点的轮廓响应Ru(x,y)为:
Ru(x,y)=H(CRF(x,y;σ)-αInhu(x,y)) (15);
其中H(x)=max(0,x),α为抑制强度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711084068.2A CN107909593B (zh) | 2017-11-07 | 2017-11-07 | 基于感受野子区域的非方向选择性轮廓检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711084068.2A CN107909593B (zh) | 2017-11-07 | 2017-11-07 | 基于感受野子区域的非方向选择性轮廓检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107909593A true CN107909593A (zh) | 2018-04-13 |
CN107909593B CN107909593B (zh) | 2020-05-05 |
Family
ID=61842698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711084068.2A Active CN107909593B (zh) | 2017-11-07 | 2017-11-07 | 基于感受野子区域的非方向选择性轮廓检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107909593B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111080663A (zh) * | 2019-12-30 | 2020-04-28 | 广西科技大学 | 一种基于动态感受野的仿生型轮廓检测方法 |
CN111161253A (zh) * | 2019-12-31 | 2020-05-15 | 柳州快速制造工程技术有限公司 | 一种基于深度信息的模具检验方法 |
CN111539969A (zh) * | 2020-04-23 | 2020-08-14 | 武汉铁路职业技术学院 | 图像边缘检测方法、装置、计算机设备及存储介质 |
CN111968140A (zh) * | 2020-06-24 | 2020-11-20 | 广西科技大学 | 基于经典感受野固视微动机制的轮廓检测方法 |
CN113255547A (zh) * | 2021-06-03 | 2021-08-13 | 上海申瑞继保电气有限公司 | 电力仪表指针图像轮廓计算方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5422962A (en) * | 1992-03-19 | 1995-06-06 | Fujitsu Limited | Method and apparatus for extracting line segments from an image of an object |
US20090322871A1 (en) * | 2008-06-26 | 2009-12-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system of sparse code based object classification with sensor fusion |
US20140156574A1 (en) * | 2012-11-30 | 2014-06-05 | Brain Corporation | Rate stabilization through plasticity in spiking neuron network |
CN104484667A (zh) * | 2014-12-30 | 2015-04-01 | 华中科技大学 | 一种基于亮度特征和轮廓完整性的轮廓提取方法 |
US9014481B1 (en) * | 2014-04-22 | 2015-04-21 | King Fahd University Of Petroleum And Minerals | Method and apparatus for Arabic and Farsi font recognition |
CN106033610A (zh) * | 2016-03-22 | 2016-10-19 | 广西科技大学 | 基于非经典感受野空间总和调制的轮廓检测方法 |
CN106033608A (zh) * | 2015-07-24 | 2016-10-19 | 广西科技大学 | 仿生物平滑跟踪眼动信息处理机制的目标轮廓检测方法 |
-
2017
- 2017-11-07 CN CN201711084068.2A patent/CN107909593B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5422962A (en) * | 1992-03-19 | 1995-06-06 | Fujitsu Limited | Method and apparatus for extracting line segments from an image of an object |
US20090322871A1 (en) * | 2008-06-26 | 2009-12-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system of sparse code based object classification with sensor fusion |
US20140156574A1 (en) * | 2012-11-30 | 2014-06-05 | Brain Corporation | Rate stabilization through plasticity in spiking neuron network |
US9014481B1 (en) * | 2014-04-22 | 2015-04-21 | King Fahd University Of Petroleum And Minerals | Method and apparatus for Arabic and Farsi font recognition |
CN104484667A (zh) * | 2014-12-30 | 2015-04-01 | 华中科技大学 | 一种基于亮度特征和轮廓完整性的轮廓提取方法 |
CN106033608A (zh) * | 2015-07-24 | 2016-10-19 | 广西科技大学 | 仿生物平滑跟踪眼动信息处理机制的目标轮廓检测方法 |
CN106033610A (zh) * | 2016-03-22 | 2016-10-19 | 广西科技大学 | 基于非经典感受野空间总和调制的轮廓检测方法 |
Non-Patent Citations (9)
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111080663A (zh) * | 2019-12-30 | 2020-04-28 | 广西科技大学 | 一种基于动态感受野的仿生型轮廓检测方法 |
CN111080663B (zh) * | 2019-12-30 | 2020-09-22 | 广西科技大学 | 一种基于动态感受野的仿生型轮廓检测方法 |
CN111161253A (zh) * | 2019-12-31 | 2020-05-15 | 柳州快速制造工程技术有限公司 | 一种基于深度信息的模具检验方法 |
CN111161253B (zh) * | 2019-12-31 | 2020-12-15 | 柳州快速制造工程技术有限公司 | 一种基于深度信息的模具检验方法 |
CN111539969A (zh) * | 2020-04-23 | 2020-08-14 | 武汉铁路职业技术学院 | 图像边缘检测方法、装置、计算机设备及存储介质 |
CN111539969B (zh) * | 2020-04-23 | 2023-06-09 | 武汉铁路职业技术学院 | 图像边缘检测方法、装置、计算机设备及存储介质 |
CN111968140A (zh) * | 2020-06-24 | 2020-11-20 | 广西科技大学 | 基于经典感受野固视微动机制的轮廓检测方法 |
CN111968140B (zh) * | 2020-06-24 | 2023-07-14 | 广西科技大学 | 基于经典感受野固视微动机制的轮廓检测方法 |
CN113255547A (zh) * | 2021-06-03 | 2021-08-13 | 上海申瑞继保电气有限公司 | 电力仪表指针图像轮廓计算方法 |
CN113255547B (zh) * | 2021-06-03 | 2024-02-09 | 上海申瑞继保电气有限公司 | 电力仪表指针图像轮廓计算方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107909593B (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107909593A (zh) | 基于感受野子区域的非方向选择性轮廓检测方法 | |
CN107766866A (zh) | 基于感受野子区域的方向选择性轮廓检测方法 | |
CN107292310B (zh) | 一种圆形指针式表盘视觉定位及自动读数方法 | |
CN101763641B (zh) | 一种模拟视觉机制的图像目标物体轮廓检测方法 | |
CN103996018B (zh) | 基于4dlbp的人脸识别方法 | |
CN107767387B (zh) | 基于可变感受野尺度全局调制的轮廓检测方法 | |
CN108022233A (zh) | 一种基于改进型Canny算子的工件边缘提取方法 | |
CN105139388B (zh) | 一种倾斜航空影像中建筑物立面损毁检测的方法和装置 | |
CN107392929A (zh) | 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法 | |
CN113012098B (zh) | 一种基于bp神经网络的铁塔角钢冲孔缺陷检测方法 | |
CN109489576A (zh) | 一种基于初级视觉通路计算模型的轮廓检测方法 | |
CN107463895A (zh) | 基于邻域向量pca的弱小损伤目标检测方法 | |
CN107871137A (zh) | 一种基于图像识别的物料匹配方法 | |
CN108090492B (zh) | 基于尺度线索抑制的轮廓检测方法 | |
CN106778541A (zh) | 一种基于视觉的多层梁中外梁孔的识别与定位方法 | |
CN115797361B (zh) | 一种铝模板表面缺陷检测方法 | |
CN107742302A (zh) | 基于初级视皮层多尺度轮廓融合的轮廓检测方法 | |
CN103778619A (zh) | 一种基于Zernike矩的图像匹配方法 | |
CN104463896B (zh) | 基于核相似区分布特性的图像角点检测方法及系统 | |
CN105718947A (zh) | 基于lbp和小波矩融合特征的肺癌图像精细分类方法 | |
CN102831445B (zh) | 基于语义Hough变换和偏最小二乘法的目标检测方法 | |
CN112270720B (zh) | 一种基于二基点的标定板特征点自动排序方法 | |
CN106504211A (zh) | 基于改进surf特征匹配的低照度成像方法 | |
CN109978898A (zh) | 基于矢量场能量计算的轮廓检测方法 | |
CN106340008A (zh) | 基于特征值选择及svm参数优化的肺部影像识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |