CN111402285B - 一种基于视觉机制暗边缘增强的轮廓检测方法 - Google Patents

一种基于视觉机制暗边缘增强的轮廓检测方法 Download PDF

Info

Publication number
CN111402285B
CN111402285B CN202010049327.3A CN202010049327A CN111402285B CN 111402285 B CN111402285 B CN 111402285B CN 202010049327 A CN202010049327 A CN 202010049327A CN 111402285 B CN111402285 B CN 111402285B
Authority
CN
China
Prior art keywords
response
contour
primary
information
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010049327.3A
Other languages
English (en)
Other versions
CN111402285A (zh
Inventor
范影乐
陈树楠
武薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010049327.3A priority Critical patent/CN111402285B/zh
Publication of CN111402285A publication Critical patent/CN111402285A/zh
Application granted granted Critical
Publication of CN111402285B publication Critical patent/CN111402285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于视觉机制暗边缘增强的轮廓检测方法。本发明首先模拟视网膜感光细胞响应特性,提出一种基于局部亮度特征的暗视野调节模型;然后结合神经节细胞经典感受野的尺度朝向特性,获取初级轮廓响应,并利用主成分分析法提取全局轮廓信息;随后当视网膜神经节信号传递至外膝体时,模拟非经典感受野的侧抑制作用,并进一步引入神经元稀疏响应特性,协同抑制初级轮廓的背景强纹理;通过模拟微动信息对轮廓感知理解的增强作用,从而减少背景弱纹理,再利用适应性动态突触将外膝体脉冲响应输出传递至初级视皮层;最后将初级轮廓响应经全局轮廓信息修正后,与初级视皮层响应输出快速融合,生成更为精确有效的轮廓检测结果。

Description

一种基于视觉机制暗边缘增强的轮廓检测方法
技术领域
本发明涉及视觉机制和图像处理领域,具体涉及一种基于视觉机制暗边缘增强的轮廓检测方法。
背景技术
轮廓信息作为图像目标的一种低维视觉特征,不仅将显著影响到后续图像分析和理解的准确性,而且对从输入层级降低系统的复杂性也具有重要意义。传统的轮廓检测方法往往难以实现具有纹理干扰的图像目标轮廓定位,尤其对于弱对比度或暗边缘占较大比例的图像,纹理抑制同时会丢失大量真实轮廓信息。
随着视觉生理实验和计算神经学的发展,基于视觉机制各种计算模型被广泛应用于图像轮廓提取。例如有研究模拟视网膜神经节细胞,构建高斯差分算子(Difference ofGaussian,DOG)描述其中心-外周式的感受野形态。还有研究在各向同性抑制和各向异性抑制模型的基础上,进一步考虑亮度、角度等多特征对非经典感受野(non-classicalreceptive field,NCRF)抑制强度的影响,有效地抑制了部分背景纹理。也有研究引入非经典感受野对经典感受野(classical receptive field,CRF)的调制机制,改善对视觉信息流的检测作用,验证了感受野中心与外周区间存在一定约束性。此外也有研究从神经脉冲发放传递角度出发,对接收信号进行神经元模型编码,分别经ON和OFF型感受野作用后,利用突触传递的动态可塑性和视觉皮层区的方向选择性,完成轮廓特征检测。但必须需要指出的是,上述基于视觉神经计算模型的轮廓提取方法,通常只考虑了主视通路上的部分传递响应过程,忽略了视网膜对暗边缘刺激的调节作用,并且简化了主视通路单一节点的多层次处理能力。此外,它们也并未考虑前级节点对视皮层区的跨视区调制作用,弱化了视觉信息流在视通路中的交互联系,降低了视觉系统对图像轮廓信息的表达理解能力。
发明内容
本发明针对现有技术的不足,提出一种视觉机制暗边缘增强的轮廓检测方法。从视通路生理模型出发,首先在视网膜环节,提出一种暗视野自适应调节机制,增强图像暗细节边缘的相对响应强度,根据视网膜神经节经典感受野的多尺度朝向特性,获取初级轮廓响应并利用主成分分析法提取全局轮廓信息;当视觉信息流传递至外膝体时,模拟非经典感受野的侧抑制作用,并进一步引入神经元稀疏响应特性,协同抑制初级轮廓的背景强纹理;为模拟外膝体对微动信息的整合作用,提出一种微动信息快速整合方法,加强轮廓感知,减少背景弱纹理,再采用适应性动态突触将外膝体脉冲响应输出传递至初级视皮层(V1)区;最后利用跨视区的神经响应前馈机制,对初级轮廓响应进行全局轮廓信息修正后,与V1区响应快速融合,实现显著轮廓的检测与提取。具体包含以下步骤:
步骤1:模拟视网膜暗视野调节机制,对输入图像I(x,y)进行处理,得到暗视野调节响应Irod(x,y)。首先获取图像I(x,y)的亮度通道L(x,y),计算L(x,y) 归一化后的局部亮度平均值Lavg(x,y);然后利用改进的Sigmoid函数对Lavg(x,y) 进行激活约束,计算得到尺度参数σ(x,y),具体如式(1)~(4)所示。
式中(x,y)表示图像的二维坐标,(xm,yn)表示图像局部窗口Sxy,以(x,y)为中心原点,d为窗长,r=(d-1)/2为半径内的坐标位置,m,n∈[1,d],设置d=7;ω(xm,yn)为Sxy内的余弦权重函数;为窗口Sxy内的权重总和,mean(·)和max(·)分别表示均值计算和均值集合的最大值计算,∪表示Sxy内的像素集合,×表示乘法运算,下同;以d为步长,计算亮度通道L(x,y)在各Sxy内的均值,取均值的极大值,记为Lmax
再采用归一化的去中心高斯函数与Sxy内的I(xm,yn)相乘求和,得到调节因子Wrod(x,y),将其与输入图像I(x,y)融合得到暗视野调节响应 Irod(x,y),具体如式(5)~(7)所示:
其中Imax和Imin分别为I(x,y)的最大值与最小值。
步骤2:根据神经节细胞以及更高级组织细胞的经典感受野的朝向特性,引入二维高斯导函数,计算单尺度条件下的初级轮廓响应E1(x,y),以及多尺度条件下的全局轮廓信息E2(x,y)。具体实现过程如下:
首先计算Irod(x,y)在Nθ个朝向方位下的神经节经典感受野响应 ei(x,y;θiCRF),取所有方位的最大值得到初级轮廓响应E1(x,y),具体如式(8) ~(10)所示:
E1(x,y)=max{ei(x,y;θiCRF)|i=1,2,...,Nθ} (10)
式中|·|表示取绝对值运算,g表示二维高斯函数,下同;σCRF表示神经节细胞经典感受野的单尺度,γ表示感受野的椭圆率,θi表示朝向,max(·)表示计算最大方位响应,*为卷积运算符,下同;默认设置σCRF=1.5,Nθ=8,γ=0.5。
然后考虑视通路经典感受野的多尺度特性,计算Irod(x,y)在Nσ个尺度下的 Nθ个朝向方位响应eij(x,y;θij),其中θi和σj分别表示经典感受野的第i个朝向和第j个尺度;接着利用主成分分析法对eij(x,y;θij)进行降维处理,提取i×j 个成分分量Ps,并取Ps的最大值,得到具有多尺度多朝向特征的全局轮廓信息 E2(x,y),如式(11)和(12)所示:
E2(x,y)=max(Ps|s=1,2,...,i×j) (12)
其中σj默认取值为[1.5:0.5:4.0],s表示成分分量的序号。
步骤3:视觉信息流传递至外膝体时,在非经典感受野的侧抑制作用下,引入神经元的稀疏特性,实现对初级轮廓响应E1(x,y)的背景纹理协同抑制。
具体实现过程如下:
首先计算初级轮廓响应E1(x,y)的稀疏度sparsity(x,y)和变异系数cv(x,y),将两者融合后达到刻画强纹理区域的作用,如式(13)~(15)所示:
f(x,y)=sparsity(x,y)×cv(x,y) (15)
其中δ2(x,y)和μ(x,y)分别表示局部窗口Sxy内E1(x,y)的方差和均值,表示为局部窗口Sxy内的直方图,n是/>的维度,||·||p指p范数,f(x,y)为E1(x,y) 强纹理区域的稀疏表达式。
然后采用各向同性抑制方法减弱纹理,如式(16)所示:
式中DoG(x,y)表示高斯差函数,经半波整流后得到DoG+(x,y);b(x,y)表示纹理抑制项,由初级轮廓响应E1(x,y)与距离抑制权重卷积获得。
最后计算得到经纹理抑制后的轮廓信息C(x,y;α),如式(17)所示:
其中α表示对纹理的抑制强度,取值范围为[0,1],resize表示双线性插值运算。
步骤4:对步骤3的轮廓信息C(x,y;α)进行神经元动态传递编码,并经动态突触Wsynapse传递至初级视皮层V1区,获得输出响应IV1(x,y)。具体实现过程如下:
首先利用考虑绝对不应期的LIF(Leaky Integrate and Fire neurons) 漏放电积分模型,对C(x,y;α)进行脉冲频率编码,计算得到脉冲激励响应 IFires(x,y)。
然后构建微动信息快速整合模型,抑制弱纹理区域神经脉冲发放,如式(18) 和(19)所示:
式中表示微动信息的神经元响应,θi表示由pi和qi所确定的8个微动方向,pi和qi的可能取值对为{(1,0),(1,1),(0,1),(-1,1),(-1,0),(-1,-1),(0,-1),(1,-1)},[·] 表示向下取整,dx和dy分别代表水平和竖直方向的微动量,默认设置为5个像素大小,Imove(x,y)表示微动信息整合后的脉冲频率响应。
针对神经元间动作电位序列的相互关系,采用适应性动态突触Wsynapse(x,y) 将脉冲响应Imove(x,y)传递至V1区,如式(20)和(21)所示:
IV1(x,y)=Imove(x,y)*Wsynapse(x,y) (21)
式中,Wconst表示突触权重常量,默认设置为1,(xc,yc)表示群体感受野中心神经元位置,|Imove(x,y)-Imove(xc,yc)|表示群体感受野周边神经元与中心神经元的脉冲频率差异,△Imove表示群体感受野内脉冲频率响应的最大差值,IV1(x,y)表示V1区的响应输出。
步骤5:计算经跨视区前馈融合后的轮廓响应。具体实现过程如下:将步骤2得到的初级轮廓响应E1(x,y)直接前馈至V1区后,与全局轮廓信息E2(x,y) 融合后,将步骤4得到的脉冲响应IV1(x,y)进一步融合,从而得到最终轮廓响应,记为SE(x,y),如式(22)所示:
SE(x,y)=(E1(x,y)+E2(x,y))×IV1(x,y) (22)。
本发明具有的有益效果为:
1.提出了一种模拟视网膜光感受器的暗视野调节计算模型。利用去中心高斯函数对输入图像进行处理,模拟感光细胞对光刺激的响应作用。考虑到亮度信息对感光细胞敏感强度的影响,本发明构建了一种基于亮度特征的局部尺度自适应计算模型,加强对暗视野的敏锐感知作用,改善图像的暗边缘相对响应强度。
2.提出了一种结合外膝体非经典感受野侧抑制作用与神经元稀疏编码的纹理抑制新模型。基于外膝体细胞的神经稀疏特性,引入变异系数改善稀疏编码方式,再利用各向同性抑制模拟非经典感受野侧抑制作用,将两者整合实现在初级轮廓响应保留更多细节的前提下,增强背景强纹理的抑制效果。
3.提出一种模拟外膝体神经元动态传递的新模型。考虑到微动对轮廓感知的强化作用,构建基于微动视觉特征的细纹理抑制模型,进一步抑制背景纹理细节,引入自适应动态突触对激励响应的传递,提高V1区对响应输出的差异性理解,强化轮廓信息。
4.提出了一种基于初级视觉通路计算模型的轮廓检测新方法。首先利用基于亮度特征的去中心动态高斯函数计算模型,模拟视网膜感光细胞的暗视野敏感特性;然后利用经典感受野的方向选择特性,模拟视网膜神经节细胞对目标的初级轮廓感知;接着在外侧膝状体区域提出一种结合空间尺度稀疏编码与非经典感受野侧抑制作用的纹理抑制方案,实现对初级轮廓响应的背景纹理过滤;再构建LIF神经元网络,利用 LGN神经元动态响应模型,整合多方向微动信息流,进一步加强背景细纹理抑制,并将脉冲响应输出经突触动态传递至V1区;最后利用跨视区的信息前馈路径,实现初级视皮层对显著轮廓的快速认知。
附图说明
图1为本发明的暗视野调节计算模型示意图;
图2为本发明的自然图像轮廓检测流程图。
具体实施方式
下面结合附图来说明本发明的具体实施过程,附图1为本发明的暗视野调节计算模型示意图,附图2为本发明的自然图像轮廓检测流程图。
步骤1:模拟视网膜暗视野调节机制,对输入图像I(x,y)进行处理,得到暗视野调节响应Irod(x,y)。首先获取图像I(x,y)的亮度通道L(x,y),计算L(x,y) 归一化后的局部亮度平均值Lavg(x,y);然后利用改进的Sigmoid函数对Lavg(x,y) 进行激活约束,计算得到尺度参数σ(x,y),具体如式(1)~(4)所示。
式中(x,y)表示图像的二维坐标,(xm,yn)表示图像局部窗口Sxy,以(x,y)为中心原点,d为窗长,r=(d-1)/2为半径内的坐标位置,m,n∈[1,d],设置d=7;ω(xm,yn)为Sxy内的余弦权重函数;为窗口Sxy内的权重总和,mean(·)和max(·)分别表示均值计算和均值集合的最大值计算,∪表示Sxy内的像素集合,×表示乘法运算,下同;以d为步长,计算亮度通道L(x,y) 在各Sxy内的均值,取均值的极大值,记为Lmax
再采用归一化的去中心高斯函数与Sxy内的I(xm,yn)相乘求和,得到调节因子Wrod(x,y),将其与输入图像I(x,y)融合得到暗视野调节响应 Irod(x,y),具体如式(5)~(7)所示:
其中Imax和Imin分别为I(x,y)的最大值与最小值。
步骤2:根据神经节细胞以及更高级组织细胞的经典感受野的朝向特性,引入二维高斯导函数,计算单尺度条件下的初级轮廓响应E1(x,y),以及多尺度条件下的全局轮廓信息E2(x,y)。具体实现过程如下:
首先计算Irod(x,y)在Nθ个朝向方位下的神经节经典感受野响应 ei(x,y;θiCRF),取所有方位的最大值得到初级轮廓响应E1(x,y),具体如式(8) ~(10)所示:
E1(x,y)=max{ei(x,y;θiCRF)|i=1,2,...,Nθ} (10)
式中|·|表示取绝对值运算,g表示二维高斯函数,下同;σCRF表示神经节细胞经典感受野的单尺度,γ表示感受野的椭圆率,θi表示朝向,max(·)表示计算最大方位响应,*为卷积运算符,下同;默认设置σCRF=1.5,Nθ=8,γ=0.5。
然后考虑视通路经典感受野的多尺度特性,计算Irod(x,y)在Nσ个尺度下的 Nθ个朝向方位响应eij(x,y;θij),其中θi和σj分别表示经典感受野的第i个朝向和第j个尺度;接着利用主成分分析法对eij(x,y;θij)进行降维处理,提取i×j 个成分分量Ps,并取Ps的最大值,得到具有多尺度多朝向特征的全局轮廓信息 E2(x,y),如式(11)和(12)所示:
E2(x,y)=max(Ps|s=1,2,...,i×j) (12)
其中σj默认取值为[1.5:0.5:4.0],s表示成分分量的序号。
步骤3:视觉信息流传递至外膝体时,在非经典感受野的侧抑制作用下,引入神经元的稀疏特性,实现对初级轮廓响应E1(x,y)的背景纹理协同抑制。
具体实现过程如下:
首先计算初级轮廓响应E1(x,y)的稀疏度sparsity(x,y)和变异系数cv(x,y),将两者融合后达到刻画强纹理区域的作用,如式(13)~(15)所示:
f(x,y)=sparsity(x,y)×cv(x,y) (15)
其中δ2(x,y)和μ(x,y)分别表示局部窗口Sxy内E1(x,y)的方差和均值,表示为局部窗口Sxy内的直方图,n是/>的维度,||·||p指p范数,f(x,y)为E1(x,y) 强纹理区域的稀疏表达式。
然后采用各向同性抑制方法减弱纹理,如式(16)所示:
式中DoG(x,y)表示高斯差函数,经半波整流后得到DoG+(x,y);b(x,y)表示纹理抑制项,由初级轮廓响应E1(x,y)与距离抑制权重卷积获得。
最后计算得到经纹理抑制后的轮廓信息C(x,y;α),如式(17)所示:
其中α表示对纹理的抑制强度,取值范围为[0,1],resize表示双线性插值运算。
步骤4:对步骤3的轮廓信息C(x,y;α)进行神经元动态传递编码,并经动态突触Wsynapse传递至初级视皮层V1区,获得输出响应IV1(x,y)。具体实现过程如下:
首先利用考虑绝对不应期的LIF(Leaky Integrate and Fire neurons) 漏放电积分模型,对C(x,y;α)进行脉冲频率编码,计算得到脉冲激励响应 IFires(x,y)。
然后构建微动信息快速整合模型,抑制弱纹理区域神经脉冲发放,如式(18) 和(19)所示:
式中表示微动信息的神经元响应,θi表示由pi和qi所确定的8个微动方向,pi和qi的可能取值对为{(1,0),(1,1),(0,1),(-1,1),(-1,0),(-1,-1),(0,-1),(1,-1)},[·] 表示向下取整,dx和dy分别代表水平和竖直方向的微动量,默认设置为5个像素大小,Imove(x,y)表示微动信息整合后的脉冲频率响应。
针对神经元间动作电位序列的相互关系,采用适应性动态突触Wsynapse(x,y) 将脉冲响应Imove(x,y)传递至V1区,如式(20)和(21)所示:
IV1(x,y)=Imove(x,y)*Wsynapse(x,y) (21)
式中,Wconst表示突触权重常量,默认设置为1,(xc,yc)表示群体感受野中心神经元位置,|Imove(x,y)-Imove(xc,yc)|表示群体感受野周边神经元与中心神经元的脉冲频率差异,△Imove表示群体感受野内脉冲频率响应的最大差值,IV1(x,y)表示V1区的响应输出。
步骤5:计算经跨视区前馈融合后的轮廓响应。具体实现过程如下:将步骤2得到的初级轮廓响应E1(x,y)直接前馈至V1区后,与全局轮廓信息E2(x,y) 融合后,将步骤4得到的脉冲响应IV1(x,y)进一步融合,从而得到最终轮廓响应,记为SE(x,y),如式(22)所示:
SE(x,y)=(E1(x,y)+E2(x,y))×IV1(x,y) (22)。

Claims (1)

1.一种基于视觉机制暗边缘增强的轮廓检测方法,其特征在于,该方法具体包括以下步骤:
步骤1:模拟视网膜暗视野调节机制,对输入图像I(x,y)进行处理,得到暗视野调节响应Irod(x,y);首先获取图像I(x,y)的亮度通道L(x,y),计算L(x,y)归一化后的局部亮度平均值Lavg(x,y);然后利用改进的Sigmoid函数对Lavg(x,y)进行激活约束,计算得到尺度参数σ(x,y),具体如式(1)~(4)所示;
式中(x,y)表示图像的二维坐标,(xm,yn)表示图像局部窗口Sxy,以(x,y)为中心原点,d为窗长,r=(d-1)/2为半径内的坐标位置,m,n∈[1,d];ω(xm,yn)为Sxy内的余弦权重函数;为窗口Sxy内的权重总和,mean(·)和max(·)分别表示均值计算和均值集合的最大值计算,∪表示Sxy内的像素集合,×表示乘法运算,下同;以d为步长,计算亮度通道L(x,y)在各Sxy内的均值,取均值的极大值,记为Lmax
再采用归一化的去中心高斯函数与Sxy内的I(xm,yn)相乘求和,得到调节因子Wrod(x,y),将其与输入图像I(x,y)融合得到暗视野调节响应Irod(x,y),具体如式(5)~(7)所示:
其中Imax和Imin分别为I(x,y)的最大值与最小值;
步骤2:根据神经节细胞以及更高级组织细胞的经典感受野的朝向特性,引入二维高斯导函数,计算单尺度条件下的初级轮廓响应E1(x,y),以及多尺度条件下的全局轮廓信息E2(x,y);具体实现过程如下:
首先计算Irod(x,y)在Nθ个朝向方位下的神经节经典感受野响应ei(x,y;θiCRF),取所有方位的最大值得到初级轮廓响应E1(x,y),具体如式(8)~(10)所示:
E1(x,y)=max{ei(x,y;θiCRF)|i=1,2,...,Nθ} (10)
式中|·|表示取绝对值运算,g表示二维高斯函数,下同;σCRF表示神经节细胞经典感受野的单尺度,γ表示感受野的椭圆率,θi表示经典感受野的第i个朝向,max(·)表示计算最大方位响应,*为卷积运算符,下同;
然后考虑视通路经典感受野的多尺度特性,计算Irod(x,y)在Nσ个尺度下的Nθ个朝向方位响应eij(x,y;θij),其中θi和σj分别表示经典感受野的第i个朝向和第j个尺度;接着利用主成分分析法对eij(x,y;θij)进行降维处理,提取i×j个成分分量Ps,并取Ps的最大值,得到具有多尺度多朝向特征的全局轮廓信息E2(x,y),如式(11)和(12)所示:
E2(x,y)=max(Ps|s=1,2,...,i×j) (12)
s表示成分分量的序号;
步骤3:视觉信息流传递至外膝体时,在非经典感受野的侧抑制作用下,引入神经元的稀疏特性,实现对初级轮廓响应E1(x,y)的背景纹理协同抑制;具体实现过程如下:
首先计算初级轮廓响应E1(x,y)的稀疏度sparsity(x,y)和变异系数cv(x,y),将两者融合后达到刻画强纹理区域的作用,如式(13)~(15)所示:
f(x,y)=sparsity(x,y)×cv(x,y) (15)
其中δ2(x,y)和μ(x,y)分别表示局部窗口Sxy内E1(x,y)的方差和均值,表示为局部窗口Sxy内的直方图,n是/>的维度,||·||p指p范数,f(x,y)为E1(x,y)强纹理区域的稀疏表达式;
然后采用各向同性抑制方法减弱纹理,如式(16)所示:
式中DoG(x,y)表示高斯差函数,经半波整流后得到DoG+(x,y);b(x,y)表示纹理抑制项,由初级轮廓响应E1(x,y)与距离抑制权重卷积获得;
最后计算得到经纹理抑制后的轮廓信息C(x,y;α),如式(17)所示:
其中α表示对纹理的抑制强度,取值范围为[0,1],resize表示双线性插值运算;
步骤4:对步骤3的轮廓信息C(x,y;α)进行神经元动态传递编码,并经动态突触Wsynapse传递至初级视皮层V1区,获得输出响应IV1(x,y);具体实现过程如下:
首先利用考虑绝对不应期的LIF漏放电积分模型,对C(x,y;α)进行脉冲频率编码,计算得到脉冲激励响应IFires(x,y);
然后构建微动信息快速整合模型,抑制弱纹理区域神经脉冲发放,如式(18)和(19)所示:
式中表示微动信息的神经元响应,θi表示由pi和qi所确定的8个微动方向,pi和qi的可能取值对为{(1,0),(1,1),(0,1),(-1,1),(-1,0),(-1,-1),(0,-1),(1,-1)},[·]表示向下取整,dx和dy分别代表水平和竖直方向的微动量,默认设置为5个像素大小,Imove(x,y)表示微动信息整合后的脉冲频率响应;
针对神经元间动作电位序列的相互关系,采用适应性动态突触Wsynapse(x,y)将脉冲响应Imove(x,y)传递至V1区,如式(20)和(21)所示:
IV1(x,y)=Imove(x,y)*Wsynapse(x,y) (21)
式中,Wconst表示突触权重常量,默认设置为1,(xc,yc)表示群体感受野中心神经元位置,|Imove(x,y)-Imove(xc,yc)|表示群体感受野周边神经元与中心神经元的脉冲频率差异,ΔImove表示群体感受野内脉冲频率响应的最大差值,IV1(x,y)表示V1区的响应输出;
步骤5:计算经跨视区前馈融合后的轮廓响应;具体实现过程如下:将步骤2得到的初级轮廓响应E1(x,y)直接前馈至V1区后,与全局轮廓信息E2(x,y)融合后,将步骤4得到的脉冲响应IV1(x,y)进一步融合,从而得到最终轮廓响应,记为SE(x,y),如式(22)所示:
SE(x,y)=(E1(x,y)+E2(x,y))×IV1(x,y) (22)。
CN202010049327.3A 2020-01-16 2020-01-16 一种基于视觉机制暗边缘增强的轮廓检测方法 Active CN111402285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010049327.3A CN111402285B (zh) 2020-01-16 2020-01-16 一种基于视觉机制暗边缘增强的轮廓检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010049327.3A CN111402285B (zh) 2020-01-16 2020-01-16 一种基于视觉机制暗边缘增强的轮廓检测方法

Publications (2)

Publication Number Publication Date
CN111402285A CN111402285A (zh) 2020-07-10
CN111402285B true CN111402285B (zh) 2023-08-08

Family

ID=71434239

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010049327.3A Active CN111402285B (zh) 2020-01-16 2020-01-16 一种基于视觉机制暗边缘增强的轮廓检测方法

Country Status (1)

Country Link
CN (1) CN111402285B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112613427B (zh) * 2020-12-28 2024-02-27 杭州电子科技大学 基于视觉信息流分区投射编码模型的道路障碍物检测方法
CN113095334B (zh) * 2021-03-26 2022-04-01 广西科技大学 一种基于视网膜明适应机制的轮廓检测方法
CN113076954B (zh) * 2021-03-26 2022-06-21 广西科技大学 一种基于视杆细胞暗适应的轮廓检测方法
CN113435455B (zh) * 2021-05-12 2024-03-22 深圳灵图创新科技有限公司 一种基于时空脉冲编码的图像轮廓提取方法
CN113362356B (zh) * 2021-06-02 2024-02-02 杭州电子科技大学 一种基于双侧注意通路的显著轮廓提取方法
CN114387552B (zh) * 2022-01-13 2022-08-26 电子科技大学 基于生物视觉机理的旋翼无人机红外视频跟踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087321A (zh) * 2018-06-06 2018-12-25 杭州电子科技大学 一种基于视通路多层级抑制区协同作用的轮廓检测方法
CN109489576A (zh) * 2018-10-19 2019-03-19 杭州电子科技大学 一种基于初级视觉通路计算模型的轮廓检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087321A (zh) * 2018-06-06 2018-12-25 杭州电子科技大学 一种基于视通路多层级抑制区协同作用的轮廓检测方法
CN109489576A (zh) * 2018-10-19 2019-03-19 杭州电子科技大学 一种基于初级视觉通路计算模型的轮廓检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
引入视通路视觉响应与融合模型的轮廓检测;郭金朋等;《中国图象图形学报》;第23卷(第2期);全文 *

Also Published As

Publication number Publication date
CN111402285A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN111402285B (zh) 一种基于视觉机制暗边缘增强的轮廓检测方法
Zhang et al. Underwater image enhancement via extended multi-scale Retinex
Li et al. Structure-revealing low-light image enhancement via robust retinex model
CN109410127B (zh) 一种基于深度学习与多尺度图像增强的图像去噪方法
CN107798661B (zh) 一种自适应的图像增强方法
CN112307958A (zh) 基于时空外观运动注意力网络的微表情识别方法
CN112767279B (zh) 一种基于离散小波集成生成对抗网络的水下图像增强方法
Sánchez-Ferreira et al. Bio-inspired optimization algorithms for real underwater image restoration
CN106384339A (zh) 一种红外夜视图像的增强方法
CN111652817B (zh) 一种基于人眼视觉感知机理的水下图像清晰化方法
US6975776B2 (en) Predicting human vision perception and perceptual difference
CN114049434A (zh) 一种基于全卷积神经网络的3d建模方法及系统
CN113129232A (zh) 一种基于深度卷积生成对抗网络的弱光散斑成像恢复方法
CN110110668A (zh) 一种基于反馈权重卷积神经网络和胶囊神经网络的步态识别方法
Yang et al. An adaptive contourlet HMM–PCNN model of sparse representation for image denoising
Lei et al. Finger-vein image enhancement based on pulse coupled neural network
CN108537852B (zh) 一种基于图像局部对比度的自适应颜色恒常性方法
CN109522865A (zh) 一种基于深度神经网络的特征加权融合人脸识别方法
CN110969590B (zh) 一种基于ca-spcnn的图像增强算法
CN110929734B (zh) 一种基于双侧非对称感受野机制的显著轮廓提取方法
Hernández-Cámara et al. Neural networks with divisive normalization for image segmentation
CN110717893B (zh) 一种基于视觉神经通路的边缘检测方法
CN116029954A (zh) 一种图像融合方法及装置
CN113362356B (zh) 一种基于双侧注意通路的显著轮廓提取方法
Wang et al. Research and implementation of image dehazing based on deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant