CN113095334B - 一种基于视网膜明适应机制的轮廓检测方法 - Google Patents

一种基于视网膜明适应机制的轮廓检测方法 Download PDF

Info

Publication number
CN113095334B
CN113095334B CN202110324711.4A CN202110324711A CN113095334B CN 113095334 B CN113095334 B CN 113095334B CN 202110324711 A CN202110324711 A CN 202110324711A CN 113095334 B CN113095334 B CN 113095334B
Authority
CN
China
Prior art keywords
image
contour
brightness
maximum
max
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110324711.4A
Other languages
English (en)
Other versions
CN113095334A (zh
Inventor
林川
张贞光
吴海晨
乔亚坤
李福章
文泽奇
潘勇才
韦艳霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangxi University of Science and Technology
Original Assignee
Guangxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangxi University of Science and Technology filed Critical Guangxi University of Science and Technology
Priority to CN202110324711.4A priority Critical patent/CN113095334B/zh
Publication of CN113095334A publication Critical patent/CN113095334A/zh
Application granted granted Critical
Publication of CN113095334B publication Critical patent/CN113095334B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于视网膜明适应机制的轮廓检测方法,包括:A、将待测图像由RGB颜色空间转到HSV颜色空间;B、对HSV图像的亮度进行亮度明适应模拟;C、将n幅亮度实际最大图分别转回RGB颜色空间,得到n幅不同适应时刻的适应过程图像;D、选取不同时应时刻的适应过程图像中最大比例权重所对应的适应过程图像,求取轮廓,获得明适应过程中的轮廓增强图像;对原图像求取图像轮廓,获得原图像的轮廓增强图像E、将明适应过程中的轮廓增强图像与原图像的轮廓待增强图像进行融合,使用非最大抑制进行边缘细化,得到增强后的最终轮廓输出图像。本发明通过模拟明适应过程,提高了目标轮廓检测的精准性。

Description

一种基于视网膜明适应机制的轮廓检测方法
技术领域
本发明涉及图像处理领域,具体涉及一种基于视网膜明适应机制的轮廓检测方法。
背景技术
轮廓定义目标的形状,轮廓是目标识别中的重要任务之一,而从杂乱场景中获取的目标轮廓是一项重要且相当困难的任务,主要是因为轮廓周围通常存在大量纹理背景的边缘,因此这项工作主要需要排除由于纹理区域的无意义边缘,而保留目标轮廓。提高检测率的关键在于能基于上下文将局部信息优化整合成一致的全局特征。人类视觉系统具有快速和有效的从复杂场景中提取轮廓特征的能力,有效促进了以生物特性作为启发的轮廓检测算法研究的发展。
目前许多受生物学启发的轮廓检测模型大多并没有完整的模拟整个视觉系统的生理特性,比如在视网膜当中存在的视觉适应机制。它们在轮廓信息提取的过程中,对于视觉的适应机制并没有进行模拟,因此造成了一定程度上目标轮廓信息问题,从而导致目标轮廓的定位偏差。
发明内容
本发明旨在提供一种基于非经典感受野空间总和调制的轮廓检测方法,该方法通过模拟明适应过程,利用在明适应过程中,存在的一个时刻是图像信息恢复最大的,利用该时刻可以提取出部分目标轮廓,这部分轮廓可用于增强目标轮廓,从而提高了目标轮廓检测的精准性。
本发明的技术方案如下:
所述的基于视网膜明适应机制的轮廓检测方法,包括以下步骤:
A、将待测图像由RGB颜色空间转到HSV颜色空间;
B、对HSV图像的亮度进行亮度明适应模拟,设定明适应时间为t,将时间t进行n等分,将每一等分当前时刻上的图像中各个像素点的亮度值作为亮度理论最大值,当前时刻的亮度理论最大值的计算函数为:
Figure GDA0003514557340000011
其中,t∈(1,180),τ=20;
基于该公式计算获得n幅不同适应时刻的亮度理论最大值图像,将各个亮度理论最大值图像中各个像素点的亮度与原图像中的相应像素点的亮度进行比较,取大值作为该像素点的亮度实际最大值,获得n幅不同适应时刻的亮度实际最大图像;
C、将n幅亮度实际最大图分别转回RGB颜色空间,得到n幅不同适应时刻的适应过程图像;
D、统计步骤B过程中各个亮度理论最大值图像中已经达到原图像中亮度值的像素点个数,将该像素点的个数占该幅图中总像素点个数的比例作为加权权重,并选取出其中最大的比例权重所对应的适应过程图像的四个拮抗通道求取轮廓,并选取四通道中各通道的最大值输出,作为明适应过程中的轮廓增强图像;对原图像四个拮抗通道求取轮廓,并选取四通道中各通道的最大值输出,获得原图像的轮廓待增强图像;
E、将明适应过程中的轮廓增强图像与原图像的轮廓待增强图像进行融合,然后利用最优方向作为抑制方向,使用标准的非最大抑制进行边缘细化,得到增强后的最终轮廓输出图像。
所述的步骤A中,将待测图像由RGB颜色空间转到HSV颜色空间的转换函数为:
Figure GDA0003514557340000021
Figure GDA0003514557340000022
V=Cmax (4)
其中,H代表色调,S代表饱和度,V代表亮度;R′=R/255;G′=G/255;B′=B/255,Cmax表示RGB2通中每个点最大值Cmax=max(R′,G′,B′),Cmin表示RGB2通中每个点最小值Cmin=min(R′,G′,B′),Δ表示每点最大和最小的差值Δ=Cmax-Cmin
所述的步骤B中,当前时刻的亮度实际最大图像取值规则公式为:
Figure GDA0003514557340000023
其中,V(x,y)代表原图的亮度,Vt(x,y)代表亮度理论最大值。
所述的步骤C中,将亮度实际最大图转回RGB颜色空间的函数为:
令C=Vat×S,X=C×(1-|(H/60°)mod 2-1|),m=Vat-C;
Figure GDA0003514557340000031
It=(Rt,Gt,Bt)=(Rt′+m)×255,(Gt′+m)×255,(Bt′+m)×255 (7)
所述的步骤D中加权权重的计算函数为:
Figure GDA0003514557340000032
最大比例权重:
ωmax=max(ωt) (9)。
所述的步骤D中,图像求取轮廓的函数为:
Reco(x,y)=ω(x,y)·DOco(x,y) (10)
其中,ω(x,y)为稀疏度量,DOco(x,y)为最佳双拮抗响应。
所述的最佳双拮抗响应DOco(x,y)的求取过程为:
a、用高斯滤波器模拟视网膜视锥细胞的感受野:
SC(x,y)=I(x,y)*G(x,y) (11)
Figure GDA0003514557340000033
其中,*表示卷积运算符;I(x,y)为输入图像;G(x,y)为二维高斯函数卷积核;σ=0.8决定了视网膜细胞感受野的大小;c∈{R,G,B,Y},表示输入图像的4个颜色,其中
Figure GDA0003514557340000034
b、然后将步骤a输出的图像传入LGN层,在这层中各个颜色呈现出两两相互作用,单拮抗细胞以不平衡的方式组合颜色信息:
Figure GDA0003514557340000046
其中,co∈{rg,gr,by,yb},表示4种类型的拮抗,分别为红-绿拮抗(R+G-,R-G+)、蓝-黄拮抗(B+Y-,B-Y+);
c、用二维高斯的一阶偏导数来模拟V1层中具有双拮抗感受野的细胞的感受野:
Figure GDA0003514557340000041
Figure GDA0003514557340000042
其中,γ=0.5,表示细胞感受野的椭圆率即长短轴的比例系数;θ表示神经元响应的最优方向,θ∈(0,2π;σg决定了双拮抗细胞感受野的大小,定义为σg=2·σ;
d、双拮抗特性的响应DOco(x,y;θi)由经LGN层处理过后传出的单拮抗响应SOco(x,y)与RFG(x,y;θ)进行卷积模拟:
DOco(x,y;θi)=SOco(x,y)*RF(x,y;θi) (16)
Figure GDA0003514557340000043
其中,*表示卷积运算符;Nθ=6,表示感受野响应的待选方向在θi∈[0,2π)范围内角度个数;
然后求得双拮抗细胞感受野响应的最佳响应DOco(x,y),以及步骤E中的最优方向
Figure GDA0003514557340000044
DOco(x,y)=max{DOco(x,y;θi)|i=1,2,...,Nθ} (18)
Figure GDA0003514557340000045
所述的稀疏度量ω(x,y)的求取函数为:
Figure GDA0003514557340000051
Figure GDA0003514557340000052
其中,
Figure GDA0003514557340000053
表示以(x,y)为中心的各信息通道局部梯度幅值直方图;n表示
Figure GDA0003514557340000054
的维数;||·||1是L1范数,||·||2是L2范数;
Figure GDA0003514557340000055
表示
Figure GDA0003514557340000056
的平均值,min表示取两者的最小值。
所述的步骤D中,选取各通道最大值,获得原图像的轮廓待增强图像的函数为:
Reout(x,y)=max(Reco(x,y)|co∈{rg,gr,by,yb}) (22);
选取各通道最大值,获得明适应过程中的轮廓增强图像的函数为:
Reenhance(x,y)=max(Reco(x,y)|co∈{rg,gr,by,yb}) (23)。
所述的步骤E中,明适应过程中的轮廓增强图像与原图像的轮廓待增强图像进行融合的函数为:
Re(x,y)=Reout(x,y)+ωmax*Reenhance(x,y) (24)。
本发明设计了独特的模拟函数,模拟了视网膜上的明适应过程,通过找出适应阶段中信息变化最大的适应时期图像并将其作为目标轮廓增强信息,为目标轮廓的提取提供了很大的帮助,使得目标轮廓更为清晰,优化了轮廓检测模型的性能,具有良好的应用前景。
附图说明
图1为实施例1提供的轮廓检测方法与文献1轮廓检测方法的效果对比图;
具体实施方式
实施例1
一、本实施例提供的基于视网膜明适应机制的轮廓检测方法,包括以下步骤:
A、将待测图像由RGB颜色空间转到HSV颜色空间,采用如下的转换函数进行:
Figure GDA0003514557340000061
Figure GDA0003514557340000062
V=Cmax (4)
其中,H代表色调,S代表饱和度,V代表亮度;R′=R/255;G′=G/255;B′=B/255,Cmax表示RGB2通中每个点最大值Cmax=max(R′,G′,B′),Cmin表示RGB2通中每个点最小值Cmin=min(R′,G′,B′),Δ表示每点最大和最小的差值Δ=Cmax-Cmin
B、对HSV图像的亮度进行亮度明适应模拟,设定明适应时间为t,将时间t进行n等分,将每一等分当前时刻上的图像中各个像素点的亮度值作为亮度理论最大值,当前时刻的亮度理论最大值的计算函数为:
Figure GDA0003514557340000063
其中,t∈(1,180),τ=20;
当前时刻的亮度实际最大图像取值规则公式为:
Figure GDA0003514557340000064
其中,V(x,y)代表原图的亮度,Vt(x,y)代表亮度理论最大值;
基于上述公式和规则,获得n幅不同适应时刻的亮度理论最大值图像,将各个亮度理论最大值图像中各个像素点的亮度与原图像中的相应像素点的亮度进行比较,取大值作为该像素点的亮度实际最大值,获得n幅不同适应时刻的亮度实际最大图像;
C、将n幅亮度实际最大图分别转回RGB颜色空间,得到n幅不同适应时刻的适应过程图像;
将亮度实际最大图转回RGB颜色空间的函数为:
令C=Vat×S,X=C×(1-|(H/60°)mod 2-1|),m=Vat-C;
Figure GDA0003514557340000071
It=(Rt,Gt,Bt)=(Rt′+m)×255,(Gt′+m)×255,(Bt′+m)×255 (7)
D、统计步骤B过程中各个亮度理论最大值图像中已经达到原图像中亮度值的像素点个数,将该像素点的个数占该幅图中总像素点个数的比例作为加权权重,并选取出其中最大的比例权重所对应的适应过程图像的四个拮抗通道求取轮廓,并选取四通道中各通道的最大值输出,作为明适应过程中的轮廓增强图像;对原图像四个拮抗通道求取轮廓,并选取四通道中各通道的最大值输出,获得原图像的轮廓待增强图像;
所述的步骤D中加权权重的计算函数为:
Figure GDA0003514557340000072
最大比例权重:
ωmax=max(ωt) (9);
所述的步骤D中,图像求取轮廓的函数为:
Reco(x,y)=ω(x,y)·DOco(x,y) (10)
其中,ω(x,y)为稀疏度量,DOco(x,y)为最佳双拮抗响应。
所述的最佳双拮抗响应DOco(x,y)的求取过程为:
a、用高斯滤波器模拟视网膜视锥细胞的感受野:
Sc(x,y)=I(x,y)*G(x,y) (11)
Figure GDA0003514557340000073
其中,*表示卷积运算符;I(x,y)为输入图像;G(x,y)为二维高斯函数卷积核;σ=0.8决定了视网膜细胞感受野的大小;c∈{R,G,B,Y},表示输入图像的4个颜色,其中
Figure GDA0003514557340000081
b、然后将步骤a输出的图像传入LGN层,在这层中各个颜色呈现出两两相互作用,单拮抗细胞以不平衡的方式组合颜色信息:
Figure GDA0003514557340000086
其中,co∈{rg,gr,by,yb},表示4种类型的拮抗,分别为红-绿拮抗(R+G-,R-G+)、蓝-黄拮抗(B+Y-,B-Y+);
c、用二维高斯的一阶偏导数来模拟V1层中具有双拮抗感受野的细胞的感受野:
Figure GDA0003514557340000082
Figure GDA0003514557340000083
其中,γ=0.5,表示细胞感受野的椭圆率即长短轴的比例系数;θ表示神经元响应的最优方向,θ∈(0,2π;σg决定了双拮抗细胞感受野的大小,定义为σg=2·σ;
d、双拮抗特性的响应DOco(x,y;θi)由经LGN层处理过后传出的单拮抗响应sOco(x,y)与RFG(x,y;θ)进行卷积模拟:
DOco(x,y;θi)=SOco(x,y)*RF(x,y;θi) (16)
Figure GDA0003514557340000084
其中,*表示卷积运算符;Nθ=6,表示感受野响应的待选方向在θi∈[O,2π)范围内角度个数;
然后求得双拮抗细胞感受野响应的最佳响应DOco(x,y),以及步骤E中的最优方向
Figure GDA0003514557340000085
DOco(x,y)=max{DOco(x,y;θi)|i=1,2,...,Nθ} (18)
Figure GDA0003514557340000091
所述的稀疏度量ω(x,y)的求取函数为:
Figure GDA0003514557340000092
Figure GDA0003514557340000093
其中,
Figure GDA0003514557340000094
表示以(x,y)为中心的各信息通道局部梯度幅值直方图;n表示
Figure GDA0003514557340000095
的维数;||·||1是L1范数,||·||2是L2范数;
Figure GDA0003514557340000096
表示
Figure GDA0003514557340000097
的平均值,min表示取两者的最小值。
所述的步骤D中,选取各通道最大值,获得原图像的轮廓待增强图像的函数为:
Reout(x,y)=max(Reco(x,y)|co∈{rg,gr,by,yb}) (22);
选取各通道最大值,获得明适应过程中的轮廓增强图像的函数为:
Reenhance(x,y)=max(Reco(x,y)|co∈{rg,gr,by,yb}) (23)。
E、将明适应过程中的轮廓增强图像与原图像的轮廓增强图像进行融合,然后利用最优方向作为抑制方向,使用标准的非最大抑制进行边缘细化,得到增强后的最终轮廓输出图像;
其中,明适应过程中的轮廓增强图像与原图像的轮廓待增强图像进行融合的函数为:
Re(x,y)=Reout(x,y)+ωmax*Reenhance(x,y) (24)。
二、基于上述方法的轮廓识别性能测试对比:
1、采用文献1的方法进行对比:
文献1:Yang KF,Gao S B,Guo CF,et a1.Boundary detection using double-opponency and spatial sparseness constraint[J].IEEE Transactions on ImageProcessing,2015,24(8):2565-2578.
2、对于最终的轮廓图进行定量的性能评估,我们采用和文献1中一样的性能测量标准,具体评价如下:
Figure GDA0003514557340000101
其中,P表示精确率,R表示召回率。F的值越大,表明性能越好。
文献1所用到的参数和其原文一样,都是该模型的最优参数。
对比测试结果见图1:图1为从伯克利分割数据集(BSDS300)随机选取的三幅自然图像、对应的真实轮廓图、文献1方法检测的最优轮廓图,实施例1方法检测的最优轮廓;其中,图中的右上角给出的是F-score。
从实验的效果来看,实施例1检测方法均优于文献1的检测方法。

Claims (10)

1.一种基于视网膜明适应机制的轮廓检测方法,其特征在于包括以下步骤:
A、将待测图像由RGB颜色空间转到HSV颜色空间;
B、对HSV图像的亮度进行亮度明适应模拟,设定明适应时间为t,将时间t进行n等分,将每一等分当前时刻上的图像中各个像素点的亮度值作为亮度理论最大值,当前时刻的亮度理论最大值的计算函数为:
Figure FDA0003514557330000011
其中,t∈(1,180),τ=20;
基于该公式计算获得n幅不同适应时刻的亮度理论最大值图像,将各个亮度理论最大值图像中各个像素点的亮度与原图像中的相应像素点的亮度进行比较,取大值作为该像素点的亮度实际最大值,获得n幅不同适应时刻的亮度实际最大图像;
C、将n幅亮度实际最大图分别转回RGB颜色空间,得到n幅不同适应时刻的适应过程图像;
D、统计步骤B过程中各个亮度理论最大值图像中已经达到原图像中亮度值的像素点个数,将该像素点的个数占该幅图中总像素点个数的比例作为加权权重,并选取出其中最大的比例权重所对应的适应过程图像的四个拮抗通道求取轮廓,并选取四通道中各通道的最大值输出,作为明适应过程中的轮廓增强图像;对原图像四个拮抗通道求取轮廓,并选取四通道中各通道的最大值输出,获得原图像的轮廓待增强图像;
E、将明适应过程中的轮廓增强图像与原图像的轮廓待增强图像进行融合,然后利用最优方向作为抑制方向,使用标准的非最大抑制进行边缘细化,得到增强后的最终轮廓输出图像。
2.如权利要求1所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:
所述的步骤A中,将待测图像由RGB颜色空间转到HSV颜色空间的转换函数为:
Figure FDA0003514557330000021
Figure FDA0003514557330000022
V=Cmax (4)
其中,H代表色调,S代表饱和度,V代表亮度;R′=R/255;G′=G/255;B′=B/255,Cmax表示RGB图中每个点最大值Cmax=max(R′,G′,B′),Cmin表示RGB图中每个点最小值Cmin=min(R′,G′,B′),Δ表示每点最大和最小的差值Δ=Cmax-Cmin
3.如权利要求1所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:
所述的步骤B中,当前时刻的亮度实际最大图像取值规则公式为:
Figure FDA0003514557330000023
其中,V(x,y)代表原图的亮度,Vt(x,y)代表亮度理论最大值。
4.如权利要求2所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:
所述的步骤C中,将亮度实际最大图转回RGB颜色空间的函数为:
令C=Vat×S,X=C×(1-|(H/60°)mod 2-1|),m=Vat-C;
Figure FDA0003514557330000024
It=(Rt,Gt,Bt)=(Rt′+m)×255,(Gt′+m)×255,(Bt′+m)×255 (7)。
5.如权利要求1所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:
所述的步骤D中,加权权重的计算函数为:
Figure FDA0003514557330000031
最大比例权重:
ωmax=max(ωt) (9)。
6.如权利要求1所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:
所述的步骤D中图像求取轮廓的函数为:
Reco(x,y)=ω(x,y)·DOco(x,y) (10)
其中,ω(x,y)为稀疏度量,DOco(x,y)为最佳双拮抗响应。
7.如权利要求6所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:
所述的最佳双拮抗响应DOco(x,y)的求取过程为:
a、用高斯滤波器模拟视网膜视锥细胞的感受野:
Sc(x,y)=I(x,y)*G(x,y) (11)
Figure FDA0003514557330000032
其中,*表示卷积运算符;I(x,y)为输入图像;G(x,y)为二维高斯函数卷积核;σ=0.8决定了视网膜细胞感受野的大小;c∈{R,G,B,Y},表示输入图像的4个颜色,其中
Figure FDA0003514557330000033
b、然后将步骤a输出的图像传入LGN层,在这层中各个颜色呈现出两两相互作用,单拮抗细胞以不平衡的方式组合颜色信息:
Figure FDA0003514557330000034
其中,co∈{rg,gr,by,yb},表示4种类型的拮抗,分别为红-绿拮抗(R+G-,R-G+)、蓝-黄拮抗(B+Y-,B-Y+);
c、用二维高斯的一阶偏导数来模拟V1层中具有双拮抗感受野的细胞的感受野:
Figure FDA0003514557330000041
Figure FDA0003514557330000042
其中,γ=0.5,表示细胞感受野的椭圆率即长短轴的比例系数;θ表示神经元响应的最优方向,θ∈(0,2π;σg决定了双拮抗细胞感受野的大小,定义为σg=2·σ;
d、双拮抗特性的响应DOco(x,y;θi)由经LGN层处理过后传出的单拮抗响应SOco(x,y)与RFG(x,y;θ)进行卷积模拟:
DOco(x,y;θi)=SOco(x,y)*RF(x,y;θi) (16)
Figure FDA0003514557330000043
其中,*表示卷积运算符;Nθ=6,表示感受野响应的待选方向在θi∈[0,2π)范围内角度个数;
然后求得双拮抗细胞感受野响应的最佳响应DOco(x,y),以及步骤E中的最优方向
Figure FDA0003514557330000044
DOco(x,y)=max{DOco(x,y;θi)|i=1,2,...,Nθ} (18)
Figure FDA0003514557330000045
8.如权利要求6所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:所述的稀疏度量ω(x,y)的求取函数为:
Figure FDA0003514557330000051
Figure FDA0003514557330000052
其中,
Figure FDA0003514557330000053
表示以(x,y)为中心的各信息通道局部梯度幅值直方图;n表示
Figure FDA0003514557330000054
的维数;||·||1是L1范数,||·||2是L2范数;
Figure FDA0003514557330000055
表示
Figure FDA0003514557330000056
的平均值,min表示取两者的最小值。
9.如权利要求6所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:
所述的步骤D中,选取各通道最大值,获得原图像的轮廓待增强图像的函数为:
Reout(x,y)=max(Reco(x,y)|co∈{rg,gr,by,yb}) (22);
选取各通道最大值,获得明适应过程中的轮廓增强图像的函数为:
Reenhance(x,y)=max(Reco(x,y)|co∈{rg,gr,by,yb}) (23)。
10.如权利要求9所述的基于视网膜明适应机制的轮廓检测方法,其特征在于:
所述的步骤E中,明适应过程中的轮廓增强图像与原图像的轮廓待增强图像进行融合的函数为:
Re(x,y)=Reout(x,y)+ωmax*Reenhance(x,y) (24)。
CN202110324711.4A 2021-03-26 2021-03-26 一种基于视网膜明适应机制的轮廓检测方法 Active CN113095334B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110324711.4A CN113095334B (zh) 2021-03-26 2021-03-26 一种基于视网膜明适应机制的轮廓检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110324711.4A CN113095334B (zh) 2021-03-26 2021-03-26 一种基于视网膜明适应机制的轮廓检测方法

Publications (2)

Publication Number Publication Date
CN113095334A CN113095334A (zh) 2021-07-09
CN113095334B true CN113095334B (zh) 2022-04-01

Family

ID=76669781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110324711.4A Active CN113095334B (zh) 2021-03-26 2021-03-26 一种基于视网膜明适应机制的轮廓检测方法

Country Status (1)

Country Link
CN (1) CN113095334B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067113A1 (en) * 2011-11-01 2013-05-10 Dolby Laboratories Licensing Corporation Adaptive false contouring prevention in layered coding of images with extended dynamic range
CN107578418A (zh) * 2017-09-08 2018-01-12 华中科技大学 一种融合色彩和深度信息的室内场景轮廓检测方法
CN108010046A (zh) * 2017-12-14 2018-05-08 广西科技大学 基于改进经典感受野的仿生轮廓检测方法
CN109087324A (zh) * 2018-08-03 2018-12-25 广西科技大学 基于颜色拮抗感受野及黑白通道的轮廓检测方法
CN109146901A (zh) * 2018-08-03 2019-01-04 广西科技大学 基于颜色拮抗感受野的轮廓检测方法
WO2020081340A1 (en) * 2018-10-15 2020-04-23 Ventana Medical Systems, Inc. Image enhancement to enable improved nuclei detection and segmentation
CN111179293A (zh) * 2019-12-30 2020-05-19 广西科技大学 一种基于颜色和灰度特征融合的仿生型轮廓检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102201120B (zh) * 2011-06-17 2012-08-29 电子科技大学 一种基于多特征的目标物体轮廓检测方法
CN106228547B (zh) * 2016-07-15 2018-12-28 华中科技大学 一种基于视觉颜色理论和同质抑制的轮廓与边界检测算法
CN111402285B (zh) * 2020-01-16 2023-08-08 杭州电子科技大学 一种基于视觉机制暗边缘增强的轮廓检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013067113A1 (en) * 2011-11-01 2013-05-10 Dolby Laboratories Licensing Corporation Adaptive false contouring prevention in layered coding of images with extended dynamic range
CN107578418A (zh) * 2017-09-08 2018-01-12 华中科技大学 一种融合色彩和深度信息的室内场景轮廓检测方法
CN108010046A (zh) * 2017-12-14 2018-05-08 广西科技大学 基于改进经典感受野的仿生轮廓检测方法
CN109087324A (zh) * 2018-08-03 2018-12-25 广西科技大学 基于颜色拮抗感受野及黑白通道的轮廓检测方法
CN109146901A (zh) * 2018-08-03 2019-01-04 广西科技大学 基于颜色拮抗感受野的轮廓检测方法
WO2020081340A1 (en) * 2018-10-15 2020-04-23 Ventana Medical Systems, Inc. Image enhancement to enable improved nuclei detection and segmentation
CN111179293A (zh) * 2019-12-30 2020-05-19 广西科技大学 一种基于颜色和灰度特征融合的仿生型轮廓检测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
A Biologically Inspired Contour Detection Model Based on Multiple Visual Channels and Multi-Hierarchical Visual Information;FUZHANG LI 等;《IEEE Access》;20200127;15410-15422 *
Application of binocular disparity and receptive field dynamics: A biologically-inspired model for contour detection;Qing Zhang 等;《Pattern Recognition》;20200915;1-12 *
一种基于颜色拮抗感受野的轮廓检测模型;吴璟莉 等;《计算机科学》;20160715;第43卷(第7期);319-323 *
基于X、Y细胞感受野视觉神经机制的轮廓检测模型;王垚 等;《广西科技大学学报》;20210115;第32卷(第1期);31-40 *
基于固视微动与初级视皮层神经机制的轮廓检测模型;万术娟 等;《广西科技大学学报》;20201102;第31卷(第4期);83-90 *
基于颜色拮抗和纹理抑制的轮廓检测模型;赵浩钧 等;《广西科技大学学报》;20181104;第29卷(第4期);6-12 *

Also Published As

Publication number Publication date
CN113095334A (zh) 2021-07-09

Similar Documents

Publication Publication Date Title
CN107578418B (zh) 一种融合色彩和深度信息的室内场景轮廓检测方法
CN108182441B (zh) 平行多通道卷积神经网络、构建方法及图像特征提取方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
CN104966085B (zh) 一种基于多显著特征融合的遥感图像感兴趣区域检测方法
CN103914699A (zh) 一种基于色彩空间的自动唇彩的图像增强的方法
CN108734138B (zh) 一种基于集成学习的黑色素瘤皮肤病图像分类方法
CN103186904B (zh) 图片轮廓提取方法及装置
CN104616664B (zh) 一种基于声谱图显著性检测的音频识别方法
CN105893925A (zh) 基于肤色的人手检测方法及装置
CN104484658A (zh) 一种基于多通道卷积神经网络的人脸性别识别方法及装置
CN106462771A (zh) 一种3d图像的显著性检测方法
CN103996195A (zh) 一种图像显著性检测方法
CN103824059A (zh) 一种基于视频图像序列的人脸表情识别方法
CN104361574B (zh) 一种基于稀疏表示的无参考彩色图像质量评价方法
CN104599271A (zh) 基于CIE Lab彩色空间的灰度阈值分割方法
CN108053398A (zh) 一种半监督特征学习的黑色素瘤自动检测方法
CN106650606A (zh) 人脸图像的匹配及处理方法、人脸图像模型构建系统
CN107146229A (zh) 基于元胞自动机模型的结肠息肉图像分割方法
Zhang et al. Application of binocular disparity and receptive field dynamics: A biologically-inspired model for contour detection
CN103778430B (zh) 一种基于肤色分割和AdaBoost相结合的快速人脸检测方法
CN107301643A (zh) 基于鲁棒稀疏表示与拉普拉斯正则项的显著目标检测方法
CN113129390B (zh) 一种基于联合显著性的色盲图像重新着色方法及系统
CN105138975A (zh) 一种基于深度信念网络的人体肤色区域分割方法
Rachmad et al. Classification of mycobacterium tuberculosis based on color feature extraction using adaptive boosting method
CN107358635B (zh) 一种基于模糊相似性的彩色形态学图像处理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20210709

Assignee: GUANGXI YINGTENG EDUCATION TECHNOLOGY Co.,Ltd.

Assignor: GUANGXI University OF SCIENCE AND TECHNOLOGY

Contract record no.: X2023980053979

Denomination of invention: A Contour Detection Method Based on Retinal Light Adaptation Mechanism

Granted publication date: 20220401

License type: Common License

Record date: 20231226

EE01 Entry into force of recordation of patent licensing contract