CN106485247A - 基于神经元感受野空间结构的显著性检测方法 - Google Patents

基于神经元感受野空间结构的显著性检测方法 Download PDF

Info

Publication number
CN106485247A
CN106485247A CN201610869833.0A CN201610869833A CN106485247A CN 106485247 A CN106485247 A CN 106485247A CN 201610869833 A CN201610869833 A CN 201610869833A CN 106485247 A CN106485247 A CN 106485247A
Authority
CN
China
Prior art keywords
color
antagonistic
green
red
significance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610869833.0A
Other languages
English (en)
Other versions
CN106485247B (zh
Inventor
刘广海
唐志云
周斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin Tourism College
Guangxi Normal University
Original Assignee
Guilin Tourism College
Guangxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin Tourism College, Guangxi Normal University filed Critical Guilin Tourism College
Priority to CN201610869833.0A priority Critical patent/CN106485247B/zh
Publication of CN106485247A publication Critical patent/CN106485247A/zh
Application granted granted Critical
Publication of CN106485247B publication Critical patent/CN106485247B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于神经元感受野空间结构的显著性检测方法,首先将红绿拮抗颜色边缘图像、蓝黄拮抗颜色边缘图像、红青拮抗颜色边缘图像和绿洋红拮抗颜色边缘图像进行整合得到综合边缘图像;然后利用各个拮抗边缘图像对相应的拮抗颜色显著图进行调节和整合得到一个显著图,同时采用综合边缘图像对各个拮抗颜色显著图进行调节和整合得到另一个显著图;最后对2个显著图进行竞争,得到最终的显著图。本发明在某种程度上模拟了大脑中视觉信息的传输和处理机制,能够检测出图像中的显著颜色区域和显著方向信息。显著性区域检测效果强于经典的显著性模型,可以视为模拟视网膜神经节细胞,外侧膝状体和初级视觉皮层的结构层次的显著性模型或检测方法。

Description

基于神经元感受野空间结构的显著性检测方法
技术领域
本发明涉及目标检测技术领域,具体涉及一种基于神经元感受野空间结构的显著性检测方法。
背景技术
多年来,研究者对视觉系统各级神经元形态,结构和电生理特征等方面进行大量深入的研究。神经元感受野的空间结构,是人类理解神经元功能机制的一种有效途径,也会不断涌出新理论和新发现。如何依据神经元感受野的空间结构来建立显著性检测模型已成为研究者关注的焦点。根据人类对神经元功能机制的理解,研究人员提出了各种显著性模型和检测方法。一般而言,显著性模型主要包括自底向上(bottom-up)和自顶向下(top-down)模型。神经生理学领域的大量研究显示V1区细胞具有大范围视觉信息整合的能力。鉴于目前人类对神经元功能机制并没有完全理解,如何建立更加符合视觉神经机制的显著图整合模型是一个难题。因为显著性模型是模拟大脑中视觉信息的传输和处理机制而建立的模型,视觉信息在视觉通路中的传递和加工是一个复杂的多层次过程。
发明内容
本发明所要解决的技术问题是提供一种基于神经元感受野空间结构的显著性检测方法,能够检测出图像中的显著颜色区域和显著方向信息。
为解决上述问题,本发明是通过以下技术方案实现的:
基于神经元感受野空间结构的显著性检测方法,包括如下步骤:
步骤1、将输入图像分解为红色、绿色、蓝色和黄色这4个颜色分量;
步骤2、采用加法颜色混合计算方法,获得2个修正拮抗颜色分量,即红青拮抗颜色分量和绿洋红拮抗颜色分量;
步骤3、对步骤1所得的4个颜色分量和步骤2所得2个修正拮抗颜色分量进行边缘检测,得到红绿拮抗颜色边缘图像、蓝黄拮抗颜色边缘图像、红青拮抗颜色边缘图像和绿洋红拮抗颜色边缘图像;
步骤4,综合步骤3所得的4个边缘图像,得到综合颜色边缘图像E(x,y),
E(x,y)=max[eci(x,y),ci∈{rg,by,rc,gm}]+
式中,[·]+表示半波校正,erg(x,y)为红绿拮抗颜色边缘图像,eby(x,y)为蓝黄拮抗颜色边缘图像,erc(x,y)为红青拮抗颜色边缘图像,egm(x,y)为绿洋红拮抗颜色边缘图像;
步骤5,对步骤3所得的4个拮抗颜色边缘图像分别建立高斯金字塔,并通过跨尺度抽样产生红绿拮抗颜色边缘特征映射、蓝黄拮抗颜色边缘特征映射、红青拮抗颜色边缘特征映射和绿洋红拮抗颜色边缘特征映射;
步骤6、对步骤5所得的4个拮抗颜色边缘特征映射采用Itti视觉注意模型的跨尺度等一系列操作,得到红绿拮抗颜色显著图、蓝黄拮抗颜色显著图、红青拮抗颜色显著图和绿洋红拮抗颜色显著图;
步骤7,计算步骤3所得的4个拮抗颜色边缘图像的权重和步骤4所得的综合颜色边缘图像的权重;
步骤8、基于4个拮抗颜色边缘图像的权重,对步骤5所得的4个拮抗颜色显著图进行整合,获得第一显著图S1(x,y);
步骤9,基于综合颜色边缘图像的权重,对步骤5所得的4个拮抗颜色显著图进行整合,获得的第二显著图S2(x,y);
步骤10,对第一显著图S1(x,y)和第二显著图S2(x,y)进行显著性竞争,取两者的最大值,可得到总体显著图E(x,y)。
上述步骤3中,采用高斯滤波器分别对4个颜色分量进行高斯差操作,并且采用Gabor滤波器分别对2个修正拮抗颜色分量进行边缘检测。
上述步骤7中,采用logistic函数来计算4个拮抗颜色边缘图像和综合颜色边缘图像的权重。
上述步骤8中,第一显著图S1(x,y)为:
式中,w(erg)为红绿拮抗颜色边缘图像的权重,w(eby)为蓝黄拮抗颜色边缘图像的权重,w(erc)为红青拮抗颜色边缘图像的权重,w(egm)为绿洋红拮抗颜色边缘图像的权重;为红绿拮抗颜色的显著图,为蓝黄拮抗颜色的显著图,为红青拮抗颜色的显著图,为绿洋红拮抗颜色的显著图。
上述步骤9中,第二显著图S2(x,y)为:
式中,w(E)为综合颜色边缘图像的权重;为红绿拮抗颜色的显著图,为蓝黄拮抗颜色的显著图,为红青拮抗颜色的显著图,为绿洋红拮抗颜色的显著图。
作为改进,上述基于神经元感受野空间结构的显著性检测方法,还进一步包括如下步骤:步骤11、采用精确度、返回率、F值和/或绝对平均误差来评价显著性检测性能。
与现有技术相比,本发明关注基于神经元感受野空间结构来进行显著性检测,提出动态调制功能的新型显著图整合方法。基于神经元感受野空间结构的显著性模型可看作为基于动态调制机制的显著性检测方法,专门用于图像显著性区域检测,并且比经典的显著性模型和方法更加符合神经元功能机制。它整合了单拮抗感受野,双拮抗感受野,拮抗颜色(包括修正拮抗颜色)和动态调制机制的优点,它在某种程度上模拟了大脑中视觉信息的传输和处理机制,能够检测出图像中的显著颜色区域和显著方向信息。显著性区域检测效果强于经典的显著性模型,可以视为模拟视网膜(retina)神经节细胞,外侧膝状体(LGN)和初级视觉皮层(V1)的结构层次的显著性模型或检测方法。
具体实施方式
为了充分利用视觉神经元机制来进行显著性检测,本发明提出了一种新颖的模型来检测图像显著性区域,它被称之为基于视觉感受野空间结构的显著性模型。显著性模型根据视觉感受野空间结构的功能属性来定义,它在某种程度上模拟了模拟大脑中视觉信息的传输和处理机制,能够检测出图像中的显著颜色区域和显著方向信息。显著性检测效果强于经典的显著性模型,可以视为模拟视网膜(retina)神经节细胞,外侧膝状体(LGN)和初级视觉皮层(V1)的结构层次的显著性模型或者显著性检测方法。
一种基于神经元感受野空间结构的显著性检测方法,包括如下步骤:
(1)将输入图像分解为四个颜色分量:红色(R),绿色(G),蓝色(B)和黄色(Y),它们分别定义为:
其中,[.]+表示半波校正操作,并且将所有负值设为0值。r,g和b分别表示输入图像的红、绿和蓝颜色通道,它们的像素值取值范围为[0,1]。
(2)神经生理学领域的研究表明,在视网膜(retina)神经节细胞,外侧膝状体(LGN)中,还存在红青(red-cyan)细胞和绿洋红(green-magenta)细胞,其中青色(cyan)和洋红(magenta)采用加法颜色混合而获得,因此本发明增加红青(red-cyan)细胞和绿洋红(green-magenta)细胞的拮抗作用来修正拮抗颜色。红青拮抗颜色(RC)和绿洋红拮抗颜色(GM)分别定义为:
RC=(R+Y)-(G+B) (5)
GM=(G+Y)-(R+B) (6)
(3)本发明采用单拮抗和双拮抗感受野空间结构模型应用于抽取颜色特征和边缘检测。一般情况下,视网膜神经节细胞和外侧膝状体细胞具有相似的感受野属性,均为单拮抗细胞感受野。它们主要具有颜色拮抗和空间低通属性。本发明采用高斯滤波器来对R,G,B和Y通道进行滤波操作,其中高斯滤波器的标准偏差δ=5.0,则它们的滤波图像分别表示为R(x,y),G(x,y),B(x,y)和Y(x,y)。
红绿(RG)拮抗颜色的感受野反应可以定义为:
蓝黄(BY)拮抗颜色的感受野反应可以定义为:
鉴于在初级视觉皮层V1中,存在大量具有空间和颜色双重拮抗的神经元细胞,其中朝向性双拮抗细胞在彩色边缘检测中起到非常重要的作用。为了模拟它们的感受野空间结构属性,本发明采用Gabor滤波器来计算每个通道的边缘响应。Gabor滤波器的定义如下:
其中,X=xcosθ+ysinθ,Y=-xsinθ+ycosθ,θ为滤波器的方向,k=1,2,..,Nθ,γ为椭圆率,λ为波长,δ为标准方差。本发明设置Nθ=6,γ=0,25,λ=0.56和δ=2.333。
对红绿(RG)拮抗颜色分量进行Gabor滤波后可得:
其中,表示卷积运算,则红绿(RG)拮抗颜色的边缘图像erg(x,y)可以表示为:
erg(x,y)=max{erg(x,y,θi)|i=1,2,..,Nθ} (11)
其中,max{…}表示取极大值。
同理,对蓝黄(BY)拮抗颜色分量进行Gabor滤波后,可以得到蓝黄(BY)拮抗颜色的边缘图像eby(x,y)。
(4)本发明采用单拮抗和双拮抗感受野空间结构模型,对红青拮抗颜色(RC)和绿洋红拮抗颜色(GM)进行边缘特征抽取。在单拮抗细胞感受野中,本发明将红青拮抗颜色(RC)和绿洋红拮抗颜色(GM)细胞的神经元反应分别定义为:
在双拮抗细胞感受野中,本发明对红青拮抗颜色(RC)和绿洋红拮抗颜色(GM)进行Gabor滤波,同样可以得到它们对应的边缘图像erc(x,y)和egm(x,y)。
(5)采用单拮抗和双拮抗感受野模型所抽取的最终边缘信息E(x,y)为:
E(x,y)=max[eci(x,y),ci∈{rg,by,rc,gm}]+ (14)
式中,[.]+表示半波校正,并将所有负值设为0值。
(6)借鉴经典的Itti视觉注意模型对上述边缘图像erg,eby,erc和egm建立高斯金字塔,分别表示为erg(σ),eby(σ),erc(σ)和egm(σ)。高斯金字塔的层数为6层,即σ∈[0…5]。通过跨尺度抽样并产生所谓的特征映射。
例如,红绿(RG)拮抗颜色所对应边缘的特征映射可定义为:
式中,操作符表示中心-周边差操作,erg(c)表示红绿(RG)拮抗颜色所对应边缘的中心信号,erg(s)表示红绿(RG)拮抗颜色所对应边缘的周边信号。
同理,可以获得eby(σ),erc(σ)和egm(σ)的特征映射F(c,s,eby),F(c,s,erc)和F(c,s,egm)。
(7)通过Itti视觉注意模型的跨尺度等一系列操作,根据边缘图像erg,eby,erc和egm可分别得到它们对应拮抗颜色的显著图,其中
红青拮抗颜色的显著图为:
绿洋红拮抗颜色的显著图为:
红绿拮抗颜色的显著图为:
蓝黄拮抗颜色的显著图为:
其中,表示Itti视觉注意模型中的局部最大化操作。
(8)特征显著图的整合。一般情况下,双拮抗细胞感受野所抽取的信息对应于显著性区域的边缘,将显著图和边缘信息进行交互,可以使得显著区域能够比较好地对应于目标,所以本发明采用边缘信息E(x,y)和eci(x,y),ci∈{rg,by,rc,gm}用于判断显著性大小或者作为权重,并采用动态模式来实现显著图整合。为了实现动态地调制各种特征对总体显著图的贡献,本发明采用logistic函数来决定权重,权重定义如下:
在本发明中设置β=0.2,a=0.5。
针对输入图像,图像中所有像素点都有一个权重值w(ψ),其中ψ∈{erg(x,y),eby(x,y),erc(x,y),egm(x,y),E(x,y)}。鉴于权重值w(ψ),颜色信息和边缘信息三者之间有着非常密切的关系,所以本发明首先将各种拮抗颜色显著图整合为两种颜色显著图:
其中,S1(x,y)是依据边缘信息eci(x,y),ci∈{rg,by,rc,gm}为权重进行调制和整合而获得的显著图;S2(x,y))是依据边缘信息E(x,y)为权重进行调制和整合而获得的显著图。
(9)本发明对S1(x,y)和S2(x,y)进行显著性竞争,取两者的最大值,可得到总体显著图S(x,y)为:
S(x,y)=max{S1(x,y),S2(x,y)} (23)
(10)采用精确度,返回率,F值和绝对平均误差(MAE)来评价显著性检测性能。采用精确度,返回率和F值来评价性能,其中考虑固定阈值和自适应阈值的两种方式。

Claims (5)

1.基于神经元感受野空间结构的显著性检测方法,其特征是,包括如下步骤:
步骤1、将输入图像分解为红色、绿色、蓝色和黄色这4个颜色分量;
步骤2、采用加法颜色混合计算方法,获得2个修正拮抗颜色分量,即红青拮抗颜色分量和绿洋红拮抗颜色分量;
步骤3、对步骤1所得的4个颜色分量和步骤2所得2个修正拮抗颜色分量进行边缘检测,得到红绿拮抗颜色边缘图像、蓝黄拮抗颜色边缘图像、红青拮抗颜色边缘图像和绿洋红拮抗颜色边缘图像;
步骤4,综合步骤3所得的4个边缘图像,得到综合颜色边缘图像E(x,y),
E(x,y)=max[eci(x,y),ci∈{rg,by,rc,gm}]+
式中,[·]+表示半波校正,erg(x,y)为红绿拮抗颜色边缘图像,eby(x,y)为蓝黄拮抗颜色边缘图像,erc(x,y)为红青拮抗颜色边缘图像,egm(x,y)为绿洋红拮抗颜色边缘图像;
步骤5,对步骤3所得的4个拮抗颜色边缘图像分别建立高斯金字塔,并进行中心周边差操作和跨尺度整合,得到红绿拮抗颜色显著图、蓝黄拮抗颜色显著图、红青拮抗颜色显著图和绿洋红拮抗颜色显著图;
步骤6,计算步骤3所得的4个拮抗颜色边缘图像的权重和步骤4所得的综合颜色边缘图像的权重;
步骤7、基于4个拮抗颜色边缘图像的权重,对步骤5所得的4个拮抗颜色显著图进行整合,获得第一显著图;
步骤8,基于综合颜色边缘图像的权重,对步骤5所得的4个拮抗颜色显著图进行整合,获得的第二显著图;
步骤9,对第一显著图和第二显著图进行显著性竞争,取两者的最大值,可得到总体显著图。
2.根据权利要求1所述基于神经元感受野空间结构的显著性检测方法,其特征是,步骤6中,采用logistic函数来计算4个拮抗颜色边缘图像和综合颜色边缘图像的权重。
3.根据权利要求1所述基于神经元感受野空间结构的显著性检测方法,其特征是,步骤7中,第一显著图S1(x,y)为:
S 1 ( x , y ) = 1 4 ( w ( e r g ) · C r g ‾ + w ( e b y ) · C b y ‾ + w ( e r c ) · C r c ‾ + w ( e g m ) · C g m ‾ )
式中,w(erg)为红绿拮抗颜色边缘图像的权重,w(eby)为蓝黄拮抗颜色边缘图像的权重,w(erc)为红青拮抗颜色边缘图像的权重,w(egm)为绿洋红拮抗颜色边缘图像的权重;为红绿拮抗颜色的显著图,为蓝黄拮抗颜色的显著图,为红青拮抗颜色的显著图,为绿洋红拮抗颜色的显著图。
4.根据权利要求1所述基于神经元感受野空间结构的显著性检测方法,其特征是,步骤8中,第二显著图S2(x,y)为:
S 2 ( x , y ) = 1 4 ( w ( E ) · C r g ‾ + w ( E ) · C b y ‾ + w ( E ) · C r c ‾ + w ( E ) · C g m ‾ )
式中,w(E)为综合颜色边缘图像的权重;为红绿拮抗颜色的显著图,为蓝黄拮抗颜色的显著图,为红青拮抗颜色的显著图,为绿洋红拮抗颜色的显著图。
5.根据权利要求1所述基于神经元感受野空间结构的显著性检测方法,其特征是,还进一步包括如下步骤:步骤11、采用精确度、返回率、F值和/或绝对平均误差来评价显著性检测性能。
CN201610869833.0A 2016-09-30 2016-09-30 基于神经元感受野空间结构的显著性检测方法 Expired - Fee Related CN106485247B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610869833.0A CN106485247B (zh) 2016-09-30 2016-09-30 基于神经元感受野空间结构的显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610869833.0A CN106485247B (zh) 2016-09-30 2016-09-30 基于神经元感受野空间结构的显著性检测方法

Publications (2)

Publication Number Publication Date
CN106485247A true CN106485247A (zh) 2017-03-08
CN106485247B CN106485247B (zh) 2019-04-26

Family

ID=58268286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610869833.0A Expired - Fee Related CN106485247B (zh) 2016-09-30 2016-09-30 基于神经元感受野空间结构的显著性检测方法

Country Status (1)

Country Link
CN (1) CN106485247B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210502A (zh) * 2019-06-13 2019-09-06 广西师范大学 整合蜜蜂和人类视觉感知机制的特征提取和图像检索方法
CN111047581A (zh) * 2019-12-16 2020-04-21 广西师范大学 基于Itti模型和胶囊神经网络的图像显著性检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070116361A1 (en) * 2003-12-18 2007-05-24 Olivier Le Meur Device and method for creating a saliency map of an image
CN102567969A (zh) * 2011-12-28 2012-07-11 电子科技大学 一种彩色图像边缘检测方法
CN103034865A (zh) * 2012-12-13 2013-04-10 南京航空航天大学 一种基于多尺度相对熵的视觉显著区域提取方法
CN103247059A (zh) * 2013-05-27 2013-08-14 北京师范大学 一种基于整数小波与视觉特征的遥感图像感兴趣区检测方法
CN103679718A (zh) * 2013-12-06 2014-03-26 河海大学 一种基于显著性的快速场景分析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070116361A1 (en) * 2003-12-18 2007-05-24 Olivier Le Meur Device and method for creating a saliency map of an image
CN102567969A (zh) * 2011-12-28 2012-07-11 电子科技大学 一种彩色图像边缘检测方法
CN103034865A (zh) * 2012-12-13 2013-04-10 南京航空航天大学 一种基于多尺度相对熵的视觉显著区域提取方法
CN103247059A (zh) * 2013-05-27 2013-08-14 北京师范大学 一种基于整数小波与视觉特征的遥感图像感兴趣区检测方法
CN103679718A (zh) * 2013-12-06 2014-03-26 河海大学 一种基于显著性的快速场景分析方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DAVID ROJAS VIGO 等: "Color Edge Saliency Boosting using Natural Image Statistics", 《2010 SOCIETY FOR IMAGING SCIENCE AND TECHNOLOGY》 *
KEPU CHEN 等: "Olfaction spontaneously highlights visual saliency map", 《ROYAL SOCIETY》 *
吴璟莉 等: "一种基于颜色拮抗感受野的轮廓检测模型", 《计算机科学》 *
缪小冬 等: "基于视觉对抗色的交通标志检测方法", 《仪器仪表学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210502A (zh) * 2019-06-13 2019-09-06 广西师范大学 整合蜜蜂和人类视觉感知机制的特征提取和图像检索方法
CN110210502B (zh) * 2019-06-13 2023-03-31 广西师范大学 整合蜜蜂和人类视觉感知机制的特征提取和图像检索方法
CN111047581A (zh) * 2019-12-16 2020-04-21 广西师范大学 基于Itti模型和胶囊神经网络的图像显著性检测方法
CN111047581B (zh) * 2019-12-16 2022-03-25 广西师范大学 基于Itti模型和胶囊神经网络的图像显著性检测方法

Also Published As

Publication number Publication date
CN106485247B (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
Yang et al. Efficient color boundary detection with color-opponent mechanisms
CN103247059B (zh) 一种基于整数小波与视觉特征的遥感图像感兴趣区检测方法
Sannelli et al. Ensembles of adaptive spatial filters increase BCI performance: an online evaluation
CN105068644A (zh) 一种基于卷积神经网络的p300脑电信号检测方法
CN103914699A (zh) 一种基于色彩空间的自动唇彩的图像增强的方法
CN110503613A (zh) 基于级联空洞卷积神经网络的面向单幅图像去雨方法
CN105894018B (zh) 基于深度多示例学习的极化sar图像分类方法
CN105046268B (zh) 基于Wishart深度网络的极化SAR图像分类方法
CN106997475A (zh) 一种基于并行卷积神经网络的害虫图像识别方法
CN101853490A (zh) 一种基于人类视觉特性的仿生图像复原方法
CN110059593B (zh) 一种基于反馈卷积神经网络的面部表情识别方法
CN105894013B (zh) 基于cnn和smm的极化sar图像分类方法
CN108509920A (zh) 基于CNN的多patch多通道联合特征选择学习的人脸识别方法
CN106485247B (zh) 基于神经元感受野空间结构的显著性检测方法
CN102222231B (zh) 一种基于背侧通路引导的视觉注意信息计算装置及其处理方法
CN103593652A (zh) 一种基于黄瓜叶片症状图像处理的黄瓜病害识别方法
CN102881004A (zh) 一种基于视觉神经网络的数字图像增强方法
CN107067407A (zh) 基于非经典感受野和线性非线性调制的轮廓检测方法
CN111179294B (zh) 一种基于x、y并行视觉通道响应的仿生型轮廓检测方法
Chen et al. Color feature extraction of Hainan Li brocade image based on RGB and HSV
CN106373132B (zh) 基于抑制性中间神经元的边缘检测方法
CN103955900A (zh) 基于生物视觉机理的图像去雾方法
CN101241593A (zh) 图层影像的影像处理装置及其方法
CN103985115A (zh) 一种仿视觉感光层功能的图像多强度边缘检测方法
CN110210502B (zh) 整合蜜蜂和人类视觉感知机制的特征提取和图像检索方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190426

Termination date: 20210930