CN101577003B - 一种基于改进交叉视觉皮质模型的图像分割方法 - Google Patents
一种基于改进交叉视觉皮质模型的图像分割方法 Download PDFInfo
- Publication number
- CN101577003B CN101577003B CN2009100860609A CN200910086060A CN101577003B CN 101577003 B CN101577003 B CN 101577003B CN 2009100860609 A CN2009100860609 A CN 2009100860609A CN 200910086060 A CN200910086060 A CN 200910086060A CN 101577003 B CN101577003 B CN 101577003B
- Authority
- CN
- China
- Prior art keywords
- image
- neuron
- neuronic
- icm
- iteration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
本发明公开了一种基于改进交叉视觉皮质模型ICM的图像分割方法。首先改进ICM基本模型,基于改进的ICM基本模型构成网络,初始化网络参数,输入待分割原图像;然后根据输入图像的自身特性,自适应调整每个神经元模型中的各参数;接着更新每个神经元的内部状态值,动态阈值和输出值,输出此次迭代的分割图像;计算原图像与分割图像的互信息量并保存;最后根据当前迭代次数判断继续迭代或输出最佳分割图像。此方法简化了模型,提高了效率,完成了分割的自动化,解决了目前模型参数需根据不同图像人工实验调整和最佳分割需人工选取的问题,同时具有较明显的视觉优势。
Description
技术领域
本发明属于图像处理领域,具体涉及一种基于改进交叉视觉皮质模型的图像分割方法。
背景技术
图像分割是图像分析的关键内容,多年来受到国内外研究者的高度重视。至今已提出了上千种各种类型的分割方法,然而,这些分割方法在有些情况下还不能达到人类视觉的满意程度。近年来,一些学者结合人类自身的视觉神经感知机制,借助哺乳动物视觉皮层的生物模型,提出模拟生物系统的神经网络,得到了较准确的图像分割效果。
交叉视觉皮质模型(Intersecting Cortical Model,简称为ICM)是多种脑皮层模型性质交叉的产物,其主要由Eckhorn模型和Rybak模型演化,同时抽取了其他视觉模型特性。ICM是一种简化的脉冲耦合神经网络模型(Pulse Coupled Neural Network,简称为PCNN)。PCNN被称为第三代人工神经网络,已经被成功地应用于图像滤波、图像分割、图像编码、特征提取等方面。ICM由于保留了PCNN脉冲耦合、变阈值、同步脉冲发放等特性,十分适合图像处理,而且ICM的计算复杂度比PCNN要小得多。ICM是一种单层人工神经网络,同时也是一种以迭代方法为主的神经网络,它与以往反向传播神经网络等传统人工神经网络模型相比,不需要训练过程即可实现图像分割,特别适合于图像分割、边缘提取等方面的应用研究。但是,基于ICM的图像分割效果取决于ICM中各参数的选择。而对于不同的图像需要选取不同的参数,目前对于参数的选取一般通过反复实验人工设定,这很大限制了基于ICM图像分割的应用。在参数选定情况下,最佳分割结果依赖循环迭代次数的选择。因此,选择合适的准则来确定迭代次数是应用ICM对图像自动分割的关键。
发明内容
本发明的目的是针对当前ICM应用于图像分割的上述不足之处,提出一种基于改进交叉视觉皮质模型ICM的参数自适应选取的模型,在此基础上,以互信息量为准则确定最佳分割。
本发明所述的一种基于改进交叉视觉皮质模型的图像分割方法(An ImageSegmentation Method Based on Modified Intersecting Cortical Model,简称为MICM)包括如下具体步骤:
步骤1:改进ICM基本模型,基于改进的ICM基本模型构成网络,初始化网络参数,输入待分割原图像。
改进ICM基本模型,模型中的线性衰减改乘法为减法,简化了模型,降低了模型的计算复杂度,使其在硬件实现中有更高的运算效率并更适于自适应改造。基于改进的ICM基本模型进行图像分割,图像中的每个像素点对应一个神经元,每个神经元与邻域神经元连接,构成单层二维局部连接网络。根据改进的模型,初始化改进ICM网络的各个网络参数,最后输入归一化的待分割原图像。
步骤2:根据输入图像的自身特性,自适应调整每个神经元模型中的各参数。
待分割图像输入到ICM网络后,迭代num次,其中num为整数,本发明中num设定为20。每次迭代开始前,更新自适应调整的网络参数。相邻神经元之间的连接权值的自适应调整利用ICM中神经元发放同步脉冲的特性,即亮度相似空间相邻的神经元发出同步脉冲。两相邻神经元距离越近,灰度值越相近,连接权值越大。其余参数的调整则保证神经元顺利点火。神经元输出脉冲,当输出值为1时即称神经元点火。
步骤3:更新每个神经元的内部状态值、动态阈值和输出值,输出此次迭代的分割图像。
迭代时,更新每个神经元的内部状态值和动态阈值,若内部状态值比动态阈值大,该点输出值为1,否则输出值为0。每次迭代结束后,网络都将输出一幅分割后的二值图像。
步骤4:得到原图像与分割图像的互信息量并保存。
引入互信息量为评价准则来确定最佳分割,以完成自动分割。在图像分割中,计算原图像与分割后图像之间的互信息量,互信息量的大小表示分割后图像表达原图像信息量的多少。在ICM基本模型每次迭代后,得出此次迭代的目标图像与原图像的互信息量,保留各次迭代的互信息量。
步骤5:根据当前迭代次数判断继续迭代或输出最佳分割图像。
判断当前迭代次数是否达到预设值num。若是,选取最大互信息量所对应的图像,互信息量最大的分割图像即最佳分割图像,将此最佳图像输出。否则,转步骤2继续迭代。
本发明的优点在于:
(1)改进了ICM基本模型,简化了模型,降低了模型的计算复杂度,更便于进行参数自适应改造;
(2)针对目前模型参数需根据不同图像人工实验调整的问题,给出了基于ICM改进模型的各参数自适应的调整方法,缩短了图像分割的处理时间,提高了效率,使其具有实时性和健壮性;
(3)针对ICM基本模型各次迭代得到的分割图像需人工选取最佳分割的问题,引入互信息量的评价准则,完成了分割的自动化;
(4)实验结果表明,本发明取得良好的分割效果,且分割效果更为细腻,与模糊聚类分割方法(Fuzzy C-Means,简称为FCM)和最大类间方差方法(the OTSU algorithm,简称为OTSU)相比,该方法有较明显的视觉优势,并且其综合评价函数值提高了大约15%和13%。
附图说明
图1是本发明所述方法的流程图;
图2是本发明中ICM单个神经元模型;
图3是本发明基于改进的ICM基本模型的图像分割新方法与模糊聚类分割方法应用于Lena图像的比较;
图4是本发明基于改进的ICM基本模型的图像分割新方法与模糊聚类分割方法应用于Gripen图像的比较;
图5是本发明基于改进的ICM基本模型的图像分割新方法与模糊聚类分割方法应用于Cell图像的比较。
图中:1.接收模块 2.调制模块 3.脉冲产生模块
4.阈值信号发生器 5.外部刺激输入模块 6.线性连接输入模块
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细说明。
如图1所示,本发明所述方法分为如下五个步骤:
步骤一:改进ICM基本模型,基于改进的ICM基本模型构成网络,初始化网络参数,输入待分割原图像。
由于目前基于ICM基本模型的网络不适合对其网络参数进行自适应改造,为达到参数自适应的目的,首先改进ICM基本模型。ICM基本模型如图2所示,ICM中单个神经元由接收模块1、调制模块2、脉冲产生模块3和阈值信号发生器4组成。其中接收模块1由外部刺激输入模块5和线性连接输入模块6组成,外部刺激输入模块5输出外部刺激输入值S,线性连接输入模块6输出线性连接输入值其中为邻域连接权值w和输出值Y的卷积,w一般取邻域3×3神经元的连接权值矩阵,Y为邻域3×3神经元的输出值矩阵。调制模块2将神经元的外部刺激输入值S、线性连接输入值和当前的内部状态值F进行调制得到神经元的新的内部状态值F′。新的内部状态值F′反馈回调制模块2。阈值信号发生器4输出动态阈值E,动态阈值E随着时间衰减,其时间衰减因子为g。神经元的内部状态值F和动态阈值E均输入脉冲产生模块3,脉冲产生模块3比较神经元的内部状态值F和动态阈值E,若神经元的内部状态值F超过动态阈值E,则产生脉冲,得到输出值Y为1;若神经元的内部状态值F未超过动态阈值E,则不产生脉冲,输出值Y仍为0。神经元的输出值Y又反馈到线性连接输入模块6和阈值信号发生器4,影响线性连接输入值和动态阈值E。输出值Y对动态阈值E的反馈大小由阈值幅度系数h的大小体现,阈值幅度系数h越大,则输出值Y对动态阈值E的反馈越大。
ICM基本模型的原理数学方程式描述为:
Fij[n+1]=fFij[n]+Sij+W{Y}ij (1)
Eij[n+1]=gEij[n]+hYij[n+1] (3)
式(1)中,Fij表示神经元的内部状态值,Sij为神经元的外部输入值,在图像处理中则对应像素点的灰度值,其中i,j表示二维网络的行列下标,假定当前二维网络的大小为M×N,i∈[1,M],j∈[1,N],其中M,N为整数。n表示当前迭代次数,本发明中n∈[1,20]。W{Y}ij为连接输入值,W{}为神经元的连接强度函数,一般取欧氏距离的倒数,其中自变量Y一般取Ykl[n],其中k∈[i-1,i+1],l∈[j-1,j+1],即神经元ij的3×3邻域。f为内部状态的时间衰减因子。式(2)和式(3)中,Yij为神经元的输出值,Eij为动态阈值,g和h分别表示阈值的时间衰减因子和阈值幅度系数。当神经元内部状态值超过阈值时,输出一个脉冲,此时神经元的阈值因反馈迅速提高,阈值高于内部状态值,输出为零。之后阈值开始衰减下降,当阈值低于内部状态值,神经元再次点火而输出脉冲,如此反复。点火的神经元又通过连接输入而影响其他神经元的点火状态。
为便于参数自适应选取,改进模型如下:
Eij[n+1]=Eij[n]-Δ+hYij[n+1] (5)
其中,Wijkl为连接权值,Ykl[n]为神经元ij的3×3邻域神经元输出值,λ为内部状态值调整步长,Δ为阈值调整步长,λ,Δ∈[0,1);同原模型相似,神经元内部状态值和阈值都采用线性衰减。在原模型中,内部状态值和阈值都是分别乘上其时间衰减因子,而在改进模型中,两者分别修正为减去一个步长。从模型的数学表达上来看,其功能实际上是等价的。但若从ICM基本模型的硬件实现上看,改进模型提高了运算效率,简化了模型。
根据以上改进的模型,基于改进的ICM基本模型构成网络进行图像分割。每个像素点对应一个神经元,每个神经元与邻域神经元连接,一般邻域取3×3,构成单层二维局部连接网络。接着初始化基于改进的ICM基本模型的网络的各个网络参数,令Fij=0,Eij=1,h=20,迭代总次数num=20,迭代计数n=1,最后输入归一化的待分割原图像。归一化的像素值作为神经元的外部输入,因而亮度大的像素点对应的神经元会首先点火。有些首先点火神经元的邻域神经元由于接收了连接输入,提高了内部状态值而提前点火,这种脉冲传递使得亮度相似空间相邻的神经元发出同步脉冲。同步发放脉冲的神经元称为神经元集群,这些神经元集群对应着图像上不同的区域。故脉冲输出包含着图像的区域、纹理和边缘等特征信息,可以实现图像的分割。
步骤二:根据输入图像的自身特性,自适应调整每个神经元模型中的各参数。
改进模型数学描述式(4)、(2)和(5)中,模型参数有连接权值Wijkl、内部状态值调整步长λ和阈值调整步长Δ,其中λ,Δ∈[0,1)。其自适应的调整如下:
连接权值Wijkl:连接权值定义为两个因子的乘积。前一个因子表示相邻神经元的欧式距离平方倒数,两神经元距离越近,表明内部连接强度越大,对内部状态值的影响也越大;后一项为其归一化灰度值之差再求反,反映灰度值越相近,连接权值越大。连接权值的自适应选取符合ICM基本模型中神经元发放同步脉冲的特性,亮度相似空间相邻的神经元发出同步脉冲。Wijkl连接权矩阵大小取3×3,神经元ij和神经元kl的连接权值,其中k∈[i-1,i+1],l∈[j-1,j+1],自适应调整为:
内部状态调整步长λ和阈值调整步长Δ:ICM修正模型的式(4)中,内部状态值以步长λ线性递减,令λ满足式(7);式(5)中,阈值的线性递减选取步长Δ,令Δ满足式(8),为了确保动态阈值最终能够小于神经元的内部状态值而使神经元能顺利点火,需要满足λ<Δ,λ和Δ均小于1.0。式(7)和(8)中的num为预先选取的迭代总次数,n当前迭代次数。步长λ随着迭代次数的增加越来越小,表示神经元内部状态值衰减得越来越慢;而步长Δ设定为迭代总次数num的倒数,迭代完后,阈值衰减了1,即遍历了一遍灰度值;自适应调整为:
λ=1/(num+n) (7)
Δ=1/num (8)
阈值幅度系数h:从式(5)可以看出,在脉冲发放的时候,阈值因输出反馈迅速提高了一个幅度系数的大小,从而使阈值高于内部状态值而停止输出脉冲。阈值幅度系数h只需要保证神经元点火,本发明中取h=20。
步骤三:更新每个神经元的内部状态值、动态阈值和输出值,输出此次迭代的分割图像。
利用步骤二得到的自适应参数,在迭代时,根据式(4)、(2)和(5)更新每个神经元的内部状态值F、输出值Y和动态阈值E。根据(2)式,若内部状态值F比动态阈值E大,该点输出值为1,否则输出值为0。每次迭代结束后,网络都将输出一幅分割后的二值图像。
步骤四:得到原图像与分割图像的互信息量并保存。
引入互信息量为评价准则来确定最佳分割,以完成自动分割。在图像分割中,当分割后图像表达的原图像的信息量最多时,可认为是最优的分割。互信息量可以根据下式求得:
MI(A,B)=H(A)+H(B)-H(A,B) (9)
A表示原图像,B为分割后得到的分割图像,H(A)、H(B)和H(A,B)分别为原图像A的熵、分割图像B的熵以及A和B的联合熵。在ICM基本模型每次迭代后,得到此次迭代的分割图像与原图像的互信息量MI,保留各次迭代的互信息量MIn。
步骤五:根据当前迭代次数判断继续迭代或输出最佳分割图像。
判断当前迭代次数n是否达到预设的迭代总次数num。若是,选取最大互信息量所对应的分割图像,互信息量最大的分割图像即最佳分割图像,将此最佳分割图像输出。否则,转步骤二继续迭代。
综上所述,其具体执行步骤如下:
Step1:初始化网络参数,Fij=0,Eij=1,h=20,迭代总次数num=20,Δ=1/num,MImax=0,Ybest=0,迭代计数n=1;
Step2:输入原图像A,图像大小为M×N,归一化像素灰度值为Sij,i∈[1,M],j∈[1,N];
Step3:按式(7)更新步长λ;对每个像素ij按式(6)更新连接权值Wijkl;
Step4:按式(4)(5)(2)更新每个像素的Fij,Eij,Yij,得到分割后的二值图像B;
Step5:按式(9)得到A与B的互信息量MI,若MI>MImax,则MI=MImax,Ybest=Y;
Step6:n=n+1;
Step7:若n>num,迭代结束,输出Ybest作为分割结果;否则,转Step3。
以下是具体实验结果分析:
为了验证本发明方法MICM的有效性,将其与分割效果较好的FCM方法和分割性能稳定的OTSU方法进行比较。MICM和OTSU方法均使用matlab 6.5实现,而FCM方法则由matlab自带工具箱中的fcm函数实现。本发明以Lena、Gripen和Cell三幅图像的分割结果为例,如图3、图4和图5所示。图3(b)是Lena原图像使用FCM方法得到的分割结果,图3(c)是使用OTSU方法得到的分割结果,而图3(d)是使用MICM得到的分割结果。从人眼视觉效果看,图3(d)中的人脸鼻子和嘴唇的细节要明显丰富一些。图4中,图4(a)为原始Gripen图像,图4(b)为Gripen图像应用FCM分割的结果,图4(c)为Gripen图像应用OTSU分割的结果,图4(d)为Gripen图像应用本发明分割方法的结果,可以看出,FCM方法和OTSU方法得到的分割结果有一些明显的噪声,而MICM方法所得分割结果效果良好。图5中,图5(a)为原始Cell图像,图5(b)为Cell图像应用FCM分割的结果,图5(c)为Cell图像应用OTSU分割的结果,图5(d)为Cell图像应用本发明分割方法的结果。三种方法得到的分割效果都很好,从人眼看无显著不同。
实验中,采用分割前后图像的互信息量MI、分割图像的区域内部均匀性UM、区域间对比度GLC作为评价分割结果的客观准则,最后给出综合评价函数F。图像分割后分割区域的内部均匀性可以反映出分割结果的好坏。UM的计算公式见式(10):
其中,f(x,y)表示像素点xy的灰度值;Ri表示分割图像中的第i个区域;Ai表示其面积;C为归一化系数,C为整数,根据具体情况可取(0,2552],本发明中C取值为2552。UM越大,分割后各区域的均匀性越好。区域间对比度GLC的大小也可以判定分割结果的好坏。GLC的计算公式见式(11):
其中,f1和f2表示分割后两区域所对应的原图像中的像素平均灰度。GLC越大,分割得到的图像区域间差异越大,分割效果越好。为了更准确更客观地评价分割结果,本文综合考虑以上准则,给出综合评价函数F,定义为:
F=MI·UM·GLC (12)
从分割前后图像的互信息量、分割后图像区域一致性和区域间对比度几个方面综合评价图像的分割效果,F越大,分割效果越好。
表1实验结果的评价
表1是分割结果的定量比较。从表1中数据可以看出,MICM方法不仅能对图像自适应地进行分割,并且分割效果要明显优于FCM方法和OTSU方法。表1中,互信息量和区域内部均匀性这两个评价准则对图像分割的质量差异反映得不明显,每幅图像的3种方法对应的MI和UM都较相近。而区域间对比度GLC较好得反映了质量差别,如图像Gripen应用MICM方法得到的分割图像的GLC为0.3488,明显大于FCM和OTSU方法得到的0.2812。实验结果统计得出,MICM方法的综合评价函数的值F比FCM方法提高了大约15%,而比OTSU方法提高了约13%。
通过实验的分析对比可知,本发明基于改进的ICM基本模型的自适应的图像分割新方法,解决了参数选取和最佳分割选取困难的问题,整个分割过程不需人工交互,提高了分割效率,与模糊聚类分割方法和最大类间方差方法相比,有较明显的视觉优势,并且其综合评价函数值分别提高了大约15%和13%。
Claims (2)
1.一种基于改进交叉视觉皮质模型ICM的图像分割方法,其特征在于,本方法包括如下步骤:
步骤一:改进ICM基本模型,基于改进的ICM基本模型构成网络,初始化网络参数,输入待分割原图像:
首先改进ICM基本模型:ICM基本模型中单个神经元由接收模块(1)、调制模块(2)、脉冲产生模块(3)和阈值信号发生器(4)组成;其中接收模块(1)由外部刺激输入模块(5)和线性连接输入模块(6)组成,外部刺激输入模块(5)输出神经元的外部刺激输入值S,线性连接输入模块(6)输出线性连接输入值其中为邻域连接权值矩阵w和输出值矩阵Y的卷积,w为邻域3×3神经元的连接权值矩阵,Y为邻域3×3神经元的输出值矩阵;调制模块(2)将神经元的外部刺激输入值S、线性连接输入值和当前的神经元的内部状态值F进行调制得到神经元的新的内部状态值F′;新的内部状态值F′反馈回调制模块(2);阈值信号发生器(4)输出动态阈值E,动态阈值E随着时间衰减;神经元的内部状态值F和动态阈值E均输入脉冲产生模块(3),脉冲产生模块(3)比较神经元的内部状态值F和动态阈值E,若神经元的内部状态值F超过动态阈值E,则产生脉冲,得到神经元的输出值Y为1;若神经元的内部状态值F未超过动态阈值E,则不产生脉冲,神经元的输出值Y仍为0;神经元的输出值Y又反馈到线性连接输入模块(6)和阈值信号发生器(4),影响线性连接输入值和动态阈值E;神经元的输出值Y对动态阈值E的反馈大小由阈值幅度系数h的大小体现,阈值幅度系数h越大,则神经元的输出值Y对动态阈值E的反馈越大;
改进的ICM基本模型如下:
Eij[n+1]=Eij[n]-Δ+hYij[n+1]
Fij表示神经元ij的内部状态值,Sij为神经元ij的外部输入值,在图像处理中对应像素点的灰度值;Yij为神经元ij的输出值,Eij为神经元ij的动态阈值,Wijkl为邻域连接权值,Ykl[n]为神经元ij的3×3邻域神经元输出值,k∈[i-1,i+1],l∈[j-1,j+1],λ为内部状态值调整步长,Δ为阈值调整步长,λ,Δ∈[0,1);其中ij表示二维网络的行列下标,假定当前二维网络的大小为M×N,i∈[1,M],j∈[1,N],M,N为整数;n表示当前迭代次数,n∈[1,20];
然后基于改进的ICM基本模型构成网络进行图像分割:每个像素点对应一个神经元,每个神经元与邻域神经元连接,邻域取3×3,构成单层二维局部连接网络;
接着初始化基于改进的ICM基本模型的网络的各个网络参数,令Fij=0,Eij=1,h=20,预先选取的迭代总次数num=20,当前迭代计数n=1;
最后输入归一化的待分割原图像;
步骤二:根据输入图像的自身特性,自适应调整每个神经元模型中的各参数:
每个神经元模型中的各参数的自适应调整如下:
邻域连接权值Wijkl:邻域连接权值Wijkl定义为两个因子的乘积;Wijkl邻域连接权矩阵w大小取3×3,Wijkl表示神经元ij和神经元kl的连接权值,其中k∈[i-1,i+1],l∈[j-1,j+1],自适应调整为:
内部状态值调整步长λ和阈值调整步长Δ:λ<Δ,λ和Δ均小于1.0,num为预先选取的迭代总次数,n当前迭代次数,自适应调整为:
λ=1/(num+n)
Δ=1/num
阈值幅度系数h:阈值幅度系数h能够保证神经元点火,取h=20;当神经元输出脉冲的输出值为1时即为神经元点火;
步骤三:更新每个神经元的内部状态值、动态阈值和输出值,输出此次迭代的分割图像:利用步骤二得到的自适应参数,在迭代时,根据及改进的ICM基本模型更新每个神经元的内部状态值F、神经元的输出值Y和动态阈值E;若神经元的内部状态值F比动态阈值E大,该神经元的输出值为1,否则神经元的输出值为0;每次迭代结束后,网络都输出一幅分割后的二值图像;
步骤四:得到原图像与分割图像的互信息量并保存:
互信息量根据下式得到:
MI(A,B)=H(A)+H(B)-H(A,B)
A表示原图像,B为分割后得到的分割图像,H(A)、H(B)和H(A,B)分别为原图像A的熵、分割图像B的熵、以及A和B的联合熵;在改进的ICM基本模型每次迭代后,得到此次迭代得到的分割图像与原图像的互信息量MI,保留各次迭代的互信息量MIn,其中n为当前迭代次数,n∈[1,20];
步骤五:根据当前迭代次数判断继续迭代或输出最佳分割图像:
判断当前迭代次数n是否达到预先选取的迭代总次数num;若是,选取最大互信息量所对应的分割图像,互信息量最大的分割图像即为最佳分割图像,将此最佳分割图像输出;否则,转步骤二继续迭代。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100860609A CN101577003B (zh) | 2009-06-05 | 2009-06-05 | 一种基于改进交叉视觉皮质模型的图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100860609A CN101577003B (zh) | 2009-06-05 | 2009-06-05 | 一种基于改进交叉视觉皮质模型的图像分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101577003A CN101577003A (zh) | 2009-11-11 |
CN101577003B true CN101577003B (zh) | 2011-08-17 |
Family
ID=41271937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100860609A Expired - Fee Related CN101577003B (zh) | 2009-06-05 | 2009-06-05 | 一种基于改进交叉视觉皮质模型的图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101577003B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719272B (zh) * | 2009-11-26 | 2012-07-04 | 上海大学 | 基于三维改进型脉冲耦合神经网络的三维图像分割方法 |
US8428363B2 (en) * | 2011-04-29 | 2013-04-23 | Mitsubishi Electric Research Laboratories, Inc. | Method for segmenting images using superpixels and entropy rate clustering |
CN102651132B (zh) * | 2012-04-06 | 2014-06-18 | 华中科技大学 | 一种基于交叉视觉皮质模型的医学图像配准方法 |
CN103528617B (zh) * | 2013-09-27 | 2016-08-10 | 中国人民解放军空军工程大学 | 一种座舱仪表自动识别和检测方法及装置 |
CN104008368A (zh) * | 2014-05-13 | 2014-08-27 | 重庆大学 | 一种基于最大熵阈值分割的火灾识别方法 |
CN104063874B (zh) * | 2014-07-09 | 2017-01-25 | 武汉科技大学 | 基于权值模型的灰度图像二值化算法定量评估方法 |
CN106303527B (zh) * | 2016-08-16 | 2020-10-09 | 广东中星电子有限公司 | 时分复用神经网络处理器的视频分级码流编码方法和系统 |
WO2018072066A1 (zh) * | 2016-10-18 | 2018-04-26 | 中国科学院深圳先进技术研究院 | 脉冲神经电路 |
CN107330447B (zh) * | 2017-06-05 | 2020-04-24 | 三峡大学 | 一种反馈式icm神经网络和fpf相结合的剪影识别系统 |
CN107437245B (zh) * | 2017-06-26 | 2020-10-20 | 西南交通大学 | 基于深度卷积神经网络的高速铁路接触网故障诊断方法 |
JP7049587B2 (ja) * | 2019-01-09 | 2022-04-07 | オムロン株式会社 | 画像処理装置、画像処理プログラム、及び画像処理方法 |
CN111507454B (zh) * | 2019-01-30 | 2022-09-06 | 兰州交通大学 | 一种用于遥感影像融合的改进交叉皮质神经网络模型 |
CN114004343B (zh) * | 2021-12-31 | 2022-10-14 | 之江实验室 | 基于忆阻器脉冲耦合神经网络的最短路径获取方法及装置 |
-
2009
- 2009-06-05 CN CN2009100860609A patent/CN101577003B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN101577003A (zh) | 2009-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101577003B (zh) | 一种基于改进交叉视觉皮质模型的图像分割方法 | |
CN106023195B (zh) | 基于自适应遗传算法的bp神经网络图像分割方法及装置 | |
CN112614077B (zh) | 一种基于生成对抗网络的非监督低照度图像增强方法 | |
CN103295191B (zh) | 多尺度视觉自适应图像增强方法及评价方法 | |
CN110516539A (zh) | 基于对抗网络的遥感影像建筑物提取方法、系统、存储介质及设备 | |
CN110163433B (zh) | 一种船舶流量预测方法 | |
CN103177451B (zh) | 基于图像边缘的自适应窗口和权重的立体匹配算法 | |
CN107154048A (zh) | 一种脉冲耦合神经网络模型的遥感图像分割方法及装置 | |
CN110479636B (zh) | 基于神经网络自动分拣烟叶的方法及装置 | |
CN104036495A (zh) | 一种焊接缺陷提取方法及焊接缺陷检测方法 | |
CN102013021A (zh) | 基于颜色和区域生长的茶叶嫩芽分割和识别方法 | |
CN110084288B (zh) | 一种基于自学习神经单元的图像融合方法 | |
CN109376728A (zh) | 一种基于多特征融合和bp神经网络的稻田杂草识别方法及其应用 | |
CN109615627B (zh) | 一种输变电巡检图像质量评价方法及系统 | |
CN106373136A (zh) | 一种基于颜色和特征的害虫识别计数方法 | |
CN103034872A (zh) | 基于颜色和模糊聚类算法的农田害虫识别方法 | |
CN109788275A (zh) | 自然性、结构和双目不对称无参考立体图像质量评价方法 | |
CN103927557B (zh) | 基于分层模糊证据合成的lidar数据地物分类方法 | |
CN106709504A (zh) | 细节保持的高保真色调映射方法 | |
CN103679670B (zh) | 一种基于改进模型的pcnn多源图像融合方法 | |
CN116058195B (zh) | 一种叶菜生长环境光照调控方法、系统及装置 | |
CN101533475A (zh) | 一种基于形状自适应邻域的遥感图像特征提取方法 | |
CN110096976A (zh) | 基于稀疏迁移网络的人体行为微多普勒分类方法 | |
CN114581356A (zh) | 基于风格迁移数据增广的图像增强模型泛化方法 | |
CN114662201A (zh) | 一种自然通风智能调控的寻优方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110817 Termination date: 20150605 |
|
EXPY | Termination of patent right or utility model |