CN110853064B - 一种基于最小模糊散度的图像协同分割方法 - Google Patents

一种基于最小模糊散度的图像协同分割方法 Download PDF

Info

Publication number
CN110853064B
CN110853064B CN201911097587.1A CN201911097587A CN110853064B CN 110853064 B CN110853064 B CN 110853064B CN 201911097587 A CN201911097587 A CN 201911097587A CN 110853064 B CN110853064 B CN 110853064B
Authority
CN
China
Prior art keywords
image
pixel
curve
value
fuzzy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911097587.1A
Other languages
English (en)
Other versions
CN110853064A (zh
Inventor
王世刚
赵雪松
韦健
赵岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201911097587.1A priority Critical patent/CN110853064B/zh
Publication of CN110853064A publication Critical patent/CN110853064A/zh
Application granted granted Critical
Publication of CN110853064B publication Critical patent/CN110853064B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种基于最小模糊散度的图像协同分割方法属图像处理和计算机视觉技术领域,本发明通过交并比(Intersection over Union,IOU)值判断分割效果,1.获取图像分割数据集,进行RGB空间到LAB空间转换;2.利用Gamma型隶属度函数构造模糊散度公式,构造新的能量函数,依据最小模糊散度准则进行曲线演化,达到好的分割效果;本发明利用模糊集理论更好地处理目标边缘;将一幅图像的颜色信息引入到另一幅图像的能量函数中,能增强对初始曲线替换的鲁棒性;利用基于区域的活动轮廓模型,通过求解能量函数局部极小值达到最优分割效果;建立的模型可降低计算时间的复杂性,可应用于集成成像立体显示系统的前期工作。

Description

一种基于最小模糊散度的图像协同分割方法
技术领域
本发明属图像处理和计算机视觉技术领域,具体涉及一种基于最小模糊散度的图像协同分割方法。
背景技术
随着近些年图像数据规模的不断增加,众多实际应用对图像分割的需求已不满足于小规模的单幅图像分割,从一组图像中提取常见目标成为了活跃的研究课题,即图像协同分割问题。
协同分割的思想在于基于单幅图像的分割方法上考虑一个附加的前景相似性约束,从而实现对普通对象的分割。针对这一问题,过去数年中多种协同分割算法被相继提出,并成功地应用于实际问题中,如基于马尔科夫随机场(MRF)的协同化方法,根据估计理论中的最优准则确定分割问题的目标函数,将分割问题转化为最优化问题,难度在于图像特征选取和前景相似性度量方法的选取;基于热扩散的协同化方法,是将分割问题建模为热扩散的温度最大化问题,但是对于由多个独特区域组成的前景(如人体)效果并不理想;基于随机游走的协同化方法,优化计算更简单,但是用户需要在第一幅图像中标注出前景区域和背景区域;基于主动轮廓的协同化方法中,不同的特征选取方式以及一致性的度量方式,都会对模型产生不同的影响。
由于以上算法的缺陷,在实际应用中很难取得理想的效果,故有必要进行改进。
发明内容
本发明的目的在于提供一种基于最小模糊散度的协同分割模型,对多幅不同视角图像进行比较完善的分割,最大程度减少误差率。
本发明解决其问题所采用的技术方案是:
一种基于最小模糊散度的图像协同分割方法,利用颜色直方图信息来表达前景相似性,利用模糊散度构造能量函数,将一幅图像的区域信息引入到另一幅图像的能量函数中,从而能增强对初始曲线替换的鲁棒性。此外,采用互优化的方法驱动能量函数最小值,轮廓曲线逐渐向待检测物体的边缘逼近,最终分割出目标。
本发明所述基于最小模糊散度的图像协同分割方法包括下列步骤:
1.1获取图像数据库:iCoseg数据集、4*4相机阵列拍摄图像集;
1.2预处理:分割之前利用SLIC超像素分割方法,将像素简单分类、生成超像素图像,包括下列步骤:
1.2.1将M*N大小的图像,从RGB空间转换至LAB空间;
1.2.2设置预生成的超像素数量K=1000,即将M*N大小的图像分割成1000个像素块,每个像素块分为大小包含[(M*N)/1000]个像素;
1.2.3每个超像素区域长宽都均匀分布,长宽M设置为M=sqrt(M*N/1000);
1.2.4初始化聚类中心点,计算像素点与聚类中心的距离,通过迭代优化直至误差收敛,迭代次数设置为10;
1.3定义初始曲线:将初始曲线定义为矩形,位置处于图像中央;
1.4区域表示:采用颜色直方图表示区域特征,对于R-G-B图像,颜色值用三维向量表示,直方图通过每种颜色在某个区域出现的概率生成;
1.5前景相似性度量:用颜色直方图方法进行前景相似性度量,颜色直方图能实际地表达图像中颜色的数量,遍历所有像素点完成统计;由于同一种颜色像素值会略有不同,因此对于像素点p'和p,如果这两个像素的颜色距离小于β,将认为它们具有相同的颜色,即|p'-p|≤β;
将前景相似度设为S,区域表示为γ(ω),则对于像素值p来说,相似度表达为:
Figure GDA0003216029640000021
1.6建立基于区域的活动轮廓模型:构造基于模糊散度的能量函数,在能量函数最小值的驱动下,轮廓曲线逐渐向前景边缘逼近,包括下列步骤:
1.6.1实验过程中认为像素分布满足于Gamma分布,对任意的阈值T,由式:
Figure GDA0003216029640000022
计算图像中每个像素的隶属度函数值,将图像映射为一个模糊集,其中满足:
计算图像中每个像素的隶属度函数值,将图像映射为一个模糊集,其中满足:
Figure GDA0003216029640000023
Figure GDA0003216029640000024
Figure GDA0003216029640000025
其中:c为比例系数;gmax为图像像素的最大值;gmin为图像像素的最小值;L为图像中像素点的个数;g为该点的像素值;h(g)为该点的像素个数;mB为背景的平均值;mF为前景的平均值;
1.6.2基于Gamma型隶属度函数,模糊散度公式为:
Figure GDA0003216029640000026
其中:图像大小为M×N;xij为某一点的像素值;μA(xij)为集合A某一点的隶属度函数值;μB(xij)为集合B某一点的隶属度函数值;
对于理想分割图像B,其隶属度函数为μB(xij)=1;
因此,模糊散度公式能简化为:
Figure GDA0003216029640000031
根据模糊散度公式分别计算两幅图像前景之间和背景之间的模糊散度,取其和;
1.6.3将步骤1.6.2中的简化模糊散度公式用于构造水平集函数:
Figure GDA0003216029640000032
则有:
Figure GDA0003216029640000033
1.6.4 C-V模型如下:
Figure GDA0003216029640000034
其中:L(C)表示曲线C的长度;μ表示长度系数;Area(γ(ωi))表示曲线C内部区域的面积;v表示面积系数;γ(ωi)表示曲线C内部区;γ(ωo)表示曲线C外部区域;Ci表示内部平均灰度值;CO表示外部平均灰度值;I(x,y)表示像素值;
将步骤1.6.3中的水平集函数代入上面C-V模型更新如下:
Figure GDA0003216029640000035
其中:Ik为实验图像对中的第k幅图像;
Figure GDA0003216029640000036
代表曲线内部区域;
Figure GDA0003216029640000037
代表曲线外部区域;
Figure GDA0003216029640000038
代表另一幅图曲线内部的区域;S[I(x,y),γ(ω)]用来度量像素与区域之间的相似性;
Figure GDA0003216029640000039
即为1.6.3中的水平集函数;δ(x)为一维Dirac函数;H(x)为Heaviside函数;
Figure GDA00032160296400000310
代表曲线内部区域γ(ωi);
Figure GDA00032160296400000311
代表曲线外部区域γ(ωo);
1.6.5曲线演化过程:水平集函数演化初始轮廓,进而驱动曲线向目标逼近,经过动态先验逐渐得到前景与背景的分割曲线C;图像基于能量分布,根据最小模糊准则表达两个模糊集之间的信息差异性,即模糊散度值最小,分割图最接近原始图。
本发明在获取同一目标物体的多视角图像数据之后,首先定义初始矩形曲线以包含大部分主体;之后使用颜色直方图进行前景相似性度量;进而以模糊散度构造新的能量函数。图像本质上具有模糊性,由于模糊集理论是处理不确定性、不精确性问题的有效工具,面对图像分割的边缘细节问题,可以发挥有效性,因此本发明基于Gamma隶属度函数建立模糊散度公式,考虑图像对之间的前景相似性和背景一致性,从而改进C-V主动轮廓模型中的能量函数,通过最小模糊散度准则,利用动态先验来相互演化曲线,求得能量最优解,既能同时分割两个及以上的图像集合,又能最大程度地减少误差率。
本发明将传统模糊集理论与活动轮廓模型相融合,提出了一种新的协同分割模型,能够同时处理两幅及以上图像的目标分割问题,与传统算法相比,能比较准确地找到共同目标。本发明针对医学图像以及集成成像内容生成部分可以发挥良好作用。
附图说明
图1为基于最小模糊散度的图像协同分割方法的流程图;
图2为分割结果图。
具体实施方式
下面结合附图进一步说明本发明的实施流程,一种基于最小模糊散度的图像协同分割方法,包括iCoseg图像数据库和相机阵列拍摄图像,选取6对图像作为实验数据,如图1所示,本发明的方法包括下列步骤:
1.1获取图像数据库:iCoseg数据集、4*4相机阵列拍摄图像集;
1.2预处理:分割之前利用SLIC超像素分割方法,将像素简单分类、生成超像素图像,包括下列步骤:
1.2.1将M*N大小的图像,从RGB空间转换至LAB空间;
1.2.2设置预生成的超像素数量K=1000,即将M*N大小的图像分割成1000个像素块,每个像素块分为大小包含[(M*N)/1000]个像素;
1.2.3每个超像素区域长宽都均匀分布,长宽M设置为M=sqrt(M*N/1000);
1.2.4初始化聚类中心点,计算像素点与聚类中心的距离,通过迭代优化直至误差收敛,迭代次数设置为10;
1.3定义初始曲线:将初始曲线定义为矩形,位置处于图像中央;
1.4区域表示:采用颜色直方图表示区域特征,对于R-G-B图像,颜色值用三维向量表示,直方图通过每种颜色在某个区域出现的概率生成;
1.5前景相似性度量:用颜色直方图方法进行前景相似性度量,颜色直方图能实际地表达图像中颜色的数量,遍历所有像素点完成统计;由于同一种颜色像素值会略有不同,因此对于像素点p'和p,如果这两个像素的颜色距离小于β,将认为它们具有相同的颜色,即|p'-p|≤β;
将前景相似度设为S,区域表示为γ(ω),则对于像素值p来说,相似度表达为:
Figure GDA0003216029640000041
1.6建立基于区域的活动轮廓模型:构造基于模糊散度的能量函数,在能量函数最小值的驱动下,轮廓曲线逐渐向前景边缘逼近,包括下列步骤:
1.6.1实验过程中认为像素分布满足于Gamma分布,对任意的阈值T,由式:
Figure GDA0003216029640000051
计算图像中每个像素的隶属度函数值,将图像映射为一个模糊集,其中满足:
计算图像中每个像素的隶属度函数值,将图像映射为一个模糊集,其中满足:
Figure GDA0003216029640000052
Figure GDA0003216029640000053
Figure GDA0003216029640000054
其中:c为比例系数;gmax为图像像素的最大值;gmin为图像像素的最小值;L为图像中像素点的个数;g为该点的像素值;h(g)为该点的像素个数;mB为背景的平均值;mF为前景的平均值;
1.6.2基于Gamma型隶属度函数,模糊散度公式为:
Figure GDA0003216029640000055
其中:图像大小为M×N;xij为某一点的像素值;μA(xij)为集合A某一点的隶属度函数值;μB(xij)为集合B某一点的隶属度函数值;
对于理想分割图像B,其隶属度函数为μB(xij)=1;
因此,模糊散度公式能简化为:
Figure GDA0003216029640000056
根据模糊散度公式分别计算两幅图像前景之间和背景之间的模糊散度,取其和;
1.6.3将步骤1.6.2中的简化模糊散度公式用于构造水平集函数:
Figure GDA0003216029640000057
则有:
Figure GDA0003216029640000058
1.6.4 C-V模型如下:
Figure GDA0003216029640000059
其中:L(C)表示曲线C的长度;μ表示长度系数;Area(γ(ωi))表示曲线C内部区域的面积;v表示面积系数;γ(ωi)表示曲线C内部区;γ(ωo)表示曲线C外部区域;Ci表示内部平均灰度值;CO表示外部平均灰度值;I(x,y)表示像素值;
将步骤1.6.3中的水平集函数代入上面C-V模型更新如下:
Figure GDA0003216029640000061
其中:Ik为实验图像对中的第k幅图像;
Figure GDA0003216029640000062
代表曲线内部区域;
Figure GDA0003216029640000063
代表曲线外部区域;
Figure GDA0003216029640000064
代表另一幅图曲线内部的区域;S[I(x,y),γ(ω)]用来度量像素与区域之间的相似性;
Figure GDA0003216029640000065
即为1.6.3中的水平集函数;δ(x)为一维Dirac函数;H(x)为Heaviside函数;
Figure GDA0003216029640000066
代表曲线内部区域γ(ωi);
Figure GDA0003216029640000067
代表曲线外部区域γ(ωo);
1.6.5曲线演化过程:水平集函数演化初始轮廓,进而驱动曲线向目标逼近,经过动态先验逐渐得到前景与背景的分割曲线C;图像基于能量分布,根据最小模糊准则表达两个模糊集之间的信息差异性,即模糊散度值最小,分割图最接近原始图。
1.7参数分析与设定:
步骤1.3中,曲线边缘与相应的图像边缘之间的距离d设置为4,从而覆盖大多数公共图像;
步骤1.5中,考虑直方图分布,β设置为15;
步骤1.5中,由于两幅图像的直方图比较得到的公共像素数目用来测量前景相似度S,需要将直方图归一化使S∈[0,1];
步骤1.6.5中,μ=0.01,v=0.001;
迭代次数设置为500,当面对复杂的前景与背景时可将迭代次数变大;
1.8综合分割效果判断:
本发明采用IOU方法对分割效果进行评价,IOU是一种测量在特定数据集中检测相应物体准确度的一个标准,这个标准用于测量真实和预测之间的相关度,相关度越高,该值越高;
将iCoseg数据集里提供的已经人工标定好的图像与该发明算法的结果图进行比较,IOU>0.5时认为分割效果较好,IOU>0.9时认为分割比较理想;对于多幅(>=2)图像,计算单幅图像IOU值,再取平均值,即
Figure GDA0003216029640000068
分割效果评价如下表所示:
Figure GDA0003216029640000069
Figure GDA0003216029640000071
说明:
(1)雕塑图像对中其中一幅图像的IOU值为0.692521,略大于0.5,是由于iCoseg数据集所提供的二值分割图像不包括雕塑台,本发明分割出来的图像包括雕塑台。
(2)由实验室相机阵列拍摄的图像,并无人工标定的二值分割图像,可直观判断。

Claims (1)

1.一种基于最小模糊散度的图像协同分割方法,其特征在于包括下列步骤:
1.1获取图像数据库:iCoseg数据集、4*4相机阵列拍摄图像集;
1.2预处理:分割之前利用SLIC超像素分割方法,将像素简单分类、生成超像素图像,包括下列步骤:
1.2.1将M*N大小的图像,从RGB空间转换至LAB空间;
1.2.2设置预生成的超像素数量K=1000,即将M*N大小的图像分割成1000个像素块,每个像素块分为大小包含[(M*N)/1000]个像素;
1.2.3每个超像素区域长宽都均匀分布,长宽M设置为M=sqrt(M*N/1000);
1.2.4初始化聚类中心点,计算像素点与聚类中心的距离,通过迭代优化直至误差收敛,迭代次数设置为10;
1.3定义初始曲线:将初始曲线定义为矩形,位置处于图像中央;
1.4区域表示:采用颜色直方图表示区域特征,对于R-G-B图像,颜色值用三维向量表示,直方图通过每种颜色在某个区域出现的概率生成;
1.5前景相似性度量:用颜色直方图方法进行前景相似性度量,颜色直方图能实际地表达图像中颜色的数量,遍历所有像素点完成统计;由于同一种颜色像素值会略有不同,因此对于像素点p'和p,如果这两个像素的颜色距离小于β,将认为它们具有相同的颜色,即|p'-p|≤β;
将前景相似度设为S,区域表示为γ(ω),则对于像素值p来说,相似度表达为:
Figure FDA0003216029630000011
1.6建立基于区域的活动轮廓模型:构造基于模糊散度的能量函数,在能量函数最小值的驱动下,轮廓曲线逐渐向前景边缘逼近,包括下列步骤:
1.6.1实验过程中认为像素分布满足于Gamma分布,对任意的阈值T,由式:
Figure FDA0003216029630000012
计算图像中每个像素的隶属度函数值,将图像映射为一个模糊集,其中满足:
Figure FDA0003216029630000013
Figure FDA0003216029630000014
Figure FDA0003216029630000015
其中:c为比例系数;gmax为图像像素的最大值;gmin为图像像素的最小值;L为图像中像素点的个数;g为该点的像素值;h(g)为该点的像素个数;mB为背景的平均值;mF为前景的平均值;
1.6.2基于Gamma型隶属度函数,模糊散度公式为:
Figure FDA0003216029630000021
其中:图像大小为M×N;xij为某一点的像素值;μA(xij)为集合A某一点的隶属度函数值;μB(xij)为集合B某一点的隶属度函数值;
对于理想分割图像B,其隶属度函数为μB(xij)=1;
因此,模糊散度公式能简化为:
Figure FDA0003216029630000022
根据模糊散度公式分别计算两幅图像前景之间和背景之间的模糊散度,取其和;
1.6.3将步骤1.6.2中的简化模糊散度公式用于构造水平集函数:
Figure FDA0003216029630000023
则有:
Figure FDA0003216029630000024
1.6.4C-V模型如下:
Figure FDA0003216029630000025
其中:L(C)表示曲线C的长度;μ表示长度系数;Area(γ(ωi))表示曲线C内部区域的面积;v表示面积系数;γ(ωi)表示曲线C内部区;γ(ωo)表示曲线C外部区域;Ci表示内部平均灰度值;CO表示外部平均灰度值;I(x,y)表示像素值;
将步骤1.6.3中的水平集函数代入上面C-V模型更新如下:
Figure FDA0003216029630000026
其中:Ik为实验图像对中的第k幅图像;
Figure FDA0003216029630000027
代表曲线内部区域;
Figure FDA0003216029630000028
代表曲线外部区域;
Figure FDA0003216029630000029
代表另一幅图曲线内部的区域;S[I(x,y),γ(ω)]用来度量像素与区域之间的相似性;
Figure FDA00032160296300000210
即为1.6.3中的水平集函数;δ(x)为一维Dirac函数;H(x)为Heaviside函数;
Figure FDA0003216029630000031
代表曲线内部区域γ(ωi);
Figure FDA0003216029630000032
代表曲线外部区域γ(ωo);
1.6.5曲线演化过程:水平集函数演化初始轮廓,进而驱动曲线向目标逼近,经过动态先验逐渐得到前景与背景的分割曲线C;图像基于能量分布,根据最小模糊准则表达两个模糊集之间的信息差异性,即模糊散度值最小,分割图最接近原始图。
CN201911097587.1A 2019-11-12 2019-11-12 一种基于最小模糊散度的图像协同分割方法 Active CN110853064B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911097587.1A CN110853064B (zh) 2019-11-12 2019-11-12 一种基于最小模糊散度的图像协同分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911097587.1A CN110853064B (zh) 2019-11-12 2019-11-12 一种基于最小模糊散度的图像协同分割方法

Publications (2)

Publication Number Publication Date
CN110853064A CN110853064A (zh) 2020-02-28
CN110853064B true CN110853064B (zh) 2022-03-25

Family

ID=69601308

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911097587.1A Active CN110853064B (zh) 2019-11-12 2019-11-12 一种基于最小模糊散度的图像协同分割方法

Country Status (1)

Country Link
CN (1) CN110853064B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112884778B (zh) * 2021-01-08 2024-04-23 宁波智能装备研究院有限公司 一种鲁棒机器视觉目标识别分割方法及系统
CN112884675B (zh) * 2021-03-18 2023-04-18 国家海洋信息中心 一种批量遥感影像调色工程化实现方法
CN113469976A (zh) * 2021-07-06 2021-10-01 浙江大华技术股份有限公司 一种对象检测的方法、装置及电子设备
CN114708432B (zh) * 2022-04-02 2023-05-23 广西壮族自治区自然资源遥感院 基于规则网格离散化目标分割区域的加权度量方法
CN114998390B (zh) * 2022-08-02 2022-10-21 环球数科集团有限公司 一种面向嵌入式智能摄像机的视觉分析系统与方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2435956A1 (en) * 2009-05-26 2012-04-04 Tandent Vision Science, Inc. Multi-resolution analysis in an image segregation
CN103353987A (zh) * 2013-06-14 2013-10-16 山东大学 一种基于模糊理论的超像素分割方法
CN105787935A (zh) * 2016-02-22 2016-07-20 辽宁工程技术大学 一种基于Gamma分布的模糊聚类SAR图像分割方法
CN107403438A (zh) * 2017-08-07 2017-11-28 河海大学常州校区 改进模糊聚类算法的超声图像病灶区分割方法
CN110059596A (zh) * 2019-04-03 2019-07-26 北京字节跳动网络技术有限公司 一种图像识别方法、装置、介质和电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2435956A1 (en) * 2009-05-26 2012-04-04 Tandent Vision Science, Inc. Multi-resolution analysis in an image segregation
CN103353987A (zh) * 2013-06-14 2013-10-16 山东大学 一种基于模糊理论的超像素分割方法
CN105787935A (zh) * 2016-02-22 2016-07-20 辽宁工程技术大学 一种基于Gamma分布的模糊聚类SAR图像分割方法
CN107403438A (zh) * 2017-08-07 2017-11-28 河海大学常州校区 改进模糊聚类算法的超声图像病灶区分割方法
CN110059596A (zh) * 2019-04-03 2019-07-26 北京字节跳动网络技术有限公司 一种图像识别方法、装置、介质和电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Segmentation using fuzzy divergence;T. Chaira et al.;《Pattern Recognition Letters 24》;20031231;第1837-1844页 *
一种基于模糊主动轮廓的鲁棒局部分割方法;孙文燕等;《自动化学报》;20170430;第611-621页 *

Also Published As

Publication number Publication date
CN110853064A (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
CN110853064B (zh) 一种基于最小模糊散度的图像协同分割方法
CN107273905B (zh) 一种结合运动信息的目标主动轮廓跟踪方法
CN111340824B (zh) 一种基于数据挖掘的图像特征分割方法
CN110163239B (zh) 一种基于超像素和条件随机场的弱监督图像语义分割方法
CN111445488B (zh) 一种弱监督学习自动识别和分割盐体的方法
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN110246151B (zh) 一种基于深度学习和单目视觉的水下机器人目标跟踪方法
CN109446894B (zh) 基于概率分割及高斯混合聚类的多光谱图像变化检测方法
CN108470178B (zh) 一种结合深度可信度评价因子的深度图显著性检测方法
CN106157330B (zh) 一种基于目标联合外观模型的视觉跟踪方法
CN105389821B (zh) 一种基于云模型和图割相结合的医学图像分割方法
CN110006444B (zh) 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法
CN111310768B (zh) 基于鲁棒性背景先验和全局信息的显著性目标检测方法
CN104715251A (zh) 一种基于直方图线性拟合的显著目标检测方法
Pan et al. An adaptive multifeature method for semiautomatic road extraction from high-resolution stereo mapping satellite images
CN116310111A (zh) 基于伪平面约束的室内场景三维重建方法
CN109191482B (zh) 一种基于区域自适应光谱角阈值的图像合并分割方法
CN107610148A (zh) 一种基于双目立体视觉系统的前景分割方法
CN111047559A (zh) 一种数字病理切片异常区域快速检测的方法
CN108647605B (zh) 一种结合全局颜色与局部结构特征的人眼凝视点提取方法
CN116993947B (zh) 一种三维场景可视化展示方法及系统
CN110232684B (zh) 一种基于谱分析的三维医学图像自动分割方法
CN108765384B (zh) 一种联合流形排序和改进凸包的显著性检测方法
CN112037230B (zh) 一种基于超像素和超度量轮廓图的林区图像分割方法
CN109472794B (zh) 一种对图像进行超像素分割的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant