CN107481250A - 一种图像分割方法及其评价方法和图像融合方法 - Google Patents

一种图像分割方法及其评价方法和图像融合方法 Download PDF

Info

Publication number
CN107481250A
CN107481250A CN201710760304.1A CN201710760304A CN107481250A CN 107481250 A CN107481250 A CN 107481250A CN 201710760304 A CN201710760304 A CN 201710760304A CN 107481250 A CN107481250 A CN 107481250A
Authority
CN
China
Prior art keywords
mrow
msub
image
mtd
msup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710760304.1A
Other languages
English (en)
Inventor
秦俊
申铉京
冯云丛
陈海鹏
李晓旭
祁琪
盖迪
崔思明
刘洋
刘思言
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201710760304.1A priority Critical patent/CN107481250A/zh
Publication of CN107481250A publication Critical patent/CN107481250A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)

Abstract

本发明公开了一种图像分割方法,包括:步骤1:将历史储备图像分为K个视角,通过经典FCM算法得到历史聚类中心;步骤2:在处理新的带噪图像时,将所述待处理图像分为上述K个视角,在经典FCM算法的基础上融入从步骤1中得到的相关历史相似图像的聚类中心,并构造一个引入迁移学习机制的多视角的FCM算法的新目标函数;步骤3:通过步骤2获取的当前图像的各视角图像的隶属度矩阵以及视角权重向量W,得到当前处理图像的最终隶属度矩阵,去模糊化后得到当前图像的空间划分结果。本发明所述的图像分割方法,采用多视角具备迁移学习能力的模糊聚类图像分割方法,基于迁移能力,实现多视角图像协同分割,提高分割精度。

Description

一种图像分割方法及其评价方法和图像融合方法
技术领域
本发明涉及图像处理技术领域,更具体的是,本发明涉及一种图像分割方法及其评价方法和图像融合方法。
背景技术
迁移学习具体的表现在于,利用该理论在建立模型时会考虑以往已有的相似模型,将以往的模型作为参照体,而后再结合当前的环境进行建模,这样的新型建模方法将大大提高前期的建模效率,并且有效地合理地利用历史储备也有助于模型初期的稳定性,比起传统的不考虑历史相似场景只考虑当前场景,全部从“零”开始的建模方法而言,该种策略来的更加快速有效。
模糊C均值算法(Fuzzy C-means,简称FCM)是一种经典聚类分析方法,其目的在于将一个未被标记的样本集合按照某种准则划分成若干类,并且规定同一类中的样本点尽量的相似,不同类中的样本点尽可能的不同。采用此类样本分析方法,可以定量地确定出样本之间的远近关系,进而达到对该样本进行合理分类与分析的目的。
中国发明专利申请201210384176.2提供了一种具备迁移学习能力的模糊聚类图像分割方法,其采用单一视角对图像进行分割,在分割过程中会出现分割精度不高的现象,无法取得理想的分割结果,更无法处理多维图像的分割。
而传统的图像分割评价指标往往以相同的方式处理分割结果中的目标像素和背景像素,忽略了不同位置像素的重要程度,这在实际应用中是不合理的。
在进行图像融合时,直接融合结构和功能图像,多光谱图像中的颜色信息将会因结构图像失真,结构图像中的空间细节也会被模糊。
发明内容
本发明的一个目的是设计开发了一种图像分割方法,采用多视角具备迁移学习能力的模糊聚类图像分割方法,基于迁移能力,实现多视角图像协同分割,提高分割精度。
本发明的另一个目的是设计开发了一种图像分割方法的评价方法,能够根据分割结果中像素的空间位置信息和灰度信息,基于加权ROC图的图像分割质量客观评价分割结果。
本发明还提供了一种基于上述图像分割方法的图像融合方法,能够将结构图像分解为平滑层和细节层,并采用上述图像分割方法将功能图像分割为目标区域和背景区域,采用平滑层和目标区域融合,使得图像融合时不会失真。
本发明提供的技术方案为:
一种图像分割方法,包括如下步骤:
步骤1:将历史储备图像分为K个视角,通过经典FCM算法得到历史聚类中心:
其中,K为视角总数,C为聚类数,N为样本总数,Uk表示第k个视角下的隶属度矩阵,Vk表示第k个视角下的聚类中心,Xk表示第k个视角下的聚类样本,为第k个视角下的第i类的中心点,d为样本的维数,xj,k表示第k个视角下的第j个样本点,μij,k表示第k个视角下的第j个样本属于第i类的隶属度,模糊指数m必须满足m>1;
步骤2:在处理新的带噪图像时,将所述带噪图像分为上述K个视角,在经典FCM算法的基础上融入从步骤1中得到的相关历史相似图像的聚类中心,并构造一个引入迁移学习机制的多视角的FCM算法的新目标函数,具体形式如下:
其中,W=(w1,w2,…,wK)T为各视角的视角权重向量,wk为第k个视角所占的权重,η为协同学习参数且满足0≤η≤1,λ为视角加权参数且满足λ>0;
步骤3:通过步骤2获取的当前图像的各视角图像的隶属度矩阵以及视角权重向量W,得到当前处理图像的最终隶属度矩阵,去模糊化后得到当前图像的空间划分结果。
优选的是,所述步骤3中,所述当前处理图像的最终隶属度矩阵为:
所述当前图像的空间划分结果Θ为:
其中,μij表示第j个样本属于i类的隶属度,μj表示第j个样本属于各类的隶属度,Θi,j表示第j个样本属于i类的空间划分结果,进而得到图像的分割结果。
优选的是,所述步骤2中,处理新的带噪图像时需先进行去噪处理,包括:
给定一幅图像X,大小为M*N,将图像中像素xij通过线性自回归模型获得预测值x'ij
其中,表示以像素xij为中心大小的K*K的图像块,ε是附加高斯噪声,Clk是关于像素xlk的归一化系数;
所述Clk定义为:
其中,I(xij,xlk)表示像素xij和xlk之间的互信息;
所得去噪图像为PX
PX={x'ij|1≤i≤M,1≤j≤N}。
优选的是,所述步骤2中:
利用新目标函数JTL-MV-FCM(Uk,Vk,Xk,W)和隶属度约束条件令能量函数即可得到第k个视角下的隶属度矩阵Uk的优化解;
利用新目标函数JTL-MV-FCM(Uk,Vk,Xk,W),令即可得到第k个视角下的聚类中心Vk的优化解,对其进行模糊化处理后即可得到该视角下的最优空间划分结果。
相应地,本发明还提供一种图像分割的评价方法,包括如下步骤:
步骤1:给定一幅图像I,大小为M*N,目标区域内像素p和背景区域内像素q的距离变换函数定义为:
其中,d(x,y)表示区域距离,I0={p|f(p)=1,p∈I}和Ib={q|f(q)=0,q∈I}分别表示分割结果中的目标区域和背景区域,f(a)表示像素“a”的灰度值;
步骤2:任意像素xij,定义其权值为:
其中,1≤i≤M,1≤j≤N,wtp(xij)=D0-max-D0(xij),wfp(xij)=Db-max-Db(xij),wtn(xij)=Db-max-Db(xij),wfn(xij)=D0-max-D0(xij),D0-max和Db-max分别表示距离变换系数矩阵Do和Db中的最大元素,wtp(xij)为真正像素的权值,wfp(xij)为假正像素的权值,wtn(xij)为真负像素的权值,wfn(xij)假负像素的权值;
步骤3:每类像素的权值和为:
步骤4:分别定义真的正值率的权值wTPR和假的正值率的权值wFPR为:
由点(wFPR,wTPR)得到加权ROC图,图中每个点(wFPR,wTPR)对应一个分割结果,其中,(0,1)点表明所有像素点都被分对,(1,0)点表明所有像素点均被分错。
优选的是,所得加权ROC图中的点越接近点(0,1),分割结果越好。
优选的是,设定a(x,y)为所得加权ROC图中的一点,其到最优点p(0,1)的距离为:
所述点a的分割结果的评分定义为:
其中,S(a)∈[0,1]。
优选的是,所述S(a)越大分割效果越好。
相应地,本发明还提供一种基于图像分割方法的图像融合方法,包括如下步骤:
步骤1:将结构图像g分解为平滑层s与细节层d:
所述平滑层s定义为:
其中,为结构图像g的最优平滑层,p为像素的空间位置,(s(p)-s(q))2为最小化s与g之间的灰度差异,为最小化平滑层的垂直梯度,为最小化平滑层的水平梯度,ag,x(p)和ag,y(p)分别为像素p的垂直梯度和水平梯度的权值,ξ为校正权值。
所述细节层d定义为:
d=g-s
步骤2:提取功能图像,采用上述的图像分割方法将信息量较大的目标区域从整幅图像中分割出来,所述功能图像Ic的分割结果为:
其中,表示像素p的灰度值,τ是待定阈值;
步骤3:将功能图像中分割的目标区域与所述结构图像中分解的细节层融合,其余部分通过结构图像中的原始信息进行填充,得到最终的融合图像,所述融合规则为:
f(p)=φ(p)×Ic(p)+(1-φ(p))×g(p)
其中,f(p)为像素p的融合后的灰度,φ(p)为功能图像的分割结果,Ic(p)为像素p在功能图像中的灰度,g(p)为像素p在结构图像中的灰度。
本发明至少具备以下有益效果:
(1)本发明所述的图像分割方法,采用多视角具备迁移学习能力的模糊聚类图像分割方法,基于迁移能力,实现多视角图像协同分割,提高分割精度。
(2)本发明所述的图像分割的评价方法,能够根据分割结果中像素的空间位置信息和灰度信息,基于加权ROC图的图像分割质量客观评价分割结果。
(3)本发明所述的基于上述图像分割方法的图像融合方法,能够将结构图像分解为平滑层和细节层,并采用上述图像分割方法将功能图像分割为目标区域和背景区域,采用平滑层和目标区域融合,使得图像融合时不会失真。
附图说明
图1为本发明所述图像分割方法的分割流程意图。
图2为本发明所述图像融合方法的融合流程意图
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
如图1所示,本发明提供一种图像分割方法,包括如下步骤:
步骤1:将历史储备图像分为K个视角,通过经典FCM算法得到历史聚类中心:
其中,K为视角总数,C为聚类数,N为样本总数,Uk表示第k个视角下的隶属度矩阵,Vk表示第k个视角下的聚类中心,Xk表示第k个视角下的聚类样本,为第k个视角下的第i类的中心点,d为样本的维数,xj,k表示第k个视角下的第j个样本点,μij,k表示第k个视角下的第j个样本属于第i类的隶属度,模糊指数m必须满足m>1;
步骤2:在处理新的带噪图像时,将所述待处理图像分为上述K个视角,在经典FCM算法的基础上融入从步骤1中得到的相关历史相似图像(例如同一部位的不同方式影像,如历史储备图像为MRI图像,新的带噪图像为同一部位的CT图像)的聚类中心,并构造一个引入迁移学习机制的多视角的FCM算法的新目标函数,具体形式如下:
其中,W=(w1,w2,…,wK)T为各视角的视角权重向量,wk为第k个视角所占的权重,η为协同学习参数且满足0≤η≤1,可以人工调控,η值越大说明越依赖于历史知识,λ为视角加权参数且满足λ>0,也可以人工调控;
其中,式算法的目标函数式本质上可以分为三个部分:第一部分为经典FCM方聚类项第二部分为多视角迁移学习项,该项通过有效地利用历史知识(历史类中心)通过该知识来指导当前的聚类任务进行,其本质相当于使用历史类中心对当前的待聚类样本进行直接的分类;第三部分为视角加权项,即该视角下的校正项。
步骤3:通过步骤2获取的当前图像的各视角图像的隶属度矩阵以及视角权重向量W,得到当前处理图像的最终隶属度矩阵,去模糊化后得到当前图像的空间划分结果。
本实施例中,步骤3中,所述当前处理图像的最终隶属度矩阵为:
所述当前图像的空间划分结果Θ为:
其中,μij表示第j个样本属于i类的隶属度,μj表示第j个样本属于各类的隶属度,Θi,j表示第j个样本属于i类的空间划分结果,进而得到图像的分割结果。
所述步骤2中,处理新的带噪图像时需先进行去噪处理,包括:
给定一幅图像X,大小为M*N,将图像中像素xij通过线性自回归模型获得预测值x'ij
其中,表示以像素xij为中心大小的K*K的图像块,ε是附加高斯噪声,Clk是关于像素xlk的归一化系数;
所述Clk定义为:
其中,I(xij,xlk)表示像素xij和xlk之间的互信息;
所得去噪图像为PX
PX={x'ij|1≤i≤M,1≤j≤N}。
所述步骤2中:
利用新目标函数和隶属度约束条件利用经典的数学方法-拉格朗日条件极值法,令能量函数即可得到第k个视角下的隶属度矩阵Uk的优化解;
同理,利用新目标函数再次使用经典的数学方法-拉格朗日条件极值法,令即可得到第k个视角下的聚类中心Vk的优化解,对其进行模糊化处理后即可得到该视角下的最优空间划分结果。
以下是一个详细的实施过程:
1、历史知识总结阶段:
1)将历史图像分为K个视角,根据已有的历史相似图像利用传统的FCM方法,求取多视角下的历史图像对应的聚类中心
2、迁移学习阶段:
2)初始化迭代阈值δ,模糊指数m,迭代次数f,最大迭代次数L,第k个视角所占的权重wk,协同学习参数η,视角加权参数λ,随机产生第k个视角中心点集vi,k,随机产生第k个视角的归一化的模糊隶属度矩阵μij,k
3)根据Vk的优化解求解公式更新中心点vi,k
4)根据Uk的优化解求解公式更新隶属度μij,k
5)如果||Jk,ζ+1-Jk,ζ||<δ或者f>L则算法结果,跳出循环;否则,跳回3);
3、图像分割阶段:
6)根据得到的隶属度μij,k以及视角权重向量W=(w1,w2,…,wK)T,得到当前处理图像的最终隶属度矩阵,最后得到空间划分结果Θ。
本发明所述的图像分割方法,采用多视角具备迁移学习能力的模糊聚类图像分割方法,基于迁移能力,实现多视角图像协同分割,提高分割精度。
本发明还提供一种上述图像分割的评价方法,包括如下步骤:
步骤1:给定一幅图像I,大小为M*N,目标区域内像素p和背景区域内像素q的距离变换函数定义为:
其中,d(x,y)表示区域距离,I0={p|f(p)=1,p∈I}和Ib={q|f(q)=0,q∈I}分别表示分割结果中的目标区域和背景区域,f(a)表示像素“a”的灰度值;
步骤2:任意像素xij,定义其权值为:
其中,1≤i≤M,1≤j≤N,wtp(xij)=D0-max-D0(xij),wfp(xij)=Db-max-Db(xij),wtn(xij)=Db-max-Db(xij),wfn(xij)=D0-max-D0(xij),D0-max和Db-max分别表示距离变换系数矩阵Do和Db中的最大元素,wtp(xij)为真正像素的权值,wfp(xij)为假正像素的权值,wtn(xij)为真负像素的权值,wfn(xij)假负像素的权值;
步骤3:每类像素的权值和为:
步骤4:分别定义真的正值率的权值wTPR和假的正值率的权值wFPR为:
由点(wFPR,wTPR)得到加权ROC图,图中每个点(wFPR,wTPR)对应一个分割结果,其中,(0,1)点表明所有像素点都被分对,(1,0)点表明所有像素点均被分错;所得加权ROC图中的点越接近点(0,1),表明分割结果越好。
本实施例中,设定a(x,y)为所得加权ROC图中的一点,其到最优点p(0,1)的距离为:
所述点a的分割结果的评分定义为:
其中,S(a)∈[0,1];所述S(a)越大表明分割效果越好。
本发明所述的图像分割的评价方法,能够根据分割结果中像素的空间位置信息和灰度信息,基于加权ROC图的图像分割质量客观评价分割结果。
如图2所示,本发明还提供一种基于上述图像分割方法的图像融合方法,包括如下步骤:
步骤1:将结构图像g分解为平滑层s与细节层d:
所述平滑层s定义为:
其中,为结构图像g的最优平滑层,p为像素的空间位置,(s(p)-s(q))2为最小化s与g之间的灰度差异,为最小化平滑层的垂直梯度,为最小化平滑层的水平梯度,ag,x(p)和ag,y(p)分别为像素p的垂直梯度和水平梯度的权值,ξ为校正权值。
所述细节层d定义为:
d=g-s
步骤2:提取功能图像,采用上述的图像分割方法将信息量较大的目标区域从整幅图像中分割出来,所述功能图像Ic的分割结果为:
其中,表示像素p的灰度值,τ是待定阈值(通常由原始经验图像分割阈值所决定);
步骤3:将功能图像中分割的目标区域与所述结构图像中分解的细节层融合,其余部分通过结构图像中的原始信息进行填充,得到最终的融合图像,所述融合规则为:
f(p)=φ(p)×Ic(p)+(1-φ(p))×g(p)
其中,f(p)为像素p的融合后的灰度,φ(p)为功能图像的分割结果,Ic(p)为像素p在功能图像中的灰度,g(p)为像素p在结构图像中的灰度。
本发明所述的基于上述图像分割方法的图像融合方法,能够将结构图像分解为平滑层和细节层,并采用上述图像分割方法将功能图像分割为目标区域和背景区域,采用平滑层和目标区域融合,使得图像融合时不会失真。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (9)

1.一种图像分割方法,其特征在于,包括如下步骤:
步骤1:将历史储备图像分为K个视角,通过经典FCM算法得到历史聚类中心:
st.μij,k∈[0,1](1≤j≤N,1≤k≤K)
其中,K为视角总数,C为聚类数,N为样本总数,Uk表示第k个视角下的隶属度矩阵,Vk表示第k个视角下的聚类中心,Xk表示第k个视角下的聚类样本,为第k个视角下的第i类的中心点,d为样本的维数,xj,k表示第k个视角下的第j个样本点,μij,k表示第k个视角下的第j个样本属于第i类的隶属度,模糊指数m必须满足m>1;
步骤2:在处理新的带噪图像时,将所述带噪图像分为上述K个视角,在经典FCM算法的基础上融入从步骤1中得到的相关历史相似图像的聚类中心,并构造一个引入迁移学习机制的多视角的FCM算法的新目标函数,具体形式如下:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>J</mi> <mrow> <mi>T</mi> <mi>L</mi> <mo>-</mo> <mi>M</mi> <mi>V</mi> <mo>-</mo> <mi>F</mi> <mi>C</mi> <mi>M</mi> </mrow> <mi>k</mi> </msubsup> <mrow> <mo>(</mo> <msup> <mi>U</mi> <mi>k</mi> </msup> <mo>,</mo> <msup> <mi>V</mi> <mi>k</mi> </msup> <mo>,</mo> <msup> <mi>X</mi> <mi>k</mi> </msup> <mo>,</mo> <mi>W</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msub> <mi>w</mi> <mi>k</mi> </msub> <mo>&amp;lsqb;</mo> <msubsup> <mi>J</mi> <mrow> <mi>F</mi> <mi>C</mi> <mi>M</mi> </mrow> <mi>k</mi> </msubsup> <mrow> <mo>(</mo> <msup> <mi>U</mi> <mi>k</mi> </msup> <mo>,</mo> <msup> <mi>V</mi> <mi>k</mi> </msup> <mo>,</mo> <msup> <mi>X</mi> <mi>k</mi> </msup> <mo>)</mo> </mrow> <mo>+</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mi>&amp;eta;</mi> <mo>|</mo> <mo>|</mo> <msub> <mi>x</mi> <mrow> <mi>j</mi> <mo>,</mo> <mi>k</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>v</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>k</mi> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>C</mi> </munderover> <msub> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> <mo>,</mo> <mi>k</mi> </mrow> </msub> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <mi>&amp;eta;</mi> <mfrac> <mn>1</mn> <mrow> <mi>K</mi> <mo>-</mo> <mn>1</mn> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msup> <mi>k</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <mn>1</mn> <mo>,</mo> <msup> <mi>k</mi> <mo>&amp;prime;</mo> </msup> <mo>&amp;NotEqual;</mo> <mi>k</mi> </mrow> <mi>K</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>x</mi> <mrow> <mi>j</mi> <mo>,</mo> <msup> <mi>k</mi> <mo>&amp;prime;</mo> </msup> </mrow> </msub> <mo>-</mo> <msub> <mi>v</mi> <mrow> <mi>i</mi> <mo>,</mo> <msup> <mi>k</mi> <mo>&amp;prime;</mo> </msup> </mrow> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>C</mi> </munderover> <msub> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> <mo>,</mo> <mi>k</mi> </mrow> </msub> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msubsup> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> <mo>,</mo> <mi>k</mi> </mrow> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>+</mo> <mi>&amp;lambda;</mi> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msub> <mi>w</mi> <mi>k</mi> </msub> <mi>ln</mi> <mi> </mi> <msub> <mi>w</mi> <mi>k</mi> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced>
st.wk∈[0,1]
其中,W=(w1,w2,…,wK)T为各视角的视角权重向量,wk为第k个视角所占的权重,η为协同学习参数且满足0≤η≤1,λ为视角加权参数且满足λ>0;
步骤3:通过步骤2获取的当前图像的各视角图像的隶属度矩阵以及视角权重向量W,得到当前处理图像的最终隶属度矩阵,去模糊化后得到当前图像的空间划分结果。
2.如权利要求1所述的图像分割方法,其特征在于,所述步骤3中,所述当前处理图像的最终隶属度矩阵为:
<mrow> <mover> <mi>U</mi> <mo>~</mo> </mover> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msub> <mi>w</mi> <mi>k</mi> </msub> <msup> <mi>U</mi> <mi>k</mi> </msup> </mrow>
所述当前图像的空间划分结果Θ为:
<mrow> <msub> <mi>&amp;Theta;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;mu;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mo>(</mo> <msub> <mi>&amp;mu;</mi> <mi>j</mi> </msub> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>s</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,μij表示第j个样本属于i类的隶属度,μj表示第j个样本属于各类的隶属度,Θi,j表示第j个样本属于i类的空间划分结果,进而得到图像的分割结果。
3.如权利要求1所述的分割方法,其特征在于,所述步骤2中,处理新的带噪图像时需先进行去噪处理,包括:
一幅图像X,大小为M*N,将图像中像素xij通过线性自回归模型获得预测值x′ij
<mrow> <msubsup> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mo>&amp;prime;</mo> </msubsup> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>x</mi> <mrow> <mi>l</mi> <mi>k</mi> </mrow> </msub> <mo>&amp;Element;</mo> <msubsup> <mi>W</mi> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>K</mi> </msubsup> </mrow> </munder> <msub> <mi>C</mi> <mrow> <mi>l</mi> <mi>k</mi> </mrow> </msub> <msub> <mi>x</mi> <mrow> <mi>l</mi> <mi>k</mi> </mrow> </msub> <mo>+</mo> <mi>&amp;epsiv;</mi> </mrow>
其中,表示以像素xij为中心大小的K*K的图像块,ε是附加高斯噪声,Clk是关于像素xlk的归一化系数;
所述Clk定义为:
<mrow> <msub> <mi>C</mi> <mrow> <mi>l</mi> <mi>k</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>x</mi> <mrow> <mi>l</mi> <mi>k</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <munder> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>x</mi> <mrow> <mi>p</mi> <mi>q</mi> </mrow> </msub> <mo>&amp;Element;</mo> <msubsup> <mi>W</mi> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mi>K</mi> </msubsup> </mrow> </munder> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>,</mo> <msub> <mi>x</mi> <mrow> <mi>l</mi> <mi>k</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中,I(xij,xlk)表示像素xij和xlk之间的互信息;
所得去噪图像为PX
PX={x′ij|1≤i≤M,1≤j≤N}。
4.如权利要求1所述的图像分割方法,其特征在于,所述步骤2中:
利用新目标函数JTL-MV-FCM(Uk,Vk,Xk,W)和隶属度约束条件令能量函数即可得到第k个视角下的隶属度矩阵Uk的优化解;
利用新目标函数JTL-MV-FCM(Uk,Vk,Xk,W),令即可得到第k个视角下的聚类中心Vk的优化解,对其进行模糊化处理后即可得到该视角下的最优空间划分结果。
5.一种图像分割的评价方法,其特征在于,包括如下步骤:
步骤1:一幅图像I,大小为M*N,目标区域内像素p和背景区域内像素q的距离变换函数定义为:
<mrow> <msub> <mi>D</mi> <mn>0</mn> </msub> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>q</mi> <mo>&amp;Element;</mo> <msub> <mi>I</mi> <mi>b</mi> </msub> </mrow> </munder> <mo>{</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>,</mo> <mi>q</mi> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
<mrow> <msub> <mi>D</mi> <mi>b</mi> </msub> <mrow> <mo>(</mo> <mi>q</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>p</mi> <mo>&amp;Element;</mo> <msub> <mi>I</mi> <mn>0</mn> </msub> </mrow> </munder> <mo>{</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>,</mo> <mi>q</mi> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
其中,d(x,y)表示区域距离,I0={p|f(p)=1,p∈I}和Ib={q|f(q)=0,q∈I}分别表示分割结果中的目标区域和背景区域,f(a)表示像素“a”的灰度值;
步骤2:任意像素xij,定义其权值为:
<mrow> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfenced open = "{" close = "}"> <mtable> <mtr> <mtd> <mrow> <mi>w</mi> <mi>t</mi> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&amp;Element;</mo> <mi>T</mi> <mi>P</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>w</mi> <mi>f</mi> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&amp;Element;</mo> <mi>F</mi> <mi>P</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>w</mi> <mi>t</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&amp;Element;</mo> <mi>T</mi> <mi>N</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>w</mi> <mi>f</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>&amp;Element;</mo> <mi>F</mi> <mi>N</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,1≤i≤M,1≤j≤N,wtp(xij)=D0-max-D0(xij),wfp(xij)=Db-max-Db(xij),wtn(xij)=Db-max-Db(xij),wfn(xij)=D0-max-D0(xij),D0-max和Db-max分别表示距离变换系数矩阵Do和Db中的最大元素,wtp(xij)为真正像素的权值,wfp(xij)为假正像素的权值,wtn(xij)为真负像素的权值,wfn(xij)假负像素的权值;
步骤3:每类像素的权值和为:
<mrow> <mi>w</mi> <mi>T</mi> <mi>P</mi> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mn>1</mn> <mo>&amp;le;</mo> <mi>i</mi> <mo>&amp;le;</mo> <mi>M</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>j</mi> <mo>&amp;le;</mo> <mi>N</mi> </mrow> </munder> <mi>w</mi> <mi>t</mi> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>w</mi> <mi>F</mi> <mi>P</mi> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mn>1</mn> <mo>&amp;le;</mo> <mi>i</mi> <mo>&amp;le;</mo> <mi>M</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>j</mi> <mo>&amp;le;</mo> <mi>N</mi> </mrow> </munder> <mi>w</mi> <mi>f</mi> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>w</mi> <mi>T</mi> <mi>N</mi> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mn>1</mn> <mo>&amp;le;</mo> <mi>i</mi> <mo>&amp;le;</mo> <mi>M</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>j</mi> <mo>&amp;le;</mo> <mi>N</mi> </mrow> </munder> <mi>w</mi> <mi>t</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow>
<mrow> <mi>w</mi> <mi>F</mi> <mi>N</mi> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mn>1</mn> <mo>&amp;le;</mo> <mi>i</mi> <mo>&amp;le;</mo> <mi>M</mi> <mo>,</mo> <mn>1</mn> <mo>&amp;le;</mo> <mi>j</mi> <mo>&amp;le;</mo> <mi>N</mi> </mrow> </munder> <mi>w</mi> <mi>f</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow>
步骤4:分别定义真的正值率的权值wTPR和假的正值率的权值wFPR为:
<mrow> <mi>w</mi> <mi>T</mi> <mi>P</mi> <mi>R</mi> <mo>=</mo> <mfrac> <mrow> <mi>w</mi> <mi>T</mi> <mi>P</mi> </mrow> <mrow> <mi>w</mi> <mi>T</mi> <mi>R</mi> <mo>+</mo> <mi>w</mi> <mi>F</mi> <mi>N</mi> </mrow> </mfrac> </mrow>
<mrow> <mi>w</mi> <mi>F</mi> <mi>P</mi> <mi>R</mi> <mo>=</mo> <mfrac> <mrow> <mi>w</mi> <mi>F</mi> <mi>P</mi> </mrow> <mrow> <mi>w</mi> <mi>F</mi> <mi>P</mi> <mo>+</mo> <mi>w</mi> <mi>T</mi> <mi>N</mi> </mrow> </mfrac> </mrow>
由点(wFPR,wTPR)得到加权ROC图,图中每个点(wFPR,wTPR)对应一个分割结果,其中,(0,1)点表明所有像素点都被分对,(1,0)点表明所有像素点均被分错。
6.如权利要求5所述的图像分割的评价方法,其特征在于,所得加权ROC图中的点越接近点(0,1),分割结果越好。
7.如权利要求6所述的图像分割的评价方法,其特征在于,设定a(x,y)为所得加权ROC图中的一点,其到最优点p(0,1)的距离为:
<mrow> <mi>d</mi> <mrow> <mo>(</mo> <mi>a</mi> <mo>,</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <mn>0</mn> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mi>y</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>
所述点a的分割结果的评分定义为:
<mrow> <mi>S</mi> <mrow> <mo>(</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> <mo>-</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>a</mi> <mo>,</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>/</mo> <msqrt> <mn>2</mn> </msqrt> </mrow>
其中,S(a)∈[0,1]。
8.如权利要求7所述的图像分割的评价方法,其特征在于,所述S(a)越大分割效果越好。
9.一种基于图像分割方法的图像融合方法,其特征在于,包括如下步骤:
步骤1:将结构图像g分解为平滑层s与细节层d:
所述平滑层s定义为:
<mrow> <mover> <mi>s</mi> <mo>^</mo> </mover> <mo>=</mo> <mi>arg</mi> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>s</mi> </munder> <mo>{</mo> <munder> <mo>&amp;Sigma;</mo> <mi>p</mi> </munder> <msup> <mrow> <mo>(</mo> <mi>s</mi> <mo>(</mo> <mi>p</mi> <mo>)</mo> <mo>-</mo> <mi>g</mi> <mo>(</mo> <mi>p</mi> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;xi;</mi> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mrow> <mi>g</mi> <mo>,</mo> <mi>x</mi> </mrow> </msub> <mo>(</mo> <mi>p</mi> <mo>)</mo> <msup> <mrow> <mo>(</mo> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>s</mi> </mrow> <mrow> <mo>&amp;part;</mo> <mi>x</mi> </mrow> </mfrac> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msub> <mi>a</mi> <mrow> <mi>g</mi> <mo>,</mo> <mi>y</mi> </mrow> </msub> <mo>(</mo> <mi>p</mi> <mo>)</mo> <msup> <mrow> <mo>(</mo> <mrow> <mrow> <mo>(</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>s</mi> </mrow> <mrow> <mo>&amp;part;</mo> <mi>y</mi> </mrow> </mfrac> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
其中,为结构图像g的最优平滑层,p为像素的空间位置,(s(p)-s(q))2为最小化s与g之间的灰度差异,为最小化平滑层的垂直梯度,为最小化平滑层的水平梯度,ag,x(p)和ag,y(p)分别为像素p的垂直梯度和水平梯度的权值,ξ为校正权值;
所述细节层d定义为:
d=g-s;
步骤2:提取功能图像,采用权利要求1-4任意一项所述的图像分割方法将信息量较大的目标区域从整幅图像中分割出来,所述功能图像Ic的分割结果为:
<mrow> <mi>&amp;phi;</mi> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <msub> <mi>E</mi> <msub> <mi>I</mi> <mi>c</mi> </msub> </msub> <mrow> <mo>(</mo> <mi>p</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <mi>&amp;tau;</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,表示像素p的灰度值,τ是待定阈值;
步骤3:将功能图像中分割的目标区域与所述结构图像中分解的细节层融合,其余部分通过结构图像中的原始信息进行填充,得到最终的融合图像,所述融合规则为:
f(p)=φ(p)×Ic(p)+(1-φ(p))×g(p)
其中,f(p)为像素p的融合后的灰度,φ(p)为功能图像的分割结果,Ic(p)为像素p在功能图像中的灰度,g(p)为像素p在结构图像中的灰度。
CN201710760304.1A 2017-08-30 2017-08-30 一种图像分割方法及其评价方法和图像融合方法 Pending CN107481250A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710760304.1A CN107481250A (zh) 2017-08-30 2017-08-30 一种图像分割方法及其评价方法和图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710760304.1A CN107481250A (zh) 2017-08-30 2017-08-30 一种图像分割方法及其评价方法和图像融合方法

Publications (1)

Publication Number Publication Date
CN107481250A true CN107481250A (zh) 2017-12-15

Family

ID=60603037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710760304.1A Pending CN107481250A (zh) 2017-08-30 2017-08-30 一种图像分割方法及其评价方法和图像融合方法

Country Status (1)

Country Link
CN (1) CN107481250A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805825A (zh) * 2018-05-03 2018-11-13 宁波大学 一种重定位图像质量评价方法
CN111031255A (zh) * 2018-10-09 2020-04-17 科沃斯机器人股份有限公司 补光的方法、设备及存储介质
CN111539909A (zh) * 2020-03-12 2020-08-14 上海交通大学 一种相似场景图像组的图像质量评估方法、系统及终端
CN112927272A (zh) * 2021-03-30 2021-06-08 南京工程学院 一种基于空间通用自回归模型的图像融合方法
CN113723540A (zh) * 2021-09-02 2021-11-30 济南大学 一种基于多视图的无人驾驶场景聚类方法及系统
CN113901921A (zh) * 2021-10-11 2022-01-07 郑州大学 一种综合双重联系的多视角信息瓶颈聚类算法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010084390A1 (en) * 2009-01-22 2010-07-29 Koninklijke Philips Electronics, N.V. Pixel-feature hybrid fusion for pet/ct images
CN103248906A (zh) * 2013-04-17 2013-08-14 清华大学深圳研究生院 一种双目立体视频序列的深度图获取方法与系统
CN104282022A (zh) * 2014-09-29 2015-01-14 江南大学 一种具备多视角学习能力的模糊聚类图像分割方法
CN104794714A (zh) * 2015-04-18 2015-07-22 吉林大学 基于ROC Graph的图像分割质量评价方法
CN105122301A (zh) * 2013-04-18 2015-12-02 皇家飞利浦有限公司 对来自不同成像模态的医学图像的同时显示

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010084390A1 (en) * 2009-01-22 2010-07-29 Koninklijke Philips Electronics, N.V. Pixel-feature hybrid fusion for pet/ct images
CN103248906A (zh) * 2013-04-17 2013-08-14 清华大学深圳研究生院 一种双目立体视频序列的深度图获取方法与系统
CN105122301A (zh) * 2013-04-18 2015-12-02 皇家飞利浦有限公司 对来自不同成像模态的医学图像的同时显示
CN104282022A (zh) * 2014-09-29 2015-01-14 江南大学 一种具备多视角学习能力的模糊聚类图像分割方法
CN104794714A (zh) * 2015-04-18 2015-07-22 吉林大学 基于ROC Graph的图像分割质量评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张小利: "图像融合及其性能评估若干问题研究", 《中国优秀博士学位论文全文数据库》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805825A (zh) * 2018-05-03 2018-11-13 宁波大学 一种重定位图像质量评价方法
CN108805825B (zh) * 2018-05-03 2021-04-27 宁波大学 一种重定位图像质量评价方法
CN111031255A (zh) * 2018-10-09 2020-04-17 科沃斯机器人股份有限公司 补光的方法、设备及存储介质
CN111539909A (zh) * 2020-03-12 2020-08-14 上海交通大学 一种相似场景图像组的图像质量评估方法、系统及终端
CN111539909B (zh) * 2020-03-12 2023-04-28 上海交通大学 一种相似场景图像组的图像质量评估方法、系统及终端
CN112927272A (zh) * 2021-03-30 2021-06-08 南京工程学院 一种基于空间通用自回归模型的图像融合方法
CN112927272B (zh) * 2021-03-30 2023-12-12 南京工程学院 一种基于空间通用自回归模型的图像融合方法
CN113723540A (zh) * 2021-09-02 2021-11-30 济南大学 一种基于多视图的无人驾驶场景聚类方法及系统
CN113723540B (zh) * 2021-09-02 2024-04-19 济南大学 一种基于多视图的无人驾驶场景聚类方法及系统
CN113901921A (zh) * 2021-10-11 2022-01-07 郑州大学 一种综合双重联系的多视角信息瓶颈聚类算法

Similar Documents

Publication Publication Date Title
CN107481250A (zh) 一种图像分割方法及其评价方法和图像融合方法
CN111079561B (zh) 一种基于虚拟训练的机器人智能抓取方法
Cordón et al. A fast and accurate approach for 3D image registration using the scatter search evolutionary algorithm
CN107527068A (zh) 基于cnn和域自适应学习的车型识别方法
CN106991408A (zh) 一种候选框生成网络的生成方法及人脸检测方法
CN107229914A (zh) 一种基于深度q学习策略的手写数字识别方法
Pham et al. Design of a two-dimensional recursive filter using the bees algorithm
CN104282022B (zh) 一种具备多视角学习能力的模糊聚类图像分割方法
Gaier et al. Aerodynamic design exploration through surrogate-assisted illumination
CN114092697B (zh) 注意力融合全局和局部深度特征的建筑立面语义分割方法
CN111079790B (zh) 一种构建类别中心的图像分类方法
CN107103308A (zh) 一种基于由粗到细深度尺度学习的行人重识别方法
CN113239884A (zh) 电梯轿厢内人体行为识别方法
Baušys et al. Optimization of architectural layout by the improved genetic algorithm
CN113326932B (zh) 基于物体检测的物体操作指令跟随学习方法及装置
CN116935196A (zh) 面向复杂环境下被遮挡目标的新型脑启发目标检测方法
Jani et al. 3D affine registration using teaching-learning based optimization
CN115761240B (zh) 一种混沌反向传播图神经网络的图像语义分割方法及装置
CN110047088B (zh) 一种基于改进教与学优化算法的ht-29图像分割方法
CN116485021A (zh) 一种煤炭企业技术技能人才人岗匹配预测方法与系统
CN113469270B (zh) 基于分解多目标差分进化超像素的半监督直觉聚类方法
CN112465253B (zh) 一种城市路网中的链路预测方法及装置
Zhang et al. End‐to‐end generation of structural topology for complex architectural layouts with graph neural networks
CN116258818A (zh) 一种三维仿生生成物的设计系统
Wang et al. Auto-points: Automatic learning for point cloud analysis with neural architecture search

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20171215

RJ01 Rejection of invention patent application after publication