CN113298774B - 一种基于对偶条件相容神经网络的图像分割方法、装置 - Google Patents

一种基于对偶条件相容神经网络的图像分割方法、装置 Download PDF

Info

Publication number
CN113298774B
CN113298774B CN202110554338.1A CN202110554338A CN113298774B CN 113298774 B CN113298774 B CN 113298774B CN 202110554338 A CN202110554338 A CN 202110554338A CN 113298774 B CN113298774 B CN 113298774B
Authority
CN
China
Prior art keywords
segmentation
data
dual
network
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110554338.1A
Other languages
English (en)
Other versions
CN113298774A (zh
Inventor
庄吓海
张可
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202110554338.1A priority Critical patent/CN113298774B/zh
Publication of CN113298774A publication Critical patent/CN113298774A/zh
Application granted granted Critical
Publication of CN113298774B publication Critical patent/CN113298774B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于对偶条件相容神经网络的图像分割方法、装置,该方法包括如下步骤:S1:获取与待分割图像结构模态相同的具有部分标签的图像数据作为训练数据;S2、构建主分割网络和对偶分割网络,主分割网络和对偶分割网络的输入包括目标数据以及提供条件先验的部分标注数据,输出为目标数据的分割结果;S3、分别确定主分割网络和对偶分割网络的损失函数;S4、利用训练数据训练主分割网络和对偶分割网络;S5、进行图像分割:将待分割图像作为目标数据,将目标数据及提供条件先验的部分标注数据输入到主分割网络中,输出分割结果。与现有技术相比,本发明能够实现在少量训练数据的情况下实现准确的图像分割。

Description

一种基于对偶条件相容神经网络的图像分割方法、装置
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种基于对偶条件相容神经网络的图像分割方法、装置。
背景技术
在医学影像领域,医学图像的标注需要花费大量的人力成本,获取难度极高。而服务于特定医学目的的部分标注的医学图像则更为常见,比如在心肌活性诊断时,心脏MRI图像只有心肌部分被标注;而在右心室异常的诊断中,往往只有右心室区域被标注。部分监督的医学图像分割可以节约医生的标注时间,充分利用现有的部分标注图像数据。
目前,现有的部分监督的分割方法中,均采用忽视未标注结构或者将未标注结构视为背景的方法。该策略通过只对被标注的区域计算损失函数,而在损失函数回传的时候忽视未标注的标签,最终使得模型能够利用被标注的部分标签进行训练。然而这种方法忽视了未被标注结构的信息,难以在少量训练数据的情况下实现准确的分割。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于对偶条件相容神经网络的图像分割方法、装置。
本发明的目的可以通过以下技术方案来实现:
一种基于对偶条件相容神经网络的图像分割方法,该方法包括如下步骤:
S1:获取与待分割图像结构模态相同的具有部分标签的图像数据作为训练数据;
S2、构建主分割网络和对偶分割网络,所述的主分割网络和对偶分割网络的输入包括目标数据以及提供条件先验的部分标注数据,所述的主分割网络和对偶分割网络的输出为目标数据的分割结果;
S3、分别确定主分割网络和对偶分割网络的损失函数,包括相容性损失和成对损失,所述的相容性损失表征目标数据的分割结果和目标数据的部分标签之间的差异,所述的成对损失表征目标数据的分割结果和提供条件先验的部分标注数据之间的差异;
S4、利用训练数据训练主分割网络和对偶分割网络;
S5、进行图像分割:将待分割图像作为目标数据,将目标数据及提供条件先验的部分标注数据输入到主分割网络中,输出分割结果。
优选地,步骤S4训练主分割网络和对偶分割网络包括:
随机选取训练数据中一张具有部分标签的图像数据的原始图像作为主分割网络的目标数据,选取训练数据中m对具有部分标签的图像数据作为m对提供条件先验的部分标注数据,第j对提供条件先验的部分标注数据为分割类别j提供条件先验,每一对提供条件先验的部分标注数据分别包括原始图像以及对应分割类别的标注数据,j=1,2,……,m,m为待分割的总类别数;
随机选取主分割网络中m对提供条件先验的部分标注数据中的任意一对数据,设该对数据为分割类别x提供条件先验,将该对数据中的原始图像作为对偶分割网络的目标数据,将主分割网络中对于分割类别x的分割结果与主分割网络的目标数据组成一对并作为对偶分割网络中的一对提供条件先验的部分标注数据,将主分割网络中除去为分割类别x提供条件先验的其他m-1对提供条件先验的部分标注数据也一并作为对偶分割网络中的提供条件先验的部分标注数据,x为m种分割类别中的任意一种。
优选地,步骤S4训练过程中先单独迭代训练主分割网络,之后用主分割网络的参数初始化对偶分割网络,并固定对偶分割网络的参数,循环迭代训练。
优选地,所述的相容性损失采用相容性交叉熵损失
Figure GDA0003739595480000021
表示,具体为:
Figure GDA0003739595480000022
其中,yi,2j为目标数据中分割类别j与提供分割类别j的条件先验的标注数据相交部分的实际值,
Figure GDA0003739595480000023
为目标数据中分割类别j与提供分割类别j的条件先验的标注数据相交部分的预测值,yi,2j+1为目标数据中分割类别j与提供分割类别j的条件先验的标注数据差异部分的实际值,
Figure GDA0003739595480000024
为目标数据中分割类别j与提供分割类别j的条件先验的标注数据差异部分的估计值,
Figure GDA0003739595480000031
表示在Cond(i,j)成立时对相交部分计算交叉熵损失,
Figure GDA0003739595480000032
表示在Cond(i,j)成立时对差异部分计算交叉熵损失,i表示第i个像素,K表示像素的总数,m为待分割的总类别数,Cond(i,j)等价于
Figure GDA0003739595480000033
c(xi)表示第i个像素xi所属的标签类别,cj表示第j个标签类别,cq表示标签类别的集合,
Figure GDA0003739595480000034
表示空集。
优选地,所述的成对损失表示为
Figure GDA0003739595480000035
Figure GDA0003739595480000036
其中,
Figure GDA0003739595480000037
表示条件先验数据像素标签向量的第j分量。
优选地,所述的yi,2j
Figure GDA0003739595480000038
通过下式得到:
Figure GDA0003739595480000039
Figure GDA00037395954800000310
其中,
Figure GDA00037395954800000311
表示目标数据实际像素标签向量的第j分量,
Figure GDA00037395954800000312
表示条件先验数据像素标签向量的第j分量,
Figure GDA00037395954800000313
表示目标数据预测像素标签向量的第j分量。
优选地,所述的yi,2j+1
Figure GDA00037395954800000314
通过下式得到:
Figure GDA00037395954800000315
Figure GDA00037395954800000316
优选地,所述的主分割网络和对偶分割网络结构一致。
优选地,所述的主分割网络和对偶分割网络均为卷积神经网络。
一种基于对偶条件相容神经网络的图像分割装置,包括存储器和处理器,所述存储器,用于存储计算机程序,所述处理器,用于当执行所述计算机程序时,实现所述的基于对偶条件相容神经网络的图像分割方法。
与现有技术相比,本发明具有如下优点:
(1)本发明第一次提出了相容性这个概念,构建与缺失标签相容的损失函数,在对有标注的结构计算损失函数之外,还要求没有标注的区域一定不属于任何标注的标签类别,核心在于充分挖掘部分标注图像的标签信息,利用部分标注的训练图像训练出一个单一的多标签分割模型,完成目标图像的有效分割。
(2)本发明在分割网络输入中包含了提供条件先验的部分标注图像,在训练过程中,要求网络能够将分散在多个部分标注的图像上的条件先验迁移到目标图像上,帮助目标图像的分割。
(3)本发明引入了对偶相容性,通过构建主分割网络和对偶分割网络,使主分割网络的输出同时作为对偶分割网络的输入,实现了训练的闭环,有助于为未标注结构的分割提供实质性的监督。
(4)本发明提出对偶条件相容网络的分割框架,并用于部分监督分割问题,该方法可以有效节约图像标注的成本,并能够在分割任务中远远超越传统的基于神经网络的分割方法,达到可以与完全标注的分割方法相匹配的效果。
附图说明
图1为本发明一种基于对偶条件相容神经网络的图像分割方法的流程框图;
图2为本发明实施例中主分割网络和对偶分割网络的训练过程中的原理示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。注意,以下的实施方式的说明只是实质上的例示,本发明并不意在对其适用物或其用途进行限定,且本发明并不限定于以下的实施方式。
实施例
如图1所示,本实施例提供一种基于对偶条件相容神经网络的图像分割方法,该方法包括如下步骤:
S1:获取与待分割图像结构模态相同的具有部分标签的图像数据作为训练数据;
S2、构建主分割网络和对偶分割网络,主分割网络和对偶分割网络的输入包括目标数据以及提供条件先验的部分标注数据,主分割网络和对偶分割网络的输出为目标数据的分割结果,主分割网络和对偶分割网络结构一致,主分割网络和对偶分割网络均为卷积神经网络;
S3、分别确定主分割网络和对偶分割网络的损失函数,包括相容性损失和成对损失,相容性损失表征目标数据的分割结果和目标数据的部分标签之间的差异,成对损失表征目标数据的分割结果和提供条件先验的部分标注数据之间的差异;
S4、利用训练数据训练主分割网络和对偶分割网络;
S5、进行图像分割:将待分割图像作为目标数据,将目标数据及提供条件先验的部分标注数据输入到主分割网络中,输出分割结果。
步骤S4训练主分割网络和对偶分割网络包括:
随机选取训练数据中一张具有部分标签的图像数据的原始图像作为主分割网络的目标数据,选取训练数据中m对具有部分标签的图像数据作为m对提供条件先验的部分标注数据,第j对提供条件先验的部分标注数据为分割类别j提供条件先验,每一对提供条件先验的部分标注数据分别包括原始图像以及对应分割类别的标注数据,j=1,2,……,m,m为待分割的总类别数;
随机选取主分割网络中m对提供条件先验的部分标注数据中的任意一对数据,设该对数据为分割类别x提供条件先验,将该对数据中的原始图像作为对偶分割网络的目标数据,将主分割网络中对于分割类别x的分割结果与主分割网络的目标数据组成一对并作为对偶分割网络中的一对提供条件先验的部分标注数据,将主分割网络中除去为分割类别x提供条件先验的其他m-1对提供条件先验的部分标注数据也一并作为对偶分割网络中的提供条件先验的部分标注数据,x为m种分割类别中的任意一种。
步骤S4训练过程中先单独迭代训练主分割网络,之后用主分割网络的参数初始化对偶分割网络,并固定对偶分割网络的参数,循环迭代训练。
相容性损失采用相容性交叉熵损失
Figure GDA0003739595480000051
表示,具体为:
Figure GDA0003739595480000052
其中,yi,2j为目标数据中分割类别j与提供分割类别j的条件先验的标注数据相交部分的实际值,
Figure GDA0003739595480000053
为目标数据中分割类别j与提供分割类别j的条件先验的标注数据相交部分的预测值,yi,2j+1为目标数据中分割类别j与提供分割类别j的条件先验的标注数据差异部分的实际值,
Figure GDA0003739595480000054
为目标数据中分割类别j与提供分割类别j的条件先验的标注数据差异部分的估计值,
Figure GDA0003739595480000055
表示在Cond(i,j)成立时对相交部分计算交叉熵损失,
Figure GDA0003739595480000056
表示在Cond(i,j)成立时对差异部分计算交叉熵损失,i表示第i个像素,K表示像素的总数,m为待分割的总类别数,Cond(i,j)等价于
Figure GDA0003739595480000057
c(xi)表示第i个像素xi所属的标签类别,cj表示第j个标签类别,cq表示标签类别的集合,
Figure GDA0003739595480000058
表示空集。
成对损失表示为
Figure GDA0003739595480000061
Figure GDA0003739595480000062
其中,
Figure GDA0003739595480000063
表示条件先验数据像素标签向量的第j分量。
yi,2j
Figure GDA0003739595480000064
通过下式得到:
Figure GDA0003739595480000065
Figure GDA0003739595480000066
其中,
Figure GDA0003739595480000067
表示目标数据实际像素标签向量的第j分量,
Figure GDA0003739595480000068
表示条件先验数据像素标签向量的第j分量,
Figure GDA0003739595480000069
表示目标数据预测像素标签向量的第j分量。
yi,2j+1
Figure GDA00037395954800000610
通过下式得到:
Figure GDA00037395954800000611
Figure GDA00037395954800000612
本发明提供的基于对偶条件相容神经网络的图像分割方法优选地可用于医学图像分割,下述以心脏MRI图像为例来说明本发明方法实施例的具体过程。
首先,确定心脏MRI图像分割的类别,确定为4类,分别为背景、右心室、左心室和心肌。
如图2所示,为训练主分网络和对偶分割网络的示意图。图中,Z1为主分割网络的目标图像(即一张心脏MRI图像),X1~X4依次为4对提供条件先验的部分标注数据,X1包括一张心脏MRI图像以及该图像中背景标签数据,X2包括一张心脏MRI图像以及该图像中右心室标签数据,X3包括一张心脏MRI图像以及该图像中左心室标签数据,X4包括一张心脏MRI图像以及该图像中心肌标签数据,主分割网络输出8个结果,两两为1对,ZO11为对Z1分割得到的背景图像中与X1中背景标签相交的区域,ZO12为对Z1分割得到的背景图像中与X1中背景标签相异的区域,ZO11和ZO12叠加得到ZO1,ZO1即对Z1分割得到的背景图像,同理得到ZO2、ZO3和ZO4,依次为对Z1分割得到的右心室图像、左心室图像和心肌图像;
然后,随机选取主分割网络中为“右心室”提供条件先验X2中的心脏MRI图像作为对偶分割网络的目标图像(记作D1),则将主分割网络得到的“右心室”分割结果ZO2以及主分割网络的目标图像Z1作为对偶分割网络的一对条件先验,最后将主分割网络中除去“右心室”条件先验的相关数据全部作为对偶分割网络的条件先验(即将主分割网络中的X1、X3、X4作为对偶分割网络的另外三对条件先验),同主分割网络一样,对偶分割网络输出8个结果,两两为1对,DO11为对D1分割得到的背景图像中与X1中背景标签相交的区域,DO12为对D1分割得到的背景图像中与X1中背景标签相异的区域,DO11和DO12叠加得到DO1,DO1即对D1分割得到的背景图像,同理得到DO2、DO3和DO4,依次为对D1分割得到的右心室图像、左心室图像和心肌图像。由此,对主分割网络和对偶分割网络进行训练。
最后,利用训练好的主分割网络对待分割的心脏MRI图像进行分割,分割为背景、右心室、左心室和心肌四个部分。
需要说明的是,本发明方法不限于对医学图像进行分割,也可适用于其他一些结构模态的图像数据。
实施例2
本实施例提供一种基于对偶条件相容神经网络的图像分割装置,包括存储器和处理器,所述存储器,用于存储计算机程序,所述处理器,用于当执行所述计算机程序时,实现如实施例1中的基于对偶条件相容神经网络的图像分割方法,该方法与实施例1相同,在此实施例中不再赘述。
上述实施方式仅为例举,不表示对本发明范围的限定。这些实施方式还能以其它各种方式来实施,且能在不脱离本发明技术思想的范围内作各种省略、置换、变更。

Claims (10)

1.一种基于对偶条件相容神经网络的图像分割方法,其特征在于,该方法包括如下步骤:
S1:获取与待分割图像结构模态相同的具有部分标签的图像数据作为训练数据;
S2、构建主分割网络和对偶分割网络,所述的主分割网络和对偶分割网络的输入包括目标数据以及提供条件先验的部分标注数据,所述的主分割网络和对偶分割网络的输出为目标数据的分割结果;
S3、分别确定主分割网络和对偶分割网络的损失函数,包括相容性损失和成对损失,所述的相容性损失表征目标数据的分割结果和目标数据的部分标签之间的差异,所述的成对损失表征目标数据的分割结果和提供条件先验的部分标注数据之间的差异;
S4、利用训练数据训练主分割网络和对偶分割网络;
S5、进行图像分割:将待分割图像作为目标数据,将目标数据及提供条件先验的部分标注数据输入到主分割网络中,输出分割结果。
2.根据权利要求1所述的一种基于对偶条件相容神经网络的图像分割方法,其特征在于,步骤S4训练主分割网络和对偶分割网络包括:
随机选取训练数据中一张具有部分标签的图像数据的原始图像作为主分割网络的目标数据,选取训练数据中m对具有部分标签的图像数据作为m对提供条件先验的部分标注数据,第j对提供条件先验的部分标注数据为分割类别j提供条件先验,每一对提供条件先验的部分标注数据分别包括原始图像以及对应分割类别的标注数据,j=1,2,……,m,m为待分割的总类别数;
随机选取主分割网络中m对提供条件先验的部分标注数据中的任意一对数据,设该对数据为分割类别x提供条件先验,将该对数据中的原始图像作为对偶分割网络的目标数据,将主分割网络中对于分割类别x的分割结果与主分割网络的目标数据组成一对并作为对偶分割网络中的一对提供条件先验的部分标注数据,将主分割网络中除去为分割类别x提供条件先验的其他m-1对提供条件先验的部分标注数据也一并作为对偶分割网络中的提供条件先验的部分标注数据,x为m种分割类别中的任意一种。
3.根据权利要求1所述的一种基于对偶条件相容神经网络的图像分割方法,其特征在于,步骤S4训练过程中先单独迭代训练主分割网络,之后用主分割网络的参数初始化对偶分割网络,并固定对偶分割网络的参数,循环迭代训练。
4.根据权利要求1所述的一种基于对偶条件相容神经网络的图像分割方法,其特征在于,所述的相容性损失采用相容性交叉熵损失
Figure FDA0003739595470000021
表示,具体为:
Figure FDA0003739595470000022
其中,yi,2j为目标数据中分割类别j与提供分割类别j的条件先验的标注数据相交部分的实际值,
Figure FDA0003739595470000023
为目标数据中分割类别j与提供分割类别j的条件先验的标注数据相交部分的预测值,yi,2j+1为目标数据中分割类别j与提供分割类别j的条件先验的标注数据差异部分的实际值,
Figure FDA0003739595470000024
为目标数据中分割类别j与提供分割类别j的条件先验的标注数据差异部分的估计值,
Figure FDA0003739595470000025
表示在Cond(i,j)成立时对相交部分计算交叉熵损失,
Figure FDA0003739595470000026
表示在Cond(i,j)成立时对差异部分计算交叉熵损失,i表示第i个像素,K表示像素的总数,m为待分割的总类别数,Cond(i,j)等价于
Figure FDA0003739595470000027
c(xi)表示第i个像素xi所属的标签类别,cj表示第j个标签类别,cq表示标签类别的集合,
Figure FDA0003739595470000028
表示空集。
5.根据权利要求4所述的一种基于对偶条件相容神经网络的图像分割方法,其特征在于,所述的成对损失表示为
Figure FDA0003739595470000029
Figure FDA00037395954700000210
其中,
Figure FDA00037395954700000211
表示条件先验数据像素标签向量的第j分量。
6.根据权利要求4所述的一种基于对偶条件相容神经网络的图像分割方法,其特征在于,所述的yi,2j
Figure FDA00037395954700000212
通过下式得到:
Figure FDA00037395954700000213
Figure FDA00037395954700000214
其中,
Figure FDA00037395954700000215
表示目标数据实际像素标签向量的第j分量,
Figure FDA00037395954700000216
表示条件先验数据像素标签向量的第j分量,
Figure FDA00037395954700000217
表示目标数据预测像素标签向量的第j分量。
7.根据权利要求6所述的一种基于对偶条件相容神经网络的图像分割方法,其特征在于,所述的yi,2j+1
Figure FDA0003739595470000031
通过下式得到:
Figure FDA0003739595470000032
Figure FDA0003739595470000033
8.根据权利要求1所述的一种基于对偶条件相容神经网络的图像分割方法,其特征在于,所述的主分割网络和对偶分割网络结构一致。
9.根据权利要求8所述的一种基于对偶条件相容神经网络的图像分割方法,其特征在于,所述的主分割网络和对偶分割网络均为卷积神经网络。
10.一种基于对偶条件相容神经网络的图像分割装置,其特征在于,包括存储器和处理器,所述存储器,用于存储计算机程序,所述处理器,用于当执行所述计算机程序时,实现如权利要求1~9任意一项所述的基于对偶条件相容神经网络的图像分割方法。
CN202110554338.1A 2021-05-20 2021-05-20 一种基于对偶条件相容神经网络的图像分割方法、装置 Active CN113298774B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110554338.1A CN113298774B (zh) 2021-05-20 2021-05-20 一种基于对偶条件相容神经网络的图像分割方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110554338.1A CN113298774B (zh) 2021-05-20 2021-05-20 一种基于对偶条件相容神经网络的图像分割方法、装置

Publications (2)

Publication Number Publication Date
CN113298774A CN113298774A (zh) 2021-08-24
CN113298774B true CN113298774B (zh) 2022-10-18

Family

ID=77323350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110554338.1A Active CN113298774B (zh) 2021-05-20 2021-05-20 一种基于对偶条件相容神经网络的图像分割方法、装置

Country Status (1)

Country Link
CN (1) CN113298774B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107451616A (zh) * 2017-08-01 2017-12-08 西安电子科技大学 基于深度半监督迁移学习的多光谱遥感图像地物分类方法
CN109165737A (zh) * 2018-08-29 2019-01-08 电子科技大学 基于条件随机场和bp神经网络的孔隙度预测方法
EP3513210A1 (en) * 2016-09-13 2019-07-24 Institut National de la Santé et de la Recherche Médicale (INSERM) A method for post-processing liver mri images to obtain a reconstructed map of the internal magnetic susceptibility
CN110506279A (zh) * 2017-04-14 2019-11-26 易享信息技术有限公司 采用隐树注意力的神经机器翻译
CN110675353A (zh) * 2019-08-31 2020-01-10 电子科技大学 一种基于条件生成对抗网络的选择分割图像合成方法
CN112465016A (zh) * 2020-11-25 2021-03-09 上海海事大学 基于最优劣距的部分多标记学习方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105389584B (zh) * 2015-10-13 2018-07-10 西北工业大学 基于卷积神经网络与语义转移联合模型的街景语义标注方法
CN109063173A (zh) * 2018-08-21 2018-12-21 电子科技大学 一种基于局部标签信息的半监督重叠社区发现方法
IT201900000133A1 (it) * 2019-01-07 2020-07-07 St Microelectronics Srl "Procedimento di elaborazione di immagini, sistema, veicolo e prodotto informatico corrispondenti"
US11281867B2 (en) * 2019-02-03 2022-03-22 International Business Machines Corporation Performing multi-objective tasks via primal networks trained with dual networks
CN110458249B (zh) * 2019-10-10 2020-01-07 点内(上海)生物科技有限公司 一种基于深度学习与概率影像组学的病灶分类系统
CN112232445B (zh) * 2020-12-11 2021-05-11 北京世纪好未来教育科技有限公司 多标签分类任务网络的训练方法和装置
CN112614570B (zh) * 2020-12-16 2022-11-25 上海壁仞智能科技有限公司 样本集标注、病理图像分类、分类模型构建方法及装置
CN112801186A (zh) * 2021-01-29 2021-05-14 中国工商银行股份有限公司 一种验证图像生成方法、装置及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3513210A1 (en) * 2016-09-13 2019-07-24 Institut National de la Santé et de la Recherche Médicale (INSERM) A method for post-processing liver mri images to obtain a reconstructed map of the internal magnetic susceptibility
CN110506279A (zh) * 2017-04-14 2019-11-26 易享信息技术有限公司 采用隐树注意力的神经机器翻译
CN107451616A (zh) * 2017-08-01 2017-12-08 西安电子科技大学 基于深度半监督迁移学习的多光谱遥感图像地物分类方法
CN109165737A (zh) * 2018-08-29 2019-01-08 电子科技大学 基于条件随机场和bp神经网络的孔隙度预测方法
CN110675353A (zh) * 2019-08-31 2020-01-10 电子科技大学 一种基于条件生成对抗网络的选择分割图像合成方法
CN112465016A (zh) * 2020-11-25 2021-03-09 上海海事大学 基于最优劣距的部分多标记学习方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"recognition and standardization of cardias MRI prientation via multi-tasking learning and deep neural networks";Ke Zhang等;《arXiv》;20201117;全文 *

Also Published As

Publication number Publication date
CN113298774A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
Mahmood et al. Deep adversarial training for multi-organ nuclei segmentation in histopathology images
Ma et al. Loss odyssey in medical image segmentation
Liu et al. A review of deep-learning-based medical image segmentation methods
Xue et al. Segan: Adversarial network with multi-scale l 1 loss for medical image segmentation
Lu et al. Half-UNet: A simplified U-Net architecture for medical image segmentation
Shin et al. Deep convolutional neural networks for computer-aided detection: CNN architectures, dataset characteristics and transfer learning
Pu et al. Fetal cardiac cycle detection in multi-resource echocardiograms using hybrid classification framework
CN108197629B (zh) 一种基于标签相关性约束张量分解的多模态医学影像特征提取方法
Hu et al. Reinforcement learning in medical image analysis: Concepts, applications, challenges, and future directions
Tong et al. RIANet: Recurrent interleaved attention network for cardiac MRI segmentation
Du et al. Deep regression segmentation for cardiac bi-ventricle MR images
Liao et al. MMTLNet: Multi-Modality Transfer Learning Network with adversarial training for 3D whole heart segmentation
Rueckert et al. Learning clinically useful information from images: Past, present and future
Yin et al. Multi-instance deep learning with graph convolutional neural networks for diagnosis of kidney diseases using ultrasound imaging
O'Neil et al. Attaining human-level performance with atlas location autocontext for anatomical landmark detection in 3D CT data
Hoorali et al. Automatic Bacillus anthracis bacteria detection and segmentation in microscopic images using UNet++
Dong et al. Self-supervised multi-task representation learning for sequential medical images
WO2023108968A1 (zh) 基于知识驱动的深度学习图像分类方法和系统
Hussain et al. Active deep learning from a noisy teacher for semi-supervised 3D image segmentation: Application to COVID-19 pneumonia infection in CT
Qian et al. Unet#: a Unet-like redesigning skip connections for medical image segmentation
Hao et al. MFUnetr: A transformer-based multi-task learning network for multi-organ segmentation from partially labeled datasets
Pal et al. A fully connected reproducible SE-UResNet for multiorgan chest radiographs segmentation
Hu et al. Chest X-ray diagnostic quality assessment: How much is pixel-wise supervision needed?
CN113298774B (zh) 一种基于对偶条件相容神经网络的图像分割方法、装置
CN116452645A (zh) 一种基于符号距离函数协同分割的跨模态医学图像配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant