CN113177950A - 基于半监督对抗学习的冠脉造影血管图像分割的方法 - Google Patents

基于半监督对抗学习的冠脉造影血管图像分割的方法 Download PDF

Info

Publication number
CN113177950A
CN113177950A CN202110436561.6A CN202110436561A CN113177950A CN 113177950 A CN113177950 A CN 113177950A CN 202110436561 A CN202110436561 A CN 202110436561A CN 113177950 A CN113177950 A CN 113177950A
Authority
CN
China
Prior art keywords
network
semi
segmentation
training
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110436561.6A
Other languages
English (en)
Inventor
王金甲
常万里
杜宏桥
周莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202110436561.6A priority Critical patent/CN113177950A/zh
Publication of CN113177950A publication Critical patent/CN113177950A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于半监督对抗学习的冠脉造影血管图像分割的方法,属于医学技术领域,基于半监督对抗学习的方法是当下医学图像处理领域比较热门的一个方法。半监督对抗学习的方法不需要大量的标注数据,大大减轻了医生的工作量。通过利用标注数据训练鉴别器,鉴别器网络可以判断输入为未标注数据的分割预测图还是GroundTruth图,然后分割网络将未标注数据的分割预测输入到鉴别器网络可以计算置信图,再结合对抗损失和半监督损失可以共同监督提高分割网络的准确性,从而使分割网络达到一个好的分割效果。

Description

基于半监督对抗学习的冠脉造影血管图像分割的方法
技术领域
本发明属于医学技术领域,具体涉及一种基于半监督对抗学习的冠脉造影血管图像分割的方法。
背景技术
半监督对抗学习是一种不需要过多标注数据的方法,相比于监督学习需要大量的人工标注数据,半监督对抗学习只需要少量的标注数据和大量的未标注数据即可。随着深度学习中半监督学习和对抗网络的出现,并且半监督学习和对抗网络已经在很多图像处理领域取得了巨大的成就。因此,使用深度学习来解决冠脉造影血管图像分割问题是将来研究的重点,并在此基础上结合利用半监督学习和生成对抗网络的方法来进行分割,解决了样本标注不足的问题。
半监督学习有一个非常吸引人的优点,它不需要大量的标注数据,它可以在模型训练中利用大量未标记的数据,从而可以大大减轻人工标注的任务。生成对抗网络的对抗学习也应用到了语义分割当中,将这两者结合可以在血管分割方法取得一些进展。一个典型的对抗网络由两个子网络组成,即生成器和鉴别器,让生成器和鉴别器进行博弈,从而可以产生不错的输出。在此背景下,我们的分割网络作为对抗网络的生成器,鉴别器采用一个完全卷积的网络作为鉴别器网络,分割网络对输入图像进行分割预测,使得所得的预测图接近GroundTruth图。对抗学习是让分割网络和鉴别器进行博弈,在训练过程中通过相互竞争让它们同时得到增强,最终使分割网络达到一个好的分割效果。
发明内容
本发明提供了一种利用半监督对抗学习网络来对冠脉造影血管图像进行分割预测,完成冠脉造影血管分割任务的方法。
一种基于半监督对抗学习的冠脉造影血管图像分割的方法,包括以下步骤:
(1)获取实验所需要的冠脉造影数据,其中包括标注数据和未标注数据;
(2)用带标注的数据对鉴别器网络和分割网络进行训练,鉴别器网络受损失函数LD监督训练,分割网络受Dice损失LDice和对抗损失Ladv监督训练;
(3)用未标注数据对分割网络进行训练,此时分割网络受鉴别器网络生成的置信度图和半监督损失Lsemi监督训练;
(4)在训练的过程中,鉴别器网络学习区分GroundTruth图和分割网络的分割预测图,而损失函数LDice和Ladv则鼓励分割网络产生接近GroundTruth图的预测概率图,鉴别器网络与分割网络之间的关系构成了对抗学习;
(5)上述(2)、(3)和(4)步骤重复训练,直到分割网络的训练完成,训练完成后保存模型,该模型即是我们所要的分割预测模型;
所述分割网络为经典的医学图像分割网络Unet,鉴别器网络为一个全卷积网络,所述对抗学习是让分割网络和鉴别器进行博弈,在训练过程中通过相互竞争让它们同时得到增强,最终使分割网络达到一个好的分割效果。
本发明技术方案的进一步改进在于:所述的鉴别器网络由5个卷积层组成,分别具有4×4的核和{64,128,256,512,1}个通道,步长为2,第1,2,3,4个卷积层后面都有一个由0.01参数化的Leaky-ReLU,在最后一层卷积层后面添加一个上采样层,以将输出重新缩放到输入映射的大小,从而将模型转换成全卷积网络;Leaky-ReLU的激活公式如下:
Figure BDA0003033350300000021
本发明技术方案的进一步改进在于:分割网络采用Unet网络,Unet分为收缩路径和扩展路径,收缩路径是经典的卷积网络结构,由五个相同的模块组成,每个模块包括两个卷积核大小均为3×3的卷积和一个激活函数ReLU,第1,2,3,4个模块后面包含一个2x2的步长为2的最大池化层;扩展路径中的每一步包括对特征映射先进行上采样,然后进行2x2卷积,该卷积为up-convolution;该特征映射将特征通道的数量减半,与收缩路径中相应裁剪的特征拼接起来,然后后接两个3x3卷积,每个卷积后都有一个激活函数ReLU;在最后一层,使用1x1卷积来将每个64通道特征图映射到特定深度并且使用softmax输出来匹配输入图像的大小。
本发明技术方案的进一步改进在于:训练鉴别器的损失函数为:
LD=-∑h,w(1-yn)log(1-D(S(Xn))(h,w))+ynlog(D(Yn)(h,w)) (2)
其中,LD是鉴别器网络的损失函数,D(S(Xn))(h,w)是输入图像X在位置(h,w)的置信度图,D(Yn)(h,w)是one-hot编码后GroundTruth向量Yn的置信度图;其中如果样本来自分割网络,则yn=0,如果样本来自GroundTruth,则yn=1;训练鉴别器使用标注的数据;训练分割网络的损失函数为:
Lseg=λadvLadvsemiLsemi (3)
其中Ladv和Lsemi分别为对抗损失和半监督损失;在式(3)中,用λadv和λsemi两个权值来最小化所提出的多任务损失函数;
通过鉴别器网络中的对抗损失来使用对抗学习过程,对抗损失为:
Ladv=-∑h,wlog(D(S(Xn))(h,w)) (4)
应用所述损失训练分割网络,通过最大化从GroundTruth分布生成预测结果的概率欺骗鉴别器,在自学框架内使用训练有素的鉴别器和未标记的数据所产生的半监督损失函数为:
Figure BDA0003033350300000031
其中I(·)是指标函数,Tsemi是控制自学过程灵敏度的阈值。
本发明技术方案的进一步改进在于:步骤(3)所述的置信度图用来推断与GroundTruth足够接近的区域,而通过训练的分割网络可以最大化生成与GroundTruth分布相近的预测结果,从而能骗过鉴别器。
由于采用了上述技术方案,本发明取得的技术效果如下:
本申请首次将半监督对抗学习的方法应用在冠脉造影血管分割,可以大大缓解冠脉造影标注数据紧缺的问题,从而帮医生减轻标注工作量。主要解决了针对当前医学图像数据集比较缺少的问题,提出使用半监督对抗学习的方法对我们所采集的冠脉造影血管图像进行分割,使得我们的数据集在不需要大量的人工标注的情况下即可达到我们所要的分割效果,解决了医学图像冠脉造影数据紧缺的问题。
附图说明
图1是本发明的总体框架线路图;
图2是本发明整体技术路线图;
图3是本发明分割网络结构;
图4是本发明鉴别器网络结构。
具体实施方式
在我们的方法中,我们的发明整体技术路线图如图2所示,其中我们采用Unet网络作为我们的分割网络如图3,Unet网络在医学图像分割领域一直表现很好,因此选用它作为我们的分割网络。Unet分为收缩路径和扩展路径,收缩路径是经典的卷积网络结构,由五个相同的模块组成,每个模块包括两个卷积核大小均为3x3的卷积和一个激活函数ReLU,第1,2,3,4个模块后面均包含一个2x2的步长为2的最大池化层。扩展路径中的每一步包括对特征映射先进行上采样,然后进行2x2卷积,该卷积为up-convolution。该特征映射将特征通道的数量减半,与收缩路径中相应裁剪的特征拼接起来,然后后接两个3x3卷积,每个卷积都有一个激活函数ReLU。由于每个卷积中边界像素的丢失,裁剪是必要的。在最后一层,使用1x1卷积来将每个64通道特征图映射到特定深度并且使用softmax输出来匹配输入图像的大小。
鉴别器网络如图4,由5个卷积层组成,它们分别具有4×4的卷积核和{64,128,256,512,1}个通道,步长为2,第1,2,3,4个卷积层后面都有一个由0.01参数化的Leaky-ReLU激活函数,通过在最后一层添加一个上采样层,以将输出重新缩放到输入映射的大小,从而将模型转换成全卷积网络。
其中当输入数据为带标注的数据时,鉴别器网络受损失函数LD监督训练,分割网络受Dice损失LDice和对抗损失Ladv监督训练,其中LD、LDice、Ladv的表达式如下:
LD=-∑h,w(1-yn)log(1-D(S(Xn))(h,w))+ynlog(D(Yn)(h,w)) (2)
LDice=1-2|S(Xn)∩Yn|/(S(Xn)+Yn) (6)
Ladv=-∑h,wlog(D(S(Xn))(h,w)) (4)
损失函数LD负责监督训练鉴别器网络,通过训练鉴别器网络,可以提高鉴别器网络区分GroundTruth图与分割网络的分割预测图的能力。损失函数Dice损失LDice和对抗损失Ladv负责监督训练分割网络,其中对抗损失可以使分割网络最大化从GroundTruth分布生成预测结果的概率来欺骗鉴别器。
当输入数据为未带标注的数据时,分割网络受鉴别器所生成的置信度图和半监督损失Lsemi共同监督训练。其中鉴别器网络计算出分割预测的置信度图,然后以此为一个监督信号,结合半监督损失Lsemi来训练分割网络。损失函数Lsemi如下:
Figure BDA0003033350300000051
最后的分割网络的损失函数为:
Lseg=λadvLadvsemiLsemi (3)
当最后的训练完成后,保存我们的分割预测模型,再利用验证集验证该模型,则该分割预测模型即是我们所想要的。
一种基于半监督学习和生成对抗网络的新型分割方法,并基于Unet网络结构来完成我们的血管分割任务,该技术还未在冠脉造影图像上实施过,通过利用半监督对抗学习来解决冠脉造影标注数据紧缺的问题,其总体线路如图1所示,具体做法如下:
1.准备数据,获取实验所需要的冠脉造影数据,其中包括标注数据和未标注数据。我们的血管数据集是我们亲自去医院进行采集的冠脉造影图像,然后经过专业人士进行标注所得。我们将其分为训练集和验证集,并对训练集进行图像预处理,其中数据集中的一小部分图像为标注图像,其余大部分为原始图像。
2.利用带标注的数据对分割网络和鉴别器进行训练。
分割网络采用Unet网络结构。Unet分为收缩路径和扩展路径,收缩路径是经典的卷积网络结构,由五个相同的模块组成,每个模块包括两个卷积核大小均为3×3的卷积和一个激活函数ReLU,第1,2,3,4个模块后面均包含一个2x2的步长为2的最大池化层。扩展路径中的每一步包括对特征映射先进行上采样,然后进行2x2卷积,该卷积为up-convolution。该特征映射将特征通道的数量减半,与收缩路径中相应裁剪的特征拼接起来,然后后接两个3x3卷积,每个卷积都有一个激活函数ReLU。由于每个卷积中边界像素的丢失,裁剪是必要的。在最后一层,使用1x1卷积来将每个64通道特征图映射到特定深度并且使用softmax输出来匹配输入图像的大小。
鉴别器网络由5个卷积层组成,分别具有4×4的核和{64,128,256,512,1}个通道,步长为2,第1,2,3,4个卷积层后面都有一个由0.01参数化的Leaky-ReLU激活函数,通过在最后一层添加了一个上采样层,以将输出重新缩放到输入映射的大小,从而将模型转换成全卷积网络。激活公式如下:
Figure BDA0003033350300000061
用带标注的图像对鉴别器网络和分割网络进行迭代训练,损失函数LD负责监督训练鉴别器网络,分割网络受Dice损失LDice和对抗损失Ladv监督训练,其中对抗损失如下:
Ladv=-∑h,wlog(D(S(Xn))(h,w)) (4)
有了这个损失,我们训练分割网络,通过最大化从GroundTruth分布生成预测结果的概率来欺骗鉴别器网络,而鉴别器网络则通过训练以及生成的置信图学习区分GroundTruth图和分割网络的分割预测的概率图。
3.将分割预测图传递给鉴别器网络来计算置信度图,以此为监控信号,然后使用自学方案训练具有masked交叉熵损失的分割网络,从而训练出分割预测模型。
4.利用验证集对分割预测模型进行验证,得到最终分割结果。

Claims (4)

1.一种基于半监督对抗学习的冠脉造影血管图像分割的方法,其特征在于包括以下步骤:
(1)获取实验所需要的冠脉造影数据,其中包括标注数据和未标注数据;
(2)用带标注的数据对鉴别器网络和分割网络进行训练,鉴别器网络受损失函数LD监督训练,分割网络受Dice损失LDice和对抗损失Ladv监督训练;
(3)用未标注数据对分割网络进行训练,此时分割网络受鉴别器网络生成的置信度图和半监督损失Lsemi监督训练;
(4)在训练的过程中,鉴别器网络学习区分GroundTruth图和分割网络的分割预测图,而损失函数LDice和Ladv则鼓励分割网络产生接近GroundTruth图的预测概率图,鉴别器网络与分割网络之间的关系构成了对抗学习;
(5)上述(2)、(3)和(4)步骤重复训练,直到分割网络的训练完成,训练完成后保存模型,该模型即是我们所要的分割预测模型;
所述分割网络为经典的医学图像分割网络Unet,鉴别器网络为一个全卷积网络。
2.根据权利要求1所述的一种基于半监督对抗学习的冠脉造影血管图像分割的方法,其特征在于:所述的鉴别器网络由5个卷积层组成,分别具有4×4的核和{64,128,256,512,1}个通道,步长为2,第1,2,3,4个卷积层后面都有一个由0.01参数化的Leaky-ReLU,在最后一层卷积层后面添加一个上采样层,以将输出重新缩放到输入映射的大小,从而将模型转换成全卷积网络;Leaky-ReLU的激活公式如下:
Figure FDA0003033350290000011
3.根据权利要求1所述的一种基于半监督对抗学习的冠脉造影血管图像分割的方法,其特征在于:分割网络采用Unet网络,Unet分为收缩路径和扩展路径,收缩路径是经典的卷积网络结构,由五个相同的模块组成,每个模块包括两个卷积核大小均为3×3的卷积和一个激活函数ReLU,第1,2,3,4个模块后面包含一个2x2的步长为2的最大池化层;扩展路径中的每一步包括对特征映射先进行上采样,然后进行2x2卷积,该卷积为up-convolution;该特征映射将特征通道的数量减半,与收缩路径中相应裁剪的特征拼接起来,然后后接两个3x3卷积,每个卷积后都有一个激活函数ReLU;在最后一层,使用1x1卷积来将每个64通道特征图映射到特定深度并且使用softmax输出来匹配输入图像的大小。
4.根据权利要求1所述的一种基于半监督对抗学习的冠脉造影血管图像分割的方法,其特征在于:训练鉴别器的损失函数为:
LD=-∑h,w(1-yn)log(1-D(S(Xn))(h,w))+ynlog(D(Yn)(h,w)) (2)
其中,LD是鉴别器网络的损失函数,D(S(Xn))(h,w)是输入图像X在位置(h,w)的置信度图,D(Yn)(h,w)是one-hot编码后GroundTruth向量Yn的置信度图;其中如果样本来自分割网络,则yn=0,如果样本来自GroundTruth,则yn=1;训练鉴别器使用标注的数据;训练分割网络的损失函数为:
Lseg=λadvLadvsemiLsemi (3)
其中Ladv和Lsemi分别为对抗损失和半监督损失;在式(3)中,用λadv和λsemi两个权值来最小化所提出的多任务损失函数;
通过鉴别器网络中的对抗损失来使用对抗学习过程,对抗损失为:
Ladv=-∑h,wlog(D(S(Xn))(h,w)) (4)
应用所述损失训练分割网络,通过最大化从GroundTruth分布生成预测结果的概率欺骗鉴别器,在自学框架内使用训练有素的鉴别器和未标记的数据所产生的半监督损失函数为:
Figure FDA0003033350290000021
其中I(·)是指标函数,Tsemi是控制自学过程灵敏度的阈值。
CN202110436561.6A 2021-04-22 2021-04-22 基于半监督对抗学习的冠脉造影血管图像分割的方法 Pending CN113177950A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110436561.6A CN113177950A (zh) 2021-04-22 2021-04-22 基于半监督对抗学习的冠脉造影血管图像分割的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110436561.6A CN113177950A (zh) 2021-04-22 2021-04-22 基于半监督对抗学习的冠脉造影血管图像分割的方法

Publications (1)

Publication Number Publication Date
CN113177950A true CN113177950A (zh) 2021-07-27

Family

ID=76924417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110436561.6A Pending CN113177950A (zh) 2021-04-22 2021-04-22 基于半监督对抗学习的冠脉造影血管图像分割的方法

Country Status (1)

Country Link
CN (1) CN113177950A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113723419A (zh) * 2021-09-03 2021-11-30 乐普(北京)医疗器械股份有限公司 一种基于语义分割网络对造影图像进行分割的方法和装置
CN114140453A (zh) * 2021-12-08 2022-03-04 广州医科大学附属第一医院(广州呼吸中心) 一种基于神经网络的剪影血管造影术的分割方法
CN114240955A (zh) * 2021-12-22 2022-03-25 电子科技大学 一种半监督的跨领域自适应的图像分割方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108549895A (zh) * 2018-04-17 2018-09-18 深圳市唯特视科技有限公司 一种基于对抗网络的半监督语义分割方法
CN110443815A (zh) * 2019-08-07 2019-11-12 中山大学 结合生成对抗网络的半监督视网膜oct图像层分割方法
CN111382686A (zh) * 2020-03-04 2020-07-07 上海海事大学 一种基于半监督生成对抗网络的车道线检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108549895A (zh) * 2018-04-17 2018-09-18 深圳市唯特视科技有限公司 一种基于对抗网络的半监督语义分割方法
CN110443815A (zh) * 2019-08-07 2019-11-12 中山大学 结合生成对抗网络的半监督视网膜oct图像层分割方法
CN111382686A (zh) * 2020-03-04 2020-07-07 上海海事大学 一种基于半监督生成对抗网络的车道线检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张冉: "面向心血管疾病辅助诊断的医学图像分割与分类算法研究", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113723419A (zh) * 2021-09-03 2021-11-30 乐普(北京)医疗器械股份有限公司 一种基于语义分割网络对造影图像进行分割的方法和装置
CN113723419B (zh) * 2021-09-03 2023-11-21 乐普(北京)医疗器械股份有限公司 一种基于语义分割网络对造影图像进行分割的方法和装置
CN114140453A (zh) * 2021-12-08 2022-03-04 广州医科大学附属第一医院(广州呼吸中心) 一种基于神经网络的剪影血管造影术的分割方法
CN114140453B (zh) * 2021-12-08 2024-04-12 广州医科大学附属第一医院(广州呼吸中心) 一种基于神经网络的剪影血管造影术的分割方法
CN114240955A (zh) * 2021-12-22 2022-03-25 电子科技大学 一种半监督的跨领域自适应的图像分割方法
CN114240955B (zh) * 2021-12-22 2023-04-07 电子科技大学 一种半监督的跨领域自适应的图像分割方法

Similar Documents

Publication Publication Date Title
WO2021042828A1 (zh) 神经网络模型压缩的方法、装置、存储介质和芯片
CN110263912B (zh) 一种基于多目标关联深度推理的图像问答方法
CN107766894B (zh) 基于注意力机制和深度学习的遥感图像自然语言生成方法
CN110866140B (zh) 图像特征提取模型训练方法、图像搜索方法及计算机设备
CN113177950A (zh) 基于半监督对抗学习的冠脉造影血管图像分割的方法
CN109558832A (zh) 一种人体姿态检测方法、装置、设备及存储介质
CN111260653B (zh) 一种图像分割方法、装置、存储介质和电子设备
CN112784764A (zh) 一种基于局部与全局注意力机制的表情识别方法及系统
CN111368079A (zh) 一种文本分类的方法、模型训练的方法、装置及存储介质
CN112883149B (zh) 一种自然语言处理方法以及装置
CN110070107A (zh) 物体识别方法及装置
CN112163601B (zh) 图像分类方法、系统、计算机设备及存储介质
CN110321805B (zh) 一种基于时序关系推理的动态表情识别方法
CN109740681A (zh) 一种水果分拣方法、装置、系统、终端及存储介质
CN113780249B (zh) 表情识别模型的处理方法、装置、设备、介质和程序产品
CN111968124B (zh) 基于半监督语义分割的肩部肌骨超声结构分割方法
CN115081588A (zh) 一种神经网络参数量化方法和装置
CN113076957A (zh) 一种基于跨模态特征融合的rgb-d图像显著性目标检测方法
KR20210095671A (ko) 이미지 처리 방법 및 관련 장치
CN114282059A (zh) 视频检索的方法、装置、设备及存储介质
CN113516133A (zh) 一种多模态图像分类方法及系统
CN115393933A (zh) 一种基于帧注意力机制的视频人脸情绪识别方法
CN113656563A (zh) 一种神经网络搜索方法及相关设备
CN114842238A (zh) 一种嵌入式乳腺超声影像的识别方法
CN108496174B (zh) 用于面部识别的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210727