CN113781490A - 基于自监督学习的眼底血管图像分割方法 - Google Patents

基于自监督学习的眼底血管图像分割方法 Download PDF

Info

Publication number
CN113781490A
CN113781490A CN202111250768.0A CN202111250768A CN113781490A CN 113781490 A CN113781490 A CN 113781490A CN 202111250768 A CN202111250768 A CN 202111250768A CN 113781490 A CN113781490 A CN 113781490A
Authority
CN
China
Prior art keywords
image
baseline
network
supervision
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111250768.0A
Other languages
English (en)
Inventor
吕佳
马超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Normal University
Original Assignee
Chongqing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Normal University filed Critical Chongqing Normal University
Priority to CN202111250768.0A priority Critical patent/CN113781490A/zh
Publication of CN113781490A publication Critical patent/CN113781490A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供的一种基于自监督学习的眼底血管图像分割方法,包括:S1.设定数据集,该数据集包括带标签图像样本D和无标签的同一患者的左右眼球图像信息XT∈{L,R},S2.基于辅助任务构建自监督网络,其中,自监督网络由两个相同的U‑Net网络组成,两个并行的U‑Net网络分别标记为baseline(a)和baseline(b);S3.构建图像分割损失模型,将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}分别输入至baseline(a)和由baseline(a)和baseline(b)组成的自监督模块中,通过交叉熵损失函数和局部一致性对比损失函数对baseline(a)网络的参数进行优化,训练过程中baseline(b)的网络参数由baseline(a)动量传递获得;S4.将待测的左右眼图像信息输入至优化后的自监督网络中任一网络进行图像分割处理,得到最终的分割结果,通过上述方法,能够对眼底血管图像进行精确分割。

Description

基于自监督学习的眼底血管图像分割方法
技术领域
本发明涉及一种图像分割方法,尤其涉及一种基于自监督学习的眼底血管图像分割方法。
背景技术
眼底血管(即视网膜血管)图像分割结果可以作为眼底疾病患者的诊断依据,也可以为其他疾病并发症状提供病理参考,比如,糖尿病、高血压。
现有的眼底图像分割算法中,大多基于深度学习的视网膜血管图像分割方法大多依赖临床专家手工分割的标注图片。然而,由于血管结构的复杂性以及眼球图像的低对比度,这使得标注样本成了一项繁重且昂贵的工作,同时由于专家在标注过程中的主观因素,最后会导致标注样本具有不准确性。
因此,为了解决上述技术问题,亟需提出一种新的技术手段。
发明内容
有鉴于此,本发明的目的是提供一种基于自监督学习的眼底血管图像分割方法,能够对眼底血管图像进行精确分割,能够有效提高对眼底血管图像的分割能力,而且为后续的眼部疾病诊断提供准确的病理依据。
本发明提供的一种基于自监督学习的眼底血管图像分割方法,包括以下步骤:
S1.设定数据集,该数据集包括带标签图像样本D和无标签的同一患者的左右眼球图像信息XT∈{L,R},其中,D∈RC×H×W(Yi,Xi),其中,当T=L时,XL表示患者的左眼图像,当T=R时,XR表示患者的右眼图像,RC×H×W(Yi,Xi)表示第C个图像通道的右眼图像,H和W表示图像的长和宽,(Yi,Xi)表示第C个图像且图像的长和宽为H和W时的第i个像素点;
S2.基于辅助任务构建自监督网络,其中,自监督网络由两个并行的U-Net网络组成,两个并行的U-Net网络分别标记为baseline(a)和baseline(b);
S3.构建图像分割损失模型,将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}输入至自监督网络中,通过对损失函数对自监督网络中的网络baseline(a)的参数进行优化;其中,损失函数为:
Ltotal=LBCE+Lcon+Lrec;其中,LBCE为将网络baseline(a)作为监督网络的监督损失,Lcon为自监督网络的对比损失,Lrec为对自监督网络进行训练后的重建损失;
S4.将待测的左右眼图像信息输入至优化后的自监督网络中任一网络进行图像分割处理,得到最终的分割结果。
进一步,步骤S3中,通过如下方法确定自监督网络的对比损失Lcon
将无标签的同一患者左右眼图像信息XT∈{L,R}输入至自监督网络中;
由U-Net网络的编码器fenc对图像信息XT∈{L,R}进行处理,提取出图像信息中的主干特征和其他特征,其中,主干特征包括左眼图像主干特征p(L)和右眼图像主干特征p(R),其他特征包括左眼其他特征n(L)和右眼其他特征n(R),其中:
fenc(XL)=p(L)+n(L) (1)
fenc(XR)=p(R)+n(R) (2);
将公式(1)和公式(2)中的主干特征信息进行交叉融合得到:
f′enc(XL)=p(R)+n(L) (3)
f′enc(XR)=p(L)+n(R) (4)
基于先验指示可知左眼主干特征和右眼主干特征相似且有:p(R)≈p(L)(5);
那么:f′enc(XL)≈f′enc(XR);
将特征融合后的左眼特征和右眼特征输入至U-Net网络的解码器fdec中进行图像重构,得到左眼和右眼的图像重建特征:
ZL=fdec(f′enc(XL))
ZR=fdec(f′enc(XR));
基于图像重建特征构建对比损失Lcon
Lcon=(p(L)-p(R))2+(n(L)-n(R))2
进一步,通过如下方法确定监督损失LBCE
Figure BDA0003322404030000031
其中,N表示带标签的图像样本的个数,gn,i是像素i对应的真实值,pn,i表示像素i属于n类时的预测概率值。
进一步,通过如下方法对自监督网络中的baseline(a)和baseline(b)的参数进行优化:
将自监督网络中的U-Net网络baseline(a)设定为监督网络;
将带标签的图像样本D输入至U-Net网络baseline(a)中进行训练并基于监督损失LBCE对网络baseline(a)的参数进行优化;然后将无标签的同一患者的左右眼球图像信息XT ∈{L,R}输入至U-Net网络baseline(a)中进行训练并基于对比损失Lcon和重建损失Lrec对网络baseline(a)的参数进行优化;
将网络baseline(a)优化后的参数通过如下传递函数赋值给baseline(b)网络:
wt+1=μw+(1-μ)q,其中:q为baseline(a)的模型参数,w为baseline(b)的模型参数;μ为动量因子,wt+1为更新后的baseline(b)参数。
进一步,根据如下方法确定重建损失Lrec
将左眼重建特征输入至softmax函数中得到概率图;
将右眼重建特征作为伪标签,并基于伪标签和概率图构建重建损失Lrec
Figure BDA0003322404030000041
其中,Fθ(×)为自适应池化函数,M为l2正则化,N为输入样本数量,ε为拉普拉斯平滑系数。
本发明的有益效果:通过本发明,能够对眼底血管图像进行精确分割,能够有效提高对眼底血管图像的分割能力,而且为后续的眼部疾病诊断提供准确的病理依据。
附图说明
下面结合附图和实施例对本发明作进一步描述:
图1为本发明的流程图。
图2为本发明的自监督网络模型图。
图3为左右眼球血管分布对比图。
具体实施方式
以下结合说明书附图对本发明做出进一步详细说明:
本发明提供的一种基于自监督学习的眼底血管图像分割方法,包括以下步骤:
S1.设定数据集,该数据集包括带标签图像样本D和无标签的同一患者的左右眼球图像信息XT∈{L,R},其中,D∈RC×H×W(Yi,Xi),其中,当T=L时,XL表示患者的左眼图像,当T=R时,XR表示患者的右眼图像,RC×H×W(Yi,Xi)表示第C个图像通道的右眼图像,H和W表示图像的长和宽,(Yi,Xi)表示第C个图像且图像的长和宽为H和W时的第i个像素点;其中,带标签图像样本D是指经过专家分割处理后的图像,并具有分割标签信息,每一个图像对应一个分割标签信息。
S2.基于辅助任务构建自监督网络,其中,自监督网络由两个并行的U-Net网络组成,两个并行的U-Net网络分别标记为baseline(a)和baseline(b);其中,辅助任务为同一患者的左右眼球的血管主干分布具有相似性这一先验知识;如图3所示;
S3.构建图像分割损失模型,将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}输入至自监督网络中,通过对损失函数对自监督网络中的网络baseline(a)的参数进行优化;其中,损失函数为:
Ltotal=LBCE+Lcon+Lrec;其中,LBCE为将网络baseline(a)作为监督网络的监督损失,Lcon为自监督网络的对比损失,Lrec为对自监督网络进行训练后的重建损失,具体如下:
将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}分别输入至baseline(a)和由baseline(a)和baseline(b)组成的自监督模块中,baseline(a)通过图像标签可以利用交叉熵损失(即监督损失LBCE)进行优化,而自监督模块包含两个损失分别为:对比损失和局部一致性重建损失函数(即重建损失Lrec),这两个损失只作用于baseline(a),即让baseline(a)可以通过损失进行反向传播更新梯度,而baseline(b)不进行反向传播,其网络参数由baseline(a)每轮参数更新后动量传递获得;这意味着整个模型有三个损失函数对baseline(a)进行优化,从而确保最终结果的准确性,由于上述方式,两个网络的参数时一致的,因此,将待测图像输入至任一网络中均可以得到最终的结果。
S4.将待测的左右眼图像信息输入至优化后的自监督网络中任一网络进行图像分割处理,得到最终的分割结果,即是说:通过步骤S2和S3处理后,将待测图像输入到baseline(a)和baseline(b)任一网络中均能够得到最终精确的分割结果;通过上述方法,能够对眼底血管图像进行精确分割,能够有效提高对眼底血管图像的分割能力,而且为后续的眼部疾病诊断提供准确的病理依据。
本实施例中,步骤S3中,通过如下方法确定自监督网络的对比损失Lcon
将无标签的同一患者左右眼图像信息XT∈{L,R}输入至自监督网络中;
由U-Net网络的编码器fenc对图像信息XT∈{L,R}进行处理,提取出图像信息中的主干特征和其他特征,其中,主干特征包括左眼图像主干特征p(L)和右眼图像主干特征p(R),其他特征包括左眼其他特征n(L)和右眼其他特征n(R),其中:
fenc(XL)=p(L)+n(L) (1)
fenc(XR)=p(R)+n(R) (2);
将公式(1)和公式(2)中的主干特征信息进行交叉融合得到:
f′enc(XL)=p(R)+n(L) (3)
f′enc(XR)=p(L)+n(R) (4)
基于先验指示可知左眼主干特征和右眼主干特征相似且有:p(R)≈p(L)(5);
那么:f′enc(XL)≈f′enc(XR);
将特征融合后的左眼特征和右眼特征输入至U-Net网络的解码器fdec中进行图像重构,得到左眼和右眼的图像重建特征:
ZL=fdec(f′enc(XL))
ZR=fdec(f′enc(XR));
基于图像重建特征构建对比损失Lcon
Lcon=(p(L)-p(R))2+(n(L)-n(R))2,通过上述方法,能够使得整个自监督网络对无标签的图像进行学习,从而能够提升整个过程的速度,效率高。
本实施例中,通过如下方法确定监督损失LBCE
Figure BDA0003322404030000071
其中,N表示带标签的图像样本的个数,gn,i是像素i对应的真实值,pn,i表示像素i属于n类时的预测概率值。
本实施例中,通过如下方法对自监督网络中的baseline(a)和baseline(b)的参数进行优化:
将自监督网络中的U-Net网络baseline(a)设定为监督网络;
将带标签的图像样本D输入至U-Net网络baseline(a)中进行训练并基于监督损失LBCE对网络baseline(a)的参数进行优化;然后将无标签的同一患者的左右眼球图像信息XT ∈{L,R}输入至U-Net网络baseline(a)中进行训练并基于对比损失Lcon和重建损失Lrec对网络baseline(a)的参数进行优化;
将网络baseline(a)优化后的参数通过如下传递函数赋值给baseline(b)网络:
wt+1=μw+(1-μ)q,其中:q为baseline(a)的模型参数,w为baseline(b)的模型参数;μ为动量因子,wt+1为更新后的baseline(b)参数,由于在上述中,对于baseline(a)的参数优化是基于监督学习进行的,而自监督网络对baseline(a)网络具有辅助训练作用,以提升整个算法的精度,但是,自监督网络对无标签样本进行学习和监督网络(即baseline(a))出现偏差会影响整个网络的性能,因此,通过上述方法,对于baseline(b)网络采用上述方法进行参数优化更新,能够提升baseline(b)的自身学习能力,而且避免自监督网络对无标签样本进行学习和监督网络(即baseline(a))出现偏差,从而保证整个过程的精度。
本实施例中,根据如下方法确定重建损失Lrec
将左眼重建特征输入至softmax函数中得到概率图;softmax函数为U-Net中的函数,为现有技术中;
将右眼重建特征作为伪标签,并基于伪标签和概率图构建重建损失Lrec
Figure BDA0003322404030000081
其中,Fθ(·)为自适应池化函数,M为l2正则化,N为输入样本数量,ε为拉普拉斯平滑系数。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (5)

1.一种基于自监督学习的眼底血管图像分割方法,其特征在于:包括以下步骤:
S1.设定数据集,该数据集包括带标签图像样本D和无标签的同一患者的左右眼球图像信息XT∈{L,R},其中,D∈RC×H×W(Yi,Xi),其中,当T=L时,XL表示患者的左眼图像,当T=R时,XR表示患者的右眼图像,RC×H×W(Yi,Xi)表示第C个图像通道的右眼图像,H和W表示图像的长和宽,(Yi,Xi)表示第C个图像且图像的长和宽为H和W时的第i个像素点;
S2.基于辅助任务构建自监督网络,其中,自监督网络由两个并行的U-Net网络组成,两个并行的U-Net网络分别标记为baseline(a)和baseline(b);
S3.构建图像分割损失模型,将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}输入至自监督网络中,通过对损失函数对自监督网络中的网络baseline(a)的参数进行优化;其中,损失函数为:
Ltotal=LBCE+Lcon+Lrec;其中,LBCE为将网络baseline(a)作为监督网络的监督损失,Lcon为自监督网络的对比损失,Lrec为对自监督网络进行训练后的重建损失;
S4.将待测的左右眼图像信息输入至优化后的自监督网络中任一网络进行图像分割处理,得到最终的分割结果。
2.根据权利要求1所述基于自监督学习的眼底血管图像分割方法,其特征在于:步骤S3中,通过如下方法确定自监督网络的对比损失Lcon
将无标签的同一患者左右眼图像信息XT∈{L,R}输入至自监督网络中;
由U-Net网络的编码器fenc对图像信息XT∈{L,R}进行处理,提取出图像信息中的主干特征和其他特征,其中,主干特征包括左眼图像主干特征p(L)和右眼图像主干特征p(R),其他特征包括左眼其他特征n(L)和右眼其他特征n(R),其中:
fenc(XL)=p(L)+n(L) (1)
fenc(XR)=p(R)+n(R) (2);
将公式(1)和公式(2)中的主干特征信息进行交叉融合得到:
f′enc(XL)=p(R)+n(L) (3)
f′enc(XR)=p(L)+n(R) (4)
基于先验指示可知左眼主干特征和右眼主干特征相似且有:p(R)≈p(L) (5);
那么:f′enc(XL)≈f′enc(XR);
将特征融合后的左眼特征和右眼特征输入至U-Net网络的解码器fdec中进行图像重构,得到左眼和右眼的图像重建特征:
ZL=fdec(f′enc(XL))
ZR=fdec(f′enc(XR));
基于图像重建特征构建对比损失Lcon
Lcon=(p(L)-p(R))2+(n(L)-n(R))2
3.根据权利要求2所述基于自监督学习的眼底血管图像分割方法,其特征在于:通过如下方法确定监督损失LBCE
Figure FDA0003322404020000021
其中,N表示带标签的图像样本的个数,gn,i是像素i对应的真实值,pn,i表示像素i属于n类时的预测概率值。
4.根据权利要求3所述基于自监督学习的眼底血管图像分割方法,其特征在于:通过如下方法对自监督网络中的baseline(a)和baseline(b)的参数进行优化:
将自监督网络中的U-Net网络baseline(a)设定为监督网络;
将带标签的图像样本D输入至U-Net网络baseline(a)中进行训练并基于监督损失LBCE对网络baseline(a)的参数进行优化;然后将无标签的同一患者的左右眼球图像信息XT ∈{L,R}输入至U-Net网络baseline(a)中进行训练并基于对比损失Lcon和重建损失Lrec对网络baseline(a)的参数进行优化;
将网络baseline(a)优化后的参数通过如下传递函数赋值给baseline(b)网络:
wt+1=μw+(1-μ)q,其中:q为baseline(a)的模型参数,w为baseline(b)的模型参数;μ为动量因子,wt+1为更新后的baseline(b)参数。
5.根据权利要求2所述基于自监督学习的眼底血管图像分割方法,其特征在于:根据如下方法确定重建损失Lrec
将左眼重建特征输入至softmax函数中得到概率图;
将右眼重建特征作为伪标签,并基于伪标签和概率图构建重建损失Lrec
Figure FDA0003322404020000031
其中,Fθ(×)为自适应池化函数,M为l2正则化,N为输入样本数量,ε为拉普拉斯平滑系数。
CN202111250768.0A 2021-10-26 2021-10-26 基于自监督学习的眼底血管图像分割方法 Pending CN113781490A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111250768.0A CN113781490A (zh) 2021-10-26 2021-10-26 基于自监督学习的眼底血管图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111250768.0A CN113781490A (zh) 2021-10-26 2021-10-26 基于自监督学习的眼底血管图像分割方法

Publications (1)

Publication Number Publication Date
CN113781490A true CN113781490A (zh) 2021-12-10

Family

ID=78956690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111250768.0A Pending CN113781490A (zh) 2021-10-26 2021-10-26 基于自监督学习的眼底血管图像分割方法

Country Status (1)

Country Link
CN (1) CN113781490A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114565620A (zh) * 2022-03-01 2022-05-31 电子科技大学 一种基于骨架先验和对比损失的眼底图像血管分割方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476796A (zh) * 2020-03-10 2020-07-31 西北大学 一种结合多种网络的半监督冠状动脉分割系统及分割方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111476796A (zh) * 2020-03-10 2020-07-31 西北大学 一种结合多种网络的半监督冠状动脉分割系统及分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHAO MA等: "SSL-Unet: A Self-Supervised Learning Strategy Base on U-Net for Retinal Vessel Segmentation", 《JOURNAL OF LATEX CLASS FILES》, pages 2 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114565620A (zh) * 2022-03-01 2022-05-31 电子科技大学 一种基于骨架先验和对比损失的眼底图像血管分割方法

Similar Documents

Publication Publication Date Title
CN109816661B (zh) 一种基于深度学习的牙齿ct图像分割方法
CN110909780B (zh) 一种图像识别模型训练和图像识别方法、装置及系统
CN108062753B (zh) 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法
CN110992351B (zh) 基于多输入卷积神经网络的sMRI图像分类方法和装置
CN109544518B (zh) 一种应用于骨骼成熟度评估的方法及其系统
WO2021115084A1 (zh) 一种基于结构磁共振影像的大脑年龄深度学习预测系统
CN110415230B (zh) 一种基于深度学习的ct切片图像语义分割系统及方法
CN114494195B (zh) 用于眼底图像分类的小样本注意力机制并行孪生方法
CN109583331B (zh) 基于深度学习的人手腕脉口位置精准定位方法
CN107766874B (zh) 一种超声容积生物学参数的测量方法及测量系统
CN113516181B (zh) 一种数字病理图像的表征学习方法
CN111932541B (zh) 一种用于预测新冠肺炎预后的ct影像图像处理方法
CN109102512B (zh) 一种基于dbn神经网络的mri脑肿瘤图像分割方法
CN112001921B (zh) 一种基于病灶加权损失函数的新冠肺炎ct影像病灶分割图像处理方法
CN112419344A (zh) 一种基于Chan-Vese模型的无监督图像分割方法
CN114822823B (zh) 基于云计算和人工智能的融合多维度医疗数据的肿瘤精细分类系统
CN111798458A (zh) 一种基于不确定性引导的交互式医学图像分割方法
CN110992309B (zh) 基于深层信息传递网络的眼底图像分割方法
CN116030044A (zh) 一种边界感知的半监督医学图像分割方法
CN117151162A (zh) 基于自监督与专家门控的跨解剖区域器官增量分割方法
CN113781490A (zh) 基于自监督学习的眼底血管图像分割方法
Zhou et al. Automatic segmentation of lung noudles using improved U-Net NetWork
CN114120035A (zh) 一种医学影像识别训练方法
CN114638258A (zh) 一种用于表面肌电信号手势识别的快速适配方法
TW202223770A (zh) 機器學習裝置以及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20211210

RJ01 Rejection of invention patent application after publication