CN113781490A - 基于自监督学习的眼底血管图像分割方法 - Google Patents
基于自监督学习的眼底血管图像分割方法 Download PDFInfo
- Publication number
- CN113781490A CN113781490A CN202111250768.0A CN202111250768A CN113781490A CN 113781490 A CN113781490 A CN 113781490A CN 202111250768 A CN202111250768 A CN 202111250768A CN 113781490 A CN113781490 A CN 113781490A
- Authority
- CN
- China
- Prior art keywords
- image
- baseline
- network
- supervision
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000003709 image segmentation Methods 0.000 title claims abstract description 24
- 210000004204 blood vessel Anatomy 0.000 title claims abstract description 22
- 210000001508 eye Anatomy 0.000 claims abstract description 50
- 230000006870 function Effects 0.000 claims abstract description 21
- 230000011218 segmentation Effects 0.000 claims abstract description 11
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000012546 transfer Methods 0.000 claims abstract description 5
- 230000004927 fusion Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract 1
- 238000003745 diagnosis Methods 0.000 description 4
- 230000001575 pathological effect Effects 0.000 description 4
- 208000030533 eye disease Diseases 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 2
- 210000001210 retinal vessel Anatomy 0.000 description 2
- 206010067671 Disease complication Diseases 0.000 description 1
- 206010020772 Hypertension Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供的一种基于自监督学习的眼底血管图像分割方法,包括:S1.设定数据集,该数据集包括带标签图像样本D和无标签的同一患者的左右眼球图像信息XT∈{L,R},S2.基于辅助任务构建自监督网络,其中,自监督网络由两个相同的U‑Net网络组成,两个并行的U‑Net网络分别标记为baseline(a)和baseline(b);S3.构建图像分割损失模型,将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}分别输入至baseline(a)和由baseline(a)和baseline(b)组成的自监督模块中,通过交叉熵损失函数和局部一致性对比损失函数对baseline(a)网络的参数进行优化,训练过程中baseline(b)的网络参数由baseline(a)动量传递获得;S4.将待测的左右眼图像信息输入至优化后的自监督网络中任一网络进行图像分割处理,得到最终的分割结果,通过上述方法,能够对眼底血管图像进行精确分割。
Description
技术领域
本发明涉及一种图像分割方法,尤其涉及一种基于自监督学习的眼底血管图像分割方法。
背景技术
眼底血管(即视网膜血管)图像分割结果可以作为眼底疾病患者的诊断依据,也可以为其他疾病并发症状提供病理参考,比如,糖尿病、高血压。
现有的眼底图像分割算法中,大多基于深度学习的视网膜血管图像分割方法大多依赖临床专家手工分割的标注图片。然而,由于血管结构的复杂性以及眼球图像的低对比度,这使得标注样本成了一项繁重且昂贵的工作,同时由于专家在标注过程中的主观因素,最后会导致标注样本具有不准确性。
因此,为了解决上述技术问题,亟需提出一种新的技术手段。
发明内容
有鉴于此,本发明的目的是提供一种基于自监督学习的眼底血管图像分割方法,能够对眼底血管图像进行精确分割,能够有效提高对眼底血管图像的分割能力,而且为后续的眼部疾病诊断提供准确的病理依据。
本发明提供的一种基于自监督学习的眼底血管图像分割方法,包括以下步骤:
S1.设定数据集,该数据集包括带标签图像样本D和无标签的同一患者的左右眼球图像信息XT∈{L,R},其中,D∈RC×H×W(Yi,Xi),其中,当T=L时,XL表示患者的左眼图像,当T=R时,XR表示患者的右眼图像,RC×H×W(Yi,Xi)表示第C个图像通道的右眼图像,H和W表示图像的长和宽,(Yi,Xi)表示第C个图像且图像的长和宽为H和W时的第i个像素点;
S2.基于辅助任务构建自监督网络,其中,自监督网络由两个并行的U-Net网络组成,两个并行的U-Net网络分别标记为baseline(a)和baseline(b);
S3.构建图像分割损失模型,将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}输入至自监督网络中,通过对损失函数对自监督网络中的网络baseline(a)的参数进行优化;其中,损失函数为:
Ltotal=LBCE+Lcon+Lrec;其中,LBCE为将网络baseline(a)作为监督网络的监督损失,Lcon为自监督网络的对比损失,Lrec为对自监督网络进行训练后的重建损失;
S4.将待测的左右眼图像信息输入至优化后的自监督网络中任一网络进行图像分割处理,得到最终的分割结果。
进一步,步骤S3中,通过如下方法确定自监督网络的对比损失Lcon:
将无标签的同一患者左右眼图像信息XT∈{L,R}输入至自监督网络中;
由U-Net网络的编码器fenc对图像信息XT∈{L,R}进行处理,提取出图像信息中的主干特征和其他特征,其中,主干特征包括左眼图像主干特征p(L)和右眼图像主干特征p(R),其他特征包括左眼其他特征n(L)和右眼其他特征n(R),其中:
fenc(XL)=p(L)+n(L) (1)
fenc(XR)=p(R)+n(R) (2);
将公式(1)和公式(2)中的主干特征信息进行交叉融合得到:
f′enc(XL)=p(R)+n(L) (3)
f′enc(XR)=p(L)+n(R) (4)
基于先验指示可知左眼主干特征和右眼主干特征相似且有:p(R)≈p(L)(5);
那么:f′enc(XL)≈f′enc(XR);
将特征融合后的左眼特征和右眼特征输入至U-Net网络的解码器fdec中进行图像重构,得到左眼和右眼的图像重建特征:
ZL=fdec(f′enc(XL))
ZR=fdec(f′enc(XR));
基于图像重建特征构建对比损失Lcon:
Lcon=(p(L)-p(R))2+(n(L)-n(R))2。
进一步,通过如下方法确定监督损失LBCE:
进一步,通过如下方法对自监督网络中的baseline(a)和baseline(b)的参数进行优化:
将自监督网络中的U-Net网络baseline(a)设定为监督网络;
将带标签的图像样本D输入至U-Net网络baseline(a)中进行训练并基于监督损失LBCE对网络baseline(a)的参数进行优化;然后将无标签的同一患者的左右眼球图像信息XT ∈{L,R}输入至U-Net网络baseline(a)中进行训练并基于对比损失Lcon和重建损失Lrec对网络baseline(a)的参数进行优化;
将网络baseline(a)优化后的参数通过如下传递函数赋值给baseline(b)网络:
wt+1=μw+(1-μ)q,其中:q为baseline(a)的模型参数,w为baseline(b)的模型参数;μ为动量因子,wt+1为更新后的baseline(b)参数。
进一步,根据如下方法确定重建损失Lrec:
将左眼重建特征输入至softmax函数中得到概率图;
将右眼重建特征作为伪标签,并基于伪标签和概率图构建重建损失Lrec:
本发明的有益效果:通过本发明,能够对眼底血管图像进行精确分割,能够有效提高对眼底血管图像的分割能力,而且为后续的眼部疾病诊断提供准确的病理依据。
附图说明
下面结合附图和实施例对本发明作进一步描述:
图1为本发明的流程图。
图2为本发明的自监督网络模型图。
图3为左右眼球血管分布对比图。
具体实施方式
以下结合说明书附图对本发明做出进一步详细说明:
本发明提供的一种基于自监督学习的眼底血管图像分割方法,包括以下步骤:
S1.设定数据集,该数据集包括带标签图像样本D和无标签的同一患者的左右眼球图像信息XT∈{L,R},其中,D∈RC×H×W(Yi,Xi),其中,当T=L时,XL表示患者的左眼图像,当T=R时,XR表示患者的右眼图像,RC×H×W(Yi,Xi)表示第C个图像通道的右眼图像,H和W表示图像的长和宽,(Yi,Xi)表示第C个图像且图像的长和宽为H和W时的第i个像素点;其中,带标签图像样本D是指经过专家分割处理后的图像,并具有分割标签信息,每一个图像对应一个分割标签信息。
S2.基于辅助任务构建自监督网络,其中,自监督网络由两个并行的U-Net网络组成,两个并行的U-Net网络分别标记为baseline(a)和baseline(b);其中,辅助任务为同一患者的左右眼球的血管主干分布具有相似性这一先验知识;如图3所示;
S3.构建图像分割损失模型,将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}输入至自监督网络中,通过对损失函数对自监督网络中的网络baseline(a)的参数进行优化;其中,损失函数为:
Ltotal=LBCE+Lcon+Lrec;其中,LBCE为将网络baseline(a)作为监督网络的监督损失,Lcon为自监督网络的对比损失,Lrec为对自监督网络进行训练后的重建损失,具体如下:
将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}分别输入至baseline(a)和由baseline(a)和baseline(b)组成的自监督模块中,baseline(a)通过图像标签可以利用交叉熵损失(即监督损失LBCE)进行优化,而自监督模块包含两个损失分别为:对比损失和局部一致性重建损失函数(即重建损失Lrec),这两个损失只作用于baseline(a),即让baseline(a)可以通过损失进行反向传播更新梯度,而baseline(b)不进行反向传播,其网络参数由baseline(a)每轮参数更新后动量传递获得;这意味着整个模型有三个损失函数对baseline(a)进行优化,从而确保最终结果的准确性,由于上述方式,两个网络的参数时一致的,因此,将待测图像输入至任一网络中均可以得到最终的结果。
S4.将待测的左右眼图像信息输入至优化后的自监督网络中任一网络进行图像分割处理,得到最终的分割结果,即是说:通过步骤S2和S3处理后,将待测图像输入到baseline(a)和baseline(b)任一网络中均能够得到最终精确的分割结果;通过上述方法,能够对眼底血管图像进行精确分割,能够有效提高对眼底血管图像的分割能力,而且为后续的眼部疾病诊断提供准确的病理依据。
本实施例中,步骤S3中,通过如下方法确定自监督网络的对比损失Lcon:
将无标签的同一患者左右眼图像信息XT∈{L,R}输入至自监督网络中;
由U-Net网络的编码器fenc对图像信息XT∈{L,R}进行处理,提取出图像信息中的主干特征和其他特征,其中,主干特征包括左眼图像主干特征p(L)和右眼图像主干特征p(R),其他特征包括左眼其他特征n(L)和右眼其他特征n(R),其中:
fenc(XL)=p(L)+n(L) (1)
fenc(XR)=p(R)+n(R) (2);
将公式(1)和公式(2)中的主干特征信息进行交叉融合得到:
f′enc(XL)=p(R)+n(L) (3)
f′enc(XR)=p(L)+n(R) (4)
基于先验指示可知左眼主干特征和右眼主干特征相似且有:p(R)≈p(L)(5);
那么:f′enc(XL)≈f′enc(XR);
将特征融合后的左眼特征和右眼特征输入至U-Net网络的解码器fdec中进行图像重构,得到左眼和右眼的图像重建特征:
ZL=fdec(f′enc(XL))
ZR=fdec(f′enc(XR));
基于图像重建特征构建对比损失Lcon:
Lcon=(p(L)-p(R))2+(n(L)-n(R))2,通过上述方法,能够使得整个自监督网络对无标签的图像进行学习,从而能够提升整个过程的速度,效率高。
本实施例中,通过如下方法确定监督损失LBCE:
本实施例中,通过如下方法对自监督网络中的baseline(a)和baseline(b)的参数进行优化:
将自监督网络中的U-Net网络baseline(a)设定为监督网络;
将带标签的图像样本D输入至U-Net网络baseline(a)中进行训练并基于监督损失LBCE对网络baseline(a)的参数进行优化;然后将无标签的同一患者的左右眼球图像信息XT ∈{L,R}输入至U-Net网络baseline(a)中进行训练并基于对比损失Lcon和重建损失Lrec对网络baseline(a)的参数进行优化;
将网络baseline(a)优化后的参数通过如下传递函数赋值给baseline(b)网络:
wt+1=μw+(1-μ)q,其中:q为baseline(a)的模型参数,w为baseline(b)的模型参数;μ为动量因子,wt+1为更新后的baseline(b)参数,由于在上述中,对于baseline(a)的参数优化是基于监督学习进行的,而自监督网络对baseline(a)网络具有辅助训练作用,以提升整个算法的精度,但是,自监督网络对无标签样本进行学习和监督网络(即baseline(a))出现偏差会影响整个网络的性能,因此,通过上述方法,对于baseline(b)网络采用上述方法进行参数优化更新,能够提升baseline(b)的自身学习能力,而且避免自监督网络对无标签样本进行学习和监督网络(即baseline(a))出现偏差,从而保证整个过程的精度。
本实施例中,根据如下方法确定重建损失Lrec:
将左眼重建特征输入至softmax函数中得到概率图;softmax函数为U-Net中的函数,为现有技术中;
将右眼重建特征作为伪标签,并基于伪标签和概率图构建重建损失Lrec:
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (5)
1.一种基于自监督学习的眼底血管图像分割方法,其特征在于:包括以下步骤:
S1.设定数据集,该数据集包括带标签图像样本D和无标签的同一患者的左右眼球图像信息XT∈{L,R},其中,D∈RC×H×W(Yi,Xi),其中,当T=L时,XL表示患者的左眼图像,当T=R时,XR表示患者的右眼图像,RC×H×W(Yi,Xi)表示第C个图像通道的右眼图像,H和W表示图像的长和宽,(Yi,Xi)表示第C个图像且图像的长和宽为H和W时的第i个像素点;
S2.基于辅助任务构建自监督网络,其中,自监督网络由两个并行的U-Net网络组成,两个并行的U-Net网络分别标记为baseline(a)和baseline(b);
S3.构建图像分割损失模型,将带标签图像样本D和无标签的同一患者的左右眼图像信息XT∈{L,R}输入至自监督网络中,通过对损失函数对自监督网络中的网络baseline(a)的参数进行优化;其中,损失函数为:
Ltotal=LBCE+Lcon+Lrec;其中,LBCE为将网络baseline(a)作为监督网络的监督损失,Lcon为自监督网络的对比损失,Lrec为对自监督网络进行训练后的重建损失;
S4.将待测的左右眼图像信息输入至优化后的自监督网络中任一网络进行图像分割处理,得到最终的分割结果。
2.根据权利要求1所述基于自监督学习的眼底血管图像分割方法,其特征在于:步骤S3中,通过如下方法确定自监督网络的对比损失Lcon:
将无标签的同一患者左右眼图像信息XT∈{L,R}输入至自监督网络中;
由U-Net网络的编码器fenc对图像信息XT∈{L,R}进行处理,提取出图像信息中的主干特征和其他特征,其中,主干特征包括左眼图像主干特征p(L)和右眼图像主干特征p(R),其他特征包括左眼其他特征n(L)和右眼其他特征n(R),其中:
fenc(XL)=p(L)+n(L) (1)
fenc(XR)=p(R)+n(R) (2);
将公式(1)和公式(2)中的主干特征信息进行交叉融合得到:
f′enc(XL)=p(R)+n(L) (3)
f′enc(XR)=p(L)+n(R) (4)
基于先验指示可知左眼主干特征和右眼主干特征相似且有:p(R)≈p(L) (5);
那么:f′enc(XL)≈f′enc(XR);
将特征融合后的左眼特征和右眼特征输入至U-Net网络的解码器fdec中进行图像重构,得到左眼和右眼的图像重建特征:
ZL=fdec(f′enc(XL))
ZR=fdec(f′enc(XR));
基于图像重建特征构建对比损失Lcon:
Lcon=(p(L)-p(R))2+(n(L)-n(R))2。
4.根据权利要求3所述基于自监督学习的眼底血管图像分割方法,其特征在于:通过如下方法对自监督网络中的baseline(a)和baseline(b)的参数进行优化:
将自监督网络中的U-Net网络baseline(a)设定为监督网络;
将带标签的图像样本D输入至U-Net网络baseline(a)中进行训练并基于监督损失LBCE对网络baseline(a)的参数进行优化;然后将无标签的同一患者的左右眼球图像信息XT ∈{L,R}输入至U-Net网络baseline(a)中进行训练并基于对比损失Lcon和重建损失Lrec对网络baseline(a)的参数进行优化;
将网络baseline(a)优化后的参数通过如下传递函数赋值给baseline(b)网络:
wt+1=μw+(1-μ)q,其中:q为baseline(a)的模型参数,w为baseline(b)的模型参数;μ为动量因子,wt+1为更新后的baseline(b)参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111250768.0A CN113781490A (zh) | 2021-10-26 | 2021-10-26 | 基于自监督学习的眼底血管图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111250768.0A CN113781490A (zh) | 2021-10-26 | 2021-10-26 | 基于自监督学习的眼底血管图像分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113781490A true CN113781490A (zh) | 2021-12-10 |
Family
ID=78956690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111250768.0A Pending CN113781490A (zh) | 2021-10-26 | 2021-10-26 | 基于自监督学习的眼底血管图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781490A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114565620A (zh) * | 2022-03-01 | 2022-05-31 | 电子科技大学 | 一种基于骨架先验和对比损失的眼底图像血管分割方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476796A (zh) * | 2020-03-10 | 2020-07-31 | 西北大学 | 一种结合多种网络的半监督冠状动脉分割系统及分割方法 |
-
2021
- 2021-10-26 CN CN202111250768.0A patent/CN113781490A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111476796A (zh) * | 2020-03-10 | 2020-07-31 | 西北大学 | 一种结合多种网络的半监督冠状动脉分割系统及分割方法 |
Non-Patent Citations (1)
Title |
---|
CHAO MA等: "SSL-Unet: A Self-Supervised Learning Strategy Base on U-Net for Retinal Vessel Segmentation", 《JOURNAL OF LATEX CLASS FILES》, pages 2 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114565620A (zh) * | 2022-03-01 | 2022-05-31 | 电子科技大学 | 一种基于骨架先验和对比损失的眼底图像血管分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816661B (zh) | 一种基于深度学习的牙齿ct图像分割方法 | |
CN110909780B (zh) | 一种图像识别模型训练和图像识别方法、装置及系统 | |
CN108062753B (zh) | 基于深度对抗学习的无监督域自适应脑肿瘤语义分割方法 | |
CN110992351B (zh) | 基于多输入卷积神经网络的sMRI图像分类方法和装置 | |
CN109544518B (zh) | 一种应用于骨骼成熟度评估的方法及其系统 | |
WO2021115084A1 (zh) | 一种基于结构磁共振影像的大脑年龄深度学习预测系统 | |
CN110415230B (zh) | 一种基于深度学习的ct切片图像语义分割系统及方法 | |
CN114494195B (zh) | 用于眼底图像分类的小样本注意力机制并行孪生方法 | |
CN109583331B (zh) | 基于深度学习的人手腕脉口位置精准定位方法 | |
CN107766874B (zh) | 一种超声容积生物学参数的测量方法及测量系统 | |
CN113516181B (zh) | 一种数字病理图像的表征学习方法 | |
CN111932541B (zh) | 一种用于预测新冠肺炎预后的ct影像图像处理方法 | |
CN109102512B (zh) | 一种基于dbn神经网络的mri脑肿瘤图像分割方法 | |
CN112001921B (zh) | 一种基于病灶加权损失函数的新冠肺炎ct影像病灶分割图像处理方法 | |
CN112419344A (zh) | 一种基于Chan-Vese模型的无监督图像分割方法 | |
CN114822823B (zh) | 基于云计算和人工智能的融合多维度医疗数据的肿瘤精细分类系统 | |
CN111798458A (zh) | 一种基于不确定性引导的交互式医学图像分割方法 | |
CN110992309B (zh) | 基于深层信息传递网络的眼底图像分割方法 | |
CN116030044A (zh) | 一种边界感知的半监督医学图像分割方法 | |
CN117151162A (zh) | 基于自监督与专家门控的跨解剖区域器官增量分割方法 | |
CN113781490A (zh) | 基于自监督学习的眼底血管图像分割方法 | |
Zhou et al. | Automatic segmentation of lung noudles using improved U-Net NetWork | |
CN114120035A (zh) | 一种医学影像识别训练方法 | |
CN114638258A (zh) | 一种用于表面肌电信号手势识别的快速适配方法 | |
TW202223770A (zh) | 機器學習裝置以及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211210 |
|
RJ01 | Rejection of invention patent application after publication |