CN114359082B - 一种基于自建数据对的胃镜图像去模糊算法 - Google Patents

一种基于自建数据对的胃镜图像去模糊算法 Download PDF

Info

Publication number
CN114359082B
CN114359082B CN202111600032.1A CN202111600032A CN114359082B CN 114359082 B CN114359082 B CN 114359082B CN 202111600032 A CN202111600032 A CN 202111600032A CN 114359082 B CN114359082 B CN 114359082B
Authority
CN
China
Prior art keywords
video
gastroscope
training
clear
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111600032.1A
Other languages
English (en)
Other versions
CN114359082A (zh
Inventor
颜波
谭伟敏
李吉春
林青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202111600032.1A priority Critical patent/CN114359082B/zh
Publication of CN114359082A publication Critical patent/CN114359082A/zh
Application granted granted Critical
Publication of CN114359082B publication Critical patent/CN114359082B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于医疗图像处理技术领域,具体为一种基于自建数据对的胃镜图像去模糊算法。本发明算法包括:对于胃镜视频的处理、制作胃镜清晰图‑模糊图训练样本以及胃镜去模糊算法的训练。具体而言,首先收集一定量的胃镜视频,对其中的数据进行清洗;然后收集医生的标注,对每一帧的清晰或者模糊进行标注,并对“指导模型”进行训练;再用采用全部为清晰图的视频段,合成清晰‑模糊肠镜图片数据对;最后用清晰‑模糊肠镜图片数据对,训练肠镜去模糊算法。实验结果表明,本发明算法对于肠镜模糊图片的模糊去除具有很好的效果,具有很强的应用价值。

Description

一种基于自建数据对的胃镜图像去模糊算法
技术领域
本发明属于医疗图像处理技术领域,具体涉及胃镜图像去模糊算法。
背景技术
随着计算机科学的发展,智能医疗成为了一项提高现代医疗水平的重大科技革新。作为人工智能与新型医疗的结合点,它在各个方面所具有的优势正在得到越来越多的认可与关注。
在内镜图像分析的应用场景中,医生在进行胃镜检查的时候,往往容易因为镜头推拉、移动过快,遇见胃镜图像质量模糊的情况。当回溯、查看、评估病情的时候,如果此时关键部位的胃镜图像是模糊的,为了诊断准确,就需要重新对病人进行胃镜检查。这不仅仅挤占了宝贵的医疗资源,而且还为病人带来额外的痛苦。因此,对模糊的胃镜图片进行去模糊增强,对医生诊断的可靠性、医疗资源的节省以及病人的关怀都十分关键。
发明内容
本发明的目的在于提供一种操作方便、去模糊效果好的胃镜图像去模糊的算法。
本发明将医生对于胃镜图像去模糊与深度学习相结合,提出基于深度学习的胃镜图像去模糊算法。本发明通过引入医生对于清晰、模糊图像分类的先验知识,训练得到的分类网络,可以利用医生的判断,衡量去模糊图与真实图片的差距,更好的为去模糊算法进行指导。本发明还通过视频插帧与时间域融合的方法,生成更加逼真的模糊-清晰数据对,以此让本文提出的去模糊算法进行学习,从而能够去除胃镜的模糊。本发明方法去模糊效果好,简明易操作,适用于胃镜检查过后,对于关键的模糊胃镜图片进行增强的场景。
本发明提供的胃镜图像去模糊的算法,是一种是基于自建数据对的食管内镜视频帧序列质量分类算法,利用医生对于清晰模糊判断经验,指导去模糊网络的优化,而且利用插帧与时间域融合的方法,构建了胃镜清晰-模糊图像对加以训练。具体步骤如下:
(1)数据收集与清洗:首先收集一定量的胃镜视频,对其中的数据进行清洗。即对视频中含有气泡、没有内容、失去焦距、内容混乱的胃镜无效视频帧进行剔除。
(2)标注与训练D-Net:请专业的医生对清洗完毕的、所有的有效视频帧进行分类,医生认为清晰的图片标记为0,医生认为不清晰的图片标记为1。然后,使用ResNet-34,利用该数据,训练该分类网络,对单张输入胃镜视频帧是否清晰,进行分类,该网络记作D-Net,符号记作ψ;
(3)模糊-清晰图像对的生成:从所有的有效视频帧内,抽取医生标注为清晰的视频帧,然后保留时间域连续帧超过阈值THRESH帧的片段,获得总数为P个全清晰视频片段。不妨令第i段视频记作
Figure GDA0003921078520000021
其中1≤i≤P,Mi为第i个视频片段总帧数。使用DAIN算法[1],在原来两帧之间插9帧,即10倍插帧,此时生成的第i段插帧后视频表示为:
Figure GDA0003921078520000022
其中,Fj=F′j×10为原始清晰帧。第i段视频中选择清晰图片集合为:
Figure GDA0003921078520000023
即对原视频Vi首尾3帧抛弃;其对应的模糊图图片集合记作:
Figure GDA0003921078520000024
其生成方式是,对于原视频Vi中某帧Fj+3,在其插帧后视频Vi中对应的时刻上,对空间域相邻的视频帧相加取平均。其计算方法如下:
Figure GDA0003921078520000025
其中,k为哑变量,L为空间域的长度。同时,求得Si,j帧所对应的运动先验信息GT_Diffi,j:GT_Diffi,j=Si,j-Si,j-1
即视频的第j帧与第j-1帧直接相减即可。最终,获得训练数据三元组为:
Figure GDA0003921078520000026
即每个训练样本包括模糊胃镜图、清晰胃镜图及其运动先验信息。
(4)构建卷积神经网络:改进参考文献[2]中的SimpleNet算法模块,即对其中的残差模块(ResBlock)、感受野多样性模块(PVB)做出改进,得到轻量残差块与简单多感受模块,以获得更好的速度提升;并且,在第二个降采样层之后独立出两层卷积层预测的三通道运动先验信息PRED_Dif,然后将其送入第一个上采样层级联。该胃镜去模糊卷积神经网络简记作DTM-Net,如图2所示。
(5)训练:对卷积神经网络,利用训练数据三元组对神经网络模型进行训练。损失函数如下:
Figure GDA0003921078520000027
其中,
Figure GDA0003921078520000028
为预测结果Pred与清晰图GT之间的L1损失,
Figure GDA0003921078520000029
为预测的三通道运动先验信息PRED_Dif与实际的三通道运动先验信息GT_Diff的L1损失,
Figure GDA0003921078520000031
为由D-Net提供的含有医生判断的先验信息指导去模糊网络的损失,简称为“医生指导损失”,其计算式为:
Figure GDA0003921078520000032
Figure GDA0003921078520000033
其中,ψ代表D-Net网络,Pred为算法输出去模糊结果图,GT为清晰图,cj、hj、wj分别为D-Net的第j层卷积层特征的通道数、高度与宽度,J为医生指导损失所采用的D-Net卷积层的集合;λ1,λ2,λ3为权重系数。
(6)测试与使用:给定模糊的输入图Input,将其输入至DTM-Net中,得到输出图Pred,即为模糊去除的结果。
本发明步骤(3)中,所述的模糊-清晰图像对的生成中,阈值THRESH取25;空间域的长度L根据经验,在集合{47,49,51,53,55}中随机取得。
本发明步骤(4)中,所述的构建卷积神经网络中,对残差模块改进后的轻量残差模块采用两层卷积以加快其运算速度,计算如下:
Out=Conv 2D(ReLU(Conv 2D(I,W1)),W2)+I,
其中,I为输入信号,W1、W2分别为第一层卷积与第二层卷积的权值;Conv2D为卷积操作,ReLU为激活函数。
本发明步骤(4)中,所述的构建卷积神经网络中,改进后的简单多感受模块,能够在参数量没有增加且没有可变性卷积的参与下,获得更大的感受野,进一步有利于模糊的去除,其计算如下:
fuse=Concat((Conv 2D(I,WD1),Conv2D(I,WD2),
Figure GDA0003921078520000034
Out=Conv2D(ReLU(fuse),W1);
其中,WD1为膨胀率为1的膨胀卷积,WD2为膨胀率为2的膨胀卷积,
Figure GDA0003921078520000035
为卷积核大小为i×j的卷积;Concat为特征按照通道维度级联的操作。
本发明步骤(5)中,所述的训练中,其训练超参数为:学习率为0.0001,训练批大小为8,权值衰减为4e-8;学习率衰减,每训练1500轮次,学习衰减为原来的
Figure GDA0003921078520000036
共训练5000轮次;λ1=1,λ2=0.01,λ3=0.1。
本发明方法去模糊效果好,简明易操作,可以提高医生诊断的可靠性、节约医疗资源、减少病人痛苦;适用于胃镜检查过后,对于关键的模糊胃镜图片进行增强的场景。
附图说明
图1为本发明去模糊模块的网络结构设计图。
图2为数据整理与训练的流程图。
图3为本发明的运行结果示意图。
具体实施方式
利用相邻帧时空信息的食管内镜视频帧序列质量分类的算法,模型结构如图1所示,数据整理流程如图2所示,其具体步骤如下:
第一步,数据收集与清洗:
首先收集一定量的胃镜视频,对其中的数据进行清洗。需要对其中含有气泡、没有内容、失去焦距、内容混乱的胃镜无效视频帧进行剔除。
第二步,标注与训练D-Net:
请专业的医生对清洗完毕的、所有的有效视频帧进行分类,医生认为清晰的图片标记为0,医生认为不清晰的图片标记为1。然后,使用ResNet-34,利用该数据,训练分类网络,对单张输入胃镜视频帧是否清晰,进行分类,该网络记作D-Net,符号记作ψ。
第三步,模糊-清晰图像对的生成:
从所有的有效视频帧内,抽取医生标注为清晰的视频帧,然后保留时间域连续帧超过25帧的片段,获得P个全清晰视频片段。不妨令第i段视频记作
Figure GDA0003921078520000041
其中1≤i≤P,Mi为第i个视频片段总帧数。使用DAIN算法[1],在原来两帧之间插9帧,即10倍插帧,此时生成的第i段插帧后视频表示为
Figure GDA0003921078520000042
其中Fj=F′j×10为原始清晰帧。第i段视频中选择清晰图片集合为
Figure GDA0003921078520000043
即对原视频Vi首尾3帧抛弃;其对应的模糊图图片集合记作
Figure GDA0003921078520000044
其生成方式是,对于原视频Vi中某帧Fj+3,在其插帧后视频V′i中对应的时刻上,对空间域相邻的视频帧相加取平均。其计算方法如下:
Figure GDA0003921078520000045
其中,k为哑变量,L为空间域的长度,L根据经验,在集合{47,49,51,53,55}中随机取得。同时,我们求得Si,j帧所对应的运动先验信息GT_Diffi,j,GT_Diffi,j=Si,j-Si,j-1,即视频的第j帧与第j-1帧直接相减即可。最终,我们获得训练数据三元组为
Figure GDA0003921078520000051
即每个训练样本包括模糊胃镜图、清晰胃镜图及其运动先验信息。
第四步,构建卷积神经网络:
在文献[2]算法的基础上,将其中的传统残差模块、感知多样性模块替换为轻量残差模块以及简单多感受模块;并且,在第二个降采样层之后独立出两层卷积层预测的三通道运动先验信息PRED_Dif,然后将其送入第一个上采样层级联,如图1所示。其中,改进后的轻量残差模块采用两层卷积以加快其运算速度,输出为out,计算如下:
Out=Conv 2D(ReLU(Conv 2D(I,W1)),W2)+I
改进后的简单多感受模块,其输出为out,计算如下:
fuse=Concat((Conv 2D(I,WD1),Conv2D(I,WD2),
Figure GDA0003921078520000052
Out=Conv2D(ReLU(fuse),W1)
其中,WD1为膨胀率为1的膨胀卷积,WD2为膨胀率为2的膨胀卷积,
Figure GDA0003921078520000053
为卷积核大小为i×j的卷积;Concat为特征按照通道维度级联的操作。
第五步,训练:
对卷积神经网络,利用训练数据三元组对神经网络模型进行训练。损失函数如下:
Figure GDA0003921078520000054
其中,
Figure GDA0003921078520000055
为预测结果Pred与清晰图GT之间的L1损失。
Figure GDA0003921078520000056
为预测的三通道运动先验信息PRED_Dif与实际的三通道运动先验信息GT_Diff的L1损失。
Figure GDA0003921078520000057
为由D-Net提供的含有医生判断的先验信息指导去模糊网络的损失,简称为“医生指导损失”,其计算为:
Figure GDA0003921078520000058
Figure GDA0003921078520000059
其中,ψ代表D-Net网络,Pred为算法输出去模糊结果图,GT为清晰图,cj、hj、wj分别为D-Net的第j层卷积层特征的通道数、高度与宽度。J为医生指导损失所采用的D-Net卷积层的集合,取{47,49,51,53,55}。
在对于去模糊网络进行优化的时候,采用的超参数为:学习率为0.0001,训练批大小为8,权值衰减为4e-8;学习率衰减,每训练1500轮次,学习衰减为原来的
Figure GDA0003921078520000061
共训练5000轮次;λ1=1,λ2=0.01,λ3=0.1。
第六步,测试与使用:
给定模糊的输入图Input,将其输入至DTM-Net中,得到输出图Pred,即为模糊去除的结果。结果图与其他方法的对比,如图3所示。
参考文献
[1]Bao W,Lai W S,Ma C,et al.Depth-aware video frame interpolation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and PatternRecognition.2019:3703-3712.
[2]Li J,Tan W,Yan B.Perceptual Variousness Motion Deblurring WithLight Global Context Refinement[C]//Proceedings of the IEEE/CVF InternationalConference on Computer Vision.2021:4116-4125。

Claims (6)

1.一种基于自建数据对的胃镜图像去模糊算法,是食管内镜视频帧序列质量分类算法,利用医生对于清晰模糊判断经验,指导去模糊网络的优化,而且利用插帧与时间域融合的方法,构建胃镜清晰-模糊图像对加以训练;具体步骤如下:
(1)数据收集与清洗:收集一定量的胃镜视频,对其中的数据进行清洗,剔除视频中含有气泡、没有内容、失去焦距、内容混乱的胃镜无效视频帧;
(2)标注与训练D-Net:由专业医生对经过清洗的、所有有效视频帧进行分类,医生认为清晰的图片标记为0,医生认为不清晰的图片标记为1;然后,使用分类网络ResNet-34,利用标注的数据训练该分类网络,对单张输入胃镜视频帧是否清晰进行分类,该分类网络记作D-Net,符号记作ψ;
(3)模糊-清晰图像对的生成:从所有的有效视频帧内,抽取医生标注为清晰的视频帧,然后保留时间域连续帧超过阈值THRESH帧的片段,获得总数为P个全清晰视频片段;设第i段视频记作
Figure FDA0003921078510000011
其中1≤i≤P,Mi为第i个视频片段总帧数;使用DAIN算法,在原来两帧之间插9帧,得到10倍插帧,此时生成的第i段插帧后视频表示为:
Figure FDA0003921078510000012
其中,Fj=F′j×10为原始清晰帧;第i段视频中选择清晰图片集合为:
Figure FDA0003921078510000013
对原视频Vi首尾3帧抛弃;其对应的模糊图图片集合记作:
Figure FDA0003921078510000014
其生成方式是,对于原视频Vi中某帧Fj+3,在其插帧后视频Vi′中对应的时刻上,对空间域相邻的视频帧相加取平均,其计算式如下:
Figure FDA0003921078510000015
其中,k为哑变量,L为空间域的长度;同时,求得Si,j帧所对应的运动先验信息GT_Diffi,j
GT_Diffi,j=Si,j-Si,j-1
视频的第j帧与第j-1帧直接相减;最终,获得训练数据三元组为:
Figure FDA0003921078510000016
每个训练样本包括模糊胃镜图、清晰胃镜图及其运动先验信息;
(4)构建卷积神经网络:采用改进的SimpleNet算法模块,对其中的残差模块、感受野多样性模块做出改进,得到轻量残差块与简单多感受模块,以获得更好的速度提升;并且,在第二个降采样层之后独立出两层卷积层预测的三通道运动先验信息PRED_Dif,然后将其送入第一个上采样层级联;该胃镜去模糊卷积神经网络简记作DTM-Net;
(5)训练:利用训练数据三元组对卷积神经网络模型进行训练;其损失函数如下:
Figure FDA0003921078510000021
其中,
Figure FDA0003921078510000022
为预测结果Pred与清晰图GT之间的L1损失,
Figure FDA0003921078510000023
为预测的三通道运动先验信息PRED_Dif与实际的三通道运动先验信息GT_Diff的L1损失,
Figure FDA0003921078510000024
为由D-Net提供的含有医生判断的先验信息指导去模糊网络的损失,简称为“医生指导损失”,其计算式为:
Figure FDA0003921078510000025
Figure FDA0003921078510000026
其中,ψ代表D-Net网络,Pred为算法输出去模糊结果图,GT为清晰图,cj、hj、wj分别为D-Net的第j层卷积层特征的通道数、高度与宽度,J为医生指导损失所采用的D-Net卷积层的集合;λ1,λ2,λ3为权重系数;
(6)测试与使用:给定模糊的输入图Input,将其输入至经过训练的DTM-Net中,得到输出图Pred,即为模糊去除的结果。
2.根据权利要求1所述的胃镜图像去模糊算法,其特征在于,步骤(3)中所述阈值THRESH取为25;空间域的长度L根据经验,在集合{47,49,51,53,55}中随机取得。
3.根据权利要求1所述的胃镜图像去模糊算法,其特征在于,步骤(4)中所述内容,改进后的轻量残差模块采用两层卷积以加快其运算速度,计算如下:
Out=Conv 2D(ReLU(Conv 2D(I,W1)),W2)+I;
其中,I为输入信号,W1、W2分别为第一层卷积与第二层卷积的权值;Conv2D为卷积操作,ReLU为激活函数。
4.根据权利要求1所述的胃镜图像去模糊算法,其特征在于,步骤(4)中所述改进后的简单多感受模块,能够在参数量没有增加且没有可变性卷积的参与下,获得更大的感受野,进一步有利于模糊的去除,其计算如下:
fuse=Concat((Conv 2D(I,WD1),Conv2D(I,WD2),
Figure FDA0003921078510000031
Out=Conv2D(ReLU(fuse),W1)
其中,WD1为膨胀率为1的膨胀卷积,WD2为膨胀率为2的膨胀卷积,
Figure FDA0003921078510000032
为卷积核大小为i×j的卷积;Concat为特征按照通道维度级联的操作。
5.根据权利要求1所述的胃镜图像去模糊算法,其特征在于,步骤(5)中所述训练,超参数设为:学习率为0.0001,训练批大小为8,权值衰减为4e-8;学习率衰减,每训练1500轮次,学习衰减为原来的
Figure FDA0003921078510000033
共训练5000轮次。
6.根据权利要求1所述的胃镜图像去模糊算法,其特征在于,步骤(5)中所述权重系数取为:λ1=1,λ2=0.01,λ3=0.1。
CN202111600032.1A 2021-12-24 2021-12-24 一种基于自建数据对的胃镜图像去模糊算法 Active CN114359082B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111600032.1A CN114359082B (zh) 2021-12-24 2021-12-24 一种基于自建数据对的胃镜图像去模糊算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111600032.1A CN114359082B (zh) 2021-12-24 2021-12-24 一种基于自建数据对的胃镜图像去模糊算法

Publications (2)

Publication Number Publication Date
CN114359082A CN114359082A (zh) 2022-04-15
CN114359082B true CN114359082B (zh) 2023-01-06

Family

ID=81100681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111600032.1A Active CN114359082B (zh) 2021-12-24 2021-12-24 一种基于自建数据对的胃镜图像去模糊算法

Country Status (1)

Country Link
CN (1) CN114359082B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108376392A (zh) * 2018-01-30 2018-08-07 复旦大学 一种基于卷积神经网络的图像运动模糊去除方法
CN110782399A (zh) * 2019-08-22 2020-02-11 天津大学 一种基于多任务cnn的图像去模糊方法
CN111028177A (zh) * 2019-12-12 2020-04-17 武汉大学 一种基于边缘的深度学习图像去运动模糊方法
CN111091503A (zh) * 2019-11-09 2020-05-01 复旦大学 基于深度学习的图像去失焦模糊方法
CN111199522A (zh) * 2019-12-24 2020-05-26 重庆邮电大学 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法
CN112419191A (zh) * 2020-11-24 2021-02-26 复旦大学 基于卷积神经网络的图像运动模糊去除方法
CN112435187A (zh) * 2020-11-23 2021-03-02 浙江工业大学 一种基于聚集残差生成对抗网络的单图像盲去运动模糊方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108376392A (zh) * 2018-01-30 2018-08-07 复旦大学 一种基于卷积神经网络的图像运动模糊去除方法
CN110782399A (zh) * 2019-08-22 2020-02-11 天津大学 一种基于多任务cnn的图像去模糊方法
CN111091503A (zh) * 2019-11-09 2020-05-01 复旦大学 基于深度学习的图像去失焦模糊方法
CN111028177A (zh) * 2019-12-12 2020-04-17 武汉大学 一种基于边缘的深度学习图像去运动模糊方法
CN111199522A (zh) * 2019-12-24 2020-05-26 重庆邮电大学 一种基于多尺度残差生成对抗网络的单图像盲去运动模糊方法
CN112435187A (zh) * 2020-11-23 2021-03-02 浙江工业大学 一种基于聚集残差生成对抗网络的单图像盲去运动模糊方法
CN112419191A (zh) * 2020-11-24 2021-02-26 复旦大学 基于卷积神经网络的图像运动模糊去除方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
基于深度多级小波变换的图像盲去模糊算法;陈书贞;《电子与信息学报》;20201204;第43卷(第1期);全文 *
基于深度强化学习的图像去模糊方法;王晓红;《包装工程》;20200831;第41卷(第15期);全文 *
基于深度残差生成对抗网络的运动图像去模糊;魏丙财;《液晶与显示》;20211215;第36卷(第12期);全文 *
基于生成对抗网络的船舶图像去模糊算法;郭俊东;《武汉理工大学学报(交通科学与工程版)》;20211031;第45卷(第5期);全文 *

Also Published As

Publication number Publication date
CN114359082A (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
US20220207728A1 (en) Quality assessment in video endoscopy
CN112348766B (zh) 一种用于监控视频增强的渐进式特征流深度融合网络
CN111915573A (zh) 一种基于时序特征学习的消化内镜下病灶跟踪方法
CN113496489B (zh) 内窥镜图像分类模型的训练方法、图像分类方法和装置
CN113343821B (zh) 一种基于时空注意力网络和输入优化的非接触式心率测量方法
CN112686856A (zh) 一种基于深度学习的实时肠镜息肉检测装置
CN111383214A (zh) 实时内窥镜肠镜息肉检测系统
CN111489324A (zh) 一种融合多模态先验病理深度特征的宫颈癌病变诊断方法
CN112164011A (zh) 基于自适应残差与递归交叉注意力的运动图像去模糊方法
CN113012140A (zh) 基于深度学习的消化内镜视频帧有效信息区域提取方法
CN114399465B (zh) 良恶性溃疡识别方法及系统
Liu et al. A source-free domain adaptive polyp detection framework with style diversification flow
CN114998303A (zh) 特征提取能力强的小肠间质瘤检测方法
CN115018767A (zh) 基于本征表示学习的跨模态内镜图像转换及病灶分割方法
CN111754503B (zh) 基于两通道卷积神经网络的肠镜退镜超速占比监测方法
CN114881105A (zh) 基于transformer模型和对比学习的睡眠分期方法及系统
Maiti et al. Automatic detection and segmentation of optic disc using a modified convolution network
CN113379606B (zh) 一种基于预训练生成模型的人脸超分辨方法
CN114359082B (zh) 一种基于自建数据对的胃镜图像去模糊算法
CN112927171A (zh) 一种基于生成对抗网络的单幅图像去模糊方法
CN116168052A (zh) 结合自适应注意力与特征金字塔的胃癌病理图像分割方法
CN116935044A (zh) 一种多尺度引导和多层次监督的内镜息肉分割方法
CN116128801A (zh) 一种基于多任务学习的图像清洁度评估方法及相关装置
CN113763288A (zh) 一种医学图像增强方法
CN112053399B (zh) 一种胶囊内镜视频中消化道器官的定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant