CN111754503B - 基于两通道卷积神经网络的肠镜退镜超速占比监测方法 - Google Patents

基于两通道卷积神经网络的肠镜退镜超速占比监测方法 Download PDF

Info

Publication number
CN111754503B
CN111754503B CN202010620052.4A CN202010620052A CN111754503B CN 111754503 B CN111754503 B CN 111754503B CN 202010620052 A CN202010620052 A CN 202010620052A CN 111754503 B CN111754503 B CN 111754503B
Authority
CN
China
Prior art keywords
enteroscopy
overspeed
neural network
enteroscope
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010620052.4A
Other languages
English (en)
Other versions
CN111754503A (zh
Inventor
李超
张阔
刘奇为
胡珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Endoangel Medical Technology Co Ltd
Original Assignee
Wuhan Endoangel Medical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Endoangel Medical Technology Co Ltd filed Critical Wuhan Endoangel Medical Technology Co Ltd
Priority to CN202010620052.4A priority Critical patent/CN111754503B/zh
Publication of CN111754503A publication Critical patent/CN111754503A/zh
Application granted granted Critical
Publication of CN111754503B publication Critical patent/CN111754503B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Abstract

本发明涉及医疗辅助技术领域,具体为基于两通道卷积神经网络的肠镜退镜超速占比监测方法,包括S1、构建两通道卷积神经网络,并用训练样本集对其进行训练,得到计算图像相似度的模型1;S2、将肠镜检查的实时视频解码为图像,利用模型1对当前帧图像与其前面的i帧图像的相似度分别进行计算得到i个相似系数Si,计算当前时间点肠镜的加权相似系数,并转换为肠镜退镜速度;S3、将当前时间点肠镜检查速度Vi大于标准速度的图像记为超速帧,统计超速占比。本发明采用两通道卷积神经网络来计算肠镜图像的相似系数,计算肠镜速度,并统计当前肠镜超速的百分比。可以利用图像的全部特征,不损失图像信息,准确度高且抗干扰能力强。

Description

基于两通道卷积神经网络的肠镜退镜超速占比监测方法
技术领域
本发明涉及医疗辅助技术领域,具体为基于两通道卷积神经网络的肠镜退镜超速占比监测方法。
背景技术
肠镜检查是发现结直肠息肉、肿瘤等下消化道病变最常见的检查方法。肠镜退镜时间是指在结肠镜检查过程中,从进镜到达盲肠开始到退镜至肛管之间的实际时间,减去行染色检查或取活检等额外操作的时间。研究表明,随着退镜时间的延长,肠镜检查患者的息肉检出率、腺瘤检出率以及平均每个受检者的息肉发现数目明显增加。因此,各国的肠镜操作指南中,均将退镜时间做为重要的质量控制指标。朱晓芸等人提出了一种基于计算机视觉的肠镜退镜速度监控系统,该文章通过差异值哈希技术来分析肠镜图像的稳定性,实时反映肠镜速度。该方法采取传统的哈希算法,需将图像缩小至9*8大小,会损失比较多的图像信息,准确度稍低,且抗干扰能力差。为此,我们提出基于两通道卷积神经网络的肠镜退镜超速占比监测方法。
发明内容
本发明的目的在于提供基于两通道卷积神经网络的肠镜退镜超速占比监测方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:基于两通道卷积神经网络的肠镜退镜超速占比监测方法,包括如下步骤:
S1、构建两通道卷积神经网络,并用训练样本集对其进行训练,得到计算图像相似度的模型1;
S2、将肠镜检查的实时视频解码为图像,利用模型1对当前帧图像与其前面的i帧图像的相似度分别进行计算得到i个相似系数,计算当前时间点肠镜的加权相似系数,并转换为肠镜退镜速度;
S3、将当前时间点肠镜检查速度Vi大于标准速度的图像记为超速帧,统计到当前时间为止,超速的帧数占整个帧数的比例。
优选的,所述步骤S1中两通道卷积神经网络的训练样本集是通过收集不同肠镜检查的退镜片段的连续图像,并对收集的数据集进行清理和人工标注得到。
优选的,所述步骤S1中两通道卷积神经网络结构包括:
数据输入层,用于对原始肠镜图像数据进行预处理;
卷积层,用于提取输入肠镜图像数据不同特征;
ReLU激活层,用于把卷积层的输出结果做非线性映射;
池化层,用于筛选维度较小的特征;
全连接层,用于计算两张肠镜图像的相似系数。
优选的,所述步骤S2中是两张图像经过训练的模型1后计算得到是否相似的值,其范围是0-1,即/>,其中/>和/>是相邻的两种图像。
优选的,所述步骤S2中计算当前时间点肠镜的加权相似系数的公式为:
其中是当前/>时间点的肠镜图像与前面的第/>帧图像的相似系数;
当前时间点的加权相似系数转换为当前的肠镜检查速度的公式为:/>
优选的,所述步骤S3在肠镜检查完毕后,得到该次肠镜检查的总的超速占比,利用肠镜检查的超速占比计算该次肠镜检查的评价得分,其中/>,/>为当前超速占比,/>为超速的帧数,/>为整个帧数。
与现有技术相比,本发明的有益效果是:采用两通道卷积神经网络来计算肠镜图像的相似系数,计算肠镜速度,并统计当前肠镜超速的百分比。采用深度卷积网络的方法可以利用图像的全部特征,不损失图像信息,准确度高且抗干扰能力强。本发明提出的肠镜超速占比作为肠镜检查质量的监测指标,不仅可以实时给医师反馈,始终保持较低的超速占比,还可以总结性的给医师一个反馈,评估医师的肠镜检查质量,可以很好的用于医院的肠镜检查的质量监控。
附图说明
图1为本发明的流程图;
图2为本发明两通道卷积神经网络框架图;
图3为本发明另一种两通道卷积神经网络框架图;
图4为本发明肠镜图片通过两通道卷积神经网络计算的相似系数示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-4,本发明提供一种技术方案:基于两通道卷积神经网络的肠镜退镜超速占比监测方法,包括如下步骤:
S1、构建两通道卷积神经网络,并用训练样本集对其进行训练,得到计算图像相似度的模型1;
S2、将肠镜检查的实时视频解码为图像,利用模型1对当前帧图像与其前面的i帧图像的相似度分别进行计算得到i个相似系数,计算当前时间点肠镜的加权相似系数,并转换为肠镜退镜速度;
S3、将当前时间点肠镜检查速度Vi大于标准速度的图像记为超速帧,统计到当前时间为止,超速的帧数占整个帧数的比例。
实施例一
S1、收集300例不同肠镜检查的退镜片段的连续图片,其中两个不同型号的内窥镜各150例,每个案例的图片片段需包含直肠、乙状结肠、降结肠、横结肠、升结肠等部位的图片。
S2,对收集的图片集进行清理,去掉图片集中模糊、部位不正确、体外、分辨率不正确等类型的不合格图片。由专业医生对清理后的数据集进行标注,每两张图片组成一对,两种图片相似程度很大的标签设置为1,两种图片完全不同的标签设置为0。经过人工标注后组成训练集样本。
构建两通道卷积神经网络,并用训练样本集对其进行训练,得到计算图像相似度的模型1。采用开源的TensorFlow深度学习框架构建两通道卷积神经网络,在实际的建模过程中,两通道卷积神经网络主要通过以下步骤实现:
(1)数据输入层,该层要做的处理是对原始肠镜图像进行预处理,归一化:把输入数据各个维度的像素值都中心化为0并归一化,减少各维度数据取值范围的差异带来的干扰;主成分分析(PCA)/白化:用PCA降维,提取内镜图像最主要信息,白化对数据各个特征轴的幅度归一化。
(2)数据增强,通过水平和垂直地将图片对成对地翻转并旋转到90,180,270度来增加训练数据的多样性,以此来防止训练时发生过拟合。
(3)卷积层,卷积神经网络中每层卷积层由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法优化得到的,在本发明中,卷积运算的目的是提取输入的肠镜图像的不同特征,第一层卷积可能只提取一些病灶的低级特征如边缘、颜色和表面质地等层级,更多层的网络能从低级特征中迭代提取更复杂的特征。在卷积神经网络的这一层,每个神经元看作一个滤波器。卷积操作相当于一个滑动窗口,得到窗口区域的特征中。实际建模中,卷积核的值通过迭代学习得到最优解。卷积层,用于提取输入肠镜图像数据不同特征。
(4)ReLU(Rectified Linear Units layer)激活层,把卷积层的输出结果做非线性映射。
(5)池化层(Pooling layer),通常在卷积层之后会得到维度很大的特征,将特征切成几个区域,取其最大值,得到新的、维度较小的特征。
(6)全连接层(Fully-Connected layer),在这一层,之前学到的所有肠镜图像中的特征会被结合到一起,把局部特征变为全局特征,用于计算最后两张肠镜图片的相似系数。
(7)损失函数(Loss Function),训练模型使用铰接损失函数和L2-范数正则化,其公式为:
其中,是两通道卷积神经网络的权重系数,是网络的输出,是图片相对于的标签。
(8)优化器(Optimizer),采用SGD优化器,其中学习率0.01,动量值momentum为0.9,权重衰减系数为0.005。
S2、将肠镜检查的实时视频解码为图像,利用模型1对当前帧图像与其前面的i帧图像的相似度分别进行计算得到i个相似系数,计算当前时间点肠镜的加权相似系数,并转换为肠镜检查速度;
S3、将当前时间点肠镜检查速度Vi大于标准速度的图像记为超速帧,统计到当前时间为止,超速的帧数占整个帧数的比例。
实施例二
与实施例一相比,对步骤S2进行优化和具体描述,具体区别技术如下:
步骤S2中是两张图像经过训练的模型1后计算得到是否相似的值,其范围是0-1,即/>,其中/>和/>是相邻的两种图像。
通过内镜检查设备获取肠镜检查实时视频,将视频流解析为图片,并按照10帧/秒的速率截取图片,缓存当前帧与前面9帧的肠镜图片/>(其中/>)。
将当前帧与前面9帧的肠镜图片/>(其中/>),组成9对图像对,送入两通道卷积神经网络中,每组图片对经由S3中训练得到的模型1后得到该组图片的相似系数/>(其中/>)。
计算当前时间点肠镜的加权相似系数为,/>是当前/>时间点的肠镜图像与前面的第/>帧图像的相似系数。将当前/>时间点的加权相似系数转换为当前的肠镜检查速度,/>
实施例三
与实施例二相比,对步骤S3进行优化和具体描述,具体区别技术如下:
步骤S3中通过分析50段退镜时间>6min的标准肠镜视频、50段退镜时间为4-6min次标准的肠镜视频,50段退镜时间<4min的差质量肠镜视频,得出结果标准速度的取值为40。将当前/>时间点肠镜检查速度/>速度大于标准速度/>的记为超速帧,统计到当前时间为止,超速的帧数占整个帧数的比例,即为当前超速占比,/>,/>为超速占比,/>为超速的帧数,/>为整个帧数。
肠镜检查完毕后,计算得出该次肠镜检查的超速占比,转换为该次肠镜检查的评价分数/>,该评价分数可以作为该次肠镜检查的质量监控指标。
本发明采用两通道卷积神经网络来计算肠镜图像的相似系数,计算肠镜速度,并统计当前肠镜超速的百分比。采用深度卷积网络的方法可以利用图像的全部特征,不损失图像信息,准确度高且抗干扰能力强。本发明提出的肠镜超速占比作为肠镜检查质量的监测指标,不仅可以实时给医师反馈,始终保持较低的超速占比,还可以总结性的给医师一个反馈,评估医师的肠镜检查质量,可以很好的用于医院的肠镜检查的质量监控。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (6)

1.基于两通道卷积神经网络的肠镜退镜超速占比监测方法,其特征在于:包括如下步骤:
S1、构建两通道卷积神经网络,并用训练样本集对其进行训练,得到计算图像相似度的模型1;
S2、将肠镜检查的实时视频解码为图像,利用模型1对当前帧图像与其前面的i帧图像的相似度分别进行计算得到i个相似系数,计算当前时间点肠镜的加权相似系数,并转换为肠镜检查速度;
S3、将当前时间点肠镜检查速度Vi大于标准速度的图像记为超速帧,统计到当前时间为止,超速的帧数占整个帧数的比例。
2.根据权利要求1所述的基于两通道卷积神经网络的肠镜退镜超速占比监测方法,其特征在于:所述步骤S1中两通道卷积神经网络的训练样本集是通过收集不同肠镜检查的退镜片段的连续图像,并对收集的数据集进行清理和人工标注得到。
3.根据权利要求2所述的基于两通道卷积神经网络的肠镜退镜超速占比监测方法,其特征在于:所述步骤S1中两通道卷积神经网络结构包括:
数据输入层,用于对原始肠镜图像数据进行预处理;
卷积层,用于提取输入肠镜图像数据不同特征;
ReLU激活层,用于把卷积层的输出结果做非线性映射;
将卷积层之后得到的特征切成几个区域,取其最大值,得到池化层;
全连接层,用于计算两张肠镜图像的相似系数。
4.根据权利要求1所述的基于两通道卷积神经网络的肠镜退镜超速占比监测方法,其特征在于:所述步骤S2中是两张图像经过训练的模型1后计算得到是否相似的值,其范围是0-1,即/>,其中/>和/>是相邻的两种图像。
5.根据权利要求4所述的基于两通道卷积神经网络的肠镜退镜超速占比监测方法,其特征在于:所述步骤S2中计算当前时间点肠镜的加权相似系数的公式为:
其中是当前/>时间点的肠镜图像与前面的第/>帧图像的相似系数;
当前时间点的加权相似系数转换为当前的肠镜检查速度的公式为:
6.根据权利要求1所述的基于两通道卷积神经网络的肠镜退镜超速占比监测方法,其特征在于:所述步骤S3在肠镜检查完毕后,得到该次肠镜检查的总的超速占比,利用肠镜检查的超速占比计算该次肠镜检查的评价得分,其中/>,/>为当前超速占比,/>为超速的帧数,/>为整个帧数。
CN202010620052.4A 2020-07-01 2020-07-01 基于两通道卷积神经网络的肠镜退镜超速占比监测方法 Active CN111754503B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010620052.4A CN111754503B (zh) 2020-07-01 2020-07-01 基于两通道卷积神经网络的肠镜退镜超速占比监测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010620052.4A CN111754503B (zh) 2020-07-01 2020-07-01 基于两通道卷积神经网络的肠镜退镜超速占比监测方法

Publications (2)

Publication Number Publication Date
CN111754503A CN111754503A (zh) 2020-10-09
CN111754503B true CN111754503B (zh) 2023-12-08

Family

ID=72678784

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010620052.4A Active CN111754503B (zh) 2020-07-01 2020-07-01 基于两通道卷积神经网络的肠镜退镜超速占比监测方法

Country Status (1)

Country Link
CN (1) CN111754503B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113793334B (zh) * 2021-11-16 2022-02-08 武汉大学 设备监测方法和设备监测装置
CN113823400A (zh) * 2021-11-22 2021-12-21 武汉楚精灵医疗科技有限公司 肠道退镜速度监测方法、装置及计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107767365A (zh) * 2017-09-21 2018-03-06 华中科技大学鄂州工业技术研究院 一种内窥镜图像处理方法及系统
WO2018161775A1 (zh) * 2017-03-08 2018-09-13 腾讯科技(深圳)有限公司 一种用于图像处理的神经网络模型的训练方法、装置和存储介质
CN109492668A (zh) * 2018-10-10 2019-03-19 华中科技大学 基于多通道卷积神经网络的mri不同期多模图像表征方法
CN109598716A (zh) * 2018-12-05 2019-04-09 上海珍灵医疗科技有限公司 基于计算机视觉的肠镜退镜速度实时监测方法和系统
CN109859827A (zh) * 2018-12-14 2019-06-07 上海珍灵医疗科技有限公司 胃肠镜操作水平实时评分系统和方法
CN110020610A (zh) * 2019-03-16 2019-07-16 复旦大学 基于深度学习的肠镜质量检查控制系统
CN110897596A (zh) * 2019-12-05 2020-03-24 重庆金山医疗技术研究院有限公司 自动调节胶囊拍摄速率的方法、内窥镜、记录仪及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7894648B2 (en) * 2005-06-17 2011-02-22 Mayo Foundation For Medical Education And Research Colonoscopy video processing for quality metrics determination
WO2017201494A1 (en) * 2016-05-19 2017-11-23 Avantis Medical Systems, Inc. Methods for polyp detection
TWI696145B (zh) * 2018-06-01 2020-06-11 國立臺灣大學 大腸鏡影像電腦輔助辨識系統及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018161775A1 (zh) * 2017-03-08 2018-09-13 腾讯科技(深圳)有限公司 一种用于图像处理的神经网络模型的训练方法、装置和存储介质
CN107767365A (zh) * 2017-09-21 2018-03-06 华中科技大学鄂州工业技术研究院 一种内窥镜图像处理方法及系统
CN109492668A (zh) * 2018-10-10 2019-03-19 华中科技大学 基于多通道卷积神经网络的mri不同期多模图像表征方法
CN109598716A (zh) * 2018-12-05 2019-04-09 上海珍灵医疗科技有限公司 基于计算机视觉的肠镜退镜速度实时监测方法和系统
CN109859827A (zh) * 2018-12-14 2019-06-07 上海珍灵医疗科技有限公司 胃肠镜操作水平实时评分系统和方法
CN110020610A (zh) * 2019-03-16 2019-07-16 复旦大学 基于深度学习的肠镜质量检查控制系统
CN110897596A (zh) * 2019-12-05 2020-03-24 重庆金山医疗技术研究院有限公司 自动调节胶囊拍摄速率的方法、内窥镜、记录仪及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
用不同的结肠镜检查方式对老年人进行结肠息肉筛查的效果对比;李莉;费素娟;朱祖安;赵燕超;杨君;;当代医药论丛(第21期);全文 *

Also Published As

Publication number Publication date
CN111754503A (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
Mohammed et al. Y-net: A deep convolutional neural network for polyp detection
Wang et al. An imaging-inspired no-reference underwater color image quality assessment metric
CN107316307B (zh) 一种基于深度卷积神经网络的中医舌图像自动分割方法
WO2021104410A1 (zh) 血涂片全视野智能分析方法血细胞分割模型及识别模型的构造方法
CN111915573A (zh) 一种基于时序特征学习的消化内镜下病灶跟踪方法
CN111407245A (zh) 一种基于摄像头的非接触式心率、体温测量方法
CN111754503B (zh) 基于两通道卷积神经网络的肠镜退镜超速占比监测方法
CN112733950A (zh) 一种基于图像融合与目标检测结合的电力设备故障诊断方法
CN113449727A (zh) 一种基于深度神经网络的伪装目标检测识别方法
CN110838100A (zh) 一种基于滑动窗口的结肠镜病理切片筛查与分割系统
CN111462012A (zh) 一种基于条件生成对抗网络的sar图像仿真方法
CN108305253A (zh) 一种基于多倍率深度学习的病理全切片诊断方法
Al-Ma’aitah et al. Enhanced computational model for gravitational search optimized echo state neural networks based oral cancer detection
CN112151167A (zh) 一种基于深度学习的儿童六龄牙龋齿智能筛查方法
CN114511508A (zh) 融合卷积与多层感知机神经网络的结直肠息肉分割方法
CN112750132A (zh) 基于双路径网络和通道注意的白细胞图像分割方法
CN114399465A (zh) 良恶性溃疡识别方法及系统
CN113487553A (zh) 一种肠道退镜速度平滑方法
CN113781489B (zh) 一种息肉影像语义分割方法及装置
CN115661459A (zh) 一种使用差异信息的2D mean teacher模型
CN113947732B (zh) 基于强化学习图像亮度调节的空中视角人群计数方法
CN114881105A (zh) 基于transformer模型和对比学习的睡眠分期方法及系统
Wu et al. Towards robust text-prompted semantic criterion for in-the-wild video quality assessment
CN112330613B (zh) 一种细胞病理数字图像质量的评价方法及系统
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant