WO2023125008A1 - 基于人工智能的内窥镜图像处理方法、装置、介质及设备 - Google Patents
基于人工智能的内窥镜图像处理方法、装置、介质及设备 Download PDFInfo
- Publication number
- WO2023125008A1 WO2023125008A1 PCT/CN2022/139016 CN2022139016W WO2023125008A1 WO 2023125008 A1 WO2023125008 A1 WO 2023125008A1 CN 2022139016 W CN2022139016 W CN 2022139016W WO 2023125008 A1 WO2023125008 A1 WO 2023125008A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- inspection
- target
- model
- classification
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Abstract
本公开涉及一种基于人工智能的内窥镜图像处理方法、装置、介质及设备,所述方法包括:获取内窥镜的检查图像;根据深度图模型提取所述检查图像对应的深度图像;根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出目标图像分类。由此可以使得医生在进行内窥镜操作的过程中可以准确了解到其在内窥镜检查过程中的检查范围,在一定程度上降低漏检的风险,保证内窥镜检查结果,提升用户使用体验。
Description
相关申请的交叉引用
本申请要求于2021年12月30日提交的,申请号为202111653381.X、发明名称为“基于人工智能的内窥镜图像处理方法、装置、介质及设备”的中国专利申请的优先权,该申请的全部内容通过引用结合在本申请中。
本公开涉及图像处理领域,具体地,涉及一种基于人工智能的内窥镜图像处理方法、装置、介质及设备。
内窥镜广泛用于结肠筛查和息肉检测,而在内窥镜检查中人体内区域的检查范围会直接影响到最终的检查结果。
内窥镜检查的人体内部组织通常是软组织,在医生运镜的过程中,例如肠道等会发生蠕动,并且在内窥镜检查的过程中医生会有冲水、解襻等操作,导致医生难以明确了解到其在内窥镜检查过程中的检查范围。同时,由于肠道蠕动、褶皱等问题,导致在医师检查过程中,部分肠道黏膜区域未能出现在医师视野中,导致医师漏检,无法获得准确的内窥镜检查结果。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开提供一种基于人工智能的内窥镜图像处理方法,所述方法包括:
获取内窥镜的检查图像;
根据深度图模型提取所述检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息;
根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;
间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出所述目标图像分类。
第二方面,本公开提供一种基于人工智能的内窥镜图像处理装置,所述装置包括:
获取模块,用于获取内窥镜的检查图像;
提取模块,用于根据深度图模型提取所述检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息;
第一确定模块,用于根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;
第二确定模块,用于间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出所述目标图像分类。
第三方面,本公开提供一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现第一方面所述方法的步骤。
第四方面,本公开提供一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现第一方面所述方法的步骤。
通过上述技术方案,可以通过提取检查图像的深度图像获得检查图像对应的组织的结构信息,并且通过结合医生视野可见的检查图像和包含检查的组织本身的结构信息的深度图像,对该检查图像中未可见部分对应的盲区比例进行预测,通过结合结构信息使得确定出的图像分类受动态变化的人体内部环境 的影响较小,同时可以避免内部组织表面的纹理、颜色等对预测结果的影响,进一步提高图像分类的准确性。并且通过结合多帧检查图像的图像分类确定该目标时段内的内窥镜操作对应的目标图像分类,可以有效避免单帧图像的估计误差对最终结果的影响,进一步提高目标图像分类的准确度,并且可以使得医生在进行内窥镜操作的过程中可以准确了解到其在内窥镜检查过程中的检查范围,在一定程度上降低漏检的风险,保证内窥镜检查结果,提升用户使用体验。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。在附图中:
图1是根据本公开的一种实施方式提供的基于人工智能的内窥镜图像处理方法的流程图;
图2是基于三维重建方式重建的肠道示意图;
图3是根据本公开的一种实施方式提供的深度图模型的结构示意图;
图4是根据本公开的一种实施方式提供的有限状态机的示意图;
图5是根据本公开的一种实施方式提供的基于人工智能的内窥镜图像处理装置的框图;
图6示出了适于用来实现本公开实施例的电子设备的结构示意图。
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1所示,为根据本公开的一种实施方式提供的基于人工智能的内窥镜图像处理方法的流程图,如图1所示,所述方法可以包括:
在步骤11中,获取内窥镜的检查图像。其中,可以将内窥镜退镜过程中实时拍摄的图像作为该检查图像,从而可以基于该检查图像对退镜过程中的相关操作进行监测。
在步骤12中,根据深度图模型提取检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息。
其中,深度图像可以用于反映检查图像中的可见表面的几何形状,而无关于检查图像中例如肠道中的纹理、颜色等的影响,即通过提取检查图像对应的深度图像可以获得检查图像中对应的人体组织内部的结构信息。
而如背景技术中所述,在内窥镜检查过程中由于肠道蠕动、褶皱等问题难以对该内窥镜检查的检查范围进行准确监测。在该实施例中,通过提取检查图像对应的深度图像,可以获得该检查图像中对应的人体组织内部的结构信息,如肠道内部的结构信息。肠道蠕动、褶皱、肠道弯曲等容易导致医生视野受 阻,而肠道蠕动、褶皱、肠道弯曲等并不会改变肠道的结构,因此,在该实施例中可以通过获取深度图像避免检查图像中的其他信息对后续进行图像分类判定的影响。
在步骤13中,根据深度图像、检查图像和图像分类模型,确定检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例。
其中,所述检查图像可以包含实际出现在医生视野内的组织的图像信息,深度图像可以包含该组织的结构信息,以基于图像分类模型对结构信息以及可见的图像信息进行预测,从而确定当前组织的盲区比例。盲区比例可以理解为内窥镜检查过程中盲区(即内窥镜的视野中无法观测到的部分)占组织内部整体表面积的比例。如图2所示,为基于内窥镜图像进行三维重建所得的肠道黏膜示意图,其中,肠道可以类似于管状结构,由于内窥镜视野的局限性,在基于内窥镜图像进行肠道重建时,其可能会出现如图2中W1、W2、W3、W4处所示的空洞位置,即该空洞位置并未出现在检查图像中,即内窥镜检查中的未可见部分,医生在进行内窥镜检查时无法观察到该部分的黏膜区域,若未可见黏膜区域过多则容易出现漏检现象。该盲区比例可以表征出现在检查图像中的黏膜未可见部分占组织整体黏膜区域的比例,则通过盲区比例可以提示当前组织中未可见的部分比例,以便于对内窥镜检查的全面性进行表征。
在步骤14中,间隔目标时段根据该目标时段内接收到的多个检查图像对应的图像分类,确定目标时段内的内窥镜操作对应的目标图像分类,并输出目标图像分类。
其中,该目标时段可以根据实际应用场景进行设置,若对内窥镜检查的实时性要求较高,该目标时段可以设置时长较短,若对内窥镜检查的实时性要求较低,该目标时段可以设置时长较长。在本公开中是对内窥镜操作过程中的实时检测图像进行分类判定,为了避免单帧图像的估计误差,则可以通过对目标时段内的多帧检查图像对应的图像分类,对该目标时段内的整体操作状态进行确定,保证确定出的目标图像分类的准确性和全面性。
由此,可以通过提取检查图像的深度图像获得检查图像对应的组织的结构信息,并且通过结合医生视野可见的检查图像和包含检查的组织本身的结构信息的深度图像,对该检查图像中未可见部分对应的盲区比例进行预测,通过结合结构信息使得确定出的图像分类受动态变化的人体内部环境的影响较小,同时可以避免内部组织表面的纹理、颜色等对预测结果的影响,进一步提高图像分类的准确性。并且通过结合多帧检查图像的图像分类确定该目标时段内的内窥镜操作对应的目标图像分类,可以有效避免单帧图像的估计误差对最终结果的影响,进一步提高目标图像分类的准确度,并且可以使得医生在进行内窥镜操作的过程中可以准确了解到其在内窥镜检查过程中的检查范围,在一定程度上降低漏检的风险,保证内窥镜检查结果,提升用户使用体验。
在一种可能的实施例中,所述获取内窥镜的检查图像的示例性实现方式如下,该步骤可以包括:
获取所述内窥镜在退镜过程中拍摄的内镜图像;
根据检查图像确定模型对所述内镜图像进行二分类,将所述内镜图像中对应分类为正常分类的图像确定为所述检查图像,其中,所述检查图像确定模型的训练样本中包含对应于正常分类的图像的正样本,以及对应于一种或多种异常分类的图像的负样本。
其中,在实际应用场景中,医生做肠镜检查过程中,可能会由于冲水、退镜速度过快等原因,导致采集的检查图像中存在模糊、过曝等异常图像帧,基于此类异常图像帧进行图像分类时难以获得准确的结果,从而影响最终目标图像分类的确定。基于此,在本公开实施例中,可以预先从内窥镜拍摄的视频中进行抽帧,获得多个图像帧。之后可以由医生进行二分类标注,如可以将无信号图像帧、体外图像帧、气泡图像帧、霸屏图像帧、过曝图像帧、模糊图像帧、变色图像帧等均标注为异常分类,清晰图像帧标注为正常分类,从而可以获得包含正样本和负样本的训练样本。
之后,则可以基于该训练样本对神经网络进行训练以获得检查图像确定模型,示例地,该神经网络可以是resnet50网络,其训练过程可以采用本领域中常用的训练方式,在此不再赘述。
因此,在该实施例中,在获得内窥镜拍摄的内镜图像后,可以将该内镜图像输入该训练完成的检查图像确定模型,若该检查图像确定模型输出为正常分类,则可以将该内镜图像作为检查图像进行后续的处理流程,若该检查图像确定模型输出为异常分类,则表示该内镜图像本身存在质量问题,此时可以直接将该内镜图像丢弃,既可以避免对其进行后续分析所导致的无效数据,又可以避免低质量的图像对最终目标图像分类的影响,保证确定出的目标图像分类的准确性,为用户进行准确的数据提示。
在一种可能的实施例中,所述深度图模型包括多个串联的特征提取子模型,所述根据深度图模型提取所述检查图像对应的深度图像的示例性实现方式如下,包括:
对检查图像进行降采样,获得检查图像对应的降采样图像。
示例地,可以通过卷积层对检查图像进行降采样,例如可以将检查图像降采样到该检查图像的分辨率的1/2,获得该降采样图像,从而使得该降采样图像中既可以包含较多的检查图像中的原始特征,又可以在一定程度上降低对图像识别和特征提取所需的计算量,提高检查图像的处理效率。
之后,将目标图像输入所述特征提取子模型,获得所述特征提取子模型输出的特征图,其中,若所述特征提取子模型为第一个特征提取子模型,则所述目标图像为所述降采样图像,若所述特征提取子模型不是第一个特征提取子模型,则所述目标图像为所述降采样图像和所述特征提取子模型的前一特征提取子模型输出的特征图进行融合后的图像;
对最后一个特征提取子模型输出的特征图进行反卷积操作,获得所述深度图像。
其中,图3所示为根据本公开的一种实施方式提供的深度图模型的结构示意图。如图3所示,该深度图模型可以包括3个特征提取子模型M1、M2和M3,则可以将检查图像I通过降采样获得降采样图像,进而基于降采样图像和深度图模型获得深度图像。
示例地,特征提取子模型为第一个特征提取子模型,即特征提取子模型为子模型M1,则可以将该降采样图像输入该子模型M1,该子模型M1可以通过降采样和上采样的处理获得该降采样图像对应的特征图。之后,可以将该子模型M1输出的特征图和该降采样图像进行融合获得融合图像,并将该融合图像作为子模型M2的输入图像。同样地,该子模型M2可以通过降采样和上采样的处理获得该融合图像对应的特征图。进一步地将该子模型M2输出的特征图和降采样图像进行融合获得融合图像,并将该融合图像作为子模型M3的输入图像,该子模型M3可以通过降采样和上采样的处理获得该融合图像对应的特征图。
由于子模型M3为最后一个特征提取子模型,则可以将子模型M3输出的特征图进行反卷积操作,获得所述深度图像,以使得获得的深度图像与所述检查图像的分辨率相同,即获得对应于原始图像大小的深度图像。
由此,通过上述技术方案,在确定检查图像对应的深度图像时,可以通过对该检查图像进行降采样,从而降低深度图模型计算的数据量,并且通过多个特征提取子模型循环使用将降采样和下采样的处理使得检查图像的图像信息不断混合,从而有效增大深度图模型中的网络感受野,使得深度图模型既能够注意到检查图像的全局结构信息,也能够关注到检查图像的局部细节信息,保证图像特征提取的全面性和有效性,提高确定出的深度图像的准确性和有效性。并且除第一个特征提取子模型之外的其他子模型的输入图像,均是前一特征提取子模型输出的特征图与降采样图像中的融合图像,使得该特征提取子模型的输入中可以包含原始图像的特征信息,避免深度图像的边缘模糊化,进一步提高深度图像的准确性。
在一种可能的实施例中,所述深度图模型包括多个串联的特征提取子模型,所述深度图模型在训练过程中的目标损失通过以下方式获得:
对输入所述深度图模型的训练图像对应的真值深度图像进行降采样,以获得与每一所述特征提取子模型分别对应的真值特征图像,其中,每一所述特征提取子模型输出的特征图和该特征提取子模型对应的真值特征图像的分辨率相同。
示例地,可以基于Kitti和NYU等经典深度估计数据集对深度图模型进行训练,深度图模型对应的训练样本可以包括从该深度估计数据集中确定出的训练图像以及训练图像对应的真值深度图像。作为示例,深度图模型包括多个串联的特征提取子模型,为提高模型的训练效率,该特征提取子模型输出的中间层的特征图的分辨率通常小于原始的训练图像的分辨率,因此在该实施例中,可以针对每一特征提取子模型输出的特征图的分辨率,对输入的训练图像的真值深度图像进行降采样,从而获得与该特征提取子模型输出的特征图的分辨率相同的真值特征图像,以便于根据该真值特征图像和输出的特征图确定对该特征提取子模型的准确性进行评估。
针对除最后一个特征提取子模型之外的每一所述特征提取子模型,根据该特征提取子模型输出的特征图和该特征提取子模型对应的真值特征图像,确定该特征提取子模型对应的中间损失。
其中,可以通过如下公式确定特征提取子模型对应的中间损失:
其中,L
i(d
i,d
i
*)用于表示第i个特征提取子模型对应的中间损失;
d
i用于表示第i个特征提取子模型输出的特征图;
d
i
*用于表示第i个特征提取子模型对应的真值特征图像;
N用于表示所述特征图中的像素点的数量。
之后,根据所述深度图模型输出的深度图像与所述真值深度图像,确定深度图模型的预测损失;将各个所述中间损失与所述预测损失之和确定为所述深度图模型的目标损失。
示例地,如图3所示的深度图模型中,可以针对中间的特征提取子模型M1和M2,分别计算出其对应的中间损失。作为示例,子模型M1输出的特征图的分辨率为输入的训练图像的分辨率的1/2,则可以将该训练图像对应的真值深度图像降采样到1/2分辨率得到真值特征图像。则如图3所示的深度图模型的目标损失表示如下:
L
d=L
1(d
1,d
1*)+L
2(d
2,d
2*)+L
3(D,d*)
其中,D用于表示该深度图模型输出的深度图像;
d
*用于表示真值深度图像。
之后,可以基于从内镜数据集endo-slam中获取新的训练图像以及训练图像对应的真值深度图像,基于该新的训练图像进一步对该深度图模型进行局部特征调优,以进一步提高深度图模型的准确性。其调优过程中的损失计算与上文所述过程相同,在此不再赘述。
由此,通过上述技术方案,可以在中间的特征提取子模型的输出添加中间监督损失函数,以使得中间的特征提取子模型得到中间监督信号,提高模型训练过程中的中间层的梯度反传的准确性,避免出现由于深度图模型的网络过深而出现的梯度消息的现象,提高深度图模型的训练效率和准确性。
在一种可能的实施例中,所述图像分类模型通过以下方式确定:
获取内窥镜操作对应的历史检查图像。
作为示例,可以采集真实情况下多个用户进行内窥镜检查拍摄的内镜图像(比如胃镜图像、结肠镜图像等),通过对该内镜图像进行预处理以获得历史检查图像,该预处理可以包括进行标准化裁剪,例如对分辨率和尺寸进行标准化处理以获得统一尺寸的历史检查图像,便于后续的训练过程。预处理还可以包括删除过曝和清晰度不足等异常分类的内镜图像,以避免此类图像对分类特征学习的影响,其中,该确定异常分类的内镜图像的方式已在上文进行详述。
作为另一示例,所述历史检查图像包括基于所述内窥镜拍摄的内镜图像确定出的历史图像,以及对所述历史图像进行数据增强所获得的增强图像,所述数据增强包括以下中的一者或多者:随机翻转、随机仿摄变换(RandomAffine)和颜色扰动(ColorJitter)。其中,该历史图像可以是通过上文所述方式对内镜图像进行预处理所得的图像。在该实施例中,内镜图像的数量通常较少,因此可以在获得历史图像的基础上,进一步地基于该历史图像构建出更多的图像,即可以对该历史图像进行数据增强,从而可以有效增加图像分类模型的训练样本的多样性和丰富性,保证训练所得的图像分类模型的稳定性和准确性。
之后,根据所述深度图模型提取所述历史检查图像对应的深度图像,并将所述历史检查图像对应的深度图像和所述历史检查图像融合,获得训练图像。
示例地,针对每一历史检查图像,将该历史检查图像输入深度图模型,从而可以基于该深度图模型获得该历史检查图像对应的深度图像。其中,根据深度图模型提取历史检查图像对应的深度图像的方式与上文提取检查图像对应的深度图像的方式相同,在此不再赘述。之后,则可以将该历史检查图像和其 对应的深度图像进行融合,如可以通过concat进行连接融合,将融合后图像作为训练图像以对图像分类模型进行训练。
以所述训练图像作为预设分类模型的输入,以所述历史检查图像对应的标注分类作为所述预设分类模型的目标输出,对所述预设分类模型进行训练,以获得所述图像分类模型。
其中,针对每一历史检查图像,可以由经验丰富的内镜医师标记对应图像分类,即该历史检查图像对应的标注分类。示例地,以肠镜检查为例,该盲区比例可以表示是未出现在视野内的肠道区域占整体肠道区域的比例,如果该盲区比例过高,则表示检查区域较少,该部分存在漏检风险,医生需要重新检查该段肠道。盲区比例应该是0-1之间的连续值,为了便于医生标注,可以将连续值的标注转为分类标注,如可以通过如下对应关系进行转换:
示例地,将该训练图像输入预设分类模型,该预设分类模型可以基于Resnet50网络实现,该网络中最后一层卷积层后连接全局池化层(Global avarage pooling)得出该训练图像的输出向量g,之后可以通过一个全连接层得出该输出向量g对应于各个图像分类的概率,进而基于该概率进行交叉熵损失计算:
其中,Lc(p,q)用于表示所述图像分类模型的损失;
C用于表示所述图像分类的类别数量;
p
i用于表示标注分类对应于第i个图像分类的表示,若标注分类与第i个图像分类相同,则该表示为1,若标注分类与第i个图像分类不同,则该表示为0;
q
i用于表示训练图像对应于第i个图像分类的概率。
在该实施例中,在对图像分类模型进行训练时,在其对应的训练图像中融合有检查图像对应的深度图像,因此图像分类模型的训练过程中可以学习到内窥镜检查过程中的组织表面的图像信息和组织的结构信息与图像分类之间的关系,使得图像分类模型的预测准确性更高,参考特征更加全面,提高图像分类模型的训练效率和准确率。
在一种可能的实施例中,所述间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类的示例性实现方式如下,该步骤可以包括:
若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量超过预设阈值,则将该最低等级的图像分类作为所述目标图像分类;
若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量未超过所述预设阈值, 则根据所述目标时段内各个图像分类下的检查图像的总累计数量,确定所述目标图像分类。
在实际应用场景中,若医生在进行内窥镜操作的检查过程中确定出的图像分类对应的等级比较低,表示在该医生进行内窥镜检查操作过程中出现在其视野中的检查区域的可见范围较小,以肠道检查为例,若医生在肠镜检查过程中确定出的肠道的图像分类对应的等级较低,则表示检查图像中的视野内肠道检查区域占整体肠道区域的比例较低,即有比较大部分的肠道环境并未出现在医生的视野中,则医生必然不能够对该部分肠道环境进行查看,从而容易出现病变位置漏检的状况。并且内窥镜检查为动态过程,为避免单帧检查图像的估计误差,本公开中可以结合多帧检查图像的图像分类对内窥镜的检查状态进行准确分类。
其中,如上文所述在图像分类对应的等级较低时,表示出现在医生视野内肠道检查区域占整体肠道区域的比例较低,医生检查范围不足。因此在本公开中可以对低等级的图像分类进行优先识别,以便于及时发现问题,提高识别实时性的同时,降低识别所对应的数据处理量。
示例地,可以按照目标时段内接收到的各个检查图像对应的图像分类,对各个检查图像进行分类累计,即确定出各个图像分类下的检查图像的总累计数量。
在对目标时段内的检查图像的数量进行累计的过程中,若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量超过预设阈值,则将该最低等级的图像分类作为所述目标图像分类。其中,针对最低等级的图像分类,即盲区比例过高,若连续多帧检查图像均对应于该最低等级的图像分类,则可以表明该目标时段内整体检查的盲区比例过高,则直接将该最低等级的图像分类确定为该目标时段内该内窥镜操作对应的目标图像分类,以便于及时发现内窥镜检查过程中的操作漏洞,为后续对医生进行相应提示提供可靠且实时的数据支持。
若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量未超过所述预设阈值,则表明该目标时段内整体检查的过程中盲区比例变化性较大,此时则可以进一步结合该目标时段内的整体检查图像对应的图像分类对该目标时间内的情况进行综合分析。
由此,通过上述技术方案,根据目标时段内的检查图像对应的图像分类对检查图像进行连续性累计,可以及时确定出盲区比例过高的内窥镜操作,降低数据处理量的同时,提高目标时段内图像分类确定的实时性,从而可以在内窥镜操作过程中对图像分类进行实时监测,便于用户及时根据该图像分类调整对内窥镜的操作。通过对内窥镜操作进行实时监测,可以在一定程度上避免漏检情况的发生,为内窥镜检查的全面性提供数据支持。
在一种可能的实施例中,所述根据所述目标时段内各个图像分类下的检查图像的总累计数量,确定所述目标图像分类的示例性实现方式如下,该步骤可以包括:
确定候选图像分类对应的目标比值与候选图像分类对应的等级阈值的大小关系,其中,所述目标比值为所述候选图像分类下的检查图像的总累计数量与目标总数量的比值,所述目标总数量为所述目标时段内的检查图像的数量之和,所述候选图像分类初始为等级最低的图像分类。
示例地,若图像分类包括5个等级,按照图像分类对应的等级由低到高分别为极差A1、差A2、中A3、良A4、优A5,为便于说明,后续直接用A1-A5进行描述。因此在目标时段内各个图像分类下的检查图像的总累计数量确定出来之后,可以进一步确定各个图像分类对应的目标比值,即各个图像分类下的检查图像在目标时段内的检查图像中的占比。
在对图像分类进行综合分析时,可以按照其对应的等级由低到高的顺序递进分析,首先获得极差等级下的目标比值,即分类A1下的目标比值,从而可以确定该目标比值Q1与该分类A1对应的等级阈值a1的大小关系。其中,每一图像分类对应一等级阈值,不同图像分类对应的等级阈值可以相同,也可以不同,本公开对此不进行限定。
若所述候选图像分类对应的目标比值大于或等于所述候选图像分类对应的等级阈值,则将该候选图像分类作为所述目标图像分类。
示例地,若分类A1对应的目标比值Q1大于或等于分类A1对应的等级阈值a1,则表示在该目标时段内该分类A1下的检查图像的占比较高,此时可以用该分类A1表征该目标时段的整体检查情况,因此,将该候选图像分类A1作为所述目标图像分类,即该目标时段内的内窥镜操作对应的目标图像分类为极差。
若所述候选图像分类对应的目标比值小于所述候选图像分类对应的等级阈值,根据图像分类对应的等级由低到高的顺序,获取所述候选图像分类的下一图像分类;
若下一图像分类不是最高等级,则将下一图像分类作为新的候选图像分类,并重新执行所述确定候选图像分类对应的目标比值与候选图像分类对应的等级阈值的大小关系的步骤;若下一图像分类为最高等级,则将该下一图像分类确定为所述目标图像分类。
示例地,若分类A1对应的目标比值Q1小于分类A1对应的等级阈值a1,则表示在该目标时段内该分类A1下的检查图像的占比较低,此时用该分类A1表征该目标时段的整体检查情况则是不合适的,则可以进一步判断下一图像分类,即分类A2。此时分类A2为差分类,其对应的等级并非最高等级,则执行上述与分类A1同样的判断流程,即若分类A2对应的目标比值Q2大于或等于分类A2对应的等级阈值a2,则表示在该目标时段内该分类A2下的检查图像的占比较高,此时可以用该分类A2表征该目标时段的整体检查情况。若分类A2对应的目标比值Q2小于分类A2对应的等级阈值a2,则进一步获得下一图像分类,即分类A3。
其中,在确定出内窥镜操作对应的目标图像分类之后,则可以无需执行后续其他等级的判断,以节省数据计算量。若接上述示例,进一步地在确定分类A4对应的目标比值Q4小于所述其对应的等级阈值a4时,此时下一图像分类为分类A5,该分类A5对应的等级为最高等级,此时可以直接将该分类A5确定为所述目标图像分类,即该目标时段内的内窥镜操作对应的目标图像分类为优。
示例地,上述判断过程可以通过有限状态机的方式实现,如图4所示,在图像分类为5个时,通过状态转换进行判定识别:
根据目标时段内的各个检查图像对应的图像分类列表进行统计:
第1步:若满足连续M(即上文所述预设阈值)帧检查图像的图像分类为极差A1,或者若分类A1对应的目标比值Q1大于或等于分类A1对应的等级阈值a1,则跳转至状态Y1并退出,即目标时段内的内窥镜操作对应的目标图像分类为极差;否则,进入第2步;
第2步:若分类A2对应的目标比值Q2大于或等于分类A2对应的等级阈值a2,则跳转至状态Y2并退出,即目标时段内的内窥镜操作对应的目标图像分类为差;否则,进入第3步;
第3步:若分类A3对应的目标比值Q3大于或等于分类A3对应的等级阈值a3,则跳转至状态Y3并退出,即目标时段内的内窥镜操作对应的目标图像分类为中;否则,进入第4步;
第4步:若分类A4对应的目标比值Q4大于或等于分类A4对应的等级阈值a4,则跳转至状态Y4并退出,即目标时段内的内窥镜操作对应的目标图像分类为良;否则,进入第5步;
第5步:跳转至状态Y5,即目标时段内的内窥镜操作对应的目标图像分类为优,状态转换终结。
如上文所示,在实际应用场景中,图像分类对应的等级较低时,对用户使用内窥镜的检查结果影响较大。因此,通过上述技术方案,可以按照图像分类对应的等级由低到高的顺序,对目标时段内的内窥镜操作的图像分类进行识别,使得图像分类识别与内窥镜的实际应用场景相匹配,提高确定出的图像分类的可用性和有效性,为用户对内窥镜的准确合理使用提供可靠的数据参考。
在一种可能的实施例中,所述方法还可以包括:
在所述目标图像分类对应的等级低于预设等级或与所述预设等级相同的情况下,输出提示信息,其中,所述提示信息用于指示存在漏检风险。
其中,预设等级可以根据实际应用场景进行设置。示例地,可以用于展示内窥镜的图像的显示界面中实时显示确定出的目标图像分类,从而可以对用户实时提示。并且在要求粗筛的场景下,该预设等级可以为差等级,则在确定出的图像分类为极差、差时,可以进一步输出提示信息,如显示界面中显示该提示消息,例如,提示信息可以是“当前漏检风险高”、“请重新检查”、“请执行退镜”,可以直接显示该提示消息,也可以语音提示,也可以通过弹窗提示,从而对医生进行提示,使得医生可以及时了解其退镜过程中检查区域的黏膜覆盖范围不足,容易出现漏检现象,这样医生可以根据提示信息,调整内窥镜的方向,或者执行退镜,再或者重新执行退镜过程。由此,可以在医生进行内窥镜退镜过程中对其内窥镜操作进行实时监控,可以在医生检查范围不足时及时进行提示,为医生进行全面且有效的检查提供可靠的提示,在一定程度上可以降低漏检率,便于使用,提高用户使用体验。
本公开还提供一种基于人工智能的内窥镜图像处理装置,如图5所示,所述装置10包括:
获取模块100,用于获取内窥镜的检查图像;
提取模块200,用于根据深度图模型提取所述检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息;
第一确定模块300,用于根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;
第二确定模块400,用于间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出所述目标图像分类。
可选地,所述深度图模型包括多个串联的特征提取子模型,所述提取模块包括:
降采样子模块,用于对所述检查图像进行降采样,获得检查图像对应的降采样图像;
第一处理子模块,用于将目标图像输入所述特征提取子模型,获得所述特征提取子模型输出的特征图,其中,若所述特征提取子模型为第一个特征提取子模型,则所述目标图像为所述降采样图像,若所述特征提取子模型不是第一个特征提取子模型,则所述目标图像为所述降采样图像和所述特征提取子模型的前一特征提取子模型输出的特征图进行融合后的图像;
第二处理子模块,用于对最后一个特征提取子模型输出的特征图进行反卷积操作,获得所述深度图像。
可选地,所述深度图模型包括多个串联的特征提取子模型,所述深度图模型在训练过程中的目标损失通过以下方式获得:
对输入所述深度图模型的训练图像对应的真值深度图像进行降采样,以获得与每一所述特征提取子模型分别对应的真值特征图像,其中,每一所述特征提取子模型输出的特征图和该特征提取子模型对应的真值特征图像的分辨率相同;
针对除最后一个特征提取子模型之外的每一所述特征提取子模型,根据该特征提取子模型输出的特征图和该特征提取子模型对应的真值特征图像,确定该特征提取子模型对应的中间损失;
根据所述深度图模型输出的深度图像与所述真值深度图像,确定深度图模型的预测损失;
将各个所述中间损失与所述预测损失之和确定为所述深度图模型的目标损失。
可选地,所述图像分类模型通过以下方式确定:
获取内窥镜操作对应的历史检查图像;
根据所述深度图模型提取所述历史检查图像对应的深度图像,并将所述历史检查图像对应的深度图像和所述历史检查图像融合,获得训练图像;
以所述训练图像作为预设分类模型的输入,以所述历史检查图像对应的标注分类作为所述预设分类模型的目标输出,对所述预设分类模型进行训练,以获得所述图像分类模型。
可选地,所述历史检查图像包括基于所述内窥镜拍摄的内镜图像确定出的历史图像,以及对所述历史图像进行数据增强所获得的增强图像,所述数据增强包括以下中的一者或多者:随机翻转、随机仿摄变换和颜色扰动。
可选地,所述第二确定模块包括:
第一确定子模块,用于若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量超过预设阈值,则将该最低等级的图像分类作为所述目标图像分类;
第二确定子模块,用于若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量未超过所述预设阈值,则根据所述目标时段内各个图像分类下的检查图像的总累计数量,确定所述目标图像分类。
可选地,所述第二确定子模块包括:
第三确定子模块,用于确定候选图像分类对应的目标比值与候选图像分类对应的等级阈值的大小关系,其中,所述目标比值为所述候选图像分类下的检查图像的总累计数量与目标总数量的比值,所述目标总数量为所述目标时段内的检查图像的数量之和,所述候选图像分类初始为等级最低的图像分类;
第四确定子模块,用于若所述候选图像分类对应的目标比值大于或等于所述候选图像分类对应的等级阈值,则将该候选图像分类作为所述目标图像分类;
第五确定子模块,用于若所述候选图像分类对应的目标比值小于所述候选图像分类对应的等级阈 值,根据图像分类对应的等级由低到高的顺序,获取所述候选图像分类的下一图像分类;若下一图像分类不是最高等级,则将下一图像分类作为新的候选图像分类,并触发第三确定子模块确定候选图像分类对应的目标比值与候选图像分类对应的等级阈值的大小关系;若下一图像分类为最高等级,则将该下一图像分类确定为所述目标图像分类。
可选地,所述获取模块包括:
获取子模块,用于获取所述内窥镜在退镜过程中拍摄的内镜图像;
第六确定子模块,用于根据检查图像确定模型对所述内镜图像进行二分类,将所述内镜图像中对应分类为正常分类的图像确定为所述检查图像,其中,所述检查图像确定模型的训练样本中包含对应于正常分类的图像的正样本,以及对应于一种或多种异常分类的图像的负样本。
可选地,所述装置还包括:
输出模块,用于在所述目标图像分类对应的等级低于预设等级或与所述预设等级相同的情况下,输出提示信息,其中,所述提示信息用于指示存在漏检风险。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText Transfer Protocol,超文本 传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取内窥镜的检查图像;根据深度图模型提取所述检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息;根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出所述目标图像分类。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,获取模块还可以被描述为“获取内窥镜的检查图像的模块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种基于人工智能的内窥镜图像处理方法,其中,所述方法包括:
获取内窥镜的检查图像;
根据深度图模型提取所述检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息;
根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;
间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出所述目标图像分类。
根据本公开的一个或多个实施例,示例2提供了示例1的方法,其中,所述深度图模型包括多个串联的特征提取子模型,所述根据深度图模型提取所述检查图像对应的深度图像,包括:
对所述检查图像进行降采样,获得检查图像对应的降采样图像;
将目标图像输入所述特征提取子模型,获得所述特征提取子模型输出的特征图,其中,若所述特征提取子模型为第一个特征提取子模型,则所述目标图像为所述降采样图像,若所述特征提取子模型不是第一个特征提取子模型,则所述目标图像为所述降采样图像和所述特征提取子模型的前一特征提取子模型输出的特征图进行融合后的图像;
对最后一个特征提取子模型输出的特征图进行反卷积操作,获得所述深度图像。
根据本公开的一个或多个实施例,示例3提供了示例1的方法,其中,所述深度图模型包括多个串联的特征提取子模型,所述深度图模型在训练过程中的目标损失通过以下方式获得:
对输入所述深度图模型的训练图像对应的真值深度图像进行降采样,以获得与每一所述特征提取子模型分别对应的真值特征图像,其中,每一所述特征提取子模型输出的特征图和该特征提取子模型对应的真值特征图像的分辨率相同;
针对除最后一个特征提取子模型之外的每一所述特征提取子模型,根据该特征提取子模型输出的特征图和该特征提取子模型对应的真值特征图像,确定该特征提取子模型对应的中间损失;
根据所述深度图模型输出的深度图像与所述真值深度图像,确定深度图模型的预测损失;
将各个所述中间损失与所述预测损失之和确定为所述深度图模型的目标损失。
根据本公开的一个或多个实施例,示例4提供了示例1的方法,其中,所述图像分类模型通过以下方式确定:
获取内窥镜操作对应的历史检查图像;
根据所述深度图模型提取所述历史检查图像对应的深度图像,并将所述历史检查图像对应的深度图像和所述历史检查图像融合,获得训练图像;
以所述训练图像作为预设分类模型的输入,以所述历史检查图像对应的标注分类作为所述预设分类模型的目标输出,对所述预设分类模型进行训练,以获得所述图像分类模型。
根据本公开的一个或多个实施例,示例5提供了示例4的方法,其中,所述历史检查图像包括基于所述内窥镜拍摄的内镜图像确定出的历史图像,以及对所述历史图像进行数据增强所获得的增强图像,所述数据增强包括以下中的一者或多者:随机翻转、随机仿摄变换和颜色扰动。
根据本公开的一个或多个实施例,示例6提供了示例1的方法,其中,所述间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,包括:
若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量超过预设阈值,则将该最低等级的图像分类作为所述目标图像分类;
若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量未超过所述预设阈值,则根据所述目标时段内各个图像分类下的检查图像的总累计数量,确定所述目标图像分类。
根据本公开的一个或多个实施例,示例7提供了示例6的方法,其中,所述根据所述目标时段内各个图像分类下的检查图像的总累计数量,确定所述目标图像分类,包括:
确定候选图像分类对应的目标比值与候选图像分类对应的等级阈值的大小关系,其中,所述目标比值为所述候选图像分类下的检查图像的总累计数量与目标总数量的比值,所述目标总数量为所述目标时段内的检查图像的数量之和,所述候选图像分类初始为等级最低的图像分类;
若所述候选图像分类对应的目标比值大于或等于所述候选图像分类对应的等级阈值,则将该候选图像分类作为所述目标图像分类;
若所述候选图像分类对应的目标比值小于所述候选图像分类对应的等级阈值,根据图像分类对应的等级由低到高的顺序,获取所述候选图像分类的下一图像分类;
若下一图像分类不是最高等级,则将下一图像分类作为新的候选图像分类,并重新执行所述确定候 选图像分类对应的目标比值与候选图像分类对应的等级阈值的大小关系的步骤;若下一图像分类为最高等级,则将该下一图像分类确定为所述目标图像分类。
根据本公开的一个或多个实施例,示例8提供了示例1的方法,其中,所述获取内窥镜的检查图像,包括:
获取所述内窥镜在退镜过程中拍摄的内镜图像;
根据检查图像确定模型对所述内镜图像进行二分类,将所述内镜图像中对应分类为正常分类的图像确定为所述检查图像,其中,所述检查图像确定模型的训练样本中包含对应于正常分类的图像的正样本,以及对应于一种或多种异常分类的图像的负样本。
根据本公开的一个或多个实施例,示例9提供了示例1-8中任一示例的方法,其中,所述方法还包括:
在所述目标图像分类对应的等级低于预设等级或与所述预设等级相同的情况下,输出提示信息,其中,所述提示信息用于指示存在漏检风险。
根据本公开的一个或多个实施例,示例10提供了一种基于人工智能的内窥镜图像处理装置,其中,所述装置包括:
获取模块,用于获取内窥镜的检查图像;
提取模块,用于根据深度图模型提取所述检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息;
第一确定模块,用于根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;
第二确定模块,用于间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出所述目标图像分类。
根据本公开的一个或多个实施例,示例11提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现示例1-9中任一项所述方法的步骤。
根据本公开的一个或多个实施例,示例12提供了一种电子设备,包括:
存储装置,其上存储有计算机程序;
处理装置,用于执行所述存储装置中的所述计算机程序,以实现示例1-9中任一项所述方法的步骤。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
Claims (12)
- 一种基于人工智能的内窥镜图像处理方法,其特征在于,所述方法包括:获取内窥镜的检查图像;根据深度图模型提取所述检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息;根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出所述目标图像分类。
- 根据权利要求1所述的方法,其特征在于,所述深度图模型包括多个串联的特征提取子模型,所述根据深度图模型提取所述检查图像对应的深度图像,包括:对所述检查图像进行降采样,获得检查图像对应的降采样图像;将目标图像输入所述特征提取子模型,获得所述特征提取子模型输出的特征图,其中,若所述特征提取子模型为第一个特征提取子模型,则所述目标图像为所述降采样图像,若所述特征提取子模型不是第一个特征提取子模型,则所述目标图像为所述降采样图像和所述特征提取子模型的前一特征提取子模型输出的特征图进行融合后的图像;对最后一个特征提取子模型输出的特征图进行反卷积操作,获得所述深度图像。
- 根据权利要求1所述的方法,其特征在于,所述深度图模型包括多个串联的特征提取子模型,所述深度图模型在训练过程中的目标损失通过以下方式获得:对输入所述深度图模型的训练图像对应的真值深度图像进行降采样,以获得与每一所述特征提取子模型分别对应的真值特征图像,其中,每一所述特征提取子模型输出的特征图和该特征提取子模型对应的真值特征图像的分辨率相同;针对除最后一个特征提取子模型之外的每一所述特征提取子模型,根据该特征提取子模型输出的特征图和该特征提取子模型对应的真值特征图像,确定该特征提取子模型对应的中间损失;根据所述深度图模型输出的深度图像与所述真值深度图像,确定深度图模型的预测损失;将各个所述中间损失与所述预测损失之和确定为所述深度图模型的目标损失。
- 根据权利要求1所述的方法,其特征在于,所述图像分类模型通过以下方式确定:获取内窥镜操作对应的历史检查图像;根据所述深度图模型提取所述历史检查图像对应的深度图像,并将所述历史检查图像对应的深度图像和所述历史检查图像融合,获得训练图像;以所述训练图像作为预设分类模型的输入,以所述历史检查图像对应的标注分类作为所述预设分类模型的目标输出,对所述预设分类模型进行训练,以获得所述图像分类模型。
- 根据权利要求4所述的方法,其特征在于,所述历史检查图像包括基于所述内窥镜拍摄的内镜图像确定出的历史图像,以及对所述历史图像进行数据增强所获得的增强图像,所述数据增强包括以下中的一者或多者:随机翻转、随机仿摄变换和颜色扰动。
- 根据权利要求1所述的方法,其特征在于,所述间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,包括:若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量超过预设阈值,则将该最低等级的图像分类作为所述目标图像分类;若所述目标时段内对应于最低等级的图像分类下的检查图像的连续累计数量未超过所述预设阈值,则根据所述目标时段内各个图像分类下的检查图像的总累计数量,确定所述目标图像分类。
- 根据权利要求6所述的方法,其特征在于,所述根据所述目标时段内各个图像分类下的检查图像的总累计数量,确定所述目标图像分类,包括:确定候选图像分类对应的目标比值与候选图像分类对应的等级阈值的大小关系,其中,所述目标比值为所述候选图像分类下的检查图像的总累计数量与目标总数量的比值,所述目标总数量为所述目标时段内的检查图像的数量之和,所述候选图像分类初始为等级最低的图像分类;若所述候选图像分类对应的目标比值大于或等于所述候选图像分类对应的等级阈值,则将该候选图像分类作为所述目标图像分类;若所述候选图像分类对应的目标比值小于所述候选图像分类对应的等级阈值,根据图像分类对应的等级由低到高的顺序,获取所述候选图像分类的下一图像分类;若下一图像分类不是最高等级,则将下一图像分类作为新的候选图像分类,并重新执行所述确定候选图像分类对应的目标比值与候选图像分类对应的等级阈值的大小关系的步骤;若下一图像分类为最高等级,则将该下一图像分类确定为所述目标图像分类。
- 根据权利要求1所述的方法,其特征在于,所述获取内窥镜的检查图像,包括:获取所述内窥镜在退镜过程中拍摄的内镜图像;根据检查图像确定模型对所述内镜图像进行二分类,将所述内镜图像中对应分类为正常分类的图像确定为所述检查图像,其中,所述检查图像确定模型的训练样本中包含对应于正常分类的图像的正样本,以及对应于一种或多种异常分类的图像的负样本。
- 根据权利要求1-8中任一项所述的方法,其特征在于,所述方法还包括:在所述目标图像分类对应的等级低于预设等级或与所述预设等级相同的情况下,输出提示信息,其中,所述提示信息用于指示存在漏检风险。
- 一种基于人工智能的内窥镜图像处理装置,其特征在于,所述装置包括:获取模块,用于获取内窥镜的检查图像;提取模块,用于根据深度图模型提取所述检查图像对应的深度图像,其中,所述深度图像用于表征所述检查图像对应的组织的结构信息;第一确定模块,用于根据所述深度图像、所述检查图像和图像分类模型,确定所述检查图像对应的图像分类,其中所述图像分类用于表示所述检查图像对应的组织的盲区比例;第二确定模块,用于间隔目标时段根据所述目标时段内接收到的多个检查图像对应的图像分类,确定所述目标时段内的内窥镜操作对应的目标图像分类,并输出所述目标图像分类。
- 一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现权利要求1-9中任一项所述方法的步骤。
- 一种电子设备,其特征在于,包括:存储装置,其上存储有计算机程序;处理装置,用于执行所述存储装置中的所述计算机程序,以实现权利要求1-9中任一项所述方法的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111653381.X | 2021-12-30 | ||
CN202111653381.XA CN114332033A (zh) | 2021-12-30 | 2021-12-30 | 基于人工智能的内窥镜图像处理方法、装置、介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023125008A1 true WO2023125008A1 (zh) | 2023-07-06 |
Family
ID=81019697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2022/139016 WO2023125008A1 (zh) | 2021-12-30 | 2022-12-14 | 基于人工智能的内窥镜图像处理方法、装置、介质及设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114332033A (zh) |
WO (1) | WO2023125008A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116958147A (zh) * | 2023-09-21 | 2023-10-27 | 青岛美迪康数字工程有限公司 | 基于深度图像特征的目标区域确定方法、装置和设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114332033A (zh) * | 2021-12-30 | 2022-04-12 | 小荷医疗器械(海南)有限公司 | 基于人工智能的内窥镜图像处理方法、装置、介质及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105208909A (zh) * | 2013-04-17 | 2015-12-30 | 西门子公司 | 用于立体显示图像数据的方法和装置 |
CN111062981A (zh) * | 2019-12-13 | 2020-04-24 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
US20210280312A1 (en) * | 2020-03-06 | 2021-09-09 | Verily Life Sciences Llc | Detecting deficient coverage in gastroenterological procedures |
CN114332033A (zh) * | 2021-12-30 | 2022-04-12 | 小荷医疗器械(海南)有限公司 | 基于人工智能的内窥镜图像处理方法、装置、介质及设备 |
-
2021
- 2021-12-30 CN CN202111653381.XA patent/CN114332033A/zh active Pending
-
2022
- 2022-12-14 WO PCT/CN2022/139016 patent/WO2023125008A1/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105208909A (zh) * | 2013-04-17 | 2015-12-30 | 西门子公司 | 用于立体显示图像数据的方法和装置 |
CN111062981A (zh) * | 2019-12-13 | 2020-04-24 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置及存储介质 |
US20210280312A1 (en) * | 2020-03-06 | 2021-09-09 | Verily Life Sciences Llc | Detecting deficient coverage in gastroenterological procedures |
CN114332033A (zh) * | 2021-12-30 | 2022-04-12 | 小荷医疗器械(海南)有限公司 | 基于人工智能的内窥镜图像处理方法、装置、介质及设备 |
Non-Patent Citations (1)
Title |
---|
XU, WEIPENG ET AL.: "Survey on Occlusion Handling in Augmented Reality", JOURNAL OF COMPUTER-AIDED DESIGN & COMPUTER GRAPHICS, vol. 25, no. 11, 15 November 2013 (2013-11-15), XP009547343 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116958147A (zh) * | 2023-09-21 | 2023-10-27 | 青岛美迪康数字工程有限公司 | 基于深度图像特征的目标区域确定方法、装置和设备 |
CN116958147B (zh) * | 2023-09-21 | 2023-12-22 | 青岛美迪康数字工程有限公司 | 基于深度图像特征的目标区域确定方法、装置和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114332033A (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023125008A1 (zh) | 基于人工智能的内窥镜图像处理方法、装置、介质及设备 | |
US20210158533A1 (en) | Image processing method and apparatus, and storage medium | |
CN109447985B (zh) | 结肠镜图像分析方法、装置及可读存储介质 | |
WO2022252881A1 (zh) | 图像处理方法、装置、可读介质和电子设备 | |
WO2023030370A1 (zh) | 内窥镜图像检测方法、装置、存储介质及电子设备 | |
WO2023207564A1 (zh) | 基于图像识别的内窥镜进退镜时间确定方法及装置 | |
WO2023030427A1 (zh) | 生成模型的训练方法、息肉识别方法、装置、介质及设备 | |
CN109460717B (zh) | 消化道共聚焦激光显微内镜病变图像识别方法及装置 | |
CN111144271B (zh) | 一种内镜下自动识别活检部位及活检数量的方法及系统 | |
WO2023030097A1 (zh) | 组织腔清洁度的确定方法、装置、可读介质和电子设备 | |
CN113470029B (zh) | 训练方法及装置、图像处理方法、电子设备和存储介质 | |
CN113449851A (zh) | 数据处理方法及设备 | |
WO2023185516A1 (zh) | 图像识别模型的训练方法、识别方法、装置、介质和设备 | |
CN111311609B (zh) | 一种图像分割方法、装置、电子设备及存储介质 | |
WO2023165332A1 (zh) | 组织腔体的定位方法、装置、可读介质和电子设备 | |
WO2023185497A1 (zh) | 组织图像的识别方法、装置、可读介质和电子设备 | |
CN112884702A (zh) | 一种基于内窥镜图像的息肉识别系统和方法 | |
WO2023030426A1 (zh) | 息肉识别方法、装置、介质及设备 | |
WO2023130925A1 (zh) | 字体识别方法、装置、可读介质及电子设备 | |
CN114937178B (zh) | 基于多模态的图像分类方法、装置、可读介质和电子设备 | |
CN114863124A (zh) | 模型训练方法、息肉检测方法、相应装置、介质及设备 | |
CN116152233B (zh) | 图像处理方法、智能终端及存储介质 | |
WO2023024986A1 (zh) | 一种视频流畅度确定方法、装置、设备及介质 | |
CN114565586B (zh) | 息肉分割模型的训练方法、息肉分割方法及相关装置 | |
CN114782390B (zh) | 检测模型的确定方法、息肉检测方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22914263 Country of ref document: EP Kind code of ref document: A1 |