CN115393356B - 目标部位异常形态识别方法、装置及计算机可读存储介质 - Google Patents
目标部位异常形态识别方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN115393356B CN115393356B CN202211326812.6A CN202211326812A CN115393356B CN 115393356 B CN115393356 B CN 115393356B CN 202211326812 A CN202211326812 A CN 202211326812A CN 115393356 B CN115393356 B CN 115393356B
- Authority
- CN
- China
- Prior art keywords
- target
- abnormal
- preset
- target part
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30092—Stomach; Gastric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种目标部位异常形态识别方法、装置及计算机可读存储介质,该方法包括:识别预先获取针对患者的目标部位的目标内镜图像的类型;若目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定目标内镜图像中目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度;基于目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,确定目标部位的异常程度系数;若目标部位的异常程度系数大于预设的异常程度阈值,则确定目标部位的异常形态。本申请实施例提高了对目标部位异常形态识别的准确性和效率。
Description
技术领域
本申请涉及辅助医疗技术领域,具体涉及一种目标部位异常形态识别方法、装置及计算机可读存储介质。
背景技术
目标部位的异常形态的确定直接决定手术切除的完整性和有效性,未能完全切除目标部位的异常的手术是失败的。
然而,目标部位的异常形态的确定对内镜临床医师是很有难度的工作内容,即使对高年资医师也不容易判断正确。
因此,如何提高对目标部位的异常形态进行识别的准确性是当前辅助医疗技术领域技术系解决的技术问题。
发明内容
本申请提供一种目标部位异常形态识别方法、装置及计算机可读存储介质,旨在解决如何提高对目标部位的异常形态进行识别的准确性的技术问题。
一方面,本申请提供一种目标部位异常形态识别方法,所述方法包括:
基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;
若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;
基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;
若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态。
在本申请一种可能的实现方式中,所述若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态,包括:
若所述目标部位的异常程度系数大于预设的异常程度阈值,则采用预设的异常区域的范围识别模型,识别所述目标部位的异常区域的范围;
基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态。
在本申请一种可能的实现方式中,所述基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态,包括:
基于所述异常区域的范围,确定所述异常区域的轮廓边界;
分割所述异常区域的轮廓边界,得到所述异常区域的面积;
将所述异常区域的面积与预设的阈值进行比较,得到比较结果;
基于所述比较结果,确定所述目标部位的异常形态。
在本申请一种可能的实现方式中,所述预设的卷积神经网络的医学特征识别模型集合包括表面凹陷特征识别模型、腺管规则特征识别模型、血管规则特征识别模型以及血管稀疏特征识别模型;
所述若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,包括:
若所述目标内镜图像的类型符合预设类型要求,则基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度;
基于所述腺管规则特征识别模型,确定所述目标内镜图像中所述目标部位的腺管规则特征的置信度;
基于所述血管规则特征识别模型,确定所述目标内镜图像中所述目标部位的血管规则特征的置信度;
基于所述血管稀疏特征识别模型,确定所述目标内镜图像中所述目标部位的血管稀疏特征的置信度。
在本申请一种可能的实现方式中,在基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度之前,所述方法还包括:
获取所述目标部位的表面凹陷特征的图像样本集;
将所述图像样本按照预设比例分为训练集和测试集;
基于所述训练集、所述测试集以及预设的ResNet50图像分类神经网络模型,确定所述表面凹陷特征识别模型。
在本申请一种可能的实现方式中,在基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型之前,所述方法还包括:
基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的内镜图像中的有效区域;
裁剪所述有效区域,得到目标内镜图像。
在本申请一种可能的实现方式中,所述裁剪所述有效区域,得到目标内镜图像,包括:
裁剪所述有效区域,得到初始内镜图像;
对所述初始内镜图像进行图像质量检测,得到检测结果;
若所述检测结果为不符合预设的图像质量检测要求,则对所述初始内镜图像进行图像质量增强处理,得到目标内镜图像。
在本申请一种可能的实现方式中,所述基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数,包括:
基于预设的拟合模型,对所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度进行拟合,得到所述目标部位的异常程度系数。
另一方面,本申请提供一种目标部位异常形态识别装置,所述装置包括:
第一识别单元,用于基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;
第一确定单元,用于若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;
第二确定单元,用于基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;
第三确定单元,用于若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态。
在本申请一种可能的实现方式中,所述第三确定单元,具体包括:
第二识别单元,用于若所述目标部位的异常程度系数大于预设的异常程度阈值,则采用预设的异常区域的范围识别模型,识别所述目标部位的异常区域的范围;
第四确定单元,用于基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态。
在本申请一种可能的实现方式中,所述第四确定单元,具体用于:
基于所述异常区域的范围,确定所述异常区域的轮廓边界;
分割所述异常区域的轮廓边界,得到所述异常区域的面积;
将所述异常区域的面积与预设的阈值进行比较,得到比较结果;
基于所述比较结果,确定所述目标部位的异常形态。
在本申请一种可能的实现方式中,所述预设的卷积神经网络的医学特征识别模型集合包括表面凹陷特征识别模型、腺管规则特征识别模型、血管规则特征识别模型以及血管稀疏特征识别模型;
所述第一确定单元,具体用于:
若所述目标内镜图像的类型符合预设类型要求,则基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度;
基于所述腺管规则特征识别模型,确定所述目标内镜图像中所述目标部位的腺管规则特征的置信度;
基于所述血管规则特征识别模型,确定所述目标内镜图像中所述目标部位的血管规则特征的置信度;
基于所述血管稀疏特征识别模型,确定所述目标内镜图像中所述目标部位的血管稀疏特征的置信度。
在本申请一种可能的实现方式中,在基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度之前,所述装置还用于:
获取所述目标部位的表面凹陷特征的图像样本集;
将所述图像样本按照预设比例分为训练集和测试集;
基于所述训练集、所述测试集以及预设的ResNet50图像分类神经网络模型,确定所述表面凹陷特征识别模型。
在本申请一种可能的实现方式中,在基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型之前,所述装置还包括:
第三识别单元,用于基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的内镜图像中的有效区域;
第一剪裁单元,用于裁剪所述有效区域,得到目标内镜图像。
在本申请一种可能的实现方式中,所述第一剪裁单元,具体用于:
裁剪所述有效区域,得到初始内镜图像;
对所述初始内镜图像进行图像质量检测,得到检测结果;
若所述检测结果为不符合预设的图像质量检测要求,则对所述初始内镜图像进行图像质量增强处理,得到目标内镜图像。
在本申请一种可能的实现方式中,所述第二确定单元,具体用于:
基于预设的拟合模型,对所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度进行拟合,得到所述目标部位的异常程度系数。
另一方面,本申请还提供一种计算机设备,所述计算机设备包括:
一个或多个处理器;
存储器;以及
一个或多个应用程序,其中所述一个或多个应用程序被存储于所述存储器中,并配置为由所述处理器执行以实现所述的目标部位异常形态识别方法。
另一方面,本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行所述的目标部位异常形态识别方法中的步骤。
本申请实施例在现有技术中,无法准确的识别出目标部位异常形态的情况下,通过利用预设的卷积神经网络的医学特征识别模型集合对患者的目标部位的目标内镜图像从多个关联特征进行综合分析,从而确定所述目标部位的异常程度系数,实现了对目标部位的异常程度的数字化,进一步的再对异常程度系数大于预设的异常程度阈值的目标部位进行异常形态的确认,提高了对目标部位异常形态识别的准确性和效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的目标部位异常形态识别系统的场景示意图;
图2是本申请实施例中提供的目标部位异常形态识别方法的一个实施例流程示意图;
图3是本申请实施例中提供的获取目标内镜图像的一个实施例流程示意图;
图4是本申请实施例中提供的目标内镜图像的不同类型的一个实施例示意图;
图5是本申请实施例中提供的对内镜图像进行裁剪的一个实施例示意图;
图6是本申请实施例中提供的目标部位异常形态识别装置的一个实施例结构示意图;
图7是本申请实施例中提供的计算机设备的一个实施例结构示意图;
图8是本申请实施例中提供的对目标部位的表面凹陷特征识别的一个示意图;
图9是本申请实施例中提供的对目标部位的腺管规则特征识别的一个示意图;
图10是本申请实施例中提供的对目标部位的血管规则特征识别的一个示意图;
图11是本申请实施例中提供的对目标部位的血管稀疏特征识别的一个示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个所述特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本申请中,“示例性”一词用来表示“用作例子、例证或说明”。本申请中被描述为“示例性”的任何实施例不一定被解释为比其它实施例更优选或更具优势。为了使本领域任何技术人员能够实现和使用本申请,给出了以下描述。在以下描述中,为了解释的目的而列出了细节。应当明白的是,本领域普通技术人员可以认识到,在不使用这些特定细节的情况下也可以实现本申请。在其它实例中,不会对公知的结构和过程进行详细阐述,以避免不必要的细节使本申请的描述变得晦涩。因此,本申请并非旨在限于所示的实施例,而是与符合本申请所公开的原理和特征的最广范围相一致。
本申请实施例提供一种目标部位异常形态识别方法、装置及计算机可读存储介质,以下分别进行详细说明。
如图1所示,图1是本申请实施例提供的目标部位异常形态识别系统的场景示意图,该目标部位异常形态识别系统可以包括计算机设备100,计算机设备100中集成有目标部位异常形态识别装置,如图1中的计算机设备100。
本申请实施例中计算机设备100主要用于基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态。
本申请实施例中,该计算机设备100可以为终端或者服务器,当计算机设备100为服务器时,可以是独立的服务器,也可以是服务器组成的服务器网络或服务器集群,例如,本申请实施例中所描述的计算机设备100,其包括但不限于计算机、网络主机、单个网络服务器、多个网络服务器集或多个服务器以构建的云服务器。其中,云服务器由基于云计算(Cloud Computing)的大量计算机或网络服务器以构建。
可以理解的是,本申请实施例中计算机设备100为终端时,所使用的终端可以是既包括接收和发射硬件的设备,即具有能够在双向通信链路上,执行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备。具体的计算机设备100具体可以是台式终端或移动终端,计算机设备100具体还可以是手机、平板电脑、笔记本电脑、医疗辅助仪器等中的一种。
本领域技术人员可以理解,图1中示出的应用环境,仅仅是与本申请方案一种应用场景,并不以构建对本申请方案应用场景的限定,其他的应用环境还可以包括比图1中所示更多或更少的计算机设备,例如图1中仅示出1个计算机设备,可以理解的,该目标部位异常形态识别系统还可以包括一个或多个其他计算机设备,具体此处不作限定。
另外,如图1所示,该目标部位异常形态识别系统还可以包括存储器200,用于存储数据,如存储患者的目标部位的目标内镜图像和目标部位异常形态识别数据,例如目标部位异常形态识别系统运行时的目标部位异常形态识别数据。
需要说明的是,图1所示的目标部位异常形态识别系统的场景示意图仅仅是一个示例,本申请实施例描述的目标部位异常形态识别系统以及场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着目标部位异常形态识别系统的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
接下来,介绍本申请实施例提供的目标部位异常形态识别方法。
本申实施例目标部位异常形态识别方法的实施例中以目标部位异常形态识别装置作为执行主体,为了简化与便于描述,后续方法实施例中将省略该执行主体,该目标部位异常形态识别装置应用于计算机设备,该方法包括:基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态。
请参阅图2至图11,图2为本申请实施例中提供的目标部位异常形态识别方法的一个实施例流程示意图,该目标部位异常形态识别方法包括:
201、基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,目标部位为胃部;
其中,深度学习卷积神经网络模型的网络结构优选ResNet50图像分类神经网络,一般情况下,本申请中的内镜图像类型包括放大窄带成像内镜图像(ME-NBI图像)、非ME-NBI图像,具体如下图4所示,其中,左侧的图像即为ME-NBI图像,右侧的图像为非ME-NBI图像。
在本申请的一些实施例中,如图3所示,在基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型之前,所述方法还包括:
301、基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的内镜图像中的有效区域;
其中,深度学习卷积神经网络模型的网络结构优选UNet++图像分割神经网络。
302、裁剪有效区域,得到目标内镜图像。
如图5所示,左侧的图像为裁剪前的内镜图像,右侧的图像即为裁剪后的目标内镜图像。
在本申请的一些实施例中,所述裁剪所述有效区域,得到目标内镜图像,包括:裁剪所述有效区域,得到初始内镜图像;对所述初始内镜图像进行图像质量检测,得到检测结果;若所述检测结果为不符合预设的图像质量检测要求,则对所述初始内镜图像进行图像质量增强处理,得到目标内镜图像。
其中,图像质量检测要求为图像的亮度、清晰度符合预设的阈值要求,例如当初始内镜图像出现过曝时,则不符合预设的图像质量检测要求,或者初始内镜图像出现过暗时,也不符合预设的图像质量检测要求,又或者初始内镜图像中存在局部或整体的清晰度低时,则也不符合预设的图像质量检测要求。
对所述初始内镜图像进行图像质量增强处理,得到目标内镜图像具体包括:当检测结果为不符合预设的图像质量检测要求时,确定导致初始内镜图像不符合预设的图像质量检测要求的问题因素,然后根据该问题因素,确定图像质量调整参数,再根据该图像质量调整参数,对所述初始内镜图像进行图像质量增强处理。其中,问题因素与图像质量调整参数相对应,当问题因素是图像亮度过曝时,则生成过曝调整参数,该过曝调整参数用于将图像亮度过曝区域的亮度值降低;当问题因素时图像亮度过暗时,则生成过暗调整参数,该过暗调整参数用于将图像亮度过暗区域的亮度值升高。
202、若目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定目标内镜图像中目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度;
其中,预设类型要求为放大窄带成像内镜图像类型,在本申请的一些实施例中,所述预设的卷积神经网络的医学特征识别模型集合包括表面凹陷特征识别模型、腺管规则特征识别模型、血管规则特征识别模型以及血管稀疏特征识别模型,其中,上述特征识别模型的网络结构优选ResNet50图像分类神经网络;所述若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,包括:若所述目标内镜图像的类型符合预设类型要求,则基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度,如下图8所示,其中图8左侧为目标部位的表面凹陷,右侧为目标部位的表面非凹陷;基于所述腺管规则特征识别模型,确定所述目标内镜图像中所述目标部位的腺管规则特征的置信度,如下图9所示,其中图9左侧为目标部位的腺管不规则,右侧为目标部位的腺管规则;基于所述血管规则特征识别模型,确定所述目标内镜图像中所述目标部位的血管规则特征的置信度,如下图10所示,其中图10左侧为目标部位的血管不规则,右侧为目标部位的血管规则;基于所述血管稀疏特征识别模型,确定所述目标内镜图像中所述目标部位的血管稀疏特征的置信度,如下图11所示,其中图11左侧为目标部位的血管稀疏,右侧为目标部位的血管紧凑。
在本申请的一些实施例中,在基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度之前,所述方法还包括:获取所述目标部位的表面凹陷特征的图像样本集;将所述图像样本按照预设比例分为训练集和测试集;基于所述训练集、所述测试集以及预设的ResNet50图像分类神经网络模型,确定所述表面凹陷特征识别模型。基于相同的模型训练过程,训练得到腺管规则特征识别模型、血管规则特征识别模型以及血管稀疏特征识别模型。
203、基于目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,确定目标部位的异常程度系数;
其中,需要说明的是,本申请发明人通过长时间的研究,从大量的特征中进行筛选,从而确定了上述多个特征与该目标部位的异常程度存在紧密的关联性,并进一步的对其关联性进行深入研究,其具体情况,请参阅下文内容。
在本申请的一些实施例中,所述基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数,包括:
基于预设的拟合模型,对所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度进行拟合,得到所述目标部位的异常程度系数。其中,该拟合模型可以是通过随机森林、决策树等方法进行拟合训练得到的。
具体的,目标部位的异常程度系数用于确定目标部位的异常的严重程度,具体的,该异常可以包括目标部位出现了疾病的异常(例如,目标部位出现癌化情况),或者异物的异常(例如在目标部位上长了一个息肉)。
本申请以目标部位出现癌化进行举例说明,进一步的,在得到目标部位的异常程度系数后,可以将该异常程度系数与预设的异常程度阈值进行比较,在比较的过程中,当异常程度系数小于该异常程度阈值时,可以确定目标部位正常,即非癌,当异常程度系数大于或等于该异常程度阈值时,可以确定目标部位发生异常,即目标部位出现癌化情况。
204、若目标部位的异常程度系数大于预设的异常程度阈值,则确定目标部位的异常形态。
其中,异常形态指的是确认目标部位已存在异常后的异常形态,例如,本申请以目标出现癌化进行举例说明,其目标部位的异常形态可以是未分化癌的形态、也可以是分化癌的形态。
在本申请的一些实施例中,所述若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态,包括:若所述目标部位的异常程度系数大于预设的异常程度阈值,则采用预设的异常区域的范围识别模型,识别所述目标部位的异常区域的范围,其中,该范围识别模型的网络结构优选UNet++图像分割神经网络;基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态。
在本申请的一些实施例中,所述基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态,包括:基于所述异常区域的范围,确定所述异常区域的轮廓边界;分割所述异常区域的轮廓边界,得到所述异常区域的面积;将所述异常区域的面积与预设的阈值进行比较,得到比较结果,具体的,比较结果包括异常区域的面积大于或等于预设的阈值,以及异常区域的面积小于预设的阈值;基于所述比较结果,确定所述目标部位的异常形态,具体的,当比较结果为异常区域的面积大于或等于预设的阈值,则确定所述目标部位的异常形态为分化癌,当比较结果为异常区域的面积小于预设的阈值,则确定所述目标部位的异常形态为未分化癌。
本申请实施例在现有技术中,无法准确的识别出目标部位异常形态的情况下,通过利用预设的卷积神经网络的医学特征识别模型集合对患者的目标部位的目标内镜图像从多个关联特征进行综合分析,从而确定所述目标部位的异常程度系数,实现了对目标部位的异常程度的数字化,进一步的再对异常程度系数大于预设的异常程度阈值的目标部位进行异常形态的确认,提高了对目标部位异常形态识别的准确性和效率。
为了更好实施本申请实施例中目标部位异常形态识别方法,在目标部位异常形态识别方法基础之上,本申请实施例中还提供一种目标部位异常形态识别装置,如图6所示,所述目标部位异常形态识别装置600包括:
第一识别单元601,用于基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;
第一确定单元602,用于若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;
第二确定单元603,用于基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;
第三确定单元604,用于若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态。
在本申请的一些实施例中,所述第三确定单元604,具体包括:
第二识别单元,用于若所述目标部位的异常程度系数大于预设的异常程度阈值,则采用预设的异常区域的范围识别模型,识别所述目标部位的异常区域的范围;
第四确定单元,用于基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态。
在本申请的一些实施例中,所述第四确定单元,具体用于:
基于所述异常区域的范围,确定所述异常区域的轮廓边界;
分割所述异常区域的轮廓边界,得到所述异常区域的面积;
将所述异常区域的面积与预设的阈值进行比较,得到比较结果;
基于所述比较结果,确定所述目标部位的异常形态。
在本申请的一些实施例中,所述预设的卷积神经网络的医学特征识别模型集合包括表面凹陷特征识别模型、腺管规则特征识别模型、血管规则特征识别模型以及血管稀疏特征识别模型;
所述第一确定单元602,具体用于:
若所述目标内镜图像的类型符合预设类型要求,则基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度;
基于所述腺管规则特征识别模型,确定所述目标内镜图像中所述目标部位的腺管规则特征的置信度;
基于所述血管规则特征识别模型,确定所述目标内镜图像中所述目标部位的血管规则特征的置信度;
基于所述血管稀疏特征识别模型,确定所述目标内镜图像中所述目标部位的血管稀疏特征的置信度。
在本申请的一些实施例中,在基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度之前,所述装置还用于:
获取所述目标部位的表面凹陷特征的图像样本集;
将所述图像样本按照预设比例分为训练集和测试集;
基于所述训练集、所述测试集以及预设的ResNet50图像分类神经网络模型,确定所述表面凹陷特征识别模型。
在本申请的一些实施例中,在基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型之前,所述装置还包括:
第三识别单元,用于基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的内镜图像中的有效区域;
第一剪裁单元,用于裁剪所述有效区域,得到目标内镜图像。
在本申请的一些实施例中,所述第一剪裁单元,具体用于:
裁剪所述有效区域,得到初始内镜图像;
对所述初始内镜图像进行图像质量检测,得到检测结果;
若所述检测结果为不符合预设的图像质量检测要求,则对所述初始内镜图像进行图像质量增强处理,得到目标内镜图像。
在本申请的一些实施例中,所述第二确定单元603,具体用于:
基于预设的拟合模型,对所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度进行拟合,得到所述目标部位的异常程度系数。
本申请实施例在现有技术中,无法准确的识别出目标部位异常形态的情况下,通过利用预设的卷积神经网络的医学特征识别模型集合对患者的目标部位的目标内镜图像从多个关联特征进行综合分析,从而确定所述目标部位的异常程度系数,实现了对目标部位的异常程度的数字化,进一步的再对异常程度系数大于预设的异常程度阈值的目标部位进行异常形态的确认,提高了对目标部位异常形态识别的准确性和效率。
除了上述介绍用于目标部位异常形态识别方法与装置之外,本申请实施例还提供一种计算机设备,其集成了本申请实施例所提供的任一种目标部位异常形态识别装置,所述计算机设备包括:
一个或多个处理器;
存储器;以及
一个或多个应用程序,其中所述一个或多个应用程序被存储于所述存储器中,并配置为由所述处理器执行上述目标部位异常形态识别方法实施例中任一实施例中所述的任一方法的操作。
本申请实施例还提供一种计算机设备,其集成了本申请实施例所提供的任一种目标部位异常形态识别装置。如图7所示,其示出了本申请实施例所涉及的计算机设备的结构示意图,具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理器701、一个或一个以上计算机可读存储介质的存储单元702、电源703和输入单元704等部件。本领域技术人员可以理解,图7中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器701是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储单元702内的软件程序和/或模块,以及调用存储在存储单元702的数据,执行计算机设备的各种功能和处理数据,从而对计算机设备进行整体监控。可选的,处理器701可包括一个或多个处理核心;优选的,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器701中。
存储单元702可用于存储软件程序以及模块,处理器701通过运行存储在存储单元702的软件程序以及模块,从而执行各种功能应用以及数据处理。存储单元702可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储单元702可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储单元702还可以包括存储器控制器,以提供处理器701对存储单元702的访问。
计算机设备还包括给各个部件供电的电源703,优选的,电源703可以通过电源管理系统与处理器701逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源703还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该计算机设备还可包括输入单元704,该输入单元704可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本申请实施例中,计算机设备中的处理器701会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储单元702中,并由处理器701来运行存储在存储单元702中的应用程序,从而实现各种功能,如下:
基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态。
本申请实施例在现有技术中,无法准确的识别出目标部位异常形态的情况下,通过利用预设的卷积神经网络的医学特征识别模型集合对患者的目标部位的目标内镜图像从多个关联特征进行综合分析,从而确定所述目标部位的异常程度系数,实现了对目标部位的异常程度的数字化,进一步的再对异常程度系数大于预设的异常程度阈值的目标部位进行异常形态的确认,提高了对目标部位异常形态识别的准确性和效率。
为此,本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random AccessMemory)、磁盘或光盘等。该计算机可读存储介质中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种目标部位异常形态识别方法中的步骤。例如,该指令可以执行如下步骤:
基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
以上对本申请实施例所提供的一种目标部位异常形态识别方法、装置及计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (9)
1.一种目标部位异常形态识别方法,其特征在于,所述方法包括:
基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;
若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;
基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;
若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态;
其中,所述若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态,包括:
若所述目标部位的异常程度系数大于预设的异常程度阈值,则采用预设的异常区域的范围识别模型,识别所述目标部位的异常区域的范围;
基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态;
其中,所述基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态,包括:
基于所述异常区域的范围,确定所述异常区域的轮廓边界;
分割所述异常区域的轮廓边界,得到所述异常区域的面积;
将所述异常区域的面积与预设的阈值进行比较,得到比较结果;
基于所述比较结果,确定所述目标部位的异常形态。
2.根据权利要求1所述的目标部位异常形态识别方法,其特征在于,所述预设的卷积神经网络的医学特征识别模型集合包括表面凹陷特征识别模型、腺管规则特征识别模型、血管规则特征识别模型以及血管稀疏特征识别模型;
所述若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,包括:
若所述目标内镜图像的类型符合预设类型要求,则基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度;
基于所述腺管规则特征识别模型,确定所述目标内镜图像中所述目标部位的腺管规则特征的置信度;
基于所述血管规则特征识别模型,确定所述目标内镜图像中所述目标部位的血管规则特征的置信度;
基于所述血管稀疏特征识别模型,确定所述目标内镜图像中所述目标部位的血管稀疏特征的置信度。
3.根据权利要求2所述的目标部位异常形态识别方法,其特征在于,在基于所述表面凹陷特征识别模型,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度之前,所述方法还包括:
获取所述目标部位的表面凹陷特征的图像样本集;
将所述图像样本按照预设比例分为训练集和测试集;
基于所述训练集、所述测试集以及预设的ResNet50图像分类神经网络模型,确定所述表面凹陷特征识别模型。
4.根据权利要求1所述的目标部位异常形态识别方法,其特征在于,在基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型之前,所述方法还包括:
基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的内镜图像中的有效区域;
裁剪所述有效区域,得到目标内镜图像。
5.根据权利要求4所述的目标部位异常形态识别方法,其特征在于,所述裁剪所述有效区域,得到目标内镜图像,包括:
裁剪所述有效区域,得到初始内镜图像;
对所述初始内镜图像进行图像质量检测,得到检测结果;
若所述检测结果为不符合预设的图像质量检测要求,则对所述初始内镜图像进行图像质量增强处理,得到目标内镜图像。
6.根据权利要求1所述的目标部位异常形态识别方法,其特征在于,所述基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数,包括:
基于预设的拟合模型,对所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度进行拟合,得到所述目标部位的异常程度系数。
7.一种目标部位异常形态识别装置,其特征在于,所述装置包括:
第一识别单元,用于基于预设的深度学习卷积神经网络模型,识别预先获取针对患者的目标部位的目标内镜图像的类型,所述目标部位为胃部;
第一确定单元,用于若所述目标内镜图像的类型符合预设类型要求,则基于预设的卷积神经网络的医学特征识别模型集合,确定所述目标内镜图像中所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及血管稀疏特征的置信度,所述预设类型要求为放大窄带成像内镜图像类型;
第二确定单元,用于基于所述目标部位的表面凹陷特征的置信度、腺管规则特征的置信度、血管规则特征的置信度以及所述血管稀疏特征的置信度,确定所述目标部位的异常程度系数;
第三确定单元,用于若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态;
其中,所述若所述目标部位的异常程度系数大于预设的异常程度阈值,则确定所述目标部位的异常形态,包括:
若所述目标部位的异常程度系数大于预设的异常程度阈值,则采用预设的异常区域的范围识别模型,识别所述目标部位的异常区域的范围;
基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态;
其中,所述基于所述目标部位的异常区域的范围,确定所述目标部位的异常形态,包括:
基于所述异常区域的范围,确定所述异常区域的轮廓边界;
分割所述异常区域的轮廓边界,得到所述异常区域的面积;
将所述异常区域的面积与预设的阈值进行比较,得到比较结果;
基于所述比较结果,确定所述目标部位的异常形态。
8.一种计算机设备,其特征在于,所述计算机设备包括:
一个或多个处理器;
存储器;以及
一个或多个应用程序,其中所述一个或多个应用程序被存储于所述存储器中,并配置为由所述处理器执行以实现权利要求1至6任一项所述的目标部位异常形态识别方法中的步骤。
9.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行权利要求1至6任一项所述的目标部位异常形态识别方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211326812.6A CN115393356B (zh) | 2022-10-27 | 2022-10-27 | 目标部位异常形态识别方法、装置及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211326812.6A CN115393356B (zh) | 2022-10-27 | 2022-10-27 | 目标部位异常形态识别方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115393356A CN115393356A (zh) | 2022-11-25 |
CN115393356B true CN115393356B (zh) | 2023-02-03 |
Family
ID=84128210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211326812.6A Active CN115393356B (zh) | 2022-10-27 | 2022-10-27 | 目标部位异常形态识别方法、装置及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393356B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116433050B (zh) * | 2023-04-26 | 2023-10-24 | 同心县京南惠方农林科技有限公司 | 应用于农业大数据管理系统的异常报警方法及系统 |
CN116430817B (zh) * | 2023-04-26 | 2023-09-29 | 同心县启胜新能源科技有限公司 | 应用于光伏组件生产系统的数据采集处理方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111784669A (zh) * | 2020-06-30 | 2020-10-16 | 长沙理工大学 | 一种胶囊内镜图像多病灶检测方法 |
CN112435246A (zh) * | 2020-11-30 | 2021-03-02 | 武汉楚精灵医疗科技有限公司 | 窄带成像放大胃镜下胃癌的人工智能诊断方法 |
CN112614131A (zh) * | 2021-01-10 | 2021-04-06 | 复旦大学 | 基于形变表示学习的病理图像分析方法 |
US11024031B1 (en) * | 2020-02-13 | 2021-06-01 | Olympus Corporation | System and method for diagnosing severity of gastric cancer |
KR20220095342A (ko) * | 2020-12-29 | 2022-07-07 | 아주대학교산학협력단 | Ct 영상을 이용한 갑상선 암의 림프절 전이 진단 방법 및 진단 시스템 |
-
2022
- 2022-10-27 CN CN202211326812.6A patent/CN115393356B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11024031B1 (en) * | 2020-02-13 | 2021-06-01 | Olympus Corporation | System and method for diagnosing severity of gastric cancer |
CN111784669A (zh) * | 2020-06-30 | 2020-10-16 | 长沙理工大学 | 一种胶囊内镜图像多病灶检测方法 |
CN112435246A (zh) * | 2020-11-30 | 2021-03-02 | 武汉楚精灵医疗科技有限公司 | 窄带成像放大胃镜下胃癌的人工智能诊断方法 |
KR20220095342A (ko) * | 2020-12-29 | 2022-07-07 | 아주대학교산학협력단 | Ct 영상을 이용한 갑상선 암의 림프절 전이 진단 방법 및 진단 시스템 |
CN112614131A (zh) * | 2021-01-10 | 2021-04-06 | 复旦大学 | 基于形变表示学习的病理图像分析方法 |
Non-Patent Citations (2)
Title |
---|
Application of artificial intelligence using a convolutional neural network for diagnosis of early gastric cancer based on magnifying endoscopy with narrow-band imaging;Hiroya Ueyama等;《Journal of Gastroenterology and Hepatology》;20200728;第36卷;483,485-488 * |
人工智能模型辅助结直肠镜下息肉实时诊断的相关进展;付梓龙等;《中国医师进修杂志》;20210430;第44卷(第04期);376-380 * |
Also Published As
Publication number | Publication date |
---|---|
CN115393356A (zh) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115393356B (zh) | 目标部位异常形态识别方法、装置及计算机可读存储介质 | |
CN108038875B (zh) | 一种肺部超声图像识别方法和装置 | |
JP5744631B2 (ja) | 診療支援装置、診療支援方法 | |
CN114283494A (zh) | 一种用户跌倒预警方法、装置、设备和存储介质 | |
WO2021189900A1 (zh) | 医学图像分析方法、装置、电子设备及可读存储介质 | |
CN114464316B (zh) | 胃部异常风险等级预测方法、装置、终端及可读存储介质 | |
KR102245219B1 (ko) | 의료 영상에서 악성의심 병변을 구별하는 방법, 이를 이용한 의료 영상 판독 방법 및 컴퓨팅 장치 | |
CN110648318A (zh) | 用于皮肤病的辅助分析方法及装置、电子设备、存储介质 | |
CN113643299B (zh) | 微血管的弯曲程度量化方法、装置及计算机可读存储介质 | |
CN113344926B (zh) | 胆胰超声图像识别方法、装置、服务器及存储介质 | |
CN111583217A (zh) | 一种肿瘤消融疗效预测方法、装置、设备及计算机介质 | |
CN114419135B (zh) | 胰腺标志物尺寸量化方法、装置、终端及可读存储介质 | |
CN114419050B (zh) | 胃黏膜可视化程度量化方法、装置、终端及可读存储介质 | |
CN113610841B (zh) | 一种血管异常图像识别方法、装置、电子设备和存储介质 | |
CN114119645B (zh) | 一种图像分割质量的确定方法、系统、设备及介质 | |
CN114187281A (zh) | 一种图像处理方法、装置、电子设备和存储介质 | |
CN115553753B (zh) | 胆结石的风险预警装置及相关设备 | |
CN115661150B (zh) | 鼻咽腔内镜图像异常的识别方法及装置 | |
CN114529544B (zh) | 医学图像分析方法、计算机设备及存储介质 | |
CN114511045B (zh) | 图像处理方法、装置、终端及计算机可读存储介质 | |
JP2004283188A (ja) | 画像診断支援装置、画像診断支援方法、プログラム及び記憶媒体 | |
CN115393230B (zh) | 超声内镜图像标准化方法、装置及其相关装置 | |
CN114359280B (zh) | 胃黏膜图像边界量化方法、装置、终端及存储介质 | |
CN114240880A (zh) | 医学扫描数据处理方法、装置、医疗设备以及存储介质 | |
CN113239992B (zh) | 血管分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |