CN116258686A - 基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法 - Google Patents

基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法 Download PDF

Info

Publication number
CN116258686A
CN116258686A CN202310084037.6A CN202310084037A CN116258686A CN 116258686 A CN116258686 A CN 116258686A CN 202310084037 A CN202310084037 A CN 202310084037A CN 116258686 A CN116258686 A CN 116258686A
Authority
CN
China
Prior art keywords
colon polyp
typing
detection model
colon
polyp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310084037.6A
Other languages
English (en)
Inventor
李汛
朱兴旺
严俊
苗龙
何英丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
First Hospital of Lanzhou University
Original Assignee
First Hospital of Lanzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by First Hospital of Lanzhou University filed Critical First Hospital of Lanzhou University
Priority to CN202310084037.6A priority Critical patent/CN116258686A/zh
Publication of CN116258686A publication Critical patent/CN116258686A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • G06T2207/30032Colon polyp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/032Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,包括以下步骤:数据集的建立,包括数据收集和图像标注;数据集的处理,划分数据集,将数据集分为训练集、测试集和验证集;搭建深度学习框架,采用YOLOv5目标检测算法构建模型;结肠息肉分型检测模型的构建,根据训练集数据配置YOLOv5相关模型参数,完成模型参数配置;模型中输入验证集数据,当计算验证集的输出与其对应标签的总体误差小于上一次迭代训练时的误差时,构建得到结肠息肉分型检测模型。人工智能技术与结肠息肉分型检测模型的建立相结合,能在结肠镜检查过程中实时发现结肠息肉,识别结肠息肉分型,预测结肠息肉的病理分型,为临床医师提供可靠的帮助。

Description

基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法
技术领域
本发明是关于智能医疗的技术领域,特别是关于一种基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法。
背景技术
结肠息肉JNET分型作为结肠息肉内镜分型的一种,主要分为3型,其中2型包括2A型和2B型;JNET 1型:内镜下无血管或病灶表面仅有孤立的丝状血管,表面有黑色或白色圆点,与周围正常黏膜相似,病理提示增生性息肉或无蒂锯齿状腺瘤;JNET 2A型:微血管粗细、分布均规则,可呈网格或螺旋状,表面有规则的管状、分支状或乳头状结构,一般可提示低级别上皮内瘤变;JNET 2B型:血管的粗细和分布均不规则,表面结构模糊不清,一般提示为黏膜下浅层浸润癌或高级别上皮内瘤变;JNET 3型:血管区域较为稀疏,可有中断的较粗血管,表面为无定型区域,常提示为黏膜下深层浸润癌。
近年随着内镜应用的普及、内镜操作技术的不断改进和新技术的不断开发,单纯的内镜下治疗成为结肠息肉分型的首选检查方法,它具有安全、有效、方便且创伤小的优点,但同时也存在出血和穿孔等并发症。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容
本发明的目的在于提供基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,其能够避免内镜检测结肠息肉分型时出现的出血和穿孔的现象。
为实现上述目的,本发明提供了基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,包括以下步骤:
S1、数据集的建立,包括数据收集和图像标注,收集结肠息肉内镜下的图片,并且根据图片中息肉表面腺管及毛细血管的特征按JNET分型标准及病理结果对获得结肠息肉图片进行分类;将收集的各类结肠息肉图片统一存储格式,使用图像标注工具对分类整理好的结肠息肉图像进行标注处理,使用Python编写脚本,制作VOC数据集;
S2、数据集的处理,划分数据集,将VOC数据集按照JNET分型将结肠息肉进行分类,以6:2:2的比例将数据集分为训练集、测试集和验证集;
S3、搭建深度学习框架,在Ubuntu系统下安装Python3.7,安装配置结肠息肉分型检测模型运行的深度学习所需要的环境,采用YOLOv5目标检测算法构建模型,能够对结肠息肉定位并对结肠息肉表面特征提取并增强、融合,准确提取和输出结肠息肉表面特征并进行分类;
S4、结肠息肉分型检测模型的构建,根据所述VOC数据集的训练集数据配置YOLOv5相关模型参数,配置相关模型参数进行模型训练,根据结肠息肉分型种类修改classes相关参数,完成模型参数配置,进行模型迭代训练,计算所有迭代训练输出与对应标签的总体误差;模型中输入验证集数据,当计算验证集的输出与其对应标签的总体误差小于上一次迭代训练时的误差时,构建得到结肠息肉分型检测模型。
进一步地,步骤S1中,将收集的各类结肠息肉图片统一存储格式后,需要进行图像缩放,对图片进行像素均值归一化。
优选地,步骤S1中,使用图像标注工具对分类整理好的结肠息肉图像进行标注处理,使用矩形框标注出图片中的结肠息肉,根据图片尺寸、矩形框坐标、结肠息肉JNET分型信息生成XML格式文档,使用Python编写脚本将XML格式文档转换为TXT格式文件,制作VOC数据集,转换完的TXT格式文件记录着每张图片中的JNET分型信息、病变类别信息以及坐标信息。
优选地,步骤S2中,所述训练集用于结肠息肉分型检测模型的训练和保存结肠息肉分型检测模型的参数,所述验证集用于评估结肠息肉分型检测模型的效果和调整结肠息肉分型检测模型的参数,所述测试集用于验证结肠息肉分型检测模型的最终效果。
进一步地,步骤S3中,YOLOv5包含
输入端,用于对所述训练集进行数据增强操作,先使用改变图片的亮度、对比度和饱和度方法来增加训练集中的图片数量,再使用mosaic算法将训练集中的图片进行拼接,丰富训练集中的数据,达到数据增强的目的;
Backbone模块,用于使结肠息肉分型检测模型轻量化和增强准确性,由Focus结构和CSP结构组成;
Neck模块,用于通过向上采样的方法将上层的特征进行传输融合,从而得到预测特征图,由FPN和PAN组成;
Prediction模块,用于生成带有类的概率、目标得分和坐标的输出向量,输出预测结果。
进一步地,步骤S4中,计算所有迭代训练输出与对应标签的总体误差之后,采用BP算法将所有迭代训练输出与对应标签的总体误差反馈至深度学习框架各层,结合loss曲线和该总体误差采用梯度下降法调整深度学习框架的参数。
进一步地,还包括步骤:
S5,结肠息肉分型检测模型的效能评估,使用测试集数据对结肠息肉分型检测模型的检测效能进行评估,输出预测结果。
与现有技术相比,根据本发明的基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,具有如下有益效果:
能够提取并增强息肉表面毛细血管和腺管特征,将人工智能技术与结肠息肉分型检测模型的建立相结合,能在结肠镜检查过程中实时发现结肠息肉,识别结肠息肉分型,借助YOLOV5目标检测算法,通过使用损失函数计算模型输出的模型训练预算结果,判断到训练预算结果与真实标注结果之间的误差,更新模型的神经网络中的参数,准确率达到93%,提高结肠息肉JNET分型检测的准确率。
附图说明
图1是根据本发明一实施方式的基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法的流程图;
图2是根据本发明一实施方式的未调整模型参数前的结肠息肉分型检测模型的P-R曲线图;
图3是根据本发明一实施方式的数据增强及调整模型参数后的结肠息肉分型检测模型的P-R曲线图;
图4是根据本发明一实施方式的结肠息肉分型检测模型的检测结果示意图。
具体实施方式
下面结合附图,对本发明的具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
除非另有其它明确表示,否则在整个说明书和权利要求书中,术语“包括”或其变换如“包含”或“包括有”等等将被理解为包括所陈述的元件或组成部分,而并未排除其它元件或其它组成部分。
根据本发明优选实施方式的一种基于图像卷积特征捕捉的结肠息肉分型模型的建立方法,能够提取并增强息肉表面毛细血管和腺管特征,将人工智能技术与结肠息肉分型模型的建立相结合,识别结肠息肉分型,提高结肠息肉JNET分型识别的准确率。
如图1所示,基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,包括以下步骤:
S1、数据集的建立
数据收集,获取结肠息肉内镜下的图片,包括增生性息肉、癌前息肉、结直肠早癌、癌等类型病灶内镜下的图片,所收集图片中的结肠息肉必须是经病理检查的结肠息肉图像,并根据息肉表面腺管及毛细血管的特征按内镜JNET分型标准及病理结果对获得息肉图片进行分类;
图像标注,将收集的各类结肠息肉图片统一存储格式,并对图片重命名。使用图像标注工具对整理好的结肠息肉图像进行标注处理,使用矩形框标注出图片中的结肠息肉,根据图像尺寸、矩形框坐标、结肠息肉JNET分型等信息生成XML格式文档,其中图像标注工具可以为labelImg、Labelme、Vatic、Sloth等能用于目标检测任务数据集制作的软件,本实施例中使用的图像标注工具是labelImg;使用Python编写脚本将XML格式文档转换为TXT格式文件,制作VOC数据集,转换完的TXT格式文件记录着每张图片中的JNET分型信息、病变类别信息以及坐标信息。
S2、数据集的处理
数据划分,训练神经网络时训练集样本量太小会使网络出现过拟合现象而影响模型的训练效果,如果验证集和测试集的样本量太小则难以评估模型的识别效果,划分数据集时要尽量使训练集拥有足够多的样本而又不与验证集和测试集失衡;
因此将VOC数据集按照JNET分型将结肠息肉进行分类,以6:2:2的比例将数据集分为训练集、测试集和验证集,训练集用于模型训练和保存模型参数,验证集用于评估模型效果、调整模型参数,测试集用于验证模型最终效果。
S3、搭建深度学习框架
搭建深度学习框架即骨干网络,在Ubuntu系统下安装Python3.7,anaconda,最后安装配置模型运行的深度学习所需要的环境;采用YOLOv5目标检测算法构建模型,YOLO是一种one-stage的目标检测网络,将整幅图片划分为n×n个网格并在每个网格中生成若干个预测框来完成目标的检测,因此有着更快的检测速度,YOLOv5包含输入端、Backbone模块、Neck模块、Prediction模块,可对结肠息肉定位并对表面特征提取并增强、融合,准确提取和输出息肉表面特征并进行分类;
输入端:对训练集进行数据增强操作,先使用改变图片的亮度、对比度和饱和度方法来增加训练集中的图片数量,再使用mosaic算法将训练集中的图片进行拼接,丰富训练集中的数据,达到数据增强的目的;自适应锚框计算网络在初始锚框的基础上输出预测框,进而和真实框进行比对,计算两者差距,再反向迭代,更新网络参数;由于内窥镜的设备不同,所输出的结肠息肉的图片分辨率也不同,为了方便后续的特征提取,YOLOv5系统对输入图片进行自适应缩放同一尺寸(640x640)放入模型进行训练;
Backbone模块:由Focus结构和CSP结构组成,CSP结构应用于主干特征提取网络中,增强网络的学习能力,使得训练出的模型,既能保持轻量化,又能有较高的准确性;
Neck模块:由FPN和PAN组成,FPN自上而下将高层的特征向下传递,补充低层的语义,使得具有高分辨率的低层网络获得强语义的高层特征,更有利于小目标的检测。PAN将融合后的特征自底部向上传递,使得顶层的网络也能得到底层网络带来的位置信息,从而提升大目标检测的效果,增加特征提取的能力。
Prediction模块:生成带有类的概率、目标得分和坐标的输出向量,最后输出预测结果;
上述深度学习框架可以为Pytorch、Darknet、Tensorflow、Caff等中的一种,本实施例中使用的深度学习框架是Pytorch,利用深度学习框架可以对处理后的图像数据进行训练。
S4、结肠息肉分型检测模型的构建
根据VOC数据集的训练集配置YOLOv5相关模型参数,配置相关模型参数进行模型训练,根据结肠息肉分型种类修改classes(类)相关参数;系统自动配置参数,预设模型超参数:学习率为0.01,学习迭代次数为1000,学习率动量为0.937,权重衰减系数为0.0005、余弦退火为0.01;数据增强参数:hsv_h=0.015、hsv_s=0.7、hsv_v=0.4;更新模型参数,使用遗传算法对上述的超参数进行更新;
完成模型参数配置,进行模型训练,每一次迭代训练完成后,计算所有输出与对应标签的总体误差,并采用BP算法将误差反馈至各层,结合loss曲线和该总体误差采用梯度下降法调整网络参数;模型还将输入验证集数据,并计算基于验证集的输出与其对应标签的总体误差,如果当前误差小于上一次迭代时的误差,则视为最优的结肠息肉分型检测模型,则保存当前的网络模型结肠息肉分型检测模型;此实例在操作过程中迭代次数到达345次时,误差不再改变。
S5、结肠息肉分型检测模型的效能评估
使用测试集对结肠息肉分型检测模型的检测效能进行评估,深度学习模型训练完自动生成并输出预测结果,如图2所示,为结肠息肉分型检测模型未调整网格参数前的P-R曲线,如图3所示,为结肠息肉分型检测模型数据增强及调整网格参数后的P-R曲线。
本结肠息肉分型检测模型的检测效能:真阳性(TP);假阳性(FP);真阴性(TN);假阴性(FN);准确率(ACC):TP+TN/TP+TN+FP+FN;精确率(PPV):TP/TP+FP;灵敏度(TPR):TP/TP+FN;特异度(TNR):TN/TN+FP。TP=1651;FP=3;TN=227;FN=141;ACC=0.928;PPV=0.998;TPR=0.921;TNR=0.986。
如图4所示,为为结肠息肉分型检测模型的实时检测示意图,在实际使用中可以精确的定位病灶的位置并预测病理类型,其中JNET 1型(增生性息肉)H1;JNET 2A型(管状腺瘤伴低级别内瘤变)H2;JNET 2B型(管状腺瘤伴高级别内瘤变)H3;JNET 3型(癌)H4。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。

Claims (7)

1.一种基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,其特征在于,包括以下步骤:
S1、数据集的建立,包括数据收集和图像标注,收集结肠息肉内镜下的图片,并且根据图片中息肉表面腺管及毛细血管的特征按JNET分型标准及病理结果对获得结肠息肉图片进行分类;将收集的各类结肠息肉图片统一存储格式,使用图像标注工具对分类整理好的结肠息肉图像进行标注处理,使用Python编写脚本,制作VOC数据集;
S2、数据集的处理,划分VOC数据集,将VOC数据集按照JNET分型将结肠息肉进行分类,以6:2:2的比例将VOC数据集分为训练集、测试集和验证集;
S3、搭建深度学习框架,在Ubuntu系统下安装Python3.7,安装配置结肠息肉分型检测模型运行的深度学习所需要的环境,采用YOLOv5目标检测算法构建模型,能够对结肠息肉定位并对结肠息肉表面特征提取并增强、融合,准确提取和输出结肠息肉表面特征并进行分类;
S4、结肠息肉分型检测模型的构建,根据所述VOC数据集的训练集数据配置YOLOv5相关模型参数,配置相关模型参数进行模型训练,根据结肠息肉分型种类修改classes相关参数,完成模型参数配置,进行模型迭代训练,计算所有迭代训练输出与对应标签的总体误差;模型中输入验证集数据,当计算验证集的输出与其对应标签的总体误差小于上一次迭代训练时的误差时,构建得到结肠息肉分型检测模型。
2.如权利要求1所述的基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,其特征在于,步骤S1中,将收集的各类结肠息肉图片统一存储格式后,需要进行图像缩放,对图片进行像素均值归一化。
3.如权利要求1所述的基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,其特征在于,步骤S1中,使用图像标注工具对分类整理好的结肠息肉图像进行标注处理,使用矩形框标注出图片中的结肠息肉,根据图片尺寸、矩形框坐标、结肠息肉JNET分型信息生成XML格式文档,使用Python编写脚本将XML格式文档转换为TXT格式文件,制作VOC数据集,转换完的TXT格式文件记录着每张图片中的JNET分型信息、病变类别信息以及坐标信息。
4.如权利要求1所述的基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,其特征在于,步骤S2中,所述训练集用于结肠息肉分型检测模型的训练和保存结肠息肉分型检测模型的参数,所述验证集用于评估结肠息肉分型检测模型的效果和调整结肠息肉分型检测模型的参数,所述测试集用于验证结肠息肉分型检测模型的最终效果。
5.如权利要求1所述的基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,其特征在于,步骤S3中,YOLOv5包含
输入端,用于对所述训练集进行数据增强操作,先使用改变图片的亮度、对比度和饱和度方法来增加训练集中的图片数量,再使用mosaic算法将训练集中的图片进行拼接,丰富训练集中的数据,达到数据增强的目的;
Backbone模块,用于使结肠息肉分型检测模型轻量化和增强准确性,由Focus结构和CSP结构组成;
Neck模块,用于通过向上采样的方法将上层的特征进行传输融合,从而得到预测特征图,由FPN和PAN组成;
Prediction模块,用于生成带有类的概率、目标得分和坐标的输出向量,输出预测结果。
6.如权利要求1所述的基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,其特征在于,步骤S4中,计算所有迭代训练输出与对应标签的总体误差之后,采用BP算法将所有迭代训练输出与对应标签的总体误差反馈至深度学习框架各层,结合loss曲线和该总体误差采用梯度下降法调整深度学习框架的参数。
7.如权利要求1所述的基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法,其特征在于,还包括步骤:
S5,结肠息肉分型检测模型的效能评估,使用测试集数据对结肠息肉分型检测模型的检测效能进行评估,输出预测结果。
CN202310084037.6A 2023-02-08 2023-02-08 基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法 Pending CN116258686A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310084037.6A CN116258686A (zh) 2023-02-08 2023-02-08 基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310084037.6A CN116258686A (zh) 2023-02-08 2023-02-08 基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法

Publications (1)

Publication Number Publication Date
CN116258686A true CN116258686A (zh) 2023-06-13

Family

ID=86687384

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310084037.6A Pending CN116258686A (zh) 2023-02-08 2023-02-08 基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法

Country Status (1)

Country Link
CN (1) CN116258686A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740507A (zh) * 2023-08-02 2023-09-12 中科星图测控技术股份有限公司 一种基于arm架构的空间目标检测模型构建方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740507A (zh) * 2023-08-02 2023-09-12 中科星图测控技术股份有限公司 一种基于arm架构的空间目标检测模型构建方法

Similar Documents

Publication Publication Date Title
US11681418B2 (en) Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
CN108090906B (zh) 一种基于区域提名的宫颈图像处理方法及装置
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN111401384B (zh) 一种变电设备缺陷图像匹配方法
CN110427836B (zh) 一种基于多尺度优化的高分辨率遥感影像水体提取方法
CN111950453A (zh) 一种基于选择性注意力机制的任意形状文本识别方法
CN111178120B (zh) 一种基于作物识别级联技术的害虫图像检测方法
CN108830149B (zh) 一种目标细菌的检测方法及终端设备
WO2023045231A1 (zh) 一种解耦分治的面神经分割方法和装置
CN114998220B (zh) 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN106951928A (zh) 一种甲状腺乳头状癌的超声图像识别方法及装置
CN110659601B (zh) 基于中心点的深度全卷积网络遥感图像密集车辆检测方法
CN109242826B (zh) 基于目标检测的移动设备端签状物根数计数方法及系统
CN111080639A (zh) 基于人工智能的多场景消化道内镜图像识别方法及系统
CN111539456B (zh) 一种目标识别方法及设备
CN115205520A (zh) 胃镜图像智能目标检测方法、系统、电子设备及存储介质
CN116543386A (zh) 一种基于卷积神经网络的农业病虫害图像识别方法
CN116258686A (zh) 基于图像卷积特征捕捉的结肠息肉分型检测模型建立方法
CN116740758A (zh) 一种防止误判的鸟类图像识别方法及系统
CN115082922A (zh) 基于深度学习的水表数字图片处理方法及系统
CN114926826A (zh) 场景文本检测系统
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
CN103268494B (zh) 基于稀疏表示的寄生虫虫卵识别方法
CN111210417A (zh) 基于卷积神经网络的布匹缺陷检测方法
CN110826565A (zh) 基于跨连接的卷积神经网络齿痕舌象分类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination