CN116342627B - 一种基于多实例学习的肠上皮化生区域图像分割系统 - Google Patents

一种基于多实例学习的肠上皮化生区域图像分割系统 Download PDF

Info

Publication number
CN116342627B
CN116342627B CN202310579235.XA CN202310579235A CN116342627B CN 116342627 B CN116342627 B CN 116342627B CN 202310579235 A CN202310579235 A CN 202310579235A CN 116342627 B CN116342627 B CN 116342627B
Authority
CN
China
Prior art keywords
image
intestinal
metaplasia
max
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310579235.XA
Other languages
English (en)
Other versions
CN116342627A (zh
Inventor
刘治
段冠华
崔笑笑
曹艳坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN202310579235.XA priority Critical patent/CN116342627B/zh
Publication of CN116342627A publication Critical patent/CN116342627A/zh
Application granted granted Critical
Publication of CN116342627B publication Critical patent/CN116342627B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种基于多实例学习的肠上皮化生区域图像分割系统,涉及医学图像分析技术领域,包括获取模块,用于获取胃部病理切片,并将其转为数字病理切片,并进行正常标签和异常肠化标签的图像级标注,获得标注信息及图片;预处理模块,用于对标注后的数字病理切片进行归一化并将每张图像切分为网格实例;输出模块,用于将数字病理切片输入至训练后的肠上皮化生区域分割模型,得到肠上皮化生区域分割结果;本公开基于多实例学习,从而摆脱了受像素级标签的计算资源限制,可充分利用图像特征和多尺度信息,实现端到端的肠化区域分割。

Description

一种基于多实例学习的肠上皮化生区域图像分割系统
技术领域
本公开涉及医学图像分析技术领域,具体涉及一种基于多实例学习的肠上皮化生区域图像分割系统。
背景技术
近年来,利用有监督学习进行医疗图像的自动识别应用越来越广泛,但是在该领域中无法忽视的问题是专业医疗图像的精细标注的获取成本非常巨大。同时因为胃部病理图像中病灶区域复杂多变,且存在着噪声干扰,使得高精度的图像分割成为一项具有挑战性的任务。此外,目前有像素级标签的图像数据集中病理图像数量较少且病理图像的尺寸都比较大,受计算资源的限制,模型往往不能充分利用图像特征和多尺度信息。
发明内容
本公开为了解决上述问题,提出了一种基于多实例学习的肠上皮化生区域图像分割系统,基于多实例学习,充分利用图像特征和多尺度信息,使用图像级标签分割出数字病理图像的目标区域,提高了图像分割的准确度。
根据一些实施例,本公开采用如下技术方案:
一种基于多实例学习的肠上皮化生区域图像分割系统,包括:
获取模块,用于获取胃部病理切片,并将其转为数字病理切片,并进行正常标签和异常肠化标签的图像级标注,获得标注信息及图片;
预处理模块,用于对标注后的数字病理切片进行归一化并将每张图像切分为网格实例;
输出模块,用于将数字病理切片输入至训练后的肠上皮化生区域分割模型,得到肠上皮化生区域分割结果;
其中,所述深度分割模型的训练方法为使用基于ViT分类器的Max-Max(机会最大化)模型和Max-Min(最大最小化)模型,用实例数据集进行分类,得到全监督的实例图像级标签数据集;使用独立的ViT分类器,对全监督的实例图像级标签数据集进行学习,得到可重新标记所有图像各实例的分类器,并使用该分类器对所有实例进行分类,得到可用于分割的胃黏膜肠上皮化生数据集;利用重新标记的实例数据集,使用深度分割模型进行学习,得到训练后的肠上皮化生区域分割模型。
与现有技术相比,本公开的有益效果为:
本公开可以基于图像级标签分割出数字病理切片中肠化区域,从而得到肠上皮化生的严重程度,减少人工像素级标注所消耗的人力、物力,缩短了评估的总体时间,并提高了分割的准确度;
本公开基于多实例学习,从而摆脱了受像素级标签的计算资源限制,可充分利用图像特这个和多尺度信息,实现端到端的肠化区域分割。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1为本公开实施例的基于多实例学习的模型训练总体流程图;
图2为本公开实施例的基于多实例学习的肠化区域标签丰富示意图;
图3为本公开实施例的基于多实例学习的肠化区域分割流程示意图;
图4为本公开实施例的ViT网络结构流程示意图;
图5为本公开实施例的Max-Max模型结构;
图6为本公开实施例的Max-Min模型结构。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
术语解释
ViT:VisionTransformer,ViT本质为transformer encoder网络,编码器网络。
实施例1
本公开的一种实施例中提供了一种基于多实例的一种基于多实例学习的肠上皮化生区域图像分割系统,包括:
获取模块,用于获取胃部病理切片,并将其转为数字病理切片,并进行正常标签和异常肠化标签的图像级标注,获得标注信息及图片;
预处理模块,用于对标注后的数字病理切片进行归一化并将每张图像切分为网格实例;
输出模块,用于将数字病理切片输入至训练后的深度分割模型,得到肠上皮化生区域分割结果;
其中,所述深度分割模型的训练方法为使用基于ViT分类器的Max-Max模型和Max-Min模型,用实例数据集进行分类,得到全监督的实例图像级标签数据集;使用独立的ViT分类器,对全监督的实例图像级标签数据集进行学习,得到可重新标记所有图像各实例的分类器,并使用该分类器对所有实例进行分类,得到可用于分割的胃黏膜肠上皮化生数据集;利用重新标记的实例数据集,使用深度分割模型进行学习,得到训练后的肠上皮化生区域分割模型。
作为一种实施例,一种基于多实例学习的肠化区域图像分深度分割模型的训练步骤为:
S1:获取数据集,包括:获取胃部病理切片,并对非肿瘤区域的胃部病理切片进行图像级标注,包括正常阴性标签和肠化阳性标签。对标注后的胃部病理切片resize(调整)成M×M大小,并使用Macenko(麦氏)染色归一化方法对实例图像数据集进行标准化处理,将特征值大小调整到相近的范围,得到胃黏膜肠上皮化生实例数据集。
S2:用于标签丰富的基于ViT分类器的搭建,包括:基于ViT网络搭建分类模型,具体结构如图4所示,通过将图片patch(图像片)转换成token(图像片序列),把图片分类问题转为序列问题。并保留ViT网络的Patch Embeeding(图片嵌入)层对输入图像进行分块操作并重新构建张量。再通过位置编码层和多头自注意力层对输入的张量进行位置编码和维度变换,最终设置通过分类预测层对输入图像进行打分和分类。
S3:构建标签丰富模型,得到实例级的胃黏膜肠上皮化生数据集,包括:
首先将每张图像切分成N×N大小的网格实例,同一张图像所得到的若干实例成为一个包。每一个肠化图像包中,至少包含一个实例属于肠化区域。而每一个正常图像包中,所有实例均为正常区域。
构建两个基于ViT分类器的Max-Max模型和Max-Min模型,分别如图5和图6所示,构建有标签的实例数据集。
Max-Max模型会让图像的所有实例通过ViT分类模型,使每一个实例得到一个分数,并对正常图像和肠化图像都是选择当前包中分数最大的实例。
Max-Min模型会让图像的所有实例通过ViT分类模型,使每一个实例得到一个分数,并从肠化图像中选择当前包中分数最大的实例, 从正常图像中选择当前包中分数最小的实例。
使用相同的数据集对两个分类器进行独立训练,通过实例得到的分数与其图像级标签计算交叉熵损失函数,以此更新分类器参数。最终训练完成后,再使用相同的数据集通过两个训练完成的分类器,计算各实例的分数。将两个分类器选择出的实例相结合,在标签丰富的步骤中自动生成它们的实例级标签,最终得到全监督的实例图像级标签数据集。
使用一个独立的ViT分类器,利用所生成的全监督的实例图像级标签数据集进行训练,得到一个可分类肠化实例和正常实例的分类器。
最后,将最原始的图像重新切分成N×N大小的网格实例,利用实例分类器对所有图像的所有实例进行重新分类。因此,对于每一个图像,可以获得 N×N个高质量的实例集标签,最终得到可用于分割的胃黏膜肠上皮化生数据集。
S4:将重新标注的含实例级标签的胃黏膜肠上皮化生数据集输入肠上皮化生区域分割模型,得到肠化区域的分割结果。
如图1所示,深度分割模型的获取步骤包括:
步骤一:获取胃部数字病理切片,并对其图像级标注,将标注后的图像resize(调整)成M×M大小,并使用Macenko染色归一化方法对实例图像数据集进行标准化处理,得到胃黏膜肠上皮化生实例数据集;
步骤二:将每张图像切分成N×N大小的网格实例,并通过两个基于ViT分类器的Max-Max模型和Max-Min模型;
步骤三:将两个分类器选择出的实例相结合,得到全监督的实例图像级标签数据集,用于训练实例分类器;
步骤四:将原始图像重新切片分成N×N大小的网格实例,利用实例分类器对所有图像的所有实例进行重新分类;
步骤五:将重新分类的实例级标签数据集输入深度分割模型训练,得到肠上皮化生区域分割模型。
作为一种实施例,多实例学习的肠化区域标签丰富过程为:
将单张图像为M×M大小的数据集切分成若干个N×N大小的网格实例,并将每张图像的若干网格实例分别通过Max-Max模型和Max-Min模型,得到一组包含阳性实例和阴性实例的实例数据集。使用ViT分类器对该实例数据集进行训练,最终得到一个可分类阳性实例和阴性实例的实例分类器。
重新将M×M大小的数据集切分成N×N大小的网格实例,使用训练后的实例分类器,对阳性图像所包含的各实例进行再次分类。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
上述虽然结合附图对本公开的具体实施方式进行了描述,但并非对本公开保护范围的限制,所属领域技术人员应该明白,在本公开的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本公开的保护范围以内。

Claims (7)

1.一种基于多实例学习的肠上皮化生区域图像分割系统,其特征在于,包括:获取模块,用于获取胃部病理切片,并将其转为数字病理切片,并进行正常标签和异常肠化标签的图像级标注,获得标注信息及图片;
预处理模块,用于对标注后的数字病理切片进行归一化并将每张图像切分为网格实例;
输出模块,用于将数字病理切片输入至训练后的肠上皮化生区域分割模型,得到肠上皮化生区域分割结果;
其中,所述肠上皮化生区域分割模型的训练方法为使用基于ViT分类器的Max-Max模型和Max-Min模型,用实例数据集进行分类,得到全监督的实例图像级标签数据集;使用独立的ViT分类器,对全监督的实例图像级标签数据集进行学习,得到可重新标记所有图像各实例的分类器,并使用该分类器对所有实例进行分类,得到可用于分割的胃黏膜肠上皮化生数据集;利用重新标记的实例数据集,使用深度分割模型进行学习,得到训练后的肠上皮化生区域分割模型;所述可用于分割的胃黏膜肠上皮化生数据集的构建方法为首先将每张图像切分成设置大小的网格实例,同一张图像所得到的若干实例成为包;构建两个基于ViT分类器的Max-Max模型和Max-Min模型,使用相同的数据集对两个模型进行独立训练,通过实例得到的分数与其图像级标签计算交叉熵损失函数,以此更新分类器参数;最终训练完成后,再使用相同的数据集通过两个训练完成的模型,计算各实例的分数;将两个模型选择出的实例相结合,在标签丰富的步骤中自动生成它们的实例级标签,最终得到全监督的实例图像级标签数据集;再使用一个独立的ViT分类器,利用所述全监督的实例图像级标签数据集进行训练,得到一个可分类肠化实例和正常实例的分类器;将最原始的图像分割成重新切分成网格实例,利用实例分类器对所有图像的所有实例进行重新分类,对于每一个图像,将每个图像的若干网格实例分别通过Max-Max模型和Max-Min模型,得到一组包含阳性实例和阴性实例的实例数据集;使用ViT分类器对该实例数据集进行训练,获得高质量的实例集标签,最终得到可用于分割的胃黏膜肠上皮化生数据集;
标签丰富的过程为:将单张图像为M×M大小的数据集切分成若干个N×N大小的网格实例,并将每张图像的若干网格实例分别通过Max-Max模型和Max-Min模型,得到一组包含阳性实例和阴性实例的实例数据集;使用ViT分类器对该实例数据集进行训练,最终得到一个可分类阳性实例和阴性实例的实例分类器。
2.如权利要求1所述的一种基于多实例学习的肠上皮化生区域图像分割系统,其特征在于,数据集的获取步骤为:获取胃部病理切片,并对非肿瘤区域的胃部病理切片进行图像及标注,包括正常标签和异常肠化标签,对标注后的胃部病理切片使用Macenko染色归一化方法对实例图像数据集进行标准化,将特征值大小调整到相近的范围,得到胃黏膜肠上皮化生数据集。
3.如权利要求1所述的一种基于多实例学习的肠上皮化生区域图像分割系统,其特征在于,所述基于ViT分类器的搭建步骤为基于ViT网络搭建分类器,保留ViT网络的PatchEmbeeding层对输入图像进行分块操作并重新构建张量,再通过位置编码层和多头自注意力层对输入的张量进行维度变换,最终设置分类预测层对输入图像进行打分和分类。
4.如权利要求1所述的一种基于多实例学习的肠上皮化生区域图像分割系统,其特征在于,将重新标注的含实例集标签的胃黏膜肠上皮化生数据集输入深度分割模型,训练可分割的肠上皮化生区域分割模型,训练完成后,未处理的数字病理切片不需经过标注直接输入至训练好的肠上皮化生区域分割模型,得到该数字病理切片的肠化区域分割结果。
5.如权利要求1所述的一种基于多实例学习的肠上皮化生区域图像分割系统,其特征在于,所述Max-Max模型是让图像的所有实例通过ViT分类模型,使每一个实例得到一个分数,并对正常图像和肠化图像都是选择当前包中分数最大的实例。
6.如权利要求1所述的一种基于多实例学习的肠上皮化生区域图像分割系统,其特征在于,所述Max-Min模型是让图像的所有实例通过ViT分类模型,使每一个实例得到一个分数,并从肠化图像中选择当前包中分数最大的实例, 从正常图像中选择当前包中分数最小的实例。
7.如权利要求1所述的一种基于多实例学习的肠上皮化生区域图像分割系统,其特征在于,重新将M×M大小的数据集切分成N×N大小的网格实例,使用训练后的实例分类器,对阳性图像所包含的各实例进行再次分类。
CN202310579235.XA 2023-05-23 2023-05-23 一种基于多实例学习的肠上皮化生区域图像分割系统 Active CN116342627B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310579235.XA CN116342627B (zh) 2023-05-23 2023-05-23 一种基于多实例学习的肠上皮化生区域图像分割系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310579235.XA CN116342627B (zh) 2023-05-23 2023-05-23 一种基于多实例学习的肠上皮化生区域图像分割系统

Publications (2)

Publication Number Publication Date
CN116342627A CN116342627A (zh) 2023-06-27
CN116342627B true CN116342627B (zh) 2023-09-08

Family

ID=86882666

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310579235.XA Active CN116342627B (zh) 2023-05-23 2023-05-23 一种基于多实例学习的肠上皮化生区域图像分割系统

Country Status (1)

Country Link
CN (1) CN116342627B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110111340A (zh) * 2019-04-28 2019-08-09 南开大学 基于多路割的弱监督实例分割方法
WO2019192397A1 (zh) * 2018-04-04 2019-10-10 华中科技大学 一种任意形状的场景文本端到端识别方法
CN115222734A (zh) * 2022-09-20 2022-10-21 山东大学齐鲁医院 一种用于胃黏膜肠上皮化生的图像分析方法及系统
CN115359254A (zh) * 2022-07-25 2022-11-18 华南理工大学 基于Vision Transformer网络的弱监督实例分割方法、系统及介质
CN115496720A (zh) * 2022-09-19 2022-12-20 上海健康医学院 基于ViT机制模型的胃肠癌病理图像分割方法及相关设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019192397A1 (zh) * 2018-04-04 2019-10-10 华中科技大学 一种任意形状的场景文本端到端识别方法
CN110111340A (zh) * 2019-04-28 2019-08-09 南开大学 基于多路割的弱监督实例分割方法
CN115359254A (zh) * 2022-07-25 2022-11-18 华南理工大学 基于Vision Transformer网络的弱监督实例分割方法、系统及介质
CN115496720A (zh) * 2022-09-19 2022-12-20 上海健康医学院 基于ViT机制模型的胃肠癌病理图像分割方法及相关设备
CN115222734A (zh) * 2022-09-20 2022-10-21 山东大学齐鲁医院 一种用于胃黏膜肠上皮化生的图像分析方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深度学习的实体肿瘤分割分类模型研究;吴玉欣;《CNKI优秀硕士学位论文全文库》;E072-12 *

Also Published As

Publication number Publication date
CN116342627A (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN111461068B (zh) 一种染色体中期图识别和分割方法
CN108305253B (zh) 一种基于多倍率深度学习的病理图像分类方法
CN110059697A (zh) 一种基于深度学习的肺结节自动分割方法
CN109145964B (zh) 一种实现图像颜色聚类的方法和系统
CN110648310A (zh) 基于注意力机制的弱监督铸件缺陷识别方法
CN112381788A (zh) 一种基于双分支匹配网络的零部件表面缺陷增量检测方法
CN111932639B (zh) 一种基于卷积神经网络的不均衡缺陷样本的检测方法
CN112613428B (zh) 基于平衡损失的Resnet-3D卷积牛视频目标检测方法
CN111476794A (zh) 一种基于unet的宫颈病理组织分割方法
CN111161213A (zh) 一种基于知识图谱的工业产品缺陷图像分类方法
CN115731400A (zh) 基于自监督学习的x光图像异物检测方法
CN112651989A (zh) 基于Mask RCNN实例分割的SEM图像分子筛粒径统计方法和系统
CN112446376B (zh) 一种工业图像智能分割压缩方法
CN112767411A (zh) 一种肺部多器官同步分割方法
CN113077438B (zh) 针对多细胞核彩色图像的细胞核区域提取方法及成像方法
CN116342627B (zh) 一种基于多实例学习的肠上皮化生区域图像分割系统
CN115775226B (zh) 基于Transformer的医学图像分类方法
CN115082741B (zh) 基于图像处理的废旧纺织品分类方法
CN113705531B (zh) 一种基于显微成像的合金粉末夹杂物的识别方法
CN116468935A (zh) 一种基于多核卷积网络的交通标志阶梯式分类识别方法
CN111932447B (zh) 一种图片处理方法、装置、设备及存储介质
Campbell et al. Automatic Interpretation of Outdoor Scenes.
CN113177602A (zh) 图像分类方法、装置、电子设备和存储介质
WO2020120039A1 (en) Classification of cell nuclei
CN117593648B (zh) 基于弱监督学习的遥感目标建筑物提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant