CN112950599A - 一种基于深度学习的大肠空腔区及肠内容物标注方法 - Google Patents

一种基于深度学习的大肠空腔区及肠内容物标注方法 Download PDF

Info

Publication number
CN112950599A
CN112950599A CN202110259525.7A CN202110259525A CN112950599A CN 112950599 A CN112950599 A CN 112950599A CN 202110259525 A CN202110259525 A CN 202110259525A CN 112950599 A CN112950599 A CN 112950599A
Authority
CN
China
Prior art keywords
image
large intestine
region
abdominal cavity
cavity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110259525.7A
Other languages
English (en)
Other versions
CN112950599B (zh
Inventor
王国利
吴迪邦
郭雪梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202110259525.7A priority Critical patent/CN112950599B/zh
Publication of CN112950599A publication Critical patent/CN112950599A/zh
Application granted granted Critical
Publication of CN112950599B publication Critical patent/CN112950599B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的大肠空腔区及肠内容物标注方法,该方法包括:获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;将区域合并后图像进行图像拆分,得到拆分后图像;基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;根据大肠区域图对大肠区域进行标注,得到标注图;将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。本发明方法能够自动对输入的CT腹腔图像的大肠空腔区及肠内容物区域进行标注。本发明作为一种基于深度学习的大肠空腔区及肠内容物标注方法,可广泛应用于图像处理领域。

Description

一种基于深度学习的大肠空腔区及肠内容物标注方法
技术领域
本发明涉及图像处理领域,尤其涉及一种基于深度学习的大肠空腔区及肠内容物标注方法。
背景技术
现阶段对于肠内容物以及大肠区的标记,以及大肠区的标记,只能通过专业人员进行手动标注,这样费时费力,并且长时间工作之后有标记失误的风险。近年来人工智能技术得到快速发展,尤其是深度学习方法在医学图像处理领域中得到广泛应用,但是目前常用于医学图像处理的网络因为没有顾及到上下文信息导致分割效果并不好,极容易出现错判和漏判的情况。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于深度学习的大肠空腔区及肠内容物标注方法,自动对输入的CT腹腔图像的大肠空腔区及肠内容物区域进行标注。
本发明所采用的第一技术方案是:一种基于深度学习的大肠空腔区及肠内容物标注方法,包括以下步骤:
获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;
将区域合并后图像进行图像拆分,得到拆分后图像;
基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;
根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图;
将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。
进一步,所述获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像这一步骤,其具体包括:
获取CT腹腔图像;
将CT腹腔图像内与肠内容物颜色接近的像素点进行去除;
将去除部分像素点后的CT腹腔图像中的肠内容物区域和大肠空腔区域进行合并,得到区域合并后图像。
进一步,所述将区域合并后图像进行图像拆分,得到拆分后图像这一步骤,其具体包括:
将区域合并后图像等比率分割成3*3的图像块,并将相邻图层的同一对应位置的图像块组成一个五张图片形成的图像组,得到拆分后图像。
进一步,所述预训练的分割网络的训练步骤包括:
获取训练用CT腹腔图像并对训练用CT腹腔图像进行数据增强,得到增强训练图像;
将增强训练图像结合图像对应的真实标签,构建训练集;
基于训练集中的CT腹腔图像对预构建的分割网络进行训练,得到预测标签;
基于预测标签与对应的真实标签计算误差损失;
根据误差损失对预构建的分割网络进行参数更新,得到训练完成的分割网络。
进一步,所述预构建的分割网络包括编码器、带注意力机制的解码器、ConvLSTM模块、和分类模块。
进一步,所述数据增强包括对图像平移、图像旋转和对图像进行gamma变换。
进一步,所述基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图这一步骤,其具体包括:
基于编码器对输入的拆分后图像进行特征提取,得到特征信息;
基于ConvLSTM模块连接各层编码器的特征信息并进行特征拼接,得到拼接后的特征信息;
基于带注意力机制的解码器将拼接后的特征信息还原;
基于分类模块输出属于大肠区域的像素点的概率值并将像素点整合,得到大肠区域图。
进一步,所述根据大肠区域图和输入的CT腹腔图,对大肠空腔区及肠内容物分别标注,得到标注图这一步骤,其具体包括:
根据大肠区域图在输入的CT腹腔图上确定大肠区域,并根据输入的CT腹腔图上大肠区域中的颜色差异分别对大肠空腔区和肠内容物进行标注,得到标注图。
本发明方法的有益效果是:本发明能够自动对输入的CT腹腔成像图像中的大肠区域及肠内容物区域进行标注,由于不需要手工标注,避免了人为失误,同时具有计算速度快,所占参数少的优点。
附图说明
图1是本发明一种基于深度学习的大肠空腔区及肠内容物标注方法的步骤流程图;
图2是本发明一种基于深度学习的大肠空腔区及肠内容物标注系统的结构框图;
图3是本发明具体实施例分割网络的示意图;
图4是本发明具体实施例CT腹腔图像原图;
图5是本发明具体实施例经过前处理模块后输出的图像;
图6是本发明具体实施例经过分割模块后输出的图像;
图7是本发明具体实施例拆分模块的数据处理示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
参照图1,本发明提供了一种基于深度学习的大肠空腔区及肠内容物标注方法,该方法包括以下步骤:
获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;
将区域合并后图像进行图像拆分,得到拆分后图像;
基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;
根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图;
具体地,标注阶段中,根据原图像的颜色差异进一步分辨出大肠空腔区域及肠内容物区域,即:
Figure BDA0002969392660000031
其中S表示分割网络所得结果中,标记为1的像素区域,image表示原图像,result表示最终的标记结果。
将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。
具体地,由于标记模块的result还只是原图像标记的一部分,即之前步骤进行了图像分块,因此还需要进行图像拼接,即:
R=concat(concat(result,axis=-1),axis=-1)
其中R为最终结果,concat()为拼接函数,参数一为需要拼接的图像,axis代表需要拼接的维度-1代表最后一个维度。
进一步作为本方法的优选实施例,所述获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像这一步骤,其具体包括:
获取CT腹腔图像;
将CT腹腔图像内与肠内容物颜色接近的像素点进行去除;
将去除部分像素点后的CT腹腔图像中的肠内容物区域和大肠空腔区域进行合并,得到区域合并后图像。
具体地,CT腹腔图像原图参照图4,肠内容物形态差异极大,即各种肠内容物形状及其不规律而且没有特征,若直接以肠内容物或者大肠内空腔为分割目标,难以实现,因此这种前处理的操作可以将问题简化,即:
Figure BDA0002969392660000041
其中,f(x,y)表示原图片(x,y)处的灰度值,p(x,y)为转变后的图片(x,y)处的灰度值,0为空气的灰度值。经过该前处理后输出的图像参照图5.
另外,训练时带标签的CT腹腔图像经过前处理模块的过程如下所示:
Figure BDA0002969392660000042
其中,new_m(x,y)表示新得到的标注(x,y)处的hsv值,m(x,y)为原标注(x,y)处的hsv值,(l_rhsv,h_rhsv)为红色的hsv值所处范围,(l_ghsv,h_ghsv)为绿色的HSV值所处范围。经该前处理后输出的训练所用真实标签参照图6。
进一步作为本方法的优选实施例,所述将区域合并后图像进行图像拆分,得到拆分后图像这一步骤,其具体包括:
将区域合并后图像等比率分割成3*3的图像块,并将相邻图层的同一对应位置的图像块组成一个五张图片形成的图像组,得到拆分后图像。
具体地,由于需要进行处理的图片尺寸过大,无法接收多张原始图片的输入。因此需要先将图片等比率拆分成3*3小块。并将记录其所处的层数占总层数的比值(及该图层处于人体膈顶到耻骨联合的相对位置),以及它属于本张图片分割中的那个小块,即:
images(n,w,h)=>data(n-slices+1,slices,dx,dy)
其中,括号内为数据的维度,n张w宽h高的数据,转化为n-slices+1组slices张dx宽dy高的上下序列相邻图片组。
data=(images[k,i*dx:(i+1)dx,j*dy:(j+1)*dy],(i+1)*(j+1),k)
mark=(label[k,i*dx:(i+1)dx,j*dy:(j+1)*dy],(i+1)*(j+1),k)
其中,data为图片经拆分模块处理后的图片,images为经前处理模块得到图片,mark为标注经拆分模块处理后的结果,label为经前处理模块得到的标注,k为图片所处的层号,i为小块行号,j为小块列号,dx为每个小块的宽度,dy为每个小块的高度,(i+1)*(j+1)为该改组图片或标注所处对应层的块号,具体参照图7。
进一步作为本方法优选实施例,所述预训练的分割网络的训练步骤包括:
获取训练用CT腹腔图像并对训练用CT腹腔图像进行数据增强,得到增强训练图像;
将增强训练图像结合图像对应的真实标签,构建训练集;
基于训练集中的CT腹腔图像对预构建的分割网络进行训练,得到预测标签;
基于预测标签与对应的真实标签计算误差损失;
根据误差损失对预构建的分割网络进行参数更新,得到训练完成的分割网络。
进一步作为本方法优选实施例,所述预构建的分割网络包括编码器、带注意力机制的解码器、ConvLSTM模块、和分类模块。
进一步作为本方法的优选实施例,所述数据增强包括对图像平移、图像旋转和对图像进行gamma变换。
具体地,为了提高模型的鲁棒性,将对输入数据采用上述任意一种方式进行数据增强处理。
进一步作为本方法的优选实施例,所述基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图这一步骤,其具体包括:
基于编码器对输入的拆分后图像进行特征提取,得到特征信息;
基于ConvLSTM模块连接各层编码器的特征信息并进行特征拼接,得到拼接后的特征信息;
基于带注意力机制的解码器将拼接后的特征信息还原;
基于分类模块输出属于大肠区域的像素点的概率值并将像素点整合,得到大肠区域图。
具体地,分割网络参照图3,编码器部分通过卷积网络和下采样进行图像的高层次特征提取,最终将得到只有原图1/16的特征图,此处处理输入的多张图片的编码器采用权值共享的策略;解码器部分通过卷积网络以及上采样编码将高层次特征还原为对于原始图片尺寸相同的特征图,此处处理输入的多张特征图的编码器采用权值共享的策略;注意力机制部分在进行解码器上采样编码的同时,在每个层次引入注意力机制,以该尺寸特征以及数据所属的层数占总层数的比值,数据块处于当前图层的位置作为输入值,进行注意力权值分配,调整解码器上采样解码重构信息;ConvLSTM模块跳跃连接部分,将编码器编码所得的相邻图层各级特征进行层次间的信息挖掘,使得每个图层的特征不只是依照当前图层的各种特征信息,也取决于邻近图层的特征信息,最终处理好的特征信息与解码器每层上采样得到的特征进行特征拼接;分类模块部分通过全连接神经网络,将解码器的最后输出转化为每个像素点是否属于目标区域的概率值,经过分割网络后的输出图亦参照图6。
进一步作为本方法优选实施例,所述根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图这一步骤,其具体包括:
根据大肠区域图在输入的CT腹腔图上确定大肠区域,并根据输入的CT腹腔图上大肠区域中的颜色差异分别对大肠空腔区和肠内容物进行标注,得到标注图。
参照图2,一种基于深度学习的大肠空腔区及肠内容物标注系统,包括以下模块:
前处理模块,用于获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;
拆分模块,用于将区域合并后图像进行图像拆分,得到拆分后图像;
分割模块,用于基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;
标注模块,用于根据大肠区域图和输入的CT腹腔图,对大肠空腔区及肠内容物分别标注,得到标注图;
图像拼接模块,用于将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。
一种基于深度学习的大肠空腔区及肠内容物标注装置:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上所述一种基于深度学习的大肠空腔区及肠内容物标注方法。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (8)

1.一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,包括以下步骤:
获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像;
将区域合并后图像进行图像拆分,得到拆分后图像;
基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图;
根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图;
将标注图与输入的CT腹腔图像进行图像拼接,得到带标注的CT腹腔图像。
2.根据权利要求1所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述获取CT腹腔图像并对图像中的相关区域进行区域合并,得到区域合并后图像这一步骤,其具体包括:
获取CT腹腔图像;
将CT腹腔图像内与肠内容物颜色接近的像素点进行去除;
将去除部分像素点后的CT腹腔图像中的肠内容物区域和大肠空腔区域进行合并,得到区域合并后图像。
3.根据权利要求2所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述将区域合并后图像进行图像拆分,得到拆分后图像这一步骤,其具体包括:
将区域合并后图像等比率分割成3*3的图像块,并将相邻图层的同一对应位置的图像块组成一个五张图片形成的图像组,得到拆分后图像。
4.根据权利要求3所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述预训练的分割网络的训练步骤包括:
获取训练用CT腹腔图像并对训练用CT腹腔图像进行数据增强,得到增强训练图像;
将增强训练图像结合图像对应的真实标签,构建训练集;
基于训练集中的CT腹腔图像对预构建的分割网络进行训练,得到预测标签;
基于预测标签与对应的真实标签计算误差损失;
根据误差损失对预构建的分割网络进行参数更新,得到训练完成的分割网络。
5.根据权利要求4所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述预构建的分割网络包括编码器、带注意力机制的解码器、ConvLSTM模块、和分类模块。
6.根据权利要求5所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述数据增强包括对图像平移、图像旋转和对图像进行gamma变换。
7.根据权利要求6所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述基于预训练的分割网络对拆分后图像进行分割,得到大肠区域图这一步骤,其具体包括:
基于编码器对输入的拆分后图像进行特征提取,得到特征信息;
基于ConvLSTM模块连接各层编码器的特征信息并进行特征拼接,得到拼接后的特征信息;
基于带注意力机制的解码器将拼接后的特征信息还原;
基于分类模块输出属于大肠区域的像素点的概率值并将像素点整合,得到大肠区域图。
8.根据权利要求7所述一种基于深度学习的大肠空腔区及肠内容物标注方法,其特征在于,所述根据大肠区域图和输入的CT腹腔图,分别对大肠空腔区及肠内容物进行标注,得到标注图这一步骤,其具体包括:
根据大肠区域图在输入的CT腹腔图上确定大肠区域,并根据输入的CT腹腔图上大肠区域中的颜色差异分别对大肠空腔区和肠内容物进行标注,得到标注图。
CN202110259525.7A 2021-03-10 2021-03-10 一种基于深度学习的大肠空腔区及肠内容物标注方法 Active CN112950599B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110259525.7A CN112950599B (zh) 2021-03-10 2021-03-10 一种基于深度学习的大肠空腔区及肠内容物标注方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110259525.7A CN112950599B (zh) 2021-03-10 2021-03-10 一种基于深度学习的大肠空腔区及肠内容物标注方法

Publications (2)

Publication Number Publication Date
CN112950599A true CN112950599A (zh) 2021-06-11
CN112950599B CN112950599B (zh) 2023-04-07

Family

ID=76228587

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110259525.7A Active CN112950599B (zh) 2021-03-10 2021-03-10 一种基于深度学习的大肠空腔区及肠内容物标注方法

Country Status (1)

Country Link
CN (1) CN112950599B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113379735A (zh) * 2021-07-09 2021-09-10 中山大学 一种ct结肠影像内容物的标注方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150723A (zh) * 2013-01-25 2013-06-12 西安电子科技大学 基于形状和椭圆拟合的胃部ct图像淋巴结检测系统及方法
CN110097559A (zh) * 2019-04-29 2019-08-06 南京星程智能科技有限公司 基于深度学习的眼底图像病灶区域标注方法
CN110415230A (zh) * 2019-07-25 2019-11-05 东北大学 一种基于深度学习的ct切片图像语义分割系统及方法
CN110675406A (zh) * 2019-09-16 2020-01-10 南京信息工程大学 基于残差双注意力深度网络的ct图像肾脏分割算法
CN111091573A (zh) * 2019-12-20 2020-05-01 广州柏视医疗科技有限公司 基于深度学习的ct影像肺血管的分割方法及系统
CN111583287A (zh) * 2020-04-23 2020-08-25 浙江大学 一种用于精细人像图片分割的深度学习模型训练方法
CN112435243A (zh) * 2020-11-26 2021-03-02 山东第一医科大学附属省立医院(山东省立医院) 一种全切片数字病理图像的自动分析系统及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150723A (zh) * 2013-01-25 2013-06-12 西安电子科技大学 基于形状和椭圆拟合的胃部ct图像淋巴结检测系统及方法
CN110097559A (zh) * 2019-04-29 2019-08-06 南京星程智能科技有限公司 基于深度学习的眼底图像病灶区域标注方法
CN110415230A (zh) * 2019-07-25 2019-11-05 东北大学 一种基于深度学习的ct切片图像语义分割系统及方法
CN110675406A (zh) * 2019-09-16 2020-01-10 南京信息工程大学 基于残差双注意力深度网络的ct图像肾脏分割算法
CN111091573A (zh) * 2019-12-20 2020-05-01 广州柏视医疗科技有限公司 基于深度学习的ct影像肺血管的分割方法及系统
CN111583287A (zh) * 2020-04-23 2020-08-25 浙江大学 一种用于精细人像图片分割的深度学习模型训练方法
CN112435243A (zh) * 2020-11-26 2021-03-02 山东第一医科大学附属省立医院(山东省立医院) 一种全切片数字病理图像的自动分析系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
谷鹏辉 等: "改进的U-Net在视网膜血管分割上的应用", 《计算机科学与探索》 *
黄展鹏 等: "基于数学形态学和区域合并的医学CT 图像分割", 《计算机应用研究》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113379735A (zh) * 2021-07-09 2021-09-10 中山大学 一种ct结肠影像内容物的标注方法及系统

Also Published As

Publication number Publication date
CN112950599B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN112233092A (zh) 一种用于无人机电力巡检智能缺陷检测的深度学习方法
CN112308860A (zh) 基于自监督学习的对地观测图像语义分割方法
CN113158768B (zh) 基于ResNeSt和自注意力蒸馏的智能车辆车道线检测方法
CN111898606B (zh) 一种视频图像中叠加透明时间字符的夜间成像识别方法
CN110807775A (zh) 基于人工智能的中医舌像分割装置、方法及存储介质
CN117253154B (zh) 一种基于深度学习的集装箱弱小序列号目标检测识别方法
CN112883795B (zh) 一种基于深度神经网络的表格快速自动提取方法
CN110223300A (zh) Ct图像腹部多器官分割方法及装置
CN114882047B (zh) 一种基于半监督与Transformers的医学图像分割方法及系统
CN111027538A (zh) 一种基于实例分割模型的集装箱检测方法
CN112489053B (zh) 一种舌像分割方法、装置及存储介质
CN112036231A (zh) 一种基于车载视频的车道线和路面指示标志检测与识别方法
CN112950599B (zh) 一种基于深度学习的大肠空腔区及肠内容物标注方法
CN114241344B (zh) 一种基于深度学习的植物叶片病虫害严重程度评估方法
CN116824347A (zh) 一种基于深度学习的道路裂纹检测方法
CN114359286A (zh) 一种基于人工智能的绝缘子缺陷识别方法、设备及介质
CN117541574A (zh) 一种基于ai语义分割和图像识别的舌诊检测方法
CN117576699A (zh) 一种基于深度学习的机车工单信息智能识别方法及系统
CN117151162A (zh) 基于自监督与专家门控的跨解剖区域器官增量分割方法
CN113989269B (zh) 一种基于卷积神经网络多尺度特征融合的中医舌图像齿痕自动检测方法
CN115760875A (zh) 一种基于自监督学习的全视野医学图片区域分割方法
CN115761438A (zh) 一种基于深度估计的显著性目标检测方法
CN114898096A (zh) 一种人物图像的分割和标注方法及系统
CN112330660A (zh) 一种基于神经网络的精子尾部检测方法及其系统
CN117372437B (zh) 用于面神经麻痹智能化检测与量化方法及其系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant