CN116309385B - 基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统 - Google Patents

基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统 Download PDF

Info

Publication number
CN116309385B
CN116309385B CN202310169846.7A CN202310169846A CN116309385B CN 116309385 B CN116309385 B CN 116309385B CN 202310169846 A CN202310169846 A CN 202310169846A CN 116309385 B CN116309385 B CN 116309385B
Authority
CN
China
Prior art keywords
wall
abdominal wall
dimensional
fat
abdominal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310169846.7A
Other languages
English (en)
Other versions
CN116309385A (zh
Inventor
李劲松
胡佩君
胡劲楠
周天舒
田雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202310169846.7A priority Critical patent/CN116309385B/zh
Publication of CN116309385A publication Critical patent/CN116309385A/zh
Application granted granted Critical
Publication of CN116309385B publication Critical patent/CN116309385B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Probability & Statistics with Applications (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统。本发明利用少量标注的CT图像,构建一个2D‑3D两阶段分割框架,进行三维CT序列的皮下脂肪、内脏脂肪和骨骼肌的自动测量。通过2D分割模型的训练,获得CT图像序列未标注层面的“伪标签”,这样可以大大减少三维分割模型训练数据所需的图像标注量。然后,提出一个活动轮廓正则化的三维深度卷积神经网络分割模型,用于三维腹壁结构的自动分割,以提高分割目标形状的正则性和边界光滑性。本发明具有自动化、精度高、可迁移扩展的特点,可以实现CT、核磁等影像上的不用脂肪及肌肉组织的自动测量。

Description

基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统
技术领域
本发明涉及脂肪与肌肉组织测量领域,尤其涉及一种基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统。
背景技术
身体中的脂肪和肌肉含量与癌症治疗、慢性病、代谢疾病等非常相关。已有研究表明,肥胖与心血管疾病、糖尿病等代谢类疾病及癌症息息相关,持续威胁着人类健康。相比于BMI(body mass index)和腰围等传统肥胖衡量指标,身体组成成分—不同脂肪和肌肉含量更能反应人体的肥胖程度。因此,精确测量不同腹部脂肪和肌肉组织具有重要的临床应用价值。
计算机断层扫描技术(Computed Tomography,CT)具有显影清晰、临床可及的优点,可以实现脂肪和肌肉组织的定量分析。由于对三维CT体数据进行逐层标注或者分割的工作量非常大,多数方法提取第三腰椎(L3)位置的横断位图像计算脂肪和肌肉含量。现有商用软件Slice-O-Matic、ImageJ-based software等利用计算机交互界面手动分割皮下脂肪、内脏脂肪和肌肉区域,再利用CT灰度值提取具体的组织面积。在自动分割算法中,一些方法首先通过软件或者算法获取L3位置的图片,然后利用活动轮廓模型,二维深度卷积神经网络或者阈值方法提取脂肪或肌肉组织。在少数全腹部图像分割脂肪与肌肉自动分割方法中,首先对全腹部图像进行标注,再训练模型进行分割。上述方法需要大量的标注工作,或者无法把持分割结果在每个图像序列的连续性。虽然肌肉和脂肪组织具有不同的HU值范围,但同时进行腹部肌肉与脂肪组织分割的基础是提取腹壁的位置,而三维腹壁分割面临着表观异质、边界模糊以及形状不规则的挑战。
传统的活动轮廓模型通过曲线演化的方式,获得的区域一般比较具有光滑性,但是需要模型初始化或者对初始化比较敏感。虽然深度卷积神经网络可以实现像素级别的分割,但分割的目标区域缺少形状正则性,例如曲线光滑性。并且,二维深度卷积神经网络分割方法对不同层面图像分别分割,容易丢失图像序列间的连续性,而三维深度卷积神经网络需要大量的标注工作,阻碍了算在临床的实际应用。
发明内容
本发明目的在于针对现有技术的不足,提出一种结合活动轮廓模型和深度学习的弱监督三维腹部脂肪与肌肉组织测量方法及系统,腹壁的内外轮廓是分割内脏脂肪、皮下脂肪与骨骼肌的边界,腹壁区域具有明显的形状特点,对后续脂肪与肌肉的提取很重要。本发明采取自动分割腹壁轮廓,确定皮下脂肪、内脏脂肪和骨骼肌组织所在区域,再利用HU值范围提取脂肪和肌肉组织的方式。本发明利用少量层面标注的CT图像序列,构建一个2D-3D两阶段分割框架。通过2D分割模型的训练,获得CT图像序列未标注层面的“伪标签”。然后,提出一个活动轮廓正则化的三维深度卷积神经网络分割模型,用于三维腹壁结构的自动分割。最终,利用HU值提取并测量不同脂肪和肌肉组织含量。本发明可以在利用很少标注图像的情况下,实现三维腹壁轮廓的自动分割,并且保持其结构的形状正则性和边界光滑性。
本发明的目的是通过以下技术方案来实现的:一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,该方法包括以下步骤:
(1)数据标注与预处理:收集腹部CT体数据作为训练集,按照固定间隔提取CT体数据的横断面切片得到二维CT图像,标注腹壁区域并进行CT图像预处理;利用灰度阈值方法获得腹部CT的身体轮廓区域;
(2)二维腹壁分割网络训练:构建二维腹壁分割网络模型,将有标注的二维CT图像集合作为二维腹壁分割网络模型的训练集;对每一张腹壁标签,对腹壁区域进行填洞操作,得到腹壁外壁包围区域;将腹部外壁包围区域减去腹壁区域,得到腹壁内壁包围区域,这样获得两套训练集,分别为CT图像和腹壁外壁包围区域的标注以及CT图像和腹壁内壁包围区域的标注;将两套训练集分别输入到二维腹壁分割网络模型中进行训练,得到对应的腹壁内壁分割网络和腹壁外壁分割网络;
(3)三维腹壁分割网络训练:构建三维腹壁分割网络模型,对应于网络输出的每个预测标签,定义交叉熵损失,并引入活动轮廓正则损失;通过训练完成后的腹壁内壁分割网络和腹壁外壁分割网络,得到腹壁外壁包围区域和腹壁内壁包围区域的预测区域,由腹壁外壁包围区域减去腹壁内壁包围区域,得到腹壁预测区域的伪标签,将步骤(1)中收集的切片前的腹部CT体数据和对应伪标签作为三维腹壁分割网络模型的训练样本集,对三维腹壁分割网络模型进行训练;
(4)脂肪与肌肉组织测量:获得待计算腹部脂肪与肌肉组织的腹部CT身体轮廓区域的样本,输入到训练完成的三维腹壁分割网络模型中,得到对腹壁的预测区域,并分离腹壁区域的内轮廓和外轮廓得到腹壁内壁和腹壁外壁,以及对应的腹壁外壁包围区域和腹壁内壁包围区域,之后利用肌肉组织和脂肪组织的HU值范围提取对应组织;计算内脏脂肪、皮下脂肪和骨骼肌对应的含量。
进一步地,步骤(1)中,所述CT图像预处理具体为将CT图像的HU值截断在[-100,240]之间,然后归一化到[0,1]之间。
进一步地,步骤(1)中,所述利用灰度阈值方法获得腹部CT的身体轮廓区域,具体为:利用K-means对二值化后的图像进行聚类,对聚类后的二值图作用形态学开算子,取最大连通域,获得身体轮廓的掩码图像。
进一步地,步骤(2)中,所述二维腹壁分割网络模型选用密集连接扩张卷积网络DenseASPP,该网络包含两个部分,第一个部分由一层卷积-归一化-ReLU激活-池化层、4个密集块和4层过渡层组成;第一个密集块得到的特征图有96个,后续的增长率为48;密集连接扩张卷积网络第一部分的输出的特征图大小为1/8大小的输入图像大小,即56×56;密集连接扩张卷积网络的第二个部分是三层密集连接的扩张卷积层,扩张率分别为3,6和12;每一层扩张卷积层的输入为前面所有扩张卷积层的输出;密集连接扩张卷积网络最终输出的特征图大小为56×56。
进一步地,步骤(2)中,二维腹壁分割网络模型的损失函数为交叉熵损失函数
其中N为训练样本个数,为网络预测概率,/>为第n个样本标签。
进一步地,步骤(3)中,所述三维腹壁分割网络模型选用3D ResUNet网络,包括包括四个编码块和四个解码块,网络输出为与原始图像输入等大的预测图像;每个编码块由数目不等的卷积-激活层组成;四个编码块分别包括2个卷积-激活层、3个卷积-激活层、3个卷积-激活层和3个卷积-激活层;在每个编码块的最后一层卷积-激活层中,加入一个对输入的残差连接;编码部分输出的特征图大小为256*3*16*16;解码部分包括四个上采样层和四个解码块;每个解码块由数目不等的卷积-激活层组成;四个解码块分别包括3个卷积-激活层、3个卷积-激活层、3个卷积-激活层和2个卷积-激活层;在每个解码块的第一层卷积-激活层中,连接对应的编码块输出的特征图;并且,对每个解码块输出的特征图做一个映射层,该映射层由卷积-上采样-激活层组成;映射层的输出大小均为与网络输入图像等大的图像块,即尺寸为1*48*256*256。
进一步地,步骤(3)中,所述三维腹壁分割网络模型引入活动轮廓正则损失后的损失函数如下:
其中,为平衡参数,/>为交叉熵损失,/>为活动轮廓正则损失,分别如下:
其中,交叉熵损失中/>为第j个映射层输出的预测结果,/>为第/>个样本标签,为训练样本个数;活动轮廓正则损失/>中第一项为弧长项Length,第二项为区域项Region,/>为平衡参数,符号/>表示求梯度,/>表示1范数;/>表示为在点x处的图灰度值;C表示轮廓曲线,/>表示图像区域;u为示性函数,/>表示x在区域内,/>表示x在区域外;u松弛到连续范围[0,1]内,第一项Length和第二项Region的离散化形式为:
表示对示性函数/>关于x方向的导数在点(i,j,k)处的值;/>表示对示性函数/>关于y方向的导数在点(i,j,k)处的值;/>表示对示性函数/>关于z方向的导数在点(i,j,k)处的值;/>为1e-6;/>表示示性函数在点(i,j,k)的值;
表示在点(i,j,k)的图像像素值;
在活动轮廓正则损失中,和/>由区域内和区域外的像素点计算均值得到:
进一步地,步骤(4)中,利用肌肉组织和脂肪组织的HU值范围提取对应组织具体过程为:骨骼肌区域为腹壁内HU范围在 [-29, 150]之间的组织;内脏脂肪为腹壁内壁包围区域/>内HU值范围在[-190, -30]之间的组织;皮下脂肪为身体轮廓区域与腹壁外壁包围区域之间/>内HU值范围在[-190, -30]之间的组织。
进一步地,步骤(4)中,计算内脏脂肪、皮下脂肪和骨骼肌对应的含量的具体过程为:计算第一腰椎L1-第五腰椎L5之间的皮下脂肪、内脏脂肪和骨骼肌体积,通过HU值范围提取的组织区域体素个数,乘以CT图像一个体素的体积,将结果再除以L1到L5之间的距离,得到三种组织的平均组织面积,用相同方法计算第三腰椎L3位置的脂肪与骨骼肌体积,并除以L3的厚度,得到L3位置的平均脂肪面积和骨骼肌面积,最终,得到了多维度的身体组成成分值。
另一方面,本发明还提供了一种基于弱监督学习的腹部脂肪与肌肉组织测量系统,该系统包括数据标注与预处理模块、二维腹壁分割网络训练模块、三维腹壁分割网络训练模块和脂肪与肌肉组织测量模块;
所述数据标注与预处理模块用于收集腹部CT体数据作为训练集,按照固定间隔提取CT体数据的横断面切片得到二维CT图像,标注腹壁区域并进行CT图像预处理;利用灰度阈值方法获得腹部CT的身体轮廓区域;
所述二维腹壁分割网络训练模块用于构建二维腹壁分割网络模型,将有标注的二维CT图像集合作为二维腹壁分割网络模型的训练集;对每一张腹壁标签,对腹壁区域进行填洞操作,得到腹壁外壁包围区域;将腹部外壁包围区域减去腹壁区域,得到腹壁内壁包围区域,这样获得两套训练集,分别为CT图像和腹壁外壁包围区域的标注以及CT图像和腹壁内壁包围区域的标注;将两套训练集分别输入到二维腹壁分割网络模型中进行训练,得到对应的腹壁内壁分割网络和腹壁外壁分割网络;
所述三维腹壁分割网络训练模块用于构建三维腹壁分割网络模型,对应于网络输出的每个预测标签,定义交叉熵损失,并引入活动轮廓正则损失;通过训练完成后的腹壁内壁分割网络和腹壁外壁分割网络,得到腹壁外壁包围区域和腹壁内壁包围区域的预测区域,由腹壁外壁包围区域减去腹壁内壁包围区域,得到腹壁预测区域的伪标签,将数据标注与预处理模块中收集的切片前的腹部CT体数据和对应伪标签作为三维腹壁分割网络模型的训练样本集,对三维腹壁分割网络模型进行训练;
所述脂肪与肌肉组织测量模块用于获得待计算腹部脂肪与肌肉组织的腹部CT身体轮廓区域的样本,输入到训练完成的三维腹壁分割网络模型中,得到对腹壁的预测区域,并分离腹壁区域的内轮廓和外轮廓得到腹壁内壁和腹壁外壁,以及对应的腹壁外壁包围区域和腹壁内壁包围区域,之后利用肌肉组织和脂肪组织的HU值范围提取对应组织;计算内脏脂肪、皮下脂肪和骨骼肌对应的含量。
本发明的有益效果:本发明弥补现有腹部脂肪与肌肉测量针对L3层面图像的缺陷,结合深度卷积神经网络和分割目标的HU值先验,对全腹部测量脂肪与骨骼肌组织体积和平均面积。本发明克服现有三维深度分割模型需要大量标注图像的问题,提出一个弱监学习方式,通过构建一个2D-3D分割框架,仅仅利用少量标注图像,训练2D分割模型产生3DCT的伪标签。然后建立一个活动轮廓正则化的三维深度卷积神经网络模型,用于腹壁的三维分割,并且利用活动轮廓正则项提高分割区域的形状正则性和边界光滑性。所提出的2D-3D深度学习分割框可以适用于其他腹部器官的弱监督分割,使得模型可以快速适用于临床影像问题,并且活动轮廓正则化可以移植到其他的深度卷积神经网络结构中,具有良好的可扩展性。本发明具有自动化、精度高、可迁移扩展的特点,可以实现CT、核磁等影像上的不用脂肪及肌肉组织的自动测量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1为本发明提供的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法流程图。
图2为二维腹壁分割网络模型结构示意图。
图3为三维腹壁分割网络模型结构示意图。
图4为测试数据某一层面上的分割结果示意图。
图5为本发明提供的一种基于弱监督学习的腹部脂肪与肌肉组织测量系统结构图。
具体实施方式
以下结合附图对本发明具体实施方式作进一步详细说明。
如图1所示,本发明提供的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法包括腹壁分割模型训练、腹壁分割模型测试和脂肪及肌肉组织测量过程。腹壁分割模型训练过程包括:选取CT体数据中的部分图像进行标注,利用带标注的图像分别训练2D分割网络用于腹部内壁和腹部外壁的自动分割。然后,将训练得到的2D分割网络用于训练集的腹壁内壁和外壁分割,将分割结果所包围的腹壁作为CT体数据的伪标签。最后训练一个带活动轮廓正则化的三维分割网络,用于腹壁结构的三维分割。腹壁分割模型测试阶段包括对测试样本进行测试,得到腹壁预测区域,从中分离出腹壁外壁和腹壁内壁。脂肪及肌肉组织测量过程包括,基于腹壁内壁、腹壁外壁和身体轮廓区域,根据脂肪和肌肉的HU值范围,提取内脏脂肪、皮下脂肪和骨骼肌组织,并计算体积。以上所述的二维分割网络,结构如图2所示,所述的三维分割网络,结构如图3所示。本发明方法具体包括以下步骤:
(1)数据标注与预处理
1.1)收集40例CT体数据作为训练集,记三维CT体数据为X,大小为,其中L为体数据的层数,记训练集CT图像为/>。每隔5cm提取CT体数据的横断面切片,并标注腹壁区域,一共获得361张标注图像用于模型训练。记提取的横断面图像为,对应的腹壁金标准分割为/>,/>中的元素等于0或1,分别表示属于腹壁或不属于腹壁。训练集中的样本也可以使用核磁共振图(MRI)等其他影像数据。
1.2)CT图像预处理,将图像的HU值截断在[-100, 240]之间,然后归一化到[0,1]之间。
1.3)利用灰度阈值方法获得腹部CT的身体轮廓区域。首先,利用K-means对二值化后的图像进行聚类。然后,对其二值图作用形态学开算子。最后,取最大连通域,获得身体轮廓的掩码图像。
(2)二维腹壁分割网络训练
2.1)构建密集连接扩张卷积网络(DenseASPP)网络作为二维腹壁分割网络模型的网络结构,该网络包含两个部分,第一个部分由一层卷积-归一化-ReLU激活-池化层、4个密集块和4层过渡层组成。第一个密集块得到的特征图有96个,后续的增长率为48。密集练级扩张卷积网络的第一部分的输出的特征图大小为1/8大小的输入图像大小,即56×56。密集连接扩张卷积网络的第二个部分是三层密集连接的扩张卷积层,扩张率分别为3,6和12。每一层扩张卷积层的输入为前面所有扩张卷积层的输出。密集连接扩张卷积网络最终输出的特征图大小为56×56。二维腹壁分割网络模型的网络结构也可以替换为其他的深度卷积神经网络模型,例如UNet,DenseNet,ResNet等。
2.2)定义损失函数为交叉熵损失函数
其中N为训练样本个数,即图像个数,N=361,n表示第n张图像,为网络预测概率,为第n个样本标签,log表示取对数。
2.3)将有标注的二维CT图像集合作为二维腹壁分割网络模型的训练集。对每一张腹壁标签,分别提取腹壁外轮廓所包围区域和腹壁内轮廓所包围区域,具体地,对腹壁区域进行填洞操作,得到腹壁外壁包围区域。将腹部外壁包围区域减去腹壁区域,得到腹壁内壁包围区域,这样获得两套训练集,分别为CT图像和腹壁外壁包围区域的标注,CT图像和腹壁内壁包围区域的标注。将两套训练集分别输入到二维腹壁分割网络模型中进行训练,利用Aadam优化方法分别对两个网络参数进行优化,得到腹壁内壁区域和腹部外壁区域的分割网络模型,得到对应的腹壁内壁分割网络和腹壁外壁分割网络/>
2.4)取,/>网络训练20步的模型,将训练集/>三维CT的每张二维图像输入模型中,分别得到腹壁外壁包围区域和腹壁内壁包围区域的预测区域。进一步,对预测区域进行最大连通域选择、填洞算子操作等后处理,再由腹壁外壁包围区域减去腹壁内壁包围区域,得到腹壁预测区域/>。由于网络预测标签与真实标签间存在误差,/>是伪标签。后续,将/>作为三维分割网络的训练样本集。
(3)训练三维腹壁分割网络模型
3.1)构建3D ResUNet作为三维腹壁分割模型的网络结构。该网络包括四个编码块和四个解码块,网络输出为与原始图像输入等大的预测图像。每个编码块由数目不等的卷积-激活层组成。四个编码块分别包括2个、3个、3个和3个卷积-激活层。在每个编码块的最后一层卷积-激活层中,加入一个对输入的残差连接。编码部分输出的特征图大小为256*3*16*16。解码部分包括四个上采样层和四个解码块。每个解码块由数目不等的卷积-激活层组成。四个解码块分别包括3个、3个、3个和2个卷积-激活层。在每个解码块的第一层卷积-激活层中,连接对应的编码块输出的特征图。并且,对每个解码块输出的特征图做一个映射层,该映射层由卷积-上采样-激活层组成。映射层的输出大小均为与网络输入图像等大的图像块,即尺寸为1*48*256*256。三维腹壁分割网络模型的网络结构也可以替换为其他的深度卷积神经网络模型,例如UNet,DenseNet,ResNet等。
3.2)对应于网络输出的每个预测标签,定义交叉熵损失如下
其中,为第j个映射层输出的预测结果,/>为收集的CT体数据个数,/>,/>表示第/>个数据。其中,/>为第j个映射层输出的预测结果,/>为样本标签,log表示取对数。
3.3)对三维腹壁分割网络的目标损失函数引入活动轮廓正则损失,以提高预测区域的正则性和边界光滑性。活动轮廓模型是一种传统的图像分割模型,其基本思想是用曲线演化方式来逼近目标边界。曲线演化过程中受到内力和外力趋动,例如弧长最短形成的曲率,和由图像信息得到的外力。用表示活动轮廓正则损失,具有公式为:
其中第一项为弧长项Length,第二项为区域项Region,/>为平衡参数,取值1。/>表示为在点x处的图灰度值;C表示轮廓曲线,/>表示图像区域。u为示性函数,/>表示x在区域内,/>表示x在区域外。u可以松弛到连续范围[0,1]内。符号/>表示求梯度,/>表示1范数。为了计算,上述公式中的第一项和第二项的离散化形式为:
表示对示性函数/>关于x方向的导数在点(i,j,k)处的值。/>表示对示性函数/>关于y方向的导数在点(i,j,k)处的值。/>表示对示性函数/>关于z方向的导数在点(i,j,k)处的值。/>表示一个很小的数,如1e-6。/>表示示性函数在点(i,j,k)的值。表示在点(i,j,k)的图像像素值。
在活动轮廓模型中,表示腹壁区域内的点,/>和/>由区域内和区域外的像素点计算均值得到:
最终,设置三维腹壁分割网络的损失函数为:
其中为平衡参数,根据经验设置为0.2。
3.4)将带伪标签的三维CT训练集输入到3D ResNet中,利用反向传播算法训练网络参数。训练完成,得到三维腹壁分割网络模型。
(4)脂肪与肌肉组织测量
4.1)获得腹部CT的身体轮廓区域。首先,利用K-means对二值化后的图像进行聚类。然后,对其二值图作用形态学开算子。最后,取最大连通域,获得身体轮廓的掩码图像。
4.2)将20个测试样本输入到三维腹壁分割网络模型中,得到对腹壁的预测区域/>,并分离腹壁区域的内轮廓和外轮廓得到腹壁内壁和腹壁外壁,以及对应的腹壁外壁所包围的区域/>和腹壁内壁包围区域/>
4.3)利用肌肉组织和脂肪组织的HU值范围提取对应组织。骨骼肌区域为腹壁内HU范围在 [-29, 150]之间的组织。内脏脂肪为腹壁内壁包围区域/>内HU值范围在[-190, -30]之间的组织。皮下脂肪为身体轮廓区域与腹壁外壁包围区域之间内HU值范围在[-190, -30]之间的组织。
4.4)计算内脏脂肪、皮下脂肪和骨骼肌对应的含量。计算第1节脊椎到第5节脊椎,即L1-L5之间的皮下脂肪、内脏脂肪和骨骼肌体积,由上一步提取的组织区域体素个数,乘以CT图像一个体素的体积。进一步,由上述结果再除以L1到L5之间的距离,得到三种组织的平均组织面积。用相同方法计算第3节脊椎,即L3位置的脂肪与骨骼肌体积,并除以L3的厚度,得到L3位置的平均脂肪面积和骨骼肌面积。最终,得到了多维度的身体组成成分值。如图4所示,展示了测试数据某一层面上的分割结果,在测试数据的某一冠状面图像上,从左至右,从上至下,分别是原始图像,算法预测的腹壁区域,骨骼肌区域,皮下脂肪区域和内脏脂肪区域。如表1所示,为皮下脂肪、内脏脂肪和骨骼肌组织测量值与真实值在20张L3横断面图像上结果对比,在L3位置横断面图像上,皮下脂肪、内脏脂肪与骨骼肌的算法预测区域与手工标注区域的平均DSC系数分别为0.95,0.91和0.92,达到了较高的重合度。其组织面积估计值与真实值之间的Spearman相关系数分别为0.997,0.988和0,814,算法估计值与真实值之间具有较高的一致性。
表1
另一方面,本发明还提供了一种基于弱监督学习的腹部脂肪与肌肉组织测量系统,如图5所示,该系统包括数据标注与预处理模块、二维腹壁分割网络训练模块、三维腹壁分割网络训练模块和脂肪与肌肉组织测量模块;
所述数据标注与预处理模块用于收集腹部CT体数据作为训练集,按照固定间隔提取CT体数据的横断面切片得到二维CT图像,标注腹壁区域并进行CT图像预处理;利用灰度阈值方法获得腹部CT的身体轮廓区域;所述数据标注与预处理模块的具体实现参考本发明提供的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法的具体过程。
所述二维腹壁分割网络训练模块用于构建二维腹壁分割网络模型,将有标注的二维CT图像集合作为二维腹壁分割网络模型的训练集;对每一张腹壁标签,对腹壁区域进行填洞操作,得到腹壁外壁包围区域;将腹部外壁包围区域减去腹壁区域,得到腹壁内壁包围区域,这样获得两套训练集,分别为CT图像和腹壁外壁包围区域的标注以及CT图像和腹壁内壁包围区域的标注;将两套训练集分别输入到二维腹壁分割网络模型中进行训练,得到对应的腹壁内壁分割网络和腹壁外壁分割网络;所述二维腹壁分割网络训练模块的具体实现参考本发明提供的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法的具体过程。
所述三维腹壁分割网络训练模块用于构建三维腹壁分割网络模型,对应于网络输出的每个预测标签,定义交叉熵损失,并引入活动轮廓正则损失;通过训练完成后的腹壁内壁分割网络和腹壁外壁分割网络,得到腹壁外壁包围区域和腹壁内壁包围区域的预测区域,由腹壁外壁包围区域减去腹壁内壁包围区域,得到腹壁预测区域的伪标签,将数据标注与预处理模块中收集的切片前的腹部CT体数据和对应伪标签作为三维腹壁分割网络模型的训练样本集,对三维腹壁分割网络模型进行训练;所述三维腹壁分割网络训练模块的具体实现参考本发明提供的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法的具体过程。
所述脂肪与肌肉组织测量模块用于获得待计算腹部脂肪与肌肉组织的腹部CT身体轮廓区域的样本,输入到训练完成的三维腹壁分割网络模型中,得到对腹壁的预测区域,并分离腹壁区域的内轮廓和外轮廓得到腹壁内壁和腹壁外壁,以及对应的腹壁外壁包围区域和腹壁内壁包围区域,之后利用肌肉组织和脂肪组织的HU值范围提取对应组织;计算内脏脂肪、皮下脂肪和骨骼肌对应的含量。所述脂肪与肌肉组织测量模块的具体实现参考本发明提供的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法的具体过程。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。

Claims (9)

1.一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,其特征在于,该方法包括以下步骤:
(1)数据标注与预处理:收集腹部CT体数据作为训练集,按照固定间隔提取CT体数据的横断面切片得到二维CT图像,标注腹壁区域并进行CT图像预处理;利用灰度阈值方法获得腹部CT的身体轮廓区域;
(2)二维腹壁分割网络训练:构建二维腹壁分割网络模型,将有标注的二维CT图像集合作为二维腹壁分割网络模型的训练集;对每一张腹壁标签,对腹壁区域进行填洞操作,得到腹壁外壁包围区域;将腹部外壁包围区域减去腹壁区域,得到腹壁内壁包围区域,这样获得两套训练集,分别为CT图像和腹壁外壁包围区域的标注以及CT图像和腹壁内壁包围区域的标注;将两套训练集分别输入到二维腹壁分割网络模型中进行训练,得到对应的腹壁内壁分割网络和腹壁外壁分割网络;
(3)三维腹壁分割网络训练:构建三维腹壁分割网络模型,对应于网络输出的每个预测标签,定义交叉熵损失,并引入活动轮廓正则损失;损失函数如下:
其中,α为平衡参数,为交叉熵损失,/>为活动轮廓正则损失,分别如下:
其中,交叉熵损失中/>为第j个映射层输出的预测结果,Tn’为第Tn’个样本标签,N’为训练样本个数;活动轮廓正则损失/>中第一项为弧长项Length,第二项为区域项Region,λ为平衡参数,符号/>表示求梯度,|·|表示1范数;v(x)表示为在点x处的图灰度值;C表示轮廓曲线,Ω表示图像区域;u为示性函数,u(x)=1表示x在区域内,u(x)=0表示x在区域外;u松弛到连续范围[0,1]内,第一项Length和第二项Region的离散化形式为:
表示对示性函数u关于x方向的导数在点(i,j,k)处的值;/>表示对示性函数u关于y方向的导数在点(i,j,k)处的值;/>表示对示性函数u关于z方向的导数在点(i,j,k)处的值;∈为1e-6;ui,j,k表示示性函数在点(i,j,k)的值;vi,j,k(x)表示在点(i,j,k)的图像像素值;
在活动轮廓正则损失中,c1和c2由区域内和区域外的像素点计算均值得到:
通过训练完成后的腹壁内壁分割网络和腹壁外壁分割网络,得到腹壁外壁包围区域和腹壁内壁包围区域的预测区域,由腹壁外壁包围区域减去腹壁内壁包围区域,得到腹壁预测区域的伪标签,将步骤(1)中收集的切片前的腹部CT体数据和对应伪标签作为三维腹壁分割网络模型的训练样本集,对三维腹壁分割网络模型进行训练;
(4)脂肪与肌肉组织测量:获得待计算腹部脂肪与肌肉组织的腹部CT身体轮廓区域的样本,输入到训练完成的三维腹壁分割网络模型中,得到对腹壁的预测区域,并分离腹壁区域的内轮廓和外轮廓得到腹壁内壁和腹壁外壁,以及对应的腹壁外壁包围区域和腹壁内壁包围区域,之后利用肌肉组织和脂肪组织的HU值范围提取对应组织;计算内脏脂肪、皮下脂肪和骨骼肌对应的含量。
2.根据权利要求1所述的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,其特征在于,步骤(1)中,所述CT图像预处理具体为将CT图像的HU值截断在[-100,240]之间,然后归一化到[0,1]之间。
3.根据权利要求1所述的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,其特征在于,步骤(1)中,所述利用灰度阈值方法获得腹部CT的身体轮廓区域,具体为:利用K-means对二值化后的图像进行聚类,对聚类后的二值图作用形态学开算子,取最大连通域,获得身体轮廓的掩码图像。
4.根据权利要求1所述的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,其特征在于,步骤(2)中,所述二维腹壁分割网络模型选用密集连接扩张卷积网络DenseASPP,该网络包含两个部分,第一个部分由一层卷积-归一化-ReLU激活-池化层、4个密集块和4层过渡层组成;第一个密集块得到的特征图有96个,后续的增长率为48;密集连接扩张卷积网络第一部分的输出的特征图大小为1/8大小的输入图像大小,即56×56;密集连接扩张卷积网络的第二个部分是三层密集连接的扩张卷积层,扩张率分别为3,6和12;每一层扩张卷积层的输入为前面所有扩张卷积层的输出;密集连接扩张卷积网络最终输出的特征图大小为56×56。
5.根据权利要求1所述的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,其特征在于,步骤(2)中,二维腹壁分割网络模型的损失函数为交叉熵损失函数Lbce
其中N为训练样本个数,Pn为网络预测概率,Tn为第n个样本标签。
6.根据权利要求1所述的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,其特征在于,步骤(3)中,所述三维腹壁分割网络模型选用3D ResUNet网络,包括四个编码块和四个解码块,网络输出为与原始图像输入等大的预测图像;每个编码块由数目不等的卷积-激活层组成;四个编码块分别包括2个卷积-激活层、3个卷积-激活层、3个卷积-激活层和3个卷积-激活层;在每个编码块的最后一层卷积-激活层中,加入一个对输入的残差连接;编码部分输出的特征图大小为256*3*16*16;解码部分包括四个上采样层和四个解码块;每个解码块由数目不等的卷积-激活层组成;四个解码块分别包括3个卷积-激活层、3个卷积-激活层、3个卷积-激活层和2个卷积-激活层;在每个解码块的第一层卷积-激活层中,连接对应的编码块输出的特征图;并且,对每个解码块输出的特征图做一个映射层,该映射层由卷积-上采样-激活层组成;映射层的输出大小均为与网络输入图像等大的图像块,即尺寸为1*48*256*256。
7.根据权利要求1所述的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,其特征在于,步骤(4)中,利用肌肉组织和脂肪组织的HU值范围提取对应组织具体过程为:骨骼肌区域为腹壁Rabwall内HU范围在[-29,150]之间的组织;内脏脂肪为腹壁内壁包围区域Rinnerwall内HU值范围在[-190,-30]之间的组织;皮下脂肪为身体轮廓区域与腹壁外壁包围区域之间Rbody-Rinnerwall内HU值范围在[-190,-30]之间的组织。
8.根据权利要求1所述的一种基于弱监督学习的腹部脂肪与肌肉组织测量方法,其特征在于,步骤(4)中,计算内脏脂肪、皮下脂肪和骨骼肌对应的含量的具体过程为:计算第一腰椎L1-第五腰椎L5之间的皮下脂肪、内脏脂肪和骨骼肌体积,通过HU值范围提取的组织区域体素个数,乘以CT图像一个体素的体积,将结果再除以L1到L5之间的距离,得到三种组织的平均组织面积,用相同方法计算第三腰椎L3位置的脂肪与骨骼肌体积,并除以第三腰椎L3的椎骨厚度,得到L3位置的平均脂肪面积和骨骼肌面积,最终,得到了多维度的身体组成成分值。
9.一种基于弱监督学习的腹部脂肪与肌肉组织测量系统,其特征在于,该系统包括数据标注与预处理模块、二维腹壁分割网络训练模块、三维腹壁分割网络训练模块和脂肪与肌肉组织测量模块;
所述数据标注与预处理模块用于收集腹部CT体数据作为训练集,按照固定间隔提取CT体数据的横断面切片得到二维CT图像,标注腹壁区域并进行CT图像预处理;利用灰度阈值方法获得腹部CT的身体轮廓区域;
所述二维腹壁分割网络训练模块用于构建二维腹壁分割网络模型,将有标注的二维CT图像集合作为二维腹壁分割网络模型的训练集;对每一张腹壁标签,对腹壁区域进行填洞操作,得到腹壁外壁包围区域;将腹部外壁包围区域减去腹壁区域,得到腹壁内壁包围区域,这样获得两套训练集,分别为CT图像和腹壁外壁包围区域的标注以及CT图像和腹壁内壁包围区域的标注;将两套训练集分别输入到二维腹壁分割网络模型中进行训练,得到对应的腹壁内壁分割网络和腹壁外壁分割网络;
所述三维腹壁分割网络训练模块用于构建三维腹壁分割网络模型,对应于网络输出的每个预测标签,定义交叉熵损失,并引入活动轮廓正则损失;损失函数如下:
其中,α为平衡参数,为交叉熵损失,/>为活动轮廓正则损失,分别如下:
其中,交叉熵损失中/>为第j个映射层输出的预测结果,Tn’为第Tn’个样本标签,N’为训练样本个数;活动轮廓正则损失/>中第一项为弧长项Length,第二项为区域项Region,λ为平衡参数,符号/>表示求梯度,|·|表示1范数;v(x)表示为在点x处的图灰度值;C表示轮廓曲线,Ω表示图像区域;u为示性函数,u(x)=1表示x在区域内,u(x)=0表示x在区域外;u松弛到连续范围[0,1]内,第一项Length和第二项Region的离散化形式为:
表示对示性函数u关于x方向的导数在点(i,j,k)处的值;/>表示对示性函数u关于y方向的导数在点(i,j,k)处的值;/>表示对示性函数u关于z方向的导数在点(i,j,k)处的值;∈为le-6;ui,j,k表示示性函数在点(i,j,k)的值;vi,j,k(x)表示在点(i,j,k)的图像像素值;
在活动轮廓正则损失中,c1和c2由区域内和区域外的像素点计算均值得到:
通过训练完成后的腹壁内壁分割网络和腹壁外壁分割网络,得到腹壁外壁包围区域和腹壁内壁包围区域的预测区域,由腹壁外壁包围区域减去腹壁内壁包围区域,得到腹壁预测区域的伪标签,将数据标注与预处理模块中收集的切片前的腹部CT体数据和对应伪标签作为三维腹壁分割网络模型的训练样本集,对三维腹壁分割网络模型进行训练;
所述脂肪与肌肉组织测量模块用于获得待计算腹部脂肪与肌肉组织的腹部CT身体轮廓区域的样本,输入到训练完成的三维腹壁分割网络模型中,得到对腹壁的预测区域,并分离腹壁区域的内轮廓和外轮廓得到腹壁内壁和腹壁外壁,以及对应的腹壁外壁包围区域和腹壁内壁包围区域,之后利用肌肉组织和脂肪组织的HU值范围提取对应组织;计算内脏脂肪、皮下脂肪和骨骼肌对应的含量。
CN202310169846.7A 2023-02-27 2023-02-27 基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统 Active CN116309385B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310169846.7A CN116309385B (zh) 2023-02-27 2023-02-27 基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310169846.7A CN116309385B (zh) 2023-02-27 2023-02-27 基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统

Publications (2)

Publication Number Publication Date
CN116309385A CN116309385A (zh) 2023-06-23
CN116309385B true CN116309385B (zh) 2023-10-10

Family

ID=86823333

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310169846.7A Active CN116309385B (zh) 2023-02-27 2023-02-27 基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统

Country Status (1)

Country Link
CN (1) CN116309385B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112265A (zh) * 2013-04-16 2014-10-22 上海联影医疗科技有限公司 结肠图像分割方法及装置
CN108961278A (zh) * 2018-06-20 2018-12-07 深圳市旭东数字医学影像技术有限公司 基于影像数据的腹壁肌肉分割的方法及其系统
CN109671068A (zh) * 2018-12-14 2019-04-23 复旦大学附属中山医院 一种基于深度学习的腹部肌肉标注方法及装置
CN110517241A (zh) * 2019-08-23 2019-11-29 吉林大学第一医院 基于核磁成像ideal-iq序列全自动腹部脂肪定量分析的方法
CN111640120A (zh) * 2020-04-09 2020-09-08 之江实验室 一种基于显著性密集连接扩张卷积网络的胰腺ct自动分割方法
CN112164073A (zh) * 2020-09-22 2021-01-01 江南大学 一种基于深度神经网络的影像三维组织分割与测定方法
CN112168211A (zh) * 2020-03-26 2021-01-05 成都思多科医疗科技有限公司 一种腹部超声图像的脂肪厚度和肌肉厚度测量方法及系统
CN113100740A (zh) * 2021-04-09 2021-07-13 桂林电子科技大学 一种腹部成分分析仪及其分析方法
CN113362310A (zh) * 2021-06-09 2021-09-07 西安智诊智能科技有限公司 一种基于无监督学习的医学图像肝脏分割方法
CN113674281A (zh) * 2021-10-25 2021-11-19 之江实验室 一种基于深度形状学习的肝脏ct自动分割方法
CN114119584A (zh) * 2021-12-01 2022-03-01 张福生 人体成分ct影像标记方法、系统、电子设备和存储介质
CN114305473A (zh) * 2022-01-20 2022-04-12 复旦大学 基于腹部ct图像和深度学习的身体成分自动测量系统
CN114565613A (zh) * 2022-04-29 2022-05-31 之江实验室 基于有监督深度子空间学习的胰腺术后糖尿病预测系统
CN114663431A (zh) * 2022-05-19 2022-06-24 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及系统
CN114758175A (zh) * 2022-04-15 2022-07-15 郑州大学第一附属医院 一种食管胃结合部肿瘤图像分类方法、系统、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060047227A1 (en) * 2004-08-24 2006-03-02 Anna Jerebko System and method for colon wall extraction in the presence of tagged fecal matter or collapsed colon regions
CN112654304A (zh) * 2018-09-05 2021-04-13 皇家飞利浦有限公司 利用超声成像的脂肪层识别
US11526993B2 (en) * 2019-05-30 2022-12-13 Springbok, Inc. System and method for automatic segmentation of muscles from high-resolution MRI using 3D deep convolutional neural network
US20220370033A1 (en) * 2021-05-05 2022-11-24 Board Of Trustees Of Southern Illinois University Three-dimensional modeling and assessment of cardiac tissue

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112265A (zh) * 2013-04-16 2014-10-22 上海联影医疗科技有限公司 结肠图像分割方法及装置
CN108961278A (zh) * 2018-06-20 2018-12-07 深圳市旭东数字医学影像技术有限公司 基于影像数据的腹壁肌肉分割的方法及其系统
CN109671068A (zh) * 2018-12-14 2019-04-23 复旦大学附属中山医院 一种基于深度学习的腹部肌肉标注方法及装置
CN110517241A (zh) * 2019-08-23 2019-11-29 吉林大学第一医院 基于核磁成像ideal-iq序列全自动腹部脂肪定量分析的方法
CN112168211A (zh) * 2020-03-26 2021-01-05 成都思多科医疗科技有限公司 一种腹部超声图像的脂肪厚度和肌肉厚度测量方法及系统
CN111640120A (zh) * 2020-04-09 2020-09-08 之江实验室 一种基于显著性密集连接扩张卷积网络的胰腺ct自动分割方法
CN112164073A (zh) * 2020-09-22 2021-01-01 江南大学 一种基于深度神经网络的影像三维组织分割与测定方法
CN113100740A (zh) * 2021-04-09 2021-07-13 桂林电子科技大学 一种腹部成分分析仪及其分析方法
CN113362310A (zh) * 2021-06-09 2021-09-07 西安智诊智能科技有限公司 一种基于无监督学习的医学图像肝脏分割方法
CN113674281A (zh) * 2021-10-25 2021-11-19 之江实验室 一种基于深度形状学习的肝脏ct自动分割方法
CN114119584A (zh) * 2021-12-01 2022-03-01 张福生 人体成分ct影像标记方法、系统、电子设备和存储介质
CN114305473A (zh) * 2022-01-20 2022-04-12 复旦大学 基于腹部ct图像和深度学习的身体成分自动测量系统
CN114758175A (zh) * 2022-04-15 2022-07-15 郑州大学第一附属医院 一种食管胃结合部肿瘤图像分类方法、系统、设备及存储介质
CN114565613A (zh) * 2022-04-29 2022-05-31 之江实验室 基于有监督深度子空间学习的胰腺术后糖尿病预测系统
CN114663431A (zh) * 2022-05-19 2022-06-24 浙江大学 基于强化学习和注意力的胰腺肿瘤图像分割方法及系统

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Automated Segmentation of Abdominal Skeletal Muscle on Pediatric CT Scans Using Deep Learning;James Castiglione 等;《Radiology: Artificial Intelligence》;1-9 *
Clinical evaluation of automated segmentation for body composition analysis on abdominal L3 CT slices in polytrauma patients;Leanne L.G.C. Ackermans 等;《Injury》;S30-S41 *
CT相关骨骼肌参数在胃肠道肿瘤中的临床进展;李怡 等;《肿瘤代谢与营养电子杂志》;494-498 *
L3骨骼肌指数评估肝硬化患者预后的相关研究;石志文;《中国优秀硕士学位论文全文数据库 医药卫生科技辑》;E064-26 *
三维可视化技术在腹壁肿瘤外科中的应用;宋致成 等;《中华疝和腹壁外壳杂志(电子版)》;506-510 *
基于影像组学的肌肉成分分析在预测肝移植术后并发症中的研究;石鑫;《中国优秀硕士学位论文全文数据库 医药卫生科技辑》;E066-547 *
基于深度学习的融合网络自动分割女性盆腔危及器官的研究;吴青南;《中国优秀硕士学位论文全文数据库 医药卫生科技辑》;E068-18 *
腹部CT图像分割的可计算建模方法研究;胡佩君;《中国博士论文全文数据库 信息科技辑》;I138-15 *

Also Published As

Publication number Publication date
CN116309385A (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN111640120B (zh) 一种基于显著性密集连接扩张卷积网络的胰腺ct自动分割方法
CN111553892B (zh) 基于深度学习的肺结节分割计算方法、装置及系统
CN100463655C (zh) 一种腹部ct图像自动测量装置
CN107766874B (zh) 一种超声容积生物学参数的测量方法及测量系统
CN110619635B (zh) 基于深度学习的肝细胞癌磁共振图像分割系统和方法
CN113744271B (zh) 基于神经网络的视神经自动分割和受压迫程度测算方法
CN113034507A (zh) 基于ccta影像的冠状动脉三维分割方法
CN112508884A (zh) 一种癌变区域综合检测装置及方法
CN112634265A (zh) 基于dnn的胰腺全自动分割模型的构建、分割方法及系统
CN115018863A (zh) 基于深度学习的图像分割方法及装置
CN114305473A (zh) 基于腹部ct图像和深度学习的身体成分自动测量系统
CN116309385B (zh) 基于弱监督学习的腹部脂肪与肌肉组织测量方法及系统
CN116758087A (zh) 一种腰椎ct骨窗侧隐窝间隙检测方法及装置
CN116883341A (zh) 一种基于深度学习的肝脏肿瘤ct图像自动分割方法
CN116486156A (zh) 融合多尺度特征上下文的全视野数字切片图像分类方法
CN113409447B (zh) 一种基于多切片组合的冠状动脉分割方法和装置
CN116309640A (zh) 一种基于多层级多注意力MLMA-UNet网络的图像自动分割方法
CN115294023A (zh) 肝脏肿瘤自动分割方法及装置
CN115170502A (zh) 一种基于深度学习的股骨滑车宽度测量方法
CN114359194A (zh) 基于改进U-Net网络的多模态脑卒中梗死区域图像处理方法
CN115147378B (zh) 一种ct图像分析提取方法
CN113643317B (zh) 基于深度几何演化模型的冠状动脉分割方法
Wang et al. Automatic Image Segmentation and Cobb Measurement of Spine Base on U-Net
Li et al. Uncertainty quantification in medical image segmentation
CN116152278B (zh) 医疗图像的分割方法及装置、非易失性存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant