CN111696082A - 图像分割方法、装置、电子设备及计算机可读存储介质 - Google Patents

图像分割方法、装置、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN111696082A
CN111696082A CN202010431606.6A CN202010431606A CN111696082A CN 111696082 A CN111696082 A CN 111696082A CN 202010431606 A CN202010431606 A CN 202010431606A CN 111696082 A CN111696082 A CN 111696082A
Authority
CN
China
Prior art keywords
image
network model
layer
feature map
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010431606.6A
Other languages
English (en)
Inventor
章古月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202010431606.6A priority Critical patent/CN111696082A/zh
Priority to PCT/CN2020/098975 priority patent/WO2021151275A1/zh
Publication of CN111696082A publication Critical patent/CN111696082A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及人工智能领域,提供了一种图像分割方法,该方法包括:将DICOM格式的腹部CT图像数据转换为JPG格式的腹部图像;将所述JPG格式的腹部图像输入基于Vnet网络模型构建的生成网络模型;通过所述生成网络模型生成6通道的预测分割标签;根据所述6通道的预测分割标签得到预测分割结果图像,其中,预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。此外,本发明还涉及区块链技术,所述DICOM格式的腹部CT图像数据、所述JPG格式的腹部图像存储于区块链中。这样,可以提高腹部肌肉图像、脂肪图像的分割效果。

Description

图像分割方法、装置、电子设备及计算机可读存储介质
技术领域
本发明涉及人工智能领域,尤其涉及图像分割方法、装置、电子设备及计算机可读存储介质。
背景技术
脂肪与骨骼肌等人体成分分析是医学研究的重要手段,人体内含有的脂肪与骨骼肌等成分含量情况,是评价个体营养状态的重要依据,在患者的诊断、治疗与预后等临床环节具有重要指导意义。目前,基于电子计算机断层扫描(Computed Tomography,CT)等影像学技术的脂肪与骨骼肌定量分析是广受认可的评估手段。特别是脐平面CT图像的骨骼肌面积、内脏脂肪面积、皮下脂肪面积、全腹脂肪体积等指标具有重要的临床价值。
目前医生普遍方法是针对腹部脐平面图像,根据阈值将内脏脂肪和皮下脂肪分割出来,后续手动标注肌肉的分界线,对肌肉图像与脂肪图像进行分割。但是,由于手动标注肌肉的分界线非常耗时,分界线的精度不佳,导致存在腹部肌肉图像与脂肪图像分割耗时久、分割效果差的问题。
因此,如何在克服以上不足的情况下,提供基于CT腹部图像的图像处理方案,已经成为一个亟待解决的技术问题。
发明内容
有鉴于此,本发明提出图像分割方法、装置、电子设备及计算机可读存储介质,以解决现有技术中腹部肌肉图像与脂肪图像分割耗时久、分割精度低的问题。
首先,为实现上述目的,本发明提出一种图像分割方法,所述方法包括步骤:
将DICOM格式的腹部CT图像数据转换为JPG格式的腹部图像;
基于Vnet网络模型构建生成网络模型,将所述JPG格式的腹部图像输入所述生成网络模型;
通过所述生成网络模型生成6通道的预测分割标签,其中,所述6通道的预测分割标签包括皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景预测分割标签;
根据所述6通道的预测分割标签得到预测分割结果图像,其中,所述预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。
可选地,所述DICOM格式的腹部CT图像数据、所述JPG格式的腹部图像存储于区块链中,所述基于Vnet网络模型构建生成网络模型,包括以下步骤:
将所述Vnet网络模型编码阶段的卷积核设置为二维卷积核;
将所述Vnet网络模型解码阶段的反卷积替换为双线性插值,得到修改后的Vnet网络模型;
在所述修改后的Vnet网络模型中接入通道注意力CA模块,得到所述生成网络模型,其中,所述CA模块用于获取所述修改后的Vnet网络的编码阶段、解码阶段生成的高级特征图的语义信息,并根据所述语义信息从低级特征图中选取属于高级特征图的像素点信息;
其中,所述高级特征图及低级特征图根据在编码阶段及解码阶段获得特征图的先后顺序确定,在所述编码阶段相邻编码层中,下一层编码层获得的特征图比上一编码层获得的特征图要高级;在所述解码阶段相邻编码层中,上一解密层获得的特征图比下一解密层获得的特征图要低级。
可选地,所述通过所述生成网络模型生成6通道的预测分割标签,包括以下步骤:
通过所述生成网络模型的编码阶段获取每个编码层的特征图;
通过所述生成网络模型的解码阶段获取每个解码层的特征图;
在编码阶段,通过所述CA模块将所述编码阶段相邻编码层的下一层h*w*2c维度的高级特征进行通道化操作、激活操作,得到不同通道的第一权重结果,将所述不同通道的第一权重结果与相邻编码层的上一层2h*2w*c维度的低级特征相乘,得到2h*2w*c维度的第一特征图;
在解码阶段,通过所述CA模块将所述解码阶段相邻解码层的上一层2h*2w*c维度的高级特征进行通道化操作、激活操作,得到不同通道的第二权重结果;将所述不同通道的第二权重结果与相邻编码层的下一层2h*2w*c维度的低级特征相乘,得到2h*2w*c维度的第二特征图;
根据所述编码阶段每一层获得的特征图、所述解码阶段每一层获得的特征图、所述第一特征图、所述第二特征图,得到所述6通道的预测分割标签。
可选地,所述根据所述6通道的预测分割标签得到预测分割结果图像之后,所述方法还包括以下步骤:
从所述预测分割结果图像确定皮下脂肪区域、内脏脂肪区域、肌肉区域的像素点个数,根据所述确定的像素点个数及预先获取的物理空间换算参数,确定皮下脂肪、内脏脂肪、肌肉的实际面积。
可选地,所述根据所述确定的像素点个数及预先获取的物理空间换算参数,确定皮下脂肪、内脏脂肪、肌肉的实际面积之后,所述方法还包括以下步骤:
从所述腹部CT图像数据获取扫描层厚信息,将所述皮下脂肪、内脏脂肪、肌肉的实际面积乘以所述扫描层厚得到所述皮下脂肪、内脏脂肪及肌肉的实际体积。
可选地,所述将所述皮下脂肪区域、内脏脂肪区域、肌肉区域的实际面积乘以所述扫描层厚得到所述皮下脂肪、内脏脂肪及肌肉的实际体积之后,所述方法还包括以下步骤:
分别将所述预测分割标签与所述金标准图像对应的真实标签输入所述判别网络模型,分别得到所述预测分割结果图像与所述金标准图像的判别分数,依据所述判别分数判断所述预测分割结果图像与金标准图像之间的差距,基于所述差距对所述生成网络模型进行参数调整,以优化所述生成网络模型。
为实现上述目的,本发明还提供一种图像分割装置,包括:
转换模块,用于将DICOM格式的腹部CT图像数据转换为JPG格式的腹部图像;
处理模块,用于基于Vnet网络模型构建生成网络模型,将所述JPG格式的腹部图像输入所述生成网络模型;
生成模块,用于通过所述生成网络模型生成6通道的预测分割标签,其中,所述6通道的预测分割标签包括皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景预测分割标签;
获取模块,用于根据所述6通道的预测分割标签获取预测分割结果图像,其中,所述预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。
可选的,所述DICOM格式的腹部CT图像数据、所述JPG格式的腹部图像存储于区块链中,所述基于Vnet网络模型构建生成网络模型,包括:
将所述Vnet网络模型编码阶段的卷积核设置为二维卷积核;
将所述Vnet网络模型解码阶段的反卷积替换为双线性插值,得到修改后的Vnet网络模型;
在所述修改后的Vnet网络模型中接入通道注意力CA模块,得到所述生成网络模型,其中,所述CA模块用于获取所述修改后的Vnet网络的编码阶段、解码阶段生成的高级特征图的语义信息,并根据所述语义信息从低级特征图中选取属于高级特征图的像素点信息;
其中,所述高级特征图及低级特征图根据在编码阶段及解码阶段获得特征图的先后顺序确定,在所述编码阶段相邻编码层中,下一层编码层获得的特征图比上一编码层获得的特征图要高级;在所述解码阶段相邻编码层中,上一解密层获得的特征图比下一解密层获得的特征图要低级。
此外,为实现上述目的,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一所述的图像分割方法。
进一步地,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机程序被处理器执行时实现如权利要求1至6中任一所述的图像分割方法。
相较于现有技术,本发明所提出的图像分割方法、装置、电子设备及计算机可读存储介质,通过将所述JPG格式的腹部图像输入基于Vnet网络模型构建的生成网络模型;通过所述生成网络模型生成6通道的预测分割标签;根据所述6通道的预测分割标签得到预测分割结果图像,其中,预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。这样,无须手动标注,就可以得到比较准确的腹部肌肉图像与脂肪图像,减少腹部肌肉图像、脂肪图像分割的时间,提高腹部肌肉图像、脂肪图像的分割效果。
附图说明
图1是本发明图像分割方法第一实施例的流程示意图;
图2是本发明图像分割方法的步骤S102的流程示意图;
图3是本发明图像分割方法的步骤S104的流程示意图;
图4是本发明图像分割装置的CA模块一实施例的示意图;
图5是本发明图像分割装置的预测分割结果图像一实施例的示意图;
图6是本发明图像分割装置的金标准图像一实施例的示意图;
图7为本发明图像分割装置的判别网络模型一实施例的示意图;
图8是本发明图像分割装置第一实施例的程序模块示意图;
图9是本发明图像分割装置的处理模块一实施例的示意图;
图10是本发明图像分割装置的生成模块一实施例的示意图;
图11是本发明电子设备一可选的硬件架构的示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提出一种图像分割方法。参照图1所示,为本发明一实施例提供的图像分割方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,图像分割方法包括:
步骤S100,将DICOM格式的腹部CT图像数据转换为JPG格式的腹部图像。
在本实施例中,对医学数字成像和通信(Digital Imaging and Communicationsin Medicine,DICOM)格式的CT腹部图像数据设置针对腹部图像特定的窗宽窗位,然后通过格式转换程序将DICOM格式的CT图像数据转换为JPG格式的腹部图像,并保存JPG格式的腹部图像。需要强调的是,为进一步保证上述DICOM格式的腹部CT图像数据、JPG格式的腹部图的私密和安全性,上述DICOM格式的腹部CT图像数据、JPG格式的腹部图还可以存储于一区块链的节点中。
本实施例中,针对腹部图像的特定窗宽窗位可以设置为窗宽400HU、窗位10HU。可以理解的是,所述DICOM格式的腹部CT图像数据中包含患者的受保护的健康信息(Protected Health Information,PHI),例如姓名,性别,年龄,以及其他图像相关信息,比如捕获并生成图像的设备信息,医疗的一些上下文相关信息等。所述DICOM格式的腹部CT图像数据携带着大量的信息,这些信息具体可以分为以下四类:(a)病人Patient信息、(b)检查Study信息、(c)序列Series信息、(d)图像Image信息。Patient信息包括患者姓名、患者ID、患者性别、患者体重等。Study信息包括:检查号、检查实例号、检查日期、检查时间、检查部位、检查的描述等。Series信息包括序列号、检查模态、图像位置、检查描述和说明、图像方位、图像位置、层厚、层与层之间的间距、实际相对位置及身体位置等。Image信息包括影像拍摄的时间、像素间距pixel spacing、图像码、图像上的采样率等信息。根据像素间距pixel spacing,可以获取像素点与物理空间面积之间的换算参数,根据换算参数,可以计算像素区域相对应的物理空间的实际面积。
步骤S102,基于Vnet网络模型构建生成网络模型,将所述JPG格式的腹部图像输入所述生成网络模型。
可选的,请参阅图2,所述步骤S102包括以下步骤:
步骤S1021,将所述Vnet网络模型编码阶段的卷积核设置为二维卷积核;
步骤S1022,将所述Vnet网络模型解码阶段的反卷积替换为双线性插值,得到修改后的Vnet网络模型;
步骤S1023,在所述修改后的Vnet网络模型中接入通道注意力CA模块,得到所述生成网络模型,其中,所述CA模块用于获取所述修改后的Vnet网络的编码阶段、解码阶段生成的高级特征图的语义信息,并根据所述语义信息从低级特征图中选取属于高级特征图的像素点信息;
其中,所述高级特征图及低级特征图根据在编码阶段及解码阶段获得特征图的先后顺序确定,在所述编码阶段相邻编码层中,下一层编码层获得的特征图比上一编码层获得的特征图要高级;在所述解码阶段相邻编码层中,上一解密层获得的特征图比下一解密层获得的特征图要低级。
在本实施例中,所述Vnet网络模型为福斯托·米勒塔里(Fausto Milletari)、纳西尔·纳瓦卜(Nasir nawab)、赛义德·艾哈迈德·艾哈迈迪(Seyed-Ahmad Ahmadi)等提出的医学影像Vnet网络模型。所述Vnet网络模型是典型的编码-解码网络模型。在所述Vnet网络模型中,编码阶段包括多个编码层,每个编码层包括卷积层、激活层、下采样层。解码阶段包括多个解码层,每个解码层包括反卷积层、激活层、上采样层。
所述Vnet网络模型编码阶段的卷积核是基于三维的卷积核,但由于CT数据扫描层的层厚较厚,导致三维数据并不可靠。在本实施例中,将所述Vnet网络模型编码阶段的卷积核设置为二维卷积核,基于二维图像单独进行分割。在本实施例中,为了减少可学习的参数量,将所述Vnet网络模型的解码阶段的反卷积替换为双线性插值。
步骤S104,通过所述生成网络模型生成6通道的预测分割标签,其中,所述6通道的预测分割标签包括皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景预测分割标签。
可选的,请参阅图3,所述步骤S104包括以下步骤:
步骤S1041,通过所述生成网络模型的编码阶段获取每个编码层的特征图;
步骤S1042,通过所述生成网络模型的解码阶段获取每个解码层的特征图;
步骤S1043,在编码阶段,通过所述CA模块将所述编码阶段相邻编码层的下一层h*w*2c维度的高级特征进行通道化操作、激活操作,得到不同通道的第一权重结果,将所述不同通道的第一权重结果与相邻编码层的上一层2h*2w*c维度的低级特征相乘,得到2h*2w*c维度的第一特征图;
步骤S1044,在解码阶段,通过所述CA模块将所述解码阶段相邻解码层的上一层2h*2w*c维度的高级特征进行通道化操作、激活操作,得到不同通道的第二权重结果;将所述不同通道的第二权重结果与相邻编码层的下一层2h*2w*c维度的低级特征相乘,得到2h*2w*c维度的第二特征图;
步骤S1045,根据所述编码阶段每一层获得的特征图、所述解码阶段每一层获得的特征图、所述第一特征图、所述第二特征图,得到所述6通道的预测分割标签。
在本实施例,所述生成网络模型的编码阶段,通过卷积层执行卷积操作从输入的腹部CT图像中提取特征,在编码阶段的每一层结束后,使用适当的步幅来降低分辨率,若上一层分辨率为2h*2w,则下一层分辨率降低为h*w。在本实施例中,所述生成网络模型的编码阶段下一层特征比上一层的特征增大一倍,若所述生成网络模型的编码阶段上一层特征数量为c,则下一层的特征数量为2c。
在本实施例,通过所述生成网络模型的编码阶段获取每个编码层的特征图,在所述编码阶段相邻编码层下一层编码层获得的特征图比上一编码层获得的特征图要高级。所述生成网络模型的编码阶段相邻编码层的下一层获取到的高级特征为h*w*2c维度的高级特征,其中,h代表图形的高,w代表图形的宽,2c代表特征数量。所述生成网络模型的编码阶段相邻编码层的上一层获取到的低级特征为2h*2w*c维度的低级特征,2h代表图形的高,2w代表图形的宽,c代表特征数量。
在本实施例,所述生成网络模型的解码阶段,通过反卷积层将每个输入体素通过内核投影到更大的区域来增加数据大小,若上一层分辨率为h*w,则下一层分辨率提高为2h*2w。在本实施例中,所述生成网络模型的解码阶段下一层特征比上一层的特征减小一倍,若所述生成网络模型的编码阶段上一层特征数量为2c,则下一层的特征数量为c。
在本实施例中,通过所述生成网络模型的解码阶段获取每个解码层的特征图,在所述解码阶段相邻编码层中上一层解密层获得的特征图比下一层解密层获得的特征图要低级。在本实施例中,所述生成网络模型的解码阶段相邻解码层的上一层获取到的高级特征为h*w*2c维度的高级特征,其中,h代表图形的高,w代表图形的宽,2c代表特征数量。所述生成网络模型的解码码阶段相邻解码层的下一层获取到的低级特征为2h*2w*c维度的低级特征,2h代表图形的高,2w代表图形的宽,c代表特征数量。
需要说明的是,随着编码过程的不断加深,得到的特征表达也逐渐变得丰富。但由于多个卷积过程,以及非线性函数的应用,导致高级特征图中的位置信息大量丢失,从而造成大量像素点的错分类的现象。在所述修改后的Vnet网络中接入通道注意力(Channel-Attention,CA)模块,通过CA模块对错分类的像素点进行校正。
步骤S1043中所述通过所述CA模块将所述编码阶段相邻编码层的下一层h*w*2c维度的高级特征进行通道化操作、激活操作,得到不同通道的第一权重结果,包括以下步骤:
将相邻编码层的下一层的h*w*2c维度的高级特征通过所述CA模块的全局平均池化、1*1卷积、批标准化(Batch Normalization,BN)算法模型、非线性(Rectified LinearUnits,ReLu)激活函数,得到1*1*c的特征通道,c表示特征数量;将所述1*1*c的特征通道通过全连接层及sigmoid激活函数,得到不同通道的第一权重结果。
步骤S1044中所述通过所述CA模块将所述解码阶段相邻解码层的上一层2h*2w*c维度的高级特征进行通道化操作、激活操作,得到不同通道的第二权重结果,包括以下步骤:将相邻解码层的上一层的h*w*2c维度的高级特征通过所述CA模块的全局平均池化、1*1卷积、BN算法模型、ReL激活函数,得到1*1*c的特征通道,c表示特征数量;将所述1*1*c的特征通道通过全连接层及sigmoid激活函数,得到不同通道的第二权重结果。
请参阅图4,所述CA模块处理流程主要包括通道化Channelization操作、激活Activation操作及权重赋值Reweighting操作。在编码阶段,通过所述CA模块将所述编码阶段相邻编码层的下一层的高级特征进行通道化操作,其中,所述通道化操作包括:将相邻编码层的下一层的高级特征通过所述CA模块的全局平均池化、1*1卷积、BN算法模型、ReLu激活函数,得到1*1*c的特征通道,c表示特征数量;将所述1*1*c的特征通道进行激活操作,其中,所述激活操作包括:将所述1*1*c的特征通道通过全连接层及sigmoid激活函数,得到不同通道的权重结果;将所述不同通道的权重结果与相邻编码层的上一层的低级特征相乘,得到第一特征图,所述第一特征图为2h*2w*c维度的特征图。
在解码阶段,通过所述CA模块将所述解码阶段相邻解码层的上一层的高级特征进行通道化操作,其中,所述通道化操作包括:将相邻编码层的上一层的高级特征通过所述CA模块的全局平均池化、1*1卷积、BN算法模型、ReLu激活函数,得到1*1*c的特征通道,c表示特征数量;将所述1*1*c的特征通道进行激活操作,其中,所述激活操作包括:将所述1*1*c的特征通道通过全连接层及sigmoid激活函数,得到不同通道的权重结果;将所述不同通道的权重结果与相邻编码层的下一层的低级特征相乘,得到第二特征图,述第二特征图为2h*2w*c维度的特征图。
步骤S106,根据所述6通道的预测分割标签得到预测分割结果图像,其中,所述预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。
在本实施例中,所述6通道的预测分割标签分别表示皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景的预测分割标签,用不同颜色进行填充得到预测分割结果图像,例如,可以用红色绘制皮下脂肪、绿色绘制肌肉、黄色绘制骨头、蓝色绘制内脏脂肪、粉色绘制内脏器官、黑色绘制背景。请参阅图5,在图5的图中用不同灰度的颜色代表皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景这6类分类。
这样,无须手动标注,就可以得到比较准确的腹部肌肉图像与脂肪图像,减少腹部肌肉图像、脂肪图像的分割时间,提高腹部肌肉图像、脂肪图像的分割效果。
可选的,所述图像分割方法还包括:
从所述预测分割结果图像确定皮下脂肪区域、内脏脂肪区域、肌肉区域的像素点个数,根据所述确定的像素点个数及预先获取的物理空间换算参数,确定皮下脂肪、内脏脂肪、肌肉的实际面积。
在本实施例中,从所述预测分割结果图像中确定皮下脂肪区域、内脏脂肪区域、肌肉区域的像素点个数,从所述DICOM格式的CT图像数据获取像素点与物理空间面积之间的换算参数,根据所述皮下脂肪区域、内脏脂肪、肌肉区域的像素点个数乘以所述换算参数的平方,确定皮下脂肪、内脏脂肪、肌肉的实际面积。
进一步说明的是,所述DICOM格式的CT图像数据的image信息包括影像拍摄的时间、像素间距pixel spacing、图像码、图像上的采样率等信息。根据像素间距pixelspacing,可以获取像素点与物理空间面积之间的换算参数,根据以下公式(1)计算皮下脂肪、内脏脂肪、肌肉的实际面积。公式(1)s=n*x^2,其中,s表示皮下脂肪、内脏脂肪、肌肉的实际面积,n表示皮下脂肪区域、内脏脂肪区域、肌肉区域的总像素点个数,x表示换算参数。
这样,可以得到准确的腹部脂肪及肌肉面积,提高实际脂肪及肌肉面积的准确率。
可选的,所述图像分割方法还包括:
从所述腹部CT图像数据获取扫描层厚信息,将所述皮下脂肪、内脏脂肪、肌肉的实际面积乘以所述扫描层厚得到所述皮下脂肪、内脏脂肪及肌肉的实际体积。
在本实施例中,所述DICOM格式的腹部CT图像数据的Series信息包括序列号、检查模态、图像位置、检查描述和说明、图像方位、图像位置、层厚、层与层之间的间距、实际相对位置及身体位置等。故从所述DICOM格式的CT图像数据可以获得扫描层厚信息。将所述皮下脂肪区域、内脏脂肪区域、肌肉区域的实际面积乘以所述扫描层厚,得到所述皮下脂肪、内脏脂肪及肌肉的实际体积。
可选的,所述图像分割方法还包括:
分别将所述预测分割标签与所述金标准图像对应的真实标签输入所述判别网络模型,分别得到所述预测分割结果图像与所述金标准图像的判别分数,依据判别分数判断所述预测分割结果图像与所述金标准图像之间的差距,基于所述差距对所述生成网络模型进行参数调整,以优化所述生成网络模型。
这样,可以通过对生成网络模型进行参数调整,优化生成网络模型,以便提高腹部图像分割的效果。
在本实施例中,金标准图像为人手动标注过的分割结果,用来与网络预估的结果相比较,来评定生成网络模型的性能。金标准图像用不同颜色代表皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景。请参阅图7,图7为用不同灰度颜色代表皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景区域的金标准图像。
请参阅图7,图7为判别网络模型的架构示意图。所述判别网络模型包括6个卷积层,第一卷积层802包括3*3卷积层、非线性ReLu激活函数;第二卷积层803包括3*3卷积层、批标准化算法模型、非线性ReLu激活函数;第三卷积层804包括3*3卷积层、批标准化算法模型、非线性ReLu激活函数;第四卷积层805包括3*3卷积层、批标准化算法模型、非线性ReLu激活函数;第五卷积层806包括3*3卷积层、批标准化算法模型、非线性ReLu激活函数;第六卷积层807包括全局平均池化、1*1卷积层。801代表512*512*6维度的预测分割标签或金标准图像对应的真实标签。
在本实施例中,分别将512*512*6维度的预测分割标签和金标准图像对应的真实标签输入所述判别网络模型,使用大小为3,步长为2的卷积操作进行下采样,下采样次数对应所述生成网络模型中编码器下采样的次数,共下采样5次,得到16*16*256的特征图,最后经过全局平均池化和1*1的卷积核分别得到金标准图像和预测分割图片的判别分数。
在本实施例中,将对所述预测标签结果图像、金标准图像之间的KL散度(KullbackLeibler divergence)的优化,调整为对推土机距离(Earth Mover distance)的优化,所述推土机距离可以一直指导所述生成网络模型的优化,不受到梯度消失的困扰。
本实施例中,通过梯度惩罚对所述生成网络模型及判别网络模型的训练过程进行加速收敛。零中心的梯度惩罚更加容易收敛到中心点,故而使用零中心的梯度惩罚。
在本实施例中,所述生成网络模型及判别网络模型分别具有对应的损失函数。
所述生成网络模型的损失函数如下:
Figure BDA0002500803280000141
其中,
Figure BDA0002500803280000142
λ=0.001,
Figure BDA0002500803280000143
所述判别网络模型的损失函数如下:
Figure BDA0002500803280000144
其中c=0,λ=10,pinter(Iinter)是由真样本分布和假样本分布插值得到的衍生分布。
下面对损失函数的英文进行中文说明:Loss:损失;Orig:原图;Dice:dice系数;Gen:生成网络模型;I:图像;Mask;掩膜;D:判别网络模型;G:生成网络模型;p_g:假样本分布;p_train:真样本分布;P_inter:由真样本分布和假样本分布插值得到的衍生分布;C:中心,C等于0为零中心。
所述生成网络模型及判别网络模型通过不断学习,降低这两个损失函数的值,来达到优化的目的。
本发明所提出的图像分割方法,通过将所述JPG格式的腹部图像输入基于Vnet网络模型构建的生成网络模型;通过所述生成网络模型生成6通道的预测分割标签;根据所述6通道的预测分割标签得到预测分割结果图像,其中,预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。这样,无须手动标注,就可以得到比较准确的腹部肌肉图像与脂肪图像,减少腹部肌肉图像、脂肪图像分割的时间,提高腹部肌肉图像、脂肪图像的分割效果。
参阅图8所示,是本发明提出一种图像分割装置100。
本发明所述图像分割装置100可以安装于电子设备中。根据实现的功能,所述图像分割装置可以包括转换模块101、处理模块102、生成模块103、获取模块104。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述转换模块101,用于将DICOM格式的腹部CT图像数据转换为JPG格式的腹部图像。
在本实施例中,对医学数字成像和通信(Digital Imaging and Communicationsin Medicine,DICOM)格式的CT腹部图像数据设置针对腹部图像特定的窗宽窗位,然后通过格式转换程序将DICOM格式的CT图像数据转换为JPG格式的腹部图像,并保存JPG格式的腹部图像。需要强调的是,为进一步保证上述DICOM格式的腹部CT图像数据、JPG格式的腹部图的私密和安全性,上述DICOM格式的腹部CT图像数据、JPG格式的腹部图还可以存储于一区块链的节点中。
本实施例中,针对腹部图像的特定窗宽窗位可以设置为窗宽400HU、窗位10HU。可以理解的是,所述DICOM格式的腹部CT图像数据中包含患者的受保护的健康信息(Protected Health Information,PHI),例如姓名,性别,年龄,以及其他图像相关信息,比如捕获并生成图像的设备信息,医疗的一些上下文相关信息等。所述DICOM格式的腹部CT图像数据携带着大量的信息,这些信息具体可以分为以下四类:(a)病人Patient信息、(b)检查Study信息、(c)序列Series信息、(d)图像Image信息。Patient信息包括患者姓名、患者ID、患者性别、患者体重等。Study信息包括:检查号、检查实例号、检查日期、检查时间、检查部位、检查的描述等。Series信息包括序列号、检查模态、图像位置、检查描述和说明、图像方位、图像位置、层厚、层与层之间的间距、实际相对位置及身体位置等。Image信息包括影像拍摄的时间、像素间距pixel spacing、图像码、图像上的采样率等信息。根据像素间距pixel spacing,可以获取像素点与物理空间面积之间的换算参数,根据换算参数,可以计算像素区域相对应的物理空间的实际面积。
所述处理模块102,用于基于Vnet网络模型构建生成网络模型,将所述JPG格式的腹部图像输入所述生成网络模型。
可选的,请参阅图9,所述处理模块102包括:
设置子模块1021,用于将所述Vnet网络模型编码阶段的卷积核设置为二维卷积核;
替换子模块1022,用于将所述Vnet网络模型解码阶段的反卷积替换为双线性插值,得到修改后的Vnet网络模型;
接入子模块1023,用于在所述修改后的Vnet网络模型中接入通道注意力CA模块,得到所述生成网络模型,其中,所述CA模块用于获取所述修改后的Vnet网络的编码阶段、解码阶段生成的高级特征图的语义信息,并根据所述语义信息从低级特征图中选取属于高级特征图的像素点信息;
其中,所述高级特征图及低级特征图根据在编码阶段及解码阶段获得特征图的先后顺序确定,在所述编码阶段相邻编码层中,下一层编码层获得的特征图比上一编码层获得的特征图要高级;在所述解码阶段相邻编码层中,上一解密层获得的特征图比下一解密层获得的特征图要低级。
在本实施例中,所述Vnet网络模型为福斯托·米勒塔里(Fausto Milletari)、纳西尔·纳瓦卜(Nasir nawab)、赛义德·艾哈迈德·艾哈迈迪(Seyed-Ahmad Ahmadi)等提出的医学影像Vnet网络模型。所述Vnet网络模型是典型的编码-解码网络模型。在所述Vnet网络模型中,编码阶段包括多个编码层,每个编码层包括卷积层、激活层、下采样层。解码阶段包括多个解码层,每个解码层包括反卷积层、激活层、上采样层。
所述Vnet网络模型编码阶段的卷积核是基于三维的卷积核,但由于CT数据扫描层的层厚较厚,导致三维数据并不可靠。在本实施例中,将所述Vnet网络模型编码阶段的卷积核设置为二维卷积核,基于二维图像单独进行分割。在本实施例中,为了减少可学习的参数量,将所述Vnet网络模型的解码阶段的反卷积替换为双线性插值。
所述生成模块103,用于通过所述生成网络模型生成6通道的预测分割标签,其中,所述6通道的预测分割标签包括皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景预测分割标签。
可选的,请参阅图10,所述生成模块103包括:
第一获取子模块1031,用于通过所述生成网络模型的编码阶段获取每个编码层的特征图;
第二获取子模块1032,用于通过所述生成网络模型的解码阶段获取每个解码层的特征图;
第一处理子模块1033,用于在编码阶段,通过所述CA模块将所述编码阶段相邻编码层的下一层h*w*2c维度的高级特征进行通道化操作、激活操作,得到不同通道的第一权重结果,将所述不同通道的第一权重结果与相邻编码层的上一层2h*2w*c维度的低级特征相乘,得到2h*2w*c维度的第一特征图;
第二处理子模块1034,用于在解码阶段,通过所述CA模块将所述解码阶段相邻解码层的上一层2h*2w*c维度的高级特征进行通道化操作、激活操作,得到不同通道的第二权重结果;将所述不同通道的第二权重结果与相邻编码层的下一层2h*2w*c维度的低级特征相乘,得到2h*2w*c维度的第二特征图;
第三处理子模块1035,用于根据所述编码阶段每一层获得的特征图、所述解码阶段每一层获得的特征图、所述第一特征图、所述第二特征图,得到所述6通道的预测分割标签。
在本实施例,所述生成网络模型的编码阶段,通过卷积层执行卷积操作从输入的腹部CT图像中提取特征,在编码阶段的每一层结束后,使用适当的步幅来降低分辨率,若上一层分辨率为2h*2w,则下一层分辨率降低为h*w。在本实施例中,所述生成网络模型的编码阶段下一层特征比上一层的特征增大一倍,若所述生成网络模型的编码阶段上一层特征数量为c,则下一层的特征数量为2c。
在本实施例,通过所述生成网络模型的编码阶段获取每个编码层的特征图,在所述编码阶段相邻编码层下一层编码层获得的特征图比上一编码层获得的特征图要高级。所述生成网络模型的编码阶段相邻编码层的下一层获取到的高级特征为h*w*2c维度的高级特征,其中,h代表图形的高,w代表图形的宽,2c代表特征数量。所述生成网络模型的编码阶段相邻编码层的上一层获取到的低级特征为2h*2w*c维度的低级特征,2h代表图形的高,2w代表图形的宽,c代表特征数量。
在本实施例,所述生成网络模型的解码阶段,通过反卷积层将每个输入体素通过内核投影到更大的区域来增加数据大小,若上一层分辨率为h*w,则下一层分辨率提高为2h*2w。在本实施例中,所述生成网络模型的解码阶段下一层特征比上一层的特征减小一倍,若所述生成网络模型的编码阶段上一层特征数量为2c,则下一层的特征数量为c。
在本实施例中,通过所述生成网络模型的解码阶段获取每个解码层的特征图,在所述解码阶段相邻编码层中上一层解密层获得的特征图比下一层解密层获得的特征图要低级。在本实施例中,所述生成网络模型的解码阶段相邻解码层的上一层获取到的高级特征为h*w*2c维度的高级特征,其中,h代表图形的高,w代表图形的宽,2c代表特征数量。所述生成网络模型的解码码阶段相邻解码层的下一层获取到的低级特征为2h*2w*c维度的低级特征,2h代表图形的高,2w代表图形的宽,c代表特征数量。
需要说明的是,随着编码过程的不断加深,得到的特征表达也逐渐变得丰富。但由于多个卷积过程,以及非线性函数的应用,导致高级特征图中的位置信息大量丢失,从而造成大量像素点的错分类的现象。在所述修改后的Vnet网络中接入通道注意力(Channel-Attention,CA)模块,通过CA模块对错分类的像素点进行校正。
所述第一处理子模块1033,还用于将相邻编码层的下一层的h*w*2c维度的高级特征通过所述CA模块的全局平均池化、1*1卷积、批标准化(Batch Normalization,BN)算法模型、非线性(Rectified Linear Units,ReLu)激活函数,得到1*1*c的特征通道,c表示特征数量;将所述1*1*c的特征通道通过全连接层及sigmoid激活函数,得到不同通道的第一权重结果。
所述第二处理子模块1034,还用于将相邻解码层的上一层的h*w*2c维度的高级特征通过所述CA模块的全局平均池化、1*1卷积、BN算法模型、ReL激活函数,得到1*1*c的特征通道,c表示特征数量;将所述1*1*c的特征通道通过全连接层及sigmoid激活函数,得到不同通道的第二权重结果。
请再次参阅图4,所述CA模块处理流程主要包括通道化Channelization操作、激活Activation操作及权重赋值Reweighting操作。在编码阶段,通过所述CA模块将所述编码阶段相邻编码层的下一层的高级特征进行通道化操作,其中,所述通道化操作包括:将相邻编码层的下一层的高级特征通过所述CA模块的全局平均池化、1*1卷积、BN算法模型、ReLu激活函数,得到1*1*c的特征通道,c表示特征数量;将所述1*1*c的特征通道进行激活操作,其中,所述激活操作包括:将所述1*1*c的特征通道通过全连接层及sigmoid激活函数,得到不同通道的权重结果;将所述不同通道的权重结果与相邻编码层的上一层的低级特征相乘,得到第一特征图,所述第一特征图为2h*2w*c维度的特征图。
在解码阶段,通过所述CA模块将所述解码阶段相邻解码层的上一层的高级特征进行通道化操作,其中,所述通道化操作包括:将相邻编码层的上一层的高级特征通过所述CA模块的全局平均池化、1*1卷积、BN算法模型、ReLu激活函数,得到1*1*c的特征通道,c表示特征数量;将所述1*1*c的特征通道进行激活操作,其中,所述激活操作包括:将所述1*1*c的特征通道通过全连接层及sigmoid激活函数,得到不同通道的权重结果;将所述不同通道的权重结果与相邻编码层的下一层的低级特征相乘,得到第二特征图,述第二特征图为2h*2w*c维度的特征图。
所述获取模块104,用于根据所述6通道的预测分割标签得到预测分割结果图像,其中,所述预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。
在本实施例中,所述6通道的预测分割标签分别表示皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景的预测分割标签,用不同颜色进行填充得到预测分割结果图像,例如,可以用红色绘制皮下脂肪、绿色绘制肌肉、黄色绘制骨头、蓝色绘制内脏脂肪、粉色绘制内脏器官、黑色绘制背景。请参阅图5,在图5的图中用不同灰度的颜色代表皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景这6类分类。
这样,无须手动标注,就可以得到比较准确的腹部肌肉图像与脂肪图像,减少腹部肌肉图像、脂肪图像的分割时间,提高腹部肌肉图像、脂肪图像的分割效果。
可选的,所述图像分割装置100还包括:
确定模块,用于从所述预测分割结果图像确定皮下脂肪区域、内脏脂肪区域、肌肉区域的像素点个数,根据所述确定的像素点个数及预先获取的物理空间换算参数,确定皮下脂肪、内脏脂肪、肌肉的实际面积。
在本实施例中,从所述预测分割结果图像中确定皮下脂肪区域、内脏脂肪区域、肌肉区域的像素点个数,从所述DICOM格式的CT图像数据获取像素点与物理空间面积之间的换算参数,根据所述皮下脂肪区域、内脏脂肪、肌肉区域的像素点个数乘以所述换算参数的平方,确定皮下脂肪、内脏脂肪、肌肉的实际面积。
进一步说明的是,所述DICOM格式的CT图像数据的image信息包括影像拍摄的时间、像素间距pixel spacing、图像码、图像上的采样率等信息。根据像素间距pixelspacing,可以获取像素点与物理空间面积之间的换算参数,根据以下公式(1)计算皮下脂肪、内脏脂肪、肌肉的实际面积。公式(1)s=n*x^2,其中,s表示皮下脂肪、内脏脂肪、肌肉的实际面积,n表示皮下脂肪区域、内脏脂肪区域、肌肉区域的总像素点个数,x表示换算参数。
这样,可以得到准确的腹部脂肪及肌肉面积,提高实际脂肪及肌肉面积的准确率。
可选的,所述图像分割装置100还包括:
计算模块,用于从所述腹部CT图像数据获取扫描层厚信息,将所述皮下脂肪、内脏脂肪、肌肉的实际面积乘以所述扫描层厚得到所述皮下脂肪、内脏脂肪及肌肉的实际体积。
在本实施例中,所述DICOM格式的腹部CT图像数据的Series信息包括序列号、检查模态、图像位置、检查描述和说明、图像方位、图像位置、层厚、层与层之间的间距、实际相对位置及身体位置等。故从所述DICOM格式的CT图像数据可以获得扫描层厚信息。将所述皮下脂肪区域、内脏脂肪区域、肌肉区域的实际面积乘以所述扫描层厚,得到所述皮下脂肪、内脏脂肪及肌肉的实际体积。
可选的,所述图像分割装置100还包括:
优化模块,用于分别将所述预测分割标签与所述金标准图像对应的真实标签输入所述判别网络模型,分别得到所述预测分割结果图像与所述金标准图像的判别分数,依据判别分数判断所述预测分割结果图像与所述金标准图像之间的差距,基于所述差距对所述生成网络模型进行参数调整,以优化所述生成网络模型。
这样,可以通过对生成网络模型进行参数调整,优化生成网络模型,以便提高腹部图像分割的效果。
在本实施例中,金标准图像为人手动标注过的分割结果,用来与网络预估的结果相比较,来评定生成网络模型的性能。金标准图像用不同颜色代表皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景。请参阅6,图6为用不同灰度颜色代表皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景区域的金标准图像。
请参阅图7,图7为判别网络模型的架构示意图。所述判别网络模型包括6个卷积层,第一卷积层802包括3*3卷积层、非线性ReLu激活函数;第二卷积层803包括3*3卷积层、批标准化算法模型、非线性ReLu激活函数;第三卷积层804包括3*3卷积层、批标准化算法模型、非线性ReLu激活函数;第四卷积层805包括3*3卷积层、批标准化算法模型、非线性ReLu激活函数;第五卷积层806包括3*3卷积层、批标准化算法模型、非线性ReLu激活函数;第六卷积层807包括全局平均池化、1*1卷积层。801代表512*512*6维度的预测分割标签或金标准图像对应的真实标签。
在本实施例中,分别将512*512*6维度的预测分割标签和金标准图像对应的真实标签输入所述判别网络模型,使用大小为3,步长为2的卷积操作进行下采样,下采样次数对应所述生成网络模型中编码器下采样的次数,共下采样5次,得到16*16*256的特征图,最后经过全局平均池化和1*1的卷积核分别得到金标准图像和预测分割图片的判别分数。
在本实施例中,将对所述预测标签结果图像、金标准图像之间的KL散度(KullbackLeibler divergence)的优化,调整为对推土机距离(Earth Mover distance)的优化,所述推土机距离可以一直指导所述生成网络模型的优化,不受到梯度消失的困扰。
本实施例中,通过梯度惩罚对所述生成网络模型及判别网络模型的训练过程进行加速收敛。零中心的梯度惩罚更加容易收敛到中心点,故而使用零中心的梯度惩罚。
在本实施例中,所述生成网络模型及判别网络模型分别具有对应的损失函数。
所述生成网络模型的损失函数如下:
Figure BDA0002500803280000231
其中,
Figure BDA0002500803280000232
λ=0.001,
Figure BDA0002500803280000233
所述判别网络模型的损失函数如下:
Figure BDA0002500803280000234
其中c=0,λ=10,pinter(Iinter)是由真样本分布和假样本分布插值得到的衍生分布。
下面对损失函数的英文进行中文说明:Loss:损失;Orig:原图;Dice:dice系数;Gen:生成网络模型;I:图像;Mask;掩膜;D:判别网络模型;G:生成网络模型;p_g:假样本分布;p_train:真样本分布;P_inter:由真样本分布和假样本分布插值得到的衍生分布;C:中心,C等于0为零中心。
所述生成网络模型及判别网络模型通过不断学习,降低这两个损失函数的值,来达到优化的目的。
本发明所提出的图像分割装置,通过将所述JPG格式的腹部图像输入基于Vnet网络模型构建的生成网络模型;通过所述生成网络模型生成6通道的预测分割标签;根据所述6通道的预测分割标签得到预测分割结果图像,其中,预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。这样,无须手动标注,就可以得到比较准确的腹部肌肉图像与脂肪图像,减少腹部肌肉图像、脂肪图像分割的时间,提高腹部肌肉图像、脂肪图像的分割效果。
如图10所示,是本发明实现图像分割方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于Vnet网络模型的腹部CT图像分割程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于Vnet网络模型的腹部CT图像分割程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于Vnet网络模型的腹部CT图像分割程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图10仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图10示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于Vnet网络模型的腹部CT图像分割程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
将DICOM格式的腹部CT图像数据转换为JPG格式的腹部图像;
基于Vnet网络模型构建生成网络模型,将所述JPG格式的腹部图像输入所述生成网络模型;
通过所述生成网络模型生成6通道的预测分割标签,其中,所述6通道的预测分割标签包括皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景预测分割标签;
根据所述6通道的预测分割标签得到预测分割结果图像,其中,所述预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。需要强调的是,为进一步保证上述DICOM格式的腹部CT图像数据、所述JPG格式的腹部图像的私密和安全性,所述DICOM格式的腹部CT图像数据、所述JPG格式的腹部图像还可以存储于一区块链的节点中。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种图像分割方法,其特征在于,所述方法包括步骤:
将DICOM格式的腹部CT图像数据转换为JPG格式的腹部图像;
基于Vnet网络模型构建生成网络模型,将所述JPG格式的腹部图像输入所述生成网络模型;
通过所述生成网络模型生成6通道的预测分割标签,其中,所述6通道的预测分割标签包括皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景预测分割标签;
根据所述6通道的预测分割标签得到预测分割结果图像,其中,所述预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。
2.如权利要求1所述的图像分割方法,其特征在于,所述DICOM格式的腹部CT图像数据、所述JPG格式的腹部图像存储于区块链中,所述基于Vnet网络模型构建生成网络模型,包括以下步骤:
将所述Vnet网络模型编码阶段的卷积核设置为二维卷积核;
将所述Vnet网络模型解码阶段的反卷积替换为双线性插值,得到修改后的Vnet网络模型;
在所述修改后的Vnet网络模型中接入通道注意力CA模块,得到所述生成网络模型,其中,所述CA模块用于获取所述修改后的Vnet网络的编码阶段、解码阶段生成的高级特征图的语义信息,并根据所述语义信息从低级特征图中选取属于高级特征图的像素点信息;
其中,所述高级特征图及低级特征图根据在编码阶段及解码阶段获得特征图的先后顺序确定,在所述编码阶段相邻编码层中,下一层编码层获得的特征图比上一编码层获得的特征图要高级;在所述解码阶段相邻编码层中,上一解密层获得的特征图比下一解密层获得的特征图要低级。
3.如权利要求1所述的图像分割方法,其特征在于,所述通过所述生成网络模型生成6通道的预测分割标签,包括以下步骤:
通过所述生成网络模型的编码阶段获取每个编码层的特征图;
通过所述生成网络模型的解码阶段获取每个解码层的特征图;
在编码阶段,通过所述CA模块将所述编码阶段相邻编码层的下一层h*w*2c维度的高级特征进行通道化操作、激活操作,得到不同通道的第一权重结果,将所述不同通道的第一权重结果与相邻编码层的上一层2h*2w*c维度的低级特征相乘,得到2h*2w*c维度的第一特征图;
在解码阶段,通过所述CA模块将所述解码阶段相邻解码层的上一层2h*2w*c维度的高级特征进行通道化操作、激活操作,得到不同通道的第二权重结果;将所述不同通道的第二权重结果与相邻编码层的下一层2h*2w*c维度的低级特征相乘,得到2h*2w*c维度的第二特征图;
根据所述编码阶段每一层获得的特征图、所述解码阶段每一层获得的特征图、所述第一特征图、所述第二特征图,得到所述6通道的预测分割标签。
4.如权利要求1至3中任一项所述的图像分割方法,其特征在于,所述根据所述6通道的预测分割标签得到预测分割结果图像之后,所述方法还包括以下步骤:
从所述预测分割结果图像确定皮下脂肪区域、内脏脂肪区域、肌肉区域的像素点个数,根据所述确定的像素点个数及预先获取的物理空间换算参数,确定皮下脂肪、内脏脂肪、肌肉的实际面积。
5.如权利要求4所述的图像分割方法,其特征在于,所述根据所述确定的像素点个数及预先获取的物理空间换算参数,确定皮下脂肪、内脏脂肪、肌肉的实际面积之后,所述方法还包括以下步骤:
从所述腹部CT图像数据获取扫描层厚信息,将所述皮下脂肪、内脏脂肪、肌肉的实际面积乘以所述扫描层厚得到所述皮下脂肪、内脏脂肪及肌肉的实际体积。
6.如权利要求5所述的图像分割方法,其特征在于,所述将所述皮下脂肪区域、内脏脂肪区域、肌肉区域的实际面积乘以所述扫描层厚得到所述皮下脂肪、内脏脂肪及肌肉的实际体积之后,所述方法还包括以下步骤:
分别将所述预测分割标签与所述金标准图像对应的真实标签输入所述判别网络模型,分别得到所述预测分割结果图像与所述金标准图像的判别分数,依据所述判别分数判断所述预测分割结果图像与金标准图像之间的差距,基于所述差距对所述生成网络模型进行参数调整,以优化所述生成网络模型。
7.一种图像分割装置,其特征在于,包括:
转换模块,用于将DICOM格式的腹部CT图像数据转换为JPG格式的腹部图像;
处理模块,用于基于Vnet网络模型构建生成网络模型,将所述JPG格式的腹部图像输入所述生成网络模型;
生成模块,用于通过所述生成网络模型生成6通道的预测分割标签,其中,所述6通道的预测分割标签包括皮下脂肪、肌肉、骨头、内脏脂肪、内脏器官、背景预测分割标签;
获取模块,用于根据所述6通道的预测分割标签获取预测分割结果图像,其中,所述预测分割结果图像包括皮下脂肪图像、肌肉图像、骨头图像、内脏脂肪图像、内脏器官图像、背景图像。
8.如权利要求7所述的图像分割装置,其特征在于,所述DICOM格式的腹部CT图像数据、所述JPG格式的腹部图像存储于区块链中,所述基于Vnet网络模型构建生成网络模型,包括:
将所述Vnet网络模型编码阶段的卷积核设置为二维卷积核;
将所述Vnet网络模型解码阶段的反卷积替换为双线性插值,得到修改后的Vnet网络模型;
在所述修改后的Vnet网络模型中接入通道注意力CA模块,得到所述生成网络模型,其中,所述CA模块用于获取所述修改后的Vnet网络的编码阶段、解码阶段生成的高级特征图的语义信息,并根据所述语义信息从低级特征图中选取属于高级特征图的像素点信息;
其中,所述高级特征图及低级特征图根据在编码阶段及解码阶段获得特征图的先后顺序确定,在所述编码阶段相邻编码层中,下一层编码层获得的特征图比上一编码层获得的特征图要高级;在所述解码阶段相邻编码层中,上一解密层获得的特征图比下一解密层获得的特征图要低级。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一所述的图像分割方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一所述的图像分割方法。
CN202010431606.6A 2020-05-20 2020-05-20 图像分割方法、装置、电子设备及计算机可读存储介质 Pending CN111696082A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010431606.6A CN111696082A (zh) 2020-05-20 2020-05-20 图像分割方法、装置、电子设备及计算机可读存储介质
PCT/CN2020/098975 WO2021151275A1 (zh) 2020-05-20 2020-06-29 图像分割方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010431606.6A CN111696082A (zh) 2020-05-20 2020-05-20 图像分割方法、装置、电子设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN111696082A true CN111696082A (zh) 2020-09-22

Family

ID=72478096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010431606.6A Pending CN111696082A (zh) 2020-05-20 2020-05-20 图像分割方法、装置、电子设备及计算机可读存储介质

Country Status (2)

Country Link
CN (1) CN111696082A (zh)
WO (1) WO2021151275A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435266A (zh) * 2020-11-10 2021-03-02 中国科学院深圳先进技术研究院 一种图像分割方法、终端设备及计算机可读存储介质
CN113409309A (zh) * 2021-07-16 2021-09-17 北京积水潭医院 肌肉ct影像勾画方法、系统、电子设备和机器存储介质
CN114332800A (zh) * 2022-03-09 2022-04-12 西南石油大学 一种用于自动驾驶的街道场景解析语义分割方法
CN116205967A (zh) * 2023-04-27 2023-06-02 中国科学院长春光学精密机械与物理研究所 医学影像语义分割方法、装置、设备及介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3289562A1 (en) * 2015-04-29 2018-03-07 Siemens Aktiengesellschaft Method and system for semantic segmentation in laparoscopic and endoscopic 2d/2.5d image data
CN107492071B (zh) * 2017-08-17 2021-04-27 京东方科技集团股份有限公司 医学图像处理方法及设备
CN109146899A (zh) * 2018-08-28 2019-01-04 众安信息技术服务有限公司 Ct图像的危及器官分割方法及装置
CN109754403A (zh) * 2018-11-29 2019-05-14 中国科学院深圳先进技术研究院 一种ct图像内的肿瘤自动分割方法及系统
CN110097557B (zh) * 2019-01-31 2021-02-12 卫宁健康科技集团股份有限公司 基于3D-UNet的医学图像自动分割方法及系统
CN110223300A (zh) * 2019-06-13 2019-09-10 北京理工大学 Ct图像腹部多器官分割方法及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112435266A (zh) * 2020-11-10 2021-03-02 中国科学院深圳先进技术研究院 一种图像分割方法、终端设备及计算机可读存储介质
CN113409309A (zh) * 2021-07-16 2021-09-17 北京积水潭医院 肌肉ct影像勾画方法、系统、电子设备和机器存储介质
CN113409309B (zh) * 2021-07-16 2023-10-27 北京积水潭医院 肌肉ct影像勾画方法、系统、电子设备和机器存储介质
CN114332800A (zh) * 2022-03-09 2022-04-12 西南石油大学 一种用于自动驾驶的街道场景解析语义分割方法
CN116205967A (zh) * 2023-04-27 2023-06-02 中国科学院长春光学精密机械与物理研究所 医学影像语义分割方法、装置、设备及介质

Also Published As

Publication number Publication date
WO2021151275A1 (zh) 2021-08-05

Similar Documents

Publication Publication Date Title
Han et al. Learning more with less: Conditional PGGAN-based data augmentation for brain metastases detection using highly-rough annotation on MR images
US11282205B2 (en) Structure correcting adversarial network for chest x-rays organ segmentation
CN111696082A (zh) 图像分割方法、装置、电子设备及计算机可读存储介质
CN108648172B (zh) 一种基于3D-Unet的CT图肺结节检测系统
Larobina et al. Medical image file formats
CN110321920A (zh) 图像分类方法、装置、计算机可读存储介质和计算机设备
US20200258235A1 (en) Method and apparatus for automated target and tissue segmentation using multi-modal imaging and ensemble machine learning models
US20220406410A1 (en) System and method for creating, querying, and displaying a miba master file
CN111429421B (zh) 模型生成方法、医学图像分割方法、装置、设备及介质
CN108369642A (zh) 根据头部计算机断层摄影解释和量化急症特征
CN111932547B (zh) 图像中目标物的分割方法、装置、电子设备及存储介质
CN109978037A (zh) 图像处理方法、模型训练方法、装置、和存储介质
CN106170799A (zh) 从图像提取信息以及将信息包括在临床报告中
Wang et al. CheXLocNet: Automatic localization of pneumothorax in chest radiographs using deep convolutional neural networks
CN112465819A (zh) 图像异常区域检测方法、装置、电子设备及存储介质
McAlpine et al. Is it real or not? Toward artificial intelligence-based realistic synthetic cytology image generation to augment teaching and quality assurance in pathology
CN113096132B (zh) 图像处理的方法、装置、存储介质和电子设备
Zhao et al. AI-powered radiomics algorithm based on slice pooling for the glioma grading
CN114511569B (zh) 基于肿瘤标志物的医学图像识别方法、装置、设备及介质
Aldemir et al. Chain code strategy for lossless storage and transfer of segmented binary medical data
US20230012002A1 (en) Systems and methods to process electronic images for synthetic image generation
Guo et al. Double U-Nets for image segmentation by integrating the region and boundary information
CN106530386B (zh) 医学图像的体绘制方法及其系统
CN113823382A (zh) 一种肿瘤放疗的造血功能副反应分析方法及装置
Kaur et al. Automated neural network-based survival prediction of glioblastoma patients using pre-operative MRI and clinical data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination