CN112950552B - 一种基于卷积神经网络的肋骨分割标记方法及系统 - Google Patents

一种基于卷积神经网络的肋骨分割标记方法及系统 Download PDF

Info

Publication number
CN112950552B
CN112950552B CN202110163399.5A CN202110163399A CN112950552B CN 112950552 B CN112950552 B CN 112950552B CN 202110163399 A CN202110163399 A CN 202110163399A CN 112950552 B CN112950552 B CN 112950552B
Authority
CN
China
Prior art keywords
image sequence
sequence data
data
rib
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110163399.5A
Other languages
English (en)
Other versions
CN112950552A (zh
Inventor
柴象飞
郭娜
张路
刘鹏飞
刘剑英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huiying medical technology (Beijing) Co.,Ltd.
Original Assignee
Huiying Medical Technology Beijing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huiying Medical Technology Beijing Co ltd filed Critical Huiying Medical Technology Beijing Co ltd
Priority to CN202110163399.5A priority Critical patent/CN112950552B/zh
Publication of CN112950552A publication Critical patent/CN112950552A/zh
Application granted granted Critical
Publication of CN112950552B publication Critical patent/CN112950552B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的肋骨分割标记方法及系统,涉及医学影像技术领域。该方法包括:步骤1,获取肋骨的CT影像序列数据;步骤2,将所述CT影像序列数据输入至卷积神经网络模型中,得到预测结果数据,并将预测结果进行标记,其中,卷积神经网络模型通过对肋骨的背景填充、骨窗归一化处理以及损失计算进行训练;步骤3,从所述CT影像序列数据中剔除掉所述预测结果数据,得到剩余CT影像序列数据;步骤4,将所述剩余CT影像序列数据作为新的CT影像序列数据,在所述新的CT影像序列数据的基础上,重复步骤2及步骤3,直至全部CT影像序列数据标记完毕。本发明能够达到算法准确率高,且能够处理肋骨粘连及肋骨断裂错位的情况。

Description

一种基于卷积神经网络的肋骨分割标记方法及系统
技术领域
本发明涉及医学影像技术领域,尤其涉及一种基于卷积神经网络的肋骨分割标记方法及系统。
背景技术
CT检查由于其较高的密度分辨率和空间分辨率,可以显示不同层次的组织结构,在临床疾病诊断中获得广泛的应用。但CT图像是层面图像,为了显示整个器官,需要多个连续的层面图像序列,医生阅片难度大,效率低。人的肋骨有12对,平分在胸部两侧,前与胸骨、后与胸椎相连,构成一个完整的胸廓。在CT肋骨疾病诊断过程中,医生往往从横断面上从上至下按序浏览阅片,识别病灶的同时记录肋骨的编号,这种数肋骨的方法速度慢、效率低,在对医生造成工作负担的同时容易出现忘记肋骨编号或者数错的情况。
有一些现有技术可以用来解决自动分割并标记肋骨的问题,往往是通过深度学习结合传统图像处理方法,如深度学习分割网络结合连通域分析、肋骨中心线提取或肋骨关键点检测的方法。这些技术方法过于依赖人体解剖结构,算法设计复杂,鲁棒性较差。
发明内容
本发明所要解决的技术问题是针对现有技术的不足,提供一种基于卷积神经网络的肋骨分割标记方法及系统。
本发明解决上述技术问题的技术方案如下:一种基于卷积神经网络的肋骨分割标记方法,包括:
步骤1,获取肋骨的CT影像序列数据;
步骤2,将所述CT影像序列数据输入至卷积神经网络模型中,得到预测结果数据,并将预测结果进行标记,其中,卷积神经网络模型通过对肋骨的背景填充、骨窗归一化处理以及损失计算进行训练;
步骤3,从所述CT影像序列数据中剔除掉所述预测结果数据,得到剩余CT影像序列数据;
步骤4,将所述剩余CT影像序列数据作为新的CT影像序列数据,在所述新的CT影像序列数据的基础上,重复步骤2及步骤3,直至全部CT影像序列数据标记完毕。
本发明的有益效果是:通过对预测结果的标记来有效的为后续操作识别做铺垫,以此来提高系统的处理速度,在CT影像序列数据中提出预测结果数据可以提高数据的精确度,并且在不断剔除的过程中可以减少系统处理数据的量,在提高效率的同时,达到了计算方法简单,不易出现错误的效果。
进一步,所述损失计算包括:
二值交叉熵损失计算和dice损失计算。
进一步,步骤2具体为:
将所述CT影像序列数据输入至卷积神经网络模型中,所述卷积神经网络模型分割出所述CT影像序列数据中的第一根肋骨数据,将所述第一根肋骨数据作为预测结果数据,并将预测结果进行标记。
采用上述进一步方案的有益效果是,对预测结果进行标记可以提高识别度,在后续处理的过程中可以快速识别出预测结果的数据,提高系统的处理速度。
进一步,步骤3具体为:
将所述预测结果数据对应的背景区域按预设值进行填充,从所述CT影像序列数据中剔除填充后的预测结果数据,得到剩余CT影像序列数据。
采用上述进一步方案的有益效果是,在CT影像序列数据中剔除预测结果数据可以达到精化数据的效果,还可以使系统在数据处理过程中逐渐的减少处理量。
进一步,对肋骨的背景填充具体为:
确定所述CT影像序列数据对应的标记确定肋骨所属位置,将所述肋骨所属位置之前的所有肋骨进行背景填充。
本发明解决上述技术问题的另一种技术方案如下:一种基于卷积神经网络的肋骨分割标记系统,包括:
获取模块,用于获取肋骨的CT影像序列数据;
输入模块,用于将所述CT影像序列数据输入至卷积神经网络模型中,得到预测结果数据,并将预测结果进行标记,其中,卷积神经网络模型通过对肋骨的背景填充、骨窗归一化处理以及损失计算进行训练;
预处理模块,用于从所述CT影像序列数据中剔除掉所述预测结果数据,得到剩余CT影像序列数据;
重复模块,用于将所述剩余CT影像序列数据作为新的CT影像序列数据,在所述新的CT影像序列数据的基础上,重复步骤2及步骤3,直至全部CT影像序列数据标记完毕。
本发明的有益效果是:通过对预测结果的标记来有效的为后续操作识别做铺垫,以此来提高系统的处理速度,在CT影像序列数据中提出预测结果数据可以提高数据的精确度,并且在不断剔除的过程中可以减少系统处理数据的量,在提高效率的同时,达到了计算方法简单,不易出现错误的效果。
进一步,所述损失计算包括:
二值交叉熵损失计算和dice损失计算。
进一步,输入模块具体用于:
将所述CT影像序列数据输入至卷积神经网络模型中,所述卷积神经网络模型分割出所述CT影像序列数据中的第一根肋骨数据,将所述第一根肋骨数据作为预测结果数据,并将预测结果进行标记。
采用上述进一步方案的有益效果是,对预测结果进行标记可以提高识别度,在后续处理的过程中可以快速识别出预测结果的数据,提高系统的处理速度。
进一步,预处理模块具体用于:
将所述预测结果数据对应的背景区域按预设值进行填充,从所述CT影像序列数据中剔除填充后的预测结果数据,得到剩余CT影像序列数据。
采用上述进一步方案的有益效果是,在CT影像序列数据中剔除预测结果数据可以达到精化数据的效果,还可以使系统在数据处理过程中逐渐的减少处理量。
进一步,对肋骨的背景填充具体为:
确定所述CT影像序列数据对应的标记确定肋骨所属位置,将所述肋骨所属位置之前的所有肋骨进行背景填充。
本发明附加的方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明实践了解到。
附图说明
图1为本发明一种基于卷积神经网络的肋骨分割标记方法的实施例提供的流程示意图;
图2为本发明一种基于卷积神经网络的肋骨分割标记系统的其他实施例提供的结构示意图;
图3为本发明一种基于卷积神经网络的肋骨分割标记方法的实施例提供的卷积神经网络模型的网络结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实施例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,一种基于卷积神经网络的肋骨分割标记方法,包括:
步骤1,获取肋骨的CT影像序列数据;
步骤2,将CT影像序列数据输入至卷积神经网络模型中,得到预测结果数据,并将预测结果进行标记,其中,卷积神经网络模型通过对肋骨的背景填充、骨窗归一化处理以及损失计算进行训练;
步骤3,从CT影像序列数据中剔除掉预测结果数据,得到剩余CT影像序列数据;
步骤4,将剩余CT影像序列数据作为新的CT影像序列数据,在新的CT影像序列数据的基础上,重复步骤2及步骤3,直至全部CT影像序列数据标记完毕。
在一些可能的实施方式中,通过对预测结果的标记来有效的为后续操作识别做铺垫,以此来提高系统的处理速度,在CT影像序列数据中提出预测结果数据可以提高数据的精确度,并且在不断剔除的过程中可以减少系统处理数据的量,在提高效率的同时,达到了计算方法简单,不易出现错误的效果。
需要说明的是,对于卷积神经网络模型,肋骨是一种弯曲长条状结构,本文采用3D空间的卷积神经网络。“第一肋骨”分割模块通过一个3D分割网络分割出输入数据中从上而下出现的第一根肋骨。
Unet是一种U型卷积神经网络结构,该网络通过一系列的降采样和上采样提取特征,并将浅层特征和深层特征进行结合,网络的最后一层输出预测结果。数据输入网络后,经过一系列自顶而下的降采样及卷积模块,包括:conv(卷积)1-5、每层包括一组maxpooling(最大池化)及两组3*3*3卷积、BN(批归一化)、Relu(线性整流函数),提取数据的多尺度特征。深层特征通过一系列自底而上的上采样及卷积结构模块,包括:up-conv1-5,每层包括一组上采样及两组3*3*3卷积、BN、Relu,并通过跳跃连接融合浅层特征,最后经过sigmoid及二值化后输出网络预测结果,预测结果是可网络输入大小一致的二值矩阵,“第一肋骨”标记为1,其他背景,包括非肋骨区域和非“第一肋骨”区域,标记为0。网络结构图示意见图3;卷积神经网络模型的训练包括:标记12对肋骨分割数据;随机裁减影像数据;随机选择一根肋骨作为第一肋骨,对于第一肋骨前的肋骨做固定值填充操作;骨窗归一化数据,骨窗选择[-1000,1500],根据该骨窗截断数据后,归一化到[0,1]训练网络时采用的损失包括二值交叉熵损失和dice损失。
本发明中“第一肋骨”指输入数据中从头到脚方向的第一根肋骨,第一肋骨指人体解剖结构中的第一肋骨。也就是“第一肋骨”并不一定是真正的解剖结构中的第一肋骨,而是从网络的输入数据中所能识别到的第一根肋骨。
比如,选择解剖结构第5肋骨作为“第一肋骨”时,那么该肋骨必须是影像数据的最靠上的一根肋骨,但实际上它前面还存在第1、2、3、4肋,所以需要把第1、2、3、4肋填充为背景,是第5肋骨成为“第一肋骨”。
CT影像序列数据第一次经过卷积神经网络模型后,得到“第一肋骨”分割的结果,接下来需经过预处理处理,预处理包括:
将影像数据中的第一肋骨对应的区域填充为背景,本发明采用固定CT值20填充,根据第一肋骨的起点,裁减影像数据。通过填充固定值的方法删除已经分割出来的第一肋骨,通过裁减的方法减少下次输入至卷积神经网络模型的数据大小,从而加速网络计算。针对本发明的测试数据结果可参考实施例1,本发明通过一个深度学习模型同时实现肋骨分割及计数功能,不依赖于中心线提取、关键点标记等预处理操作,算法准确率高,且能够很好处理肋骨粘连及肋骨断裂错位的情况。
优选地,在上述任意实施例中,损失计算包括:
二值交叉熵损失计算和dice损失计算。
优选地,在上述任意实施例中,步骤2具体为:
将CT影像序列数据输入至卷积神经网络模型中,卷积神经网络模型分割出CT影像序列数据中的第一根肋骨数据,将第一根肋骨数据作为预测结果数据,并将预测结果进行标记。
在一些可能的实施方式中,对预测结果进行标记可以提高识别度,在后续处理的过程中可以快速识别出预测结果的数据,提高系统的处理速度。
优选地,在上述任意实施例中,步骤3具体为:
将预测结果数据对应的背景区域按预设值进行填充,从CT影像序列数据中剔除填充后的预测结果数据,得到剩余CT影像序列数据。
在一些可能的实施方式中,在CT影像序列数据中剔除预测结果数据可以达到精化数据的效果,还可以使系统在数据处理过程中逐渐的减少处理量。
优选地,在上述任意实施例中,对肋骨的背景填充具体为:
确定所述CT影像序列数据对应的标记确定肋骨所属位置,将所述肋骨所属位置之前的所有肋骨进行背景填充。
需要说明的是,肋骨所属位置之前为:按照人体肋骨的正常排序,该肋骨序号之前的肋骨,例如:肋骨所述位置为第六肋骨,那么肋骨所属位置之前则指代的是第一到第五肋骨。
如图2所示,一种基于卷积神经网络的肋骨分割标记系统,包括:
获取模块100,用于获取肋骨的CT影像序列数据;
输入模块200,用于将CT影像序列数据输入至卷积神经网络模型中,得到预测结果数据,并将预测结果进行标记,其中,卷积神经网络模型通过对肋骨的背景填充、骨窗归一化处理以及损失计算进行训练;
预处理模块300,用于从CT影像序列数据中剔除掉预测结果数据,得到剩余CT影像序列数据;
重复模块400,用于将剩余CT影像序列数据作为新的CT影像序列数据,在新的CT影像序列数据的基础上,重复步骤2及步骤3,直至全部CT影像序列数据标记完毕。
在一些可能的实施方式中,通过对预测结果的标记来有效的为后续操作识别做铺垫,以此来提高系统的处理速度,在CT影像序列数据中提出预测结果数据可以提高数据的精确度,并且在不断剔除的过程中可以减少系统处理数据的量,在提高效率的同时,达到了计算方法简单,不易出现错误的效果。
优选地,在上述任意实施例中,损失计算包括:
二值交叉熵损失计算和dice损失计算。
优选地,在上述任意实施例中,输入模块200具体用于:
将CT影像序列数据输入至卷积神经网络模型中,卷积神经网络模型分割出CT影像序列数据中的第一根肋骨数据,将第一根肋骨数据作为预测结果数据,并将预测结果进行标记。
在一些可能的实施方式中,对预测结果进行标记可以提高识别度,在后续处理的过程中可以快速识别出预测结果的数据,提高系统的处理速度。
优选地,在上述任意实施例中,预处理模块300具体用于:
将预测结果数据对应的背景区域按预设值进行填充,从CT影像序列数据中剔除填充后的预测结果数据,得到剩余CT影像序列数据。
在一些可能的实施方式中,在CT影像序列数据中剔除预测结果数据可以达到精化数据的效果,还可以使系统在数据处理过程中逐渐的减少处理量。
优选地,在上述任意实施例中,对肋骨的背景填充具体为:
确定所述CT影像序列数据对应的标记确定肋骨所属位置,将所述肋骨所属位置之前的所有肋骨进行背景填充。
实施例1,收集CT数据1000例,其中包括肋骨骨折数据800例。医生对每个序列中的肋骨区域进行标注,同时标注肋骨编号。将所有数据按照8:1:1随机拆分训练集、验证集和测试集。
模型训练在NVIDIA GTX 1080Ti*2上进行,训练batch size为2,初始学习率为0.1,输入图像大小为168*168*168,模型迭代100个epoch,分别在第50及80个epoch时降低学习率。在20例测试数据上,平均dice系数为0.924。
可以理解,在一些实施例中,可以包含如上述各实施例中的部分或全部可选实施方式。
需要说明的是,上述各实施例是与在先方法实施例对应的产品实施例,对于产品实施例中各可选实施方式的说明可以参考上述各方法实施例中的对应说明,在此不再赘述。
读者应理解,在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的方法实施例仅仅是示意性的,例如,步骤的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个步骤可以结合或者可以集成到另一个步骤,或一些特征可以忽略,或不执行。
上述方法如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (8)

1.一种基于卷积神经网络的肋骨分割标记方法,其特征在于,包括:
步骤1,获取肋骨的CT影像序列数据;
步骤2,将所述CT影像序列数据输入至卷积神经网络模型中,得到预测结果数据,并将预测结果进行标记,其中,卷积神经网络模型通过对肋骨的背景填充、骨窗归一化处理以及损失计算进行训练;
步骤3,从所述CT影像序列数据中剔除掉所述预测结果数据,得到剩余CT影像序列数据;
步骤4,将所述剩余CT影像序列数据作为新的CT影像序列数据,在所述新的CT影像序列数据的基础上,重复步骤2及步骤3,直至全部CT影像序列数据标记完毕;
其中,步骤2具体为:
将所述CT影像序列数据输入至卷积神经网络模型中,所述卷积神经网络模型分割出所述CT影像序列数据中的第一根肋骨数据,将所述第一根肋骨数据作为预测结果数据,并将预测结果进行标记;
所述第一根肋骨数据为:输入数据中所能识别到的第一根肋骨。
2.根据权利要求1所述的一种基于卷积神经网络的肋骨分割标记方法,其特征在于,所述损失计算包括:
二值交叉熵损失计算和dice损失计算。
3.根据权利要求2所述的一种基于卷积神经网络的肋骨分割标记方法,其特征在于,步骤3具体为:
将所述预测结果数据对应的背景区域按预设值进行填充,从所述CT影像序列数据中剔除填充后的预测结果数据,得到剩余CT影像序列数据。
4.根据权利要求1所述的一种基于卷积神经网络的肋骨分割标记方法,其特征在于,对肋骨的背景填充具体为:
确定所述CT影像序列数据对应的标记确定肋骨所属位置,将所述肋骨所属位置之前的所有肋骨进行背景填充。
5.一种基于卷积神经网络的肋骨分割标记系统,其特征在于,包括:
获取模块,用于获取肋骨的CT影像序列数据;
输入模块,用于将所述CT影像序列数据输入至卷积神经网络模型中,得到预测结果数据,并将预测结果进行标记,其中,卷积神经网络模型通过对肋骨的背景填充、骨窗归一化处理以及损失计算进行训练;
预处理模块,用于从所述CT影像序列数据中剔除掉所述预测结果数据,得到剩余CT影像序列数据;
重复模块,用于将所述剩余CT影像序列数据作为新的CT影像序列数据,在所述新的CT影像序列数据的基础上,重复步骤2及步骤3,直至全部CT影像序列数据标记完毕;
其中,输入模块具体用于:
将所述CT影像序列数据输入至卷积神经网络模型中,所述卷积神经网络模型分割出所述CT影像序列数据中的第一根肋骨数据,将所述第一根肋骨数据作为预测结果数据,并将预测结果进行标记。
6.根据权利要求5所述的一种基于卷积神经网络的肋骨分割标记系统,其特征在于,所述损失计算包括:
二值交叉熵损失计算和dice损失计算。
7.根据权利要求6所述的一种基于卷积神经网络的肋骨分割标记系统,其特征在于,预处理模块具体用于:
将所述预测结果数据对应的背景区域按预设值进行填充,从所述CT影像序列数据中剔除填充后的预测结果数据,得到剩余CT影像序列数据。
8.根据权利要求5所述的一种基于卷积神经网络的肋骨分割标记系统,其特征在于,对肋骨的背景填充具体为:
确定所述CT影像序列数据对应的标记确定肋骨所属位置,将所述肋骨所属位置之前的所有肋骨进行背景填充。
CN202110163399.5A 2021-02-05 2021-02-05 一种基于卷积神经网络的肋骨分割标记方法及系统 Active CN112950552B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110163399.5A CN112950552B (zh) 2021-02-05 2021-02-05 一种基于卷积神经网络的肋骨分割标记方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110163399.5A CN112950552B (zh) 2021-02-05 2021-02-05 一种基于卷积神经网络的肋骨分割标记方法及系统

Publications (2)

Publication Number Publication Date
CN112950552A CN112950552A (zh) 2021-06-11
CN112950552B true CN112950552B (zh) 2021-12-17

Family

ID=76242735

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110163399.5A Active CN112950552B (zh) 2021-02-05 2021-02-05 一种基于卷积神经网络的肋骨分割标记方法及系统

Country Status (1)

Country Link
CN (1) CN112950552B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115456990B (zh) * 2022-09-13 2023-05-23 北京医准智能科技有限公司 一种基于ct图像的肋骨计数方法、装置、设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101452577B (zh) * 2008-11-26 2010-12-29 沈阳东软医疗系统有限公司 一种肋骨自动标定的方法及装置
US9020233B2 (en) * 2011-09-19 2015-04-28 Siemens Aktiengesellschaft Method and system for up-vector detection for ribs in computed tomography volumes
CN110555860B (zh) * 2018-06-04 2023-11-14 青岛海信医疗设备股份有限公司 医学图像中肋骨区域标注的方法、电子设备和存储介质
CN111080573B (zh) * 2019-11-19 2024-02-27 上海联影智能医疗科技有限公司 肋骨图像检测方法、计算机设备和存储介质
CN110992376A (zh) * 2019-11-28 2020-04-10 北京推想科技有限公司 基于ct图像的肋骨分割方法、装置、介质及电子设备

Also Published As

Publication number Publication date
CN112950552A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
CN110232383B (zh) 一种基于深度学习模型的病灶图像识别方法及病灶图像识别系统
US11935644B2 (en) Deep learning automated dermatopathology
CN112150428B (zh) 一种基于深度学习的医学图像分割方法
CN109636808B (zh) 一种基于全卷积神经网络的肺叶分割方法
CN110245657B (zh) 病理图像相似性检测方法及检测装置
CN111553892B (zh) 基于深度学习的肺结节分割计算方法、装置及系统
CN113506310B (zh) 医学图像的处理方法、装置、电子设备和存储介质
CN112581458B (zh) 一种图像处理方法和装置
CN110110723B (zh) 一种图像中目标区域自动提取的方法及装置
EP4118617A1 (en) Automated detection of tumors based on image processing
Hakim et al. Microcalcification detection in mammography image using computer-aided detection based on convolutional neural network
CN112950552B (zh) 一种基于卷积神经网络的肋骨分割标记方法及系统
Wen et al. A novel lesion segmentation algorithm based on U-net network for tuberculosis CT image
CN115294023A (zh) 肝脏肿瘤自动分割方法及装置
CN113658187B (zh) 结合解剖先验的医学影像分割方法、装置及存储介质
CN112862786B (zh) Cta影像数据处理方法、装置及存储介质
CN111242930B (zh) 肺结核识别模型的获取方法及装置、存储介质、处理器
CN111127636B (zh) 一种智能的复杂关节内骨折桌面级三维诊断系统
CN113435491A (zh) 医学图像处理方法和装置
CN113450306A (zh) 提供骨折检测工具的方法
CN115359060B (zh) 一种肺炎ct影像的病灶实例分割方法及装置
Zair et al. An automated segmentation of coronary artery calcification using deep learning in specific region limitation
KR102595106B1 (ko) 천장골관절염 진단을 위한 딥러닝 네트워크 모델 생성 방법 및 시스템
CN116309593B (zh) 基于数学模型的肝脏穿刺活检b超图像处理方法及系统
CN117476219B (zh) 基于大数据分析的定位ct断层图像的辅助方法和辅助系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 100192 A206, 2 / F, building B-2, Dongsheng Science Park, Zhongguancun, 66 xixiaokou Road, Haidian District, Beijing

Patentee after: Huiying medical technology (Beijing) Co.,Ltd.

Address before: 100192 A206, 2 / F, building B-2, Dongsheng Science Park, Zhongguancun, 66 xixiaokou Road, Haidian District, Beijing

Patentee before: HUIYING MEDICAL TECHNOLOGY (BEIJING) Co.,Ltd.