CN110992376A - 基于ct图像的肋骨分割方法、装置、介质及电子设备 - Google Patents
基于ct图像的肋骨分割方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN110992376A CN110992376A CN201911212133.4A CN201911212133A CN110992376A CN 110992376 A CN110992376 A CN 110992376A CN 201911212133 A CN201911212133 A CN 201911212133A CN 110992376 A CN110992376 A CN 110992376A
- Authority
- CN
- China
- Prior art keywords
- image
- segmented
- layer
- dimensional
- rib
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种基于CT图像的肋骨分割方法、检测装置、计算机可读存储介质以及电子设备,通过获取CT图像中每个像素的位置信息,并且将该位置信息和该CT图像输入神经网络模型,利用神经网络模型自动生成每根肋骨的图像以及对应的编号,从而大幅减少放射科医务人员的工作量,提高肋骨分割的效率,同时也能够避免人工分割数错的情况,提高了肋骨分割的准确度。
Description
技术领域
本申请涉及图像处理领域,具体涉及基于CT图像的肋骨分割方法、检测装置、计算机可读存储介质以及电子设备。
背景技术
电脑断层扫描(Computed Tomography,简称CT)是一种利用数位几何处理后重建的三维放射线医学影像。该技术主要通过单一轴面的X射线旋转照射人体,由于不同的组织对X射线的吸收能力(或称阻射率)不同,可以用电脑的三维技术重建出断层面影像,经由窗宽、窗位处理,可以得到相应组织的断层影像,将断层影像层层堆叠,即可形成立体影像。
人体CT断层扫描是在医院上用来判断骨折的一个重要手段,并且在CT断层扫描影像上发现肋骨骨折、病变时需要标记出肋骨的位置及编号。医生在横断面上确定肋骨编号的时候,需要从最上方的第一根开始一根一根的数下去,这种数肋骨的方法速度慢、效率低,并且对放射科医生造成了巨大的工作负担,而且在高强度的工作下容易出现忘记肋骨编号或者数错的情况。
发明内容
为了解决上述技术问题,本申请提出了一种基于CT图像的肋骨分割方法、检测装置、计算机可读存储介质以及电子设备,通过获取CT图像中每个像素的位置信息,并且将该位置信息和该CT图像输入神经网络模型,利用神经网络模型自动生成每根肋骨的图像以及对应的编号,从而大幅减少放射科医务人员的工作量,提高肋骨分割的效率,同时也能够避免人工分割数错的情况,提高了肋骨分割的准确度。
根据本申请的一个方面,提供了一种基于CT图像的肋骨分割方法,包括:获取CT图像中每个像素的位置信息;以及将所述CT图像及所述每个像素的位置信息输入神经网络模型,生成每根肋骨的图像及对应的编号。
在一实施例中,所述CT图像包括多层二维图像,所述将所述CT图像及所述每个像素的位置信息输入神经网络模型,生成每根肋骨的图像及对应的编号包括:获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像,其中N为大于等于1的整数;以及将所述当前待分割图像及所述当前待分割图像中每个像素的位置信息输入所述神经网络模型,生成所述当前待分割图像中每根肋骨的图像及对应的编号。
在一实施例中,所述获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像包括:依次将所述多层二维图像中的每一层二维图像作为所述单层待分割二维图像;以及获取该所述单层待分割二维图像以及该所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像作为当前待分割图像。
在一实施例中,所述获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像包括:当所述单层待分割二维图像的一侧的二维图像的层数小于N时,放弃获取所述单层待分割二维图像。
在一实施例中,所述获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像包括:当所述单层待分割二维图像的一侧的二维图像的层数小于N且大于零时,通过重复选取所述单层待分割二维图像该侧的二维图像,以实现该侧的二维图像的数量为N。
在一实施例中,所述神经网络模型的训练方法包括:将训练样本输入及对应的训练样本输出输入所述神经网络模型进行训练,其中,所述训练样本输入包括所述训练样本对应的CT图像和所述训练样本对应的CT图像中每个像素的位置信息,所述训练样本输出包括所述训练样本对应的CT图像中每根肋骨的图像及对应的编号。
在一实施例中,所述训练方法还包括:将验证样本输入输入所述神经网络模型,得到验证样本输出,其中,所述验证样本输入包括所述验证样本对应的CT图像和所述验证样本对应的CT图像中每个像素的位置信息,所述验证样本输出包括所述验证样本对应的CT图像中每根肋骨的图像及对应的编号;计算所述验证样本输出与标准结果之间的误差;以及当所述误差小于预设误差值时,停止训练。
在一实施例中,在所述计算所述验证样本输出与标准结果之间的误差之后,还包括:当所述误差大于或等于所述预设误差值时,对所述神经网络模型进行求导优化。
在一实施例中,所述训练样本输出的获取方法包括:根据所述训练样本对应的CT图像中每个像素的像素值,获取每根肋骨的粗分割图像;对所述粗分割图像进行去除噪点操作和/或边缘平滑化操作,得到精确分割图像;以及根据所述精确分割图像,对每根肋骨进行编号,得到所述训练样本输出。
在一实施例中,所述根据所述训练样本对应的CT图像中每个像素的像素值,获取每根肋骨的粗分割图像包括:将所述训练样本对应的CT图像中肺部区域内的像素的像素值调整为肌肉区域内的像素的平均像素值;以及通过二值化方法从所述训练样本对应的CT图像中分割出所述粗分割图像。
在一实施例中,所述根据所述训练样本对应的CT图像中每个像素的像素值,获取每根肋骨的粗分割图像包括:将所述训练样本对应的CT图像中像素值大于预设像素值的像素提取,以形成所述所述粗分割图像。
在一实施例中,所述训练方法还包括对训练样本输入进行以下任一项操作或多项的组合操作:调整所述训练样本输入的窗宽窗位,随机翻转所述训练样本输入,随机调整所述训练样本输入的亮度,随机裁剪所述训练样本输入。
根据本申请的另一个方面,提供了一种基于CT图像的肋骨分割装置,包括:获取模块,用于获取CT图像中每个像素的位置信息;以及分割模块,用于将所述CT图像及所述每个像素的位置信息输入神经网络模型,生成每根肋骨的图像及对应的编号。
根据本申请的另一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述任一所述的基于CT图像的肋骨分割方法。
根据本申请的另一个方面,提供了一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于执行上述任一所述的基于CT图像的肋骨分割方法。
本申请提供的一种基于CT图像的肋骨分割方法、检测装置、计算机可读存储介质以及电子设备,通过获取CT图像中每个像素的位置信息,并且将该位置信息和该CT图像输入神经网络模型,利用神经网络模型自动生成每根肋骨的图像以及对应的编号,从而大幅减少放射科医务人员的工作量,提高肋骨分割的效率,同时也能够避免人工分割数错的情况,提高了肋骨分割的准确度。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本申请一示例性实施例提供的一种基于CT图像的肋骨分割方法的流程示意图。
图2是本申请另一示例性实施例提供的一种基于CT图像的肋骨分割方法的流程示意图。
图3是本申请一示例性实施例提供的一种应用于基于CT图像的肋骨分割的神经网络模型训练方法的流程示意图。
图4是本申请一示例性实施例提供的一种基于CT图像的肋骨分割的神经网络模型训练样本获取方法的流程示意图。
图5是本申请另一示例性实施例提供的一种基于CT图像的肋骨分割的神经网络模型训练样本获取方法的流程示意图。
图6是本申请一示例性实施例提供的一种基于CT图像的肋骨分割装置的结构示意图。
图7是本申请一示例性实施例提供的电子设备的结构图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
CT断层扫描图像是由多张二维图像层叠组成的,其具备三维特性,CT断层扫描图像是用来判断是否骨折或其他损伤性症状的重要手段和依据,例如肋骨骨折或者肋骨损伤等。然而在判断是否骨折之前还需要从CT断层扫描图像中分割出每根肋骨并且对每个或每对肋骨进行编号,才能保证在后续的诊断中明确肋骨是否骨折以及发生骨折的具体是第几根肋骨。目前大多数分割肋骨的方法还是通过专业的医务人员人工去查看多张二维图像,并逐根肋骨去数来实现肋骨的编号,这样的工作效率显然不高,并且由于专业医务人员的严重不足也将导致其任务量繁多且工作压力大,在高强度的工作状态下,人工检测可能会出现数错的情况。
随着人工智能的快速发展,人工智能已经开始应用于各个行业,包括医务领域,利用人工智能替代人工去完成大量且高度重复工作,可以大幅减少医务人员的工作量,从而可以实现医务人员更加专心从事更为专业或者必须人工处理的工作(例如疾病的诊断和治疗)。然而对于肋骨的分割,通常的做法是首先分割出第一对肋骨,然后依次去分割其他肋骨,即以第一对肋骨为参照来获取其他的肋骨编号,这样的方法虽然可行,但是在第一对肋骨不清楚或者因为其他原因无法获取时,就很难获取其他肋骨的编号,并且在第一对肋骨的分割和编号出现误差时,会影响其他肋骨的分割和编号,造成误差的传递和累积。
出于解决上述问题,本申请提供的一种基于CT图像的肋骨分割方法,通过获取CT图像中每个像素的位置信息,并且将该位置信息和该CT图像输入神经网络模型,利用神经网络模型自动生成每根肋骨的图像以及对应的编号,从而大幅减少放射科医务人员的工作量,提高肋骨分割的效率,同时也能够避免人工分割数错的情况,提高了肋骨分割的准确度。
示例性方法
图1是本申请一示例性实施例提供的一种基于CT图像的肋骨分割方法的流程示意图。如图1所示,该方法包括如下步骤:
步骤110:获取CT图像中每个像素的位置信息。
虽然每个人的肋骨分布情况或者形状会有差异,但是其大致形状和大致位置是比较固定的,或者说在本人身体内相对参照物(例如肺部、脊骨等)的位置相对固定。因此,可以通过获取CT图像中每个像素的位置信息,来获取CT图像中每根肋骨(对应多个像素)的位置信息。在一实施例中,可以以某一参照物为基准点建立坐标系,并且获知每个像素在该坐标系中的坐标值。
步骤120:将CT图像及每个像素的位置信息输入神经网络模型,生成每根肋骨的图像及对应的编号。
将上述获取的每个像素的位置信息和CT图像作为一个整体(当前待分割图像),输入已经训练完成的神经网络模型,并由该神经网络模型提取当前待分割图像的特征信息,并且根据得到的特征信息,生成每根肋骨的图像及对应的编号,即生成每根肋骨的图像(删除其他图像及背景)和每根肋骨的编号。在一实施例中,该神经网络模型可以为深度学习神经网络模型,进一步可以包括多个由卷积层、池化层、激活层串联组成的组合模层。通过深度学习神经网络模型,可以逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,学习样本数据的内在规律和表示层次,从而使分类或预测更容易。在一实施例中,在提取当前待分割图像的特征信息之后,该方法还可以包括:对特征信息进行上采样。由于当前待分割图像在特征提取的过程中,其特征信息的采集通道会越来越多,而尺寸则会越来越小,从而而不利于检测的精度,因此,通过对特征信息的上采样(即放大处理)来放大特征信息的尺寸,从而进一步提高检测的精度。上采样具体的实现方式可以是:通过对低阶特征信息(采集通道较少、特征图像尺寸较大)和高阶特征信息(采集通道较多、特征图像尺寸较小)进行加权平均,并且通过不断的深度学习,以实现分割过程中较为重要的特征信息的权重较大,而较为不重要的特征信息的权重较小,从而在保证计算量不大的前提下得到有利于图像分割的特征信息。在一实施例中,上采样的输出结果可以包括24个通道,对应人体24根肋骨,并且通过对左右两侧成对的肋骨通道图像分别进行相加,以获取包括24根(12对)肋骨的图像。在进一步的实施例中,可以将上采样的输出结果经过一层或多层卷积层(即实现过滤)后作为图像分割的背景,并且与获取的包括24根肋骨的图像相加,以得到待分割图像的特征信息。
本申请实施例提供的一种基于CT图像的肋骨分割方法,通过获取CT图像中每个像素的位置信息,并且将该位置信息和该CT图像输入神经网络模型,利用神经网络模型自动生成每根肋骨的图像以及对应的编号,从而大幅减少放射科医务人员的工作量,提高肋骨分割的效率,同时也能够避免人工分割数错的情况,提高了肋骨分割的准确度。
图2是本申请另一示例性实施例提供的一种基于CT图像的肋骨分割方法的流程示意图。其中CT图像包括多层二维图像,本实施例可应用在电子设备上,如图2所示,步骤120可以包括如下子步骤:
步骤121:获取多层二维图像中的单层待分割二维图像以及单层待分割二维图像一侧的连续N层二维图像和/或单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像,其中N为大于等于1的整数。
由于CT图像是多层薄层组成的,而肋骨是立体结构,即肋骨会在多层二维图像中体现,因此,相邻或相近的二维图像会存在一定的关联性,对于分割CT图像中的肋骨区域有一定的辅助作用,进而提高分割的准确度。本申请实施例在对CT图像中的某一层二维图像进行分割时,同时分割该层二维图像及其两侧(例如上侧和下侧)N层二维图像,可以利用连续图像中的相互关联性,排除该层二维图像中个别的杂质造成的干扰,从而提高分割的准确度。在一实施例中,当该单层待分割二维图像的一侧的二维图像的层数小于N时,可以放弃获取该单层待分割二维图像。由于CT图像中的每一层二维图像总会被选取分割的(包括作为单层待分割二维图像,和作为单层待分割二维图像的一侧的二维图像),因此,当某一单层待分割二维图像的一侧的二维图像的层数小于N时直接放弃该单层待分割二维图像即可。在一实施例中,当该单层待分割二维图像的一侧的二维图像的层数小于N且大于零时,可以通过重复选取该单层待分割二维图像该侧的二维图像(可以是其中一层,也可以是其中多层),以实现该侧的二维图像的数量为N,然后选取该单层待分割二维图像以及该单层待分割二维图像该侧的N层二维图像和/或该单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像。应当理解,本申请实施例可以根据实际应用场景的需求而选取单层待分割二维图像及其单侧连续N层二维图像(共计N+1层),或者为了更好的提高分割的准确度,本申请实施例也可以在分割某一层二维图像时,同时选取该单层待分割二维图像及其两侧连续N层二维图像(共计2N+1层),只要所选取的分割层数能够保证检测的准确度即可,本申请实施例对于具体的分割层数的选取方案不做限定。
在一实施例中,步骤121的具体实现方式可以是:依次将多层二维图像中的每一层二维图像作为单层待分割二维图像;并且获取该单层待分割二维图像以及该单层待分割二维图像一侧的连续N层二维图像和/或单层待分割二维图像另一侧的连续N层二维图像作为当前待分割图像。即从上至下或从下至上逐层分割CT图像中的每一层二维图像,并且在分割每一层二维图像时,同时分割该二维图像单侧或两侧的N层二维图像,从而提高每一层二维图像的分割准确度,从而提高整个CT图像分割的准确度。应当理解,本申请实施例也可以根据实际应用场景的需求选取相邻两次检测的单层待分割二维图像之间的间隔距离,例如可以是1(即逐层分割),也可以是小于N的其他数据,只要所选取的间隔距离能够准确的分割到每一层二维图像即可,本申请实施例对于具体的间隔距离不做限定。
步骤122:将当前待分割图像及当前待分割图像中每个像素的位置信息输入神经网络模型,生成当前待分割图像中每根肋骨的图像及对应的编号。
将上述获取的包括当前分割的单层待分割二维图像在内的2N+1层(为了叙述方便,以下均以2N+1层为例说明,但是应当理解,本申请实施例并非限于此)二维图像和当前待分割图像中每个像素的位置信息作为一个整体,即当前待分割图像,输入已经训练完成的神经网络模型,并由该神经网络模型生成当前待分割图像中每根肋骨的图像及对应的编号。
本申请实施例通过获取多层二维图像中的单层待分割二维图像以及该单层待分割二维图像一侧的连续N层二维图像和/或该单层待分割二维图像另一侧的连续N层二维图像作为当前待分割图像,其中N为大于等于1的整数,然后将当前待分割图像输入神经网络模型,生成当前待分割图像中每根肋骨的图像及对应的编号,从而大幅减少放射科医务人员的工作量,提高分割效率,同时也能够避免人工数错的情况,提高了分割准确度;并且,考虑到肋骨的位置会在连续的多层图像上体现,通过分割单层二维CT图像及其上下多层连续的图像,可以结合上下层图像综合得出分割结果,进一步提高分割准确度。
图3是本申请一示例性实施例提供的一种应用于基于CT图像的肋骨分割的神经网络模型训练方法的流程示意图。如图3所示,该神经网络模型的训练方法可以包括:
步骤310:将训练样本输入及对应的训练样本输出输入神经网络模型进行训练,其中,训练样本输入包括训练样本对应的CT图像和训练样本对应的CT图像中每个像素的位置信息,训练样本输出包括训练样本对应的CT图像中每根肋骨的图像及对应的编号。
在进行分割之前,需要对神经网络模型进行训练,以保证神经网络模型能够满足检测准确度的需求,其训练过程可以是将训练样本的训练样本输入和对应的训练样本输出输入该神经网络模型进行训练,其中训练样本输入为训练样本对应的CT图像和训练样本对应的CT图像中每个像素的位置信息,训练样本输出为训练样本对应的CT图像中每根肋骨的图像及对应的编号,通过多个训练样本的输入训练,可以提高神经网络模型的分割准确度。
在一实施例中,如图3所示,在步骤310之前,该方法还可以包括:
步骤320:对训练样本输入进行预处理。
在一实施例中,预处理可以包括以下操作中的任一项或多项的组合:调整训练样本输入的窗宽窗位,随机翻转训练样本输入,随机调整训练样本输入的亮度,随机裁剪训练样本输入。通过对训练样本的预处理或增强处理,得到更多的训练样本以及同一个训练样本的不同表现形式(例如同一个人不同角度的CT图像),从而提高训练的强度,进而提高神经网络模型的分割准确度。
在一实施例中,如图3所示,在步骤310之后,该训练方法还可以包括:
步骤330:将验证样本输入输入神经网络模型,得到验证样本输出,其中,验证样本输入包括验证样本对应的CT图像和验证样本对应的CT图像中每个像素的位置信息,验证样本输出包括验证样本对应的CT图像中每根肋骨的图像及对应的编号。
在进行了多次训练样本的输入训练后对该神经网络模型的分割精度进行验证,通过训练后的神经网络模型根据验证样本输入得到验证样本输出,其中验证样本输入包括验证样本对应的CT图像和验证样本对应的CT图像中每个像素的位置信息,验证样本输出包括验证样本对应的CT图像中每根肋骨的图像及对应的编号。
步骤340:计算验证样本输出与标准结果之间的误差。
通过计算验证样本输出与标准结果之间的误差,以获知该神经网络模型的分割准确度,其中,标准结果为对应验证样本的每根肋骨的图像区域及对应的编号。其中,计算误差的具体方式可以包括计算验证样本输出与标准结果之间的距离,由于验证样本输出与标准结果均为标注的区域,因此,可以通过计算两个区域内各点之间的曼哈顿距离获取,具体的,曼哈顿距离的具体计算公式为:
步骤350:当误差小于预设误差值时,停止训练。
通过预先设置预设误差值,当误差小于预设误差值时,说明训练后的神经网络模型的分割准确度已经达到预设标准,可以停止训练。
在一实施例中,为了防止神经网络模型将当前肋骨分类为其相邻上下的肋骨,计算相邻分类误差。即计算当前肋骨被分类为相邻上下肋骨的概率,当该概率小于预设概率值时,认为该神经网络模型对肋骨的分类编号的准确度达到预设值,停止训练该神经网络模型。
在一实施例中,如图3所示,在步骤340之后,该训练方法还可以包括:
步骤360:当误差大于或等于预设误差值时,对神经网络模型进行求导优化。
当误差大于或等于预设误差值时,即说明训练后的神经网络模型的准确度尚未达到预设标准,因此,需要进一步对该神经网络模型进行训练,直至误差小于预设误差值时,停止训练。
图4是本申请一示例性实施例提供的一种基于CT图像的肋骨分割的神经网络模型训练样本获取方法的流程示意图。如图4所示,该神经网络模型的训练样本获取方法可以包括:
步骤410:根据训练样本对应的CT图像中每个像素的像素值,获取每根肋骨的粗分割图像。
通常训练样本的获取都是通过人工标注等方式实现,然而人工去标注像素级别的CT图像不仅需要耗费大量的时间和精力,并且由于像素的尺寸太小,人工标注的准确度也难以得到保证,而不够准确的训练样本将会影响神经网络模型的训练效果,从而导致最终的分割准确度不高。因此,出于得到较高分割准确度的神经网络模型的目的,训练样本的获取精度一定要高,本申请实施例先根据CT图像中每个像素的像素值获取每根肋骨的粗分割图像。由于CT图像中不仅包括肋骨,还包括肌肉和肺部等图像,而且各个部分图像的像素值不一样,因此,可以根据像素的像素值将CT图像中的各个部分分割出来,得到一个粗分割图像。
在一实施例中,步骤410的具体实现方式可以包括:将训练样本对应的CT图像中像素值大于预设像素值的像素提取,以形成粗分割图像。由于肋骨图像区域的像素点的像素值大于肌肉和肺部等区域图像内像素点的像素值,因此,通过设定预设像素值,提取训练样本对应的CT图像中像素值大于预设像素值的像素点,即可得到肋骨区域图像。
步骤420:对粗分割图像进行去除噪点操作和/或边缘平滑化操作,得到精确分割图像。
由于CT图像中可能存在一些干扰信息(如噪点等)或者个别异常显示的像素值,因此,在得到粗分割图像后需要对该粗分割图像进一步操作,包括去除噪点操作、边缘平滑化操作等,通过这些操作将CT图像中的干扰信息和异常显示的像素点排除掉,从而得到精确分割图像。
步骤430:根据精确分割图像,对每根肋骨进行编号,得到训练样本输出。
根据得到的精确分割图像,对每根肋骨进行编号,以得到最终的训练样本,其中训练样本包括训练样本输入和训练样本输出(包括分割出来的每根肋骨的图像及对应的编号)。应当理解,上述步骤中的部分或全部步骤可以通过人工标注实现,也可以通过智能模型实现,例如像素级别的步骤410可以由智能模型实现,步骤420和步骤430可以由人工标注,当然,本申请实施例也可以根据实际应用场景的需求而选取上述步骤的不同实现方式,本申请实施例对此不作限定。
在一实施例中,训练样本的图像可以包括对应不同肋骨的多层图层。即训练样本的图像包括多层图层,其中每层图层上只包括一根或一对肋骨,例如,人体有12对肋骨,因此,可以设置12层图层或者24层图层,本申请对此不作限定。在进一步的实施例中,训练样本的图像还可以包括编号图层,即编号图层上只包括每根肋骨的编号。通过多层图层的设置,可以在多层图层形成的最终图像上显示训练样本的所有信息,且各个信息之间相互不干扰,并且在某一信息出现误差时可以只调整该信息对应的图层即可,不需要对整个训练样本进行调整,既能提高训练样本的精度,也能简化训练样本的获取方式。
图5是本申请另一示例性实施例提供的一种基于CT图像的肋骨分割的神经网络模型训练样本获取方法的流程示意图。如图5所示,步骤410可以包括如下子步骤:
步骤411:将训练样本对应的CT图像中肺部区域内的像素的像素值调整为肌肉区域内的像素的平均像素值。
由于肋骨处于肌肉与肺部的交界位置,肺部图像区域内像素点的像素值小于肌肉图像区域内像素点的像素值,肌肉图像区域内像素点的像素值又小于肋骨图像区域内像素点的像素值。如果直接进行阈值分割,则可能会将肌肉和骨头一起分割出来,为了避免出现上述结果,在做分割之前先将肺部图像区域内像素点的像素值统一调整为肌肉区域内的像素的平均像素值,如此肺部图像区域内像素点的像素值就与肌肉区域内的像素的像素值一致。应当理解,本申请实施例可以根据实际应用场景的需求选择调整肺部区域内的像素的像素值,例如可以是肌肉区域内的像素的最小像素值等,本申请实施例对此不作限定。
步骤412:通过二值化方法从训练样本对应的CT图像中分割出粗分割图像。
通过调整肺部区域内的像素的像素值,可以实现CT图像中肺部区域内的像素的像素值和肌肉区域内的像素的像素值一致,然后通过二值化的方法可以将CT图像中与肺部区域内和肌肉区域内的像素值不同的肋骨区域分割出来,从而提高粗分割的精度,为后续的分割准确度提供基础。
示例性装置
图6是本申请一示例性实施例提供的一种基于CT图像的肋骨分割装置的结构示意图。如图6所示,该肋骨分割装置60包括如下模块:获取模块61,用于获取CT图像中每个像素的位置信息;以及分割模块62,用于将CT图像及每个像素的位置信息输入神经网络模型,生成每根肋骨的图像及对应的编号。
本申请提出了一种基于CT图像的肋骨分割装置,通过获取模块61获取CT图像中每个像素的位置信息,并且通过分割模块62将该位置信息和该CT图像输入神经网络模型,利用神经网络模型自动生成每根肋骨的图像以及对应的编号,从而大幅减少放射科医务人员的工作量,提高肋骨分割的效率,同时也能够避免人工分割数错的情况,提高了肋骨分割的准确度。
在一实施例中,如图6所示,分割模块62可以进一步配置为:获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像,其中N为大于等于1的整数;将当前待分割图像及当前待分割图像中每个像素的位置信息输入神经网络模型,生成当前待分割图像中每根肋骨的图像及对应的编号。
在一实施例中,如图6所示,肋骨分割装置60还可以包括特征提取模块63,用于提取当前待分割图像的特征信息;执行子模块622配置为:根据该特征信息及当前待分割图像中每个像素的位置信息输入神经网络模型,生成当前待分割图像中每根肋骨的图像及对应的编号。
在一实施例中,如图6所示,肋骨分割装置60还可以包括上采样模块64,用于对特征信息进行上采样操作。
在一实施例中,分割模块62可以进一步配置为:当该单层待分割二维图像的一侧的二维图像的层数小于N时,可以放弃获取该单层待分割二维图像。
在一实施例中,分割模块62可以进一步配置为:当该单层待分割二维图像的一侧的二维图像的层数小于N且大于零时,可以通过重复选取该单层待分割二维图像该侧的二维图像,以实现该侧的二维图像的数量为N。
在一实施例中,分割模块62可以进一步配置为:依次将多层二维图像中的每一层二维图像作为单层待分割二维图像;并且获取该单层待分割二维图像以及该单层待分割二维图像一侧的连续N层二维图像和/或单层待分割二维图像另一侧的连续N层二维图像作为当前待分割图像。
在一实施例中,如图6所示,肋骨分割装置60还可以包括训练模块65,用于将训练样本输入及对应的训练样本输出输入神经网络模型进行训练,其中,训练样本输入包括训练样本对应的CT图像和训练样本对应的CT图像中每个像素的位置信息,训练样本输出包括训练样本对应的CT图像中每根肋骨的图像及对应的编号。
在一实施例中,如图6所示,肋骨分割装置60还可以包括预处理模块66,用于对训练样本输入进行预处理。在一实施例中,预处理可以包括以下操作中的任一项或多项的组合:调整训练样本输入的窗宽窗位,随机翻转训练样本输入,随机调整训练样本输入的亮度,随机裁剪训练样本输入。
在一实施例中,如图6所示,肋骨分割装置60还可以包括验证模块67,用于验证神经网络模型的训练效果。其中验证模块67可以进一步配置为:将验证样本输入输入神经网络模型,得到验证样本输出,其中,验证样本输入包括单层验证二维图像以及该单层验证二维图像一侧的连续N层二维图像和/或该单层验证二维图像另一侧的连续N层二维图像;计算验证样本输出与标准结果之间的误差;当误差小于预设误差值时,停止训练,否则对神经网络模型进行求导优化;当误差大于或等于预设误差值时,对神经网络模型进行求导优化。
在一实施例中,如图6所示,训练模块65可以包括子模块:粗分割子模块651,用于根据训练样本对应的CT图像中每个像素的像素值,获取每根肋骨的粗分割图像;精确分割子模块652,用于对粗分割图像进行去除噪点操作和/或边缘平滑化操作,得到精确分割图像;编号子模块653,用于根据精确分割图像,对每根肋骨进行编号,得到训练样本输出。
在一实施例中,粗分割子模块651进一步配置为:将训练样本对应的CT图像中肺部区域内的像素的像素值调整为肌肉区域内的像素的平均像素值;通过二值化方法从训练样本对应的CT图像中分割出粗分割图像。
示例性电子设备
下面,参考图7来描述根据本申请实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。
图7图示了根据本申请实施例的电子设备的框图。
如图7所示,电子设备10包括一个或多个处理器11和存储器12。
处理器11可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备10中的其他组件以执行期望的功能。
存储器12可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的基于CT图像的肋骨分割方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如输入信号、信号分量、噪声分量等各种内容。
在一个示例中,电子设备10还可以包括:输入装置13和输出装置14,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
例如,在该电子设备是第一设备或第二设备时,该输入装置13可以是摄像头,用于捕捉图像的输入信号。在该电子设备是单机设备时,该输入装置13可以是通信网络连接器,用于从第一设备和第二设备接收所采集的输入信号。
此外,该输入设备13还可以包括例如键盘、鼠标等等。
该输出装置14可以向外部输出各种信息,包括确定出的距离信息、方向信息等。该输出设备14可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图7中仅示出了该电子设备10中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备10还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的基于CT图像的肋骨分割方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的基于CT图像的肋骨分割方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (15)
1.一种基于CT图像的肋骨分割方法,其特征在于,包括:
获取CT图像中每个像素的位置信息;以及
将所述CT图像及所述每个像素的位置信息输入神经网络模型,生成每根肋骨的图像及对应的编号。
2.根据权利要求1所述的分割方法,其特征在于,所述CT图像包括多层二维图像,所述将所述CT图像及所述每个像素的位置信息输入神经网络模型,生成每根肋骨的图像及对应的编号包括:
获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像,其中N为大于等于1的整数;以及
将所述当前待分割图像及所述当前待分割图像中每个像素的位置信息输入所述神经网络模型,生成所述当前待分割图像中每根肋骨的图像及对应的编号。
3.根据权利要求2所述的分割方法,其特征在于,所述获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像包括:
依次将所述多层二维图像中的每一层二维图像作为所述单层待分割二维图像;以及
获取该所述单层待分割二维图像以及该所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像作为当前待分割图像。
4.根据权利要求2所述的分割方法,其特征在于,所述获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像包括:
当所述单层待分割二维图像的一侧的二维图像的层数小于N时,放弃获取所述单层待分割二维图像。
5.根据权利要求2所述的分割方法,其特征在于,所述获取所述多层二维图像中的单层待分割二维图像以及所述单层待分割二维图像一侧的连续N层二维图像和/或所述单层待分割二维图像另一侧的连续N层二维图像,作为当前待分割图像包括:
当所述单层待分割二维图像的一侧的二维图像的层数小于N且大于零时,通过重复选取所述单层待分割二维图像该侧的二维图像,以实现该侧的二维图像的数量为N。
6.根据权利要求1所述的分割方法,其特征在于,所述神经网络模型的训练方法包括:
将训练样本输入及对应的训练样本输出输入所述神经网络模型进行训练,其中,所述训练样本输入包括所述训练样本对应的CT图像和所述训练样本对应的CT图像中每个像素的位置信息,所述训练样本输出包括所述训练样本对应的CT图像中每根肋骨的图像及对应的编号。
7.根据权利要求6所述的分割方法,其特征在于,所述训练方法还包括:
将验证样本输入输入所述神经网络模型,得到验证样本输出,其中,所述验证样本输入包括所述验证样本对应的CT图像和所述验证样本对应的CT图像中每个像素的位置信息,所述验证样本输出包括所述验证样本对应的CT图像中每根肋骨的图像及对应的编号;
计算所述验证样本输出与标准结果之间的误差;以及
当所述误差小于预设误差值时,停止训练。
8.根据权利要求7所述的分割方法,其特征在于,在所述计算所述验证样本输出与标准结果之间的误差之后,还包括:
当所述误差大于或等于所述预设误差值时,对所述神经网络模型进行求导优化。
9.根据权利要求6所述的分割方法,其特征在于,所述训练样本输出的获取方法包括:
根据所述训练样本对应的CT图像中每个像素的像素值,获取每根肋骨的粗分割图像;
对所述粗分割图像进行去除噪点操作和/或边缘平滑化操作,得到精确分割图像;以及
根据所述精确分割图像,对每根肋骨进行编号,得到所述训练样本输出。
10.根据权利要求9所述的分割方法,其特征在于,所述根据所述训练样本对应的CT图像中每个像素的像素值,获取每根肋骨的粗分割图像包括:
将所述训练样本对应的CT图像中肺部区域内的像素的像素值调整为肌肉区域内的像素的平均像素值;以及
通过二值化方法从所述训练样本对应的CT图像中分割出所述粗分割图像。
11.根据权利要求9所述的分割方法,其特征在于,所述根据所述训练样本对应的CT图像中每个像素的像素值,获取每根肋骨的粗分割图像包括:
将所述训练样本对应的CT图像中像素值大于预设像素值的像素提取,以形成所述粗分割图像。
12.根据权利要求6所述的分割方法,其特征在于,所述训练方法还包括对训练样本输入进行以下任一项操作或多项的组合操作:
调整所述训练样本输入的窗宽窗位,随机翻转所述训练样本输入,随机调整所述训练样本输入的亮度,随机裁剪所述训练样本输入。
13.一种基于CT图像的肋骨分割装置,其特征在于,包括:
获取模块,用于获取CT图像中每个像素的位置信息;以及
分割模块,用于将所述CT图像及所述每个像素的位置信息输入神经网络模型,生成每根肋骨的图像及对应的编号。
14.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-12任一所述的基于CT图像的肋骨分割方法。
15.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于执行上述权利要求1-12任一所述的基于CT图像的肋骨分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911212133.4A CN110992376A (zh) | 2019-11-28 | 2019-11-28 | 基于ct图像的肋骨分割方法、装置、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911212133.4A CN110992376A (zh) | 2019-11-28 | 2019-11-28 | 基于ct图像的肋骨分割方法、装置、介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110992376A true CN110992376A (zh) | 2020-04-10 |
Family
ID=70089015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911212133.4A Pending CN110992376A (zh) | 2019-11-28 | 2019-11-28 | 基于ct图像的肋骨分割方法、装置、介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110992376A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915620A (zh) * | 2020-06-19 | 2020-11-10 | 杭州深睿博联科技有限公司 | 一种ct肋骨分割方法及装置 |
CN111951272A (zh) * | 2020-07-02 | 2020-11-17 | 上海联影智能医疗科技有限公司 | 脑部影像的分割方法、装置、计算机设备和可读存储介质 |
CN112116623A (zh) * | 2020-09-21 | 2020-12-22 | 推想医疗科技股份有限公司 | 图像分割方法及装置 |
CN112349391A (zh) * | 2020-11-10 | 2021-02-09 | 山东大学齐鲁医院(青岛) | 一种优化肋骨自动标号方法 |
CN112381762A (zh) * | 2020-10-19 | 2021-02-19 | 深圳视见医疗科技有限公司 | 一种基于深度学习算法的ct肋骨骨折辅助诊断系统 |
CN112489005A (zh) * | 2020-11-26 | 2021-03-12 | 推想医疗科技股份有限公司 | 骨分割方法及装置、骨折检出方法及装置 |
CN112529849A (zh) * | 2020-11-27 | 2021-03-19 | 北京深睿博联科技有限责任公司 | 一种ct肋骨自动计数方法及装置 |
CN112950552A (zh) * | 2021-02-05 | 2021-06-11 | 慧影医疗科技(北京)有限公司 | 一种基于卷积神经网络的肋骨分割标记方法及系统 |
CN116363056A (zh) * | 2023-01-16 | 2023-06-30 | 北京医准智能科技有限公司 | 胸部ct骨折检测优化的方法、装置及设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8254653B2 (en) * | 2007-06-25 | 2012-08-28 | Siemens Aktiengesellschaft | Method for visualizing a three-dimensional image data record from an x-ray CT examination and workstation for carrying out the method |
CN107798682A (zh) * | 2017-08-31 | 2018-03-13 | 深圳联影医疗科技有限公司 | 图像分割系统、方法、装置和计算机可读存储介质 |
CN108520519A (zh) * | 2018-04-11 | 2018-09-11 | 上海联影医疗科技有限公司 | 一种图像处理方法、装置及计算机可读存储介质 |
CN108596920A (zh) * | 2018-05-02 | 2018-09-28 | 北京环境特性研究所 | 一种基于彩色图像的目标分割方法及装置 |
CN108830874A (zh) * | 2018-04-19 | 2018-11-16 | 麦克奥迪(厦门)医疗诊断系统有限公司 | 一种数字病理全切片图像空白区域自动分割方法 |
CN108986891A (zh) * | 2018-07-24 | 2018-12-11 | 北京市商汤科技开发有限公司 | 医疗影像处理方法及装置、电子设备及存储介质 |
CN109840588A (zh) * | 2019-01-04 | 2019-06-04 | 平安科技(深圳)有限公司 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
CN110210519A (zh) * | 2019-05-10 | 2019-09-06 | 上海联影智能医疗科技有限公司 | 分类方法、计算机设备和存储介质 |
-
2019
- 2019-11-28 CN CN201911212133.4A patent/CN110992376A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8254653B2 (en) * | 2007-06-25 | 2012-08-28 | Siemens Aktiengesellschaft | Method for visualizing a three-dimensional image data record from an x-ray CT examination and workstation for carrying out the method |
CN107798682A (zh) * | 2017-08-31 | 2018-03-13 | 深圳联影医疗科技有限公司 | 图像分割系统、方法、装置和计算机可读存储介质 |
CN108520519A (zh) * | 2018-04-11 | 2018-09-11 | 上海联影医疗科技有限公司 | 一种图像处理方法、装置及计算机可读存储介质 |
CN108830874A (zh) * | 2018-04-19 | 2018-11-16 | 麦克奥迪(厦门)医疗诊断系统有限公司 | 一种数字病理全切片图像空白区域自动分割方法 |
CN108596920A (zh) * | 2018-05-02 | 2018-09-28 | 北京环境特性研究所 | 一种基于彩色图像的目标分割方法及装置 |
CN108986891A (zh) * | 2018-07-24 | 2018-12-11 | 北京市商汤科技开发有限公司 | 医疗影像处理方法及装置、电子设备及存储介质 |
CN109840588A (zh) * | 2019-01-04 | 2019-06-04 | 平安科技(深圳)有限公司 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
CN110210519A (zh) * | 2019-05-10 | 2019-09-06 | 上海联影智能医疗科技有限公司 | 分类方法、计算机设备和存储介质 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111915620B (zh) * | 2020-06-19 | 2024-04-09 | 杭州深睿博联科技有限公司 | 一种ct肋骨分割方法及装置 |
CN111915620A (zh) * | 2020-06-19 | 2020-11-10 | 杭州深睿博联科技有限公司 | 一种ct肋骨分割方法及装置 |
CN111951272A (zh) * | 2020-07-02 | 2020-11-17 | 上海联影智能医疗科技有限公司 | 脑部影像的分割方法、装置、计算机设备和可读存储介质 |
CN112116623A (zh) * | 2020-09-21 | 2020-12-22 | 推想医疗科技股份有限公司 | 图像分割方法及装置 |
CN112381762A (zh) * | 2020-10-19 | 2021-02-19 | 深圳视见医疗科技有限公司 | 一种基于深度学习算法的ct肋骨骨折辅助诊断系统 |
CN112349391A (zh) * | 2020-11-10 | 2021-02-09 | 山东大学齐鲁医院(青岛) | 一种优化肋骨自动标号方法 |
CN112489005A (zh) * | 2020-11-26 | 2021-03-12 | 推想医疗科技股份有限公司 | 骨分割方法及装置、骨折检出方法及装置 |
CN112529849A (zh) * | 2020-11-27 | 2021-03-19 | 北京深睿博联科技有限责任公司 | 一种ct肋骨自动计数方法及装置 |
WO2022111383A1 (zh) * | 2020-11-27 | 2022-06-02 | 北京深睿博联科技有限责任公司 | 一种ct肋骨自动计数方法及装置 |
CN112529849B (zh) * | 2020-11-27 | 2024-01-19 | 北京深睿博联科技有限责任公司 | 一种ct肋骨自动计数方法及装置 |
CN112950552A (zh) * | 2021-02-05 | 2021-06-11 | 慧影医疗科技(北京)有限公司 | 一种基于卷积神经网络的肋骨分割标记方法及系统 |
CN116363056A (zh) * | 2023-01-16 | 2023-06-30 | 北京医准智能科技有限公司 | 胸部ct骨折检测优化的方法、装置及设备 |
CN116363056B (zh) * | 2023-01-16 | 2023-09-05 | 北京医准智能科技有限公司 | 胸部ct骨折检测优化的方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992376A (zh) | 基于ct图像的肋骨分割方法、装置、介质及电子设备 | |
Gao et al. | Classification of CT brain images based on deep learning networks | |
JP7241075B2 (ja) | 脊椎骨折を識別するための3次元医用画像解析の方法及びシステム | |
CN111325739B (zh) | 肺部病灶检测的方法及装置,和图像检测模型的训练方法 | |
KR101874348B1 (ko) | 피검체의 흉부 pa 영상의 판독을 지원하는 방법 및 이를 이용한 장치 | |
Xie et al. | Computer‐Aided System for the Detection of Multicategory Pulmonary Tuberculosis in Radiographs | |
CN111415743B (zh) | 肺炎分类方法、装置、介质及电子设备 | |
CN110895812A (zh) | Ct图像的检测方法、装置、存储介质及电子设备 | |
US11494908B2 (en) | Medical image analysis using navigation processing | |
US11475568B2 (en) | Method for controlling display of abnormality in chest x-ray image, storage medium, abnormality display control apparatus, and server apparatus | |
JP2022546344A (ja) | 脳卒中特徴取得のための画像処理 | |
Bromiley et al. | Fully automatic localisation of vertebrae in CT images using random forest regression voting | |
Zhang et al. | An Algorithm for Automatic Rib Fracture Recognition Combined with nnU‐Net and DenseNet | |
US11935234B2 (en) | Method for detecting abnormality, non-transitory computer-readable recording medium storing program for detecting abnormality, abnormality detection apparatus, server apparatus, and method for processing information | |
Li et al. | Developing an image-based deep learning framework for automatic scoring of the pentagon drawing test | |
CN114757873A (zh) | 肋骨骨折检测方法、装置、终端设备及可读存储介质 | |
Nakashima et al. | Prediction of COVID‐19 patients in danger of death using radiomic features of portable chest radiographs | |
CN113469942A (zh) | 一种ct图像病变检测方法 | |
CN111429406A (zh) | 结合多视图推理的乳腺x射线影像病变检出方法和装置 | |
Öksüz et al. | Ensemble-LungMaskNet: Automated lung segmentation using ensembled deep encoders | |
Fonseca et al. | Automatic orientation identification of pediatric chest x-rays | |
US20240062367A1 (en) | Detecting abnormalities in an x-ray image | |
Dovganich et al. | Automatic quality control in lung X-ray imaging with deep learning | |
WO2021197176A1 (en) | Systems and methods for tumor characterization | |
CN109741355A (zh) | 处理数字x线图像的方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200410 |