CN107274406A - 一种检测敏感区域的方法及装置 - Google Patents

一种检测敏感区域的方法及装置 Download PDF

Info

Publication number
CN107274406A
CN107274406A CN201710666437.2A CN201710666437A CN107274406A CN 107274406 A CN107274406 A CN 107274406A CN 201710666437 A CN201710666437 A CN 201710666437A CN 107274406 A CN107274406 A CN 107274406A
Authority
CN
China
Prior art keywords
image
sensitizing range
detected
area image
candidate region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710666437.2A
Other languages
English (en)
Inventor
李鸣
李一鸣
张番栋
周振
庞亮
张树
孔明
王洪振
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Shenrui Bolian Technology Co., Ltd.
Original Assignee
Beijing Shenrui Bolian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shenrui Bolian Technology Co Ltd filed Critical Beijing Shenrui Bolian Technology Co Ltd
Priority to CN201710666437.2A priority Critical patent/CN107274406A/zh
Publication of CN107274406A publication Critical patent/CN107274406A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提出一种检测敏感区域的方法及装置。一种检测敏感区域的方法,包括:获取医学图像;对所述医学图像进行分割处理,得到待检测区域图像;对所述待检测区域图像进行预处理;将预处理后的所述待检测区域图像输入经过训练的残差网络,从所述待检测区域图像中提取得到敏感区域候选区域;将提取得到敏感区域候选区域的待检测区域图像输入经过深度学习的3D卷积神经网络,从所述敏感区域候选区域中提取得到敏感区域。采用上述技术方案,能够自动化地从医学图像中检测出敏感区域,将上述技术方案应用到数字医疗临床诊治中,可以减轻医务人员工作量,并且其识别过程更客观,利于降低敏感区域漏检率。

Description

一种检测敏感区域的方法及装置
技术领域
本发明涉及数字图像处理技术领域,尤其涉及一种检测敏感区域的方法及装置。
背景技术
随着数字医疗技术的发展,医学图像越来越成为医生观察人体病变的重要工具。
比较常见的利用医学图像观察人体健康状况的方法是,先利用专用的医学影像设备对人体进行扫描得到人体内部器官的医学图像,然后由医务人员观察医学图像,从中找出病变的敏感区域,再进一步对敏感区域进行病变分析。医学图像在医疗诊断中的应用,可以使医务人员的诊断更具有针对性,极大地提高医务人员诊断效率。
随着医学影像设备的普及和成像效率的大幅提升,完全依靠医务人员观察医学图像来检测敏感区域,无疑增加了医务人员的工作量。并且,完全由医务人员凭经验从医学图像中检测敏感区域,带有强烈的主观性,容易发生漏检。
发明内容
基于上述现有技术的缺陷和不足,本发明提出一种检测敏感区域的方法及装置,能够自动化地从医学图像中检测敏感区域。
本发明第一方面提出一种检测敏感区域的方法,包括:获取医学图像;对所述医学图像进行分割处理,得到待检测区域图像;对所述待检测区域图像进行预处理;将预处理后的所述待检测区域图像输入经过训练的残差网络,从所述待检测区域图像中提取得到敏感区域候选区域;将提取得到敏感区域候选区域的所述待检测区域图像输入经过深度学习的3D卷积神经网络,从所述敏感区域候选区域中提取得到敏感区域。可见,上述处理过程实现了自动从医学图像中提取敏感区域,将本发明技术方案应用到数字医疗临床诊治中,可以减轻医务人员工作量,并且其识别过程更客观,利于降低敏感区域漏检率。
本发明第二方面提出一种检测敏感区域的装置,包括:图像获取单元,用于获取医学图像;分割处理单元,用于对所述医学图像进行分割处理,得到待检测区域图像;预处理单元,用于对所述待检测区域图像进行预处理;第一提取单元,用于将预处理后的所述待检测区域图像输入经过训练的残差网络,从所述待检测区域图像中提取得到敏感区域候选区域;第二提取单元,用于将提取得到敏感区域候选区域的所述待检测区域图像输入经过深度学习的3D卷积神经网络,从所述敏感区域候选区域中提取得到敏感区域。
在一种实现方式中,所述对所述医学图像进行分割处理,包括:将所述医学图像输入经过监督训练的,具备语义分割功能的图像分割模型,对所述医学图像进行分割处理。
在一种实现方式中,所述对所述待检测区域图像进行预处理,包括:对所述待检测区域图像进行双三次插值运算处理。
在一种实现方式中,对所述残差网络的训练过程,包括:获取标注敏感区域的待检测区域图像;将所述待检测区域图像划分成多个与所述标注的敏感区域大小相同的图像区域;从划分得到的图像区域中,分别确定正样本和负样本;将所述正样本和所述负样本按照1:1的比例输入残差网络,对所述残差网络进行训练。
在一种实现方式中,所述3D卷积神经网络的深度学习过程,包括:循环执行以下操作,直到计算得到的交叉熵损失小于设定阈值:获取标注敏感区域的敏感区域候选区域图像;按照预设的参数,对所述敏感区域候选区域图像进行层级化的函数运算处理,提取得到敏感区域;将提取得到的敏感区域与所述敏感区域候选区域图像中标注的敏感区域进行对比,得到交叉熵损失;判断得到的交叉熵损失是否小于设定阈值;如果得到的交叉熵损失不小于设定阈值,则根据计算得到的交叉熵损失,调整所述进行层级化的函数运算处理的参数。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明实施例提供的一种检测敏感区域的方法的流程示意图;
图2是本发明实施例提供的一种训练残差网络方法的流程示意图;
图3是本发明实施例提供的一种3D卷积神经网络深度学习的流程示意图;
图4是本发明实施例提供的一种检测敏感区域的装置的结构示意图。
具体实施方式
本申请的实施例提出的检测敏感区域的方法应用于医学图像,目的在于自动从医学图像中检测出敏感区域。
本申请实施例所述的“医学图像”,从类型划分,可以包括利用X射线照射人体得到的X射线(X-Ray)图像、通过电子计算机扫描(Computerized Tomography,CT)得到的CT图像、通过磁共振成像(Magnetic Resonance Imaging,MRI)得到的MRI图像等。从获取形态划分,可以为单幅的医学图像,也可以为医学图像序列中的一幅或多幅医学图像,例如,肺的CT图像中的一幅或多幅。从目标划分,可以包括骨骼图像、器官图像等。
医学图像的敏感区域是指在医学图像中,可能包含病灶的设定大小的图像区域。例如,在肺部CT图像中,包含肺结节、肿块、炎症等病变的,设定大小的图像区域,可以被称作敏感区域。
本申请实施例所述的检测敏感区域的方法可以由检测敏感区域的装置执行,所述装置可以集成在现有的医学影像采集设备上,也可以独立设置,而与现有的医学影像采集设备相连。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例公开了一种检测敏感区域的方法,参见图1所示,该方法包括:
S101、获取医学图像。
具体的,不同类型的医学图像的清晰度和检测精度各有差异,在临床上,CT图像和MRI图像等具备较高清晰度和检测精度的三维医学图像,是相对更常用以及更普遍的医学图像。而提高对CT图像和MRI图像的处理效率,具有更高的现实意义。因此,本发明实施例以CT图像或MRI图像为例,对整个实现过程进行说明。
可以理解的是,基于本发明实施例对技术方案的详细介绍,可以将本发明实施例技术方案应用到任意可用的数字医学图像的处理过程中。
S102、对获取的医学图像进行分割处理,得到待检测区域图像。
待检测区域图像是指包括检测目标的图像,所述检测目标是指需要进行病患诊断的诊断对象。
例如,假设要通过肺部CT图像来观察肺部是否有结节,或通过脑部MRI图像来观察脑部是否有出血,则肺部CT图像中包含整个肺的图像区域,就是肺部CT图像的待检测区域图像;类似的,脑部MRI图像中包含完整的脑部的图像区域,就是脑部MRI图像的待检测区域图像。
对图像进行分割,是指根据图像的灰度、颜色、纹理和形状等特征把图像划分成若干互不交迭的区域,并使这些特征在同一区域内呈现出相似性,而在不同区域间呈现出明显的差异性。在本发明实施例中,对获取的医学图像进行分割处理,具体是将医学图像中的待检测区域图像与非待检测区域图像分割开来,将待检测区域图像留作后续处理使用。
以本发明实施例所获取的CT图像或MRI图像为例,CT图像或MRI图像都是三维的医学图像,因此,在具体对CT图像或MRI图像进行目标区域分割时,可以分别对CT图像或MRI图像的每一扫描层进行分割,分割后得到的每一扫描层的目标区域综合起来,可以得到原CT图像或MRI图像中的三维的待检测区域图像。
常用的图像分割方法包括基于阈值的分割方法、基于边缘的分割方法、基于区域的分割方法以及基于特定理论的分割方法等。理论上,采用上述任意一种图像分割方法,都能实现对上述医学图像的分割处理。
为了提高图像分割效率,本发明实施例利用经过监督训练,从而具备自动分割目标图像区域的图像分割模型,实现对上述CT图像或MRI图像的待检测区域图像分割处理。对分割模型进行监督训练,是指将已分割出待检测区域的医学图像输入分割模型,使分割模型自动学习从医学图像中分割出待检测区域的分割方法,从而具备从任意的医学图像进行分割出待检测区域图像的能力。利用上述分割模型实现对获取的医学图像的分割处理,可以极大地提高分割效率。例如,通过训练人工神经网络的多层感知机来得到线性决策函数,然后用该线性决策函数对图像中的像素进行分类,达到分割图像的目的。
图像分割模型通过识别医学图像的各个像素的灰阶,来分割医学图像中的待检测区域图像。一般的,待检测区域图像像素的灰阶的值与非待检测区域图像像素的灰阶的值会具有明显差异。图像分割模型通过判断医学图像中任意像素的灰阶值是否在待检测区域图像像素灰阶范围内,来判断医学图像中任意像素是否为待检测区域图像像素,从而从医学图像中区分出待检测区域图像像素,达到分割得到待检测区域图像的目的。
在本发明实施例中,图像分割模型通过判断CT图像或MRI图像中的每一体素的灰阶的值是否在待检测区域图像体素灰阶范围内,从CT图像或MRI图像中检测出属于待检测区域图像的体素,从而从CT图像或MRI图像中分割出三维的待检测区域图像。
上述已分割出待检测区域的医学图像,可以是由医务人员标注待检测区域的医学图像,也可以是由上述图像分割模型在未进行监督训练时,对医学图像进行分割并标注待检测区域的,分割结果较准确的医学图像。
进一步的,为了使分割过程更简单,分割结果更明确,本发明实施例所使用的经过监督训练的图像分割模型,是具备语义识别功能,能够从语义上识别医学图像中所包含的待检测区域的特征,从而从语义上实现待检测区域图像分割的分割模型。
从语义上对图像进行分割,可以更迅速的从医学图像中分割出待检测区域图像。例如,直接向图像分割模型发送分割出肺部医学图像中的“肺”的指令,由于图像分割模型具备语义分割功能,则图像分割模型就可以直接从医学图像中识别出其中的“肺”。
S103、对分割得到的待检测区域图像进行预处理;
具体的,本发明实施例对分割得到的待检测区域图像进行预处理,包括但不限于对待检测区域图像进行归一化处理。
对待检测区域图像进行归一化处理,是指将不同比例尺和层间距的医学图像的比例尺和层间距进行统一,以及将医学图像中的体素灰度统一到一个范围内,从而消除不同尺度或层间距对图像处理过程的影响,以及减小医学图像中灰度值较小的体素对图像处理过程的影响。
由于不同设备或不同场景获取的CT图像或MRI图像等医学图像的比例尺或层间距不同,因此,为了提高本发明实施例技术方案的适用性,对待处理的医学图像(待检测区域图像)进行预处理,具体的预处理方法是利用双三次插值运算对待检测区域图像进行预处理。
双三次插值又叫双立方插值,是用于在图像中“插值”或增加“像素”数量或密度的一种方法。双三次插值可以增加图像像素,增加的图像像素由它附近的像素的值推算出来,从而达到增大图像分辨率的目的。
双三次插值已是成熟的图像预处理方法,并且已应用到多数图像编辑软件中。本发明实施例并没有对双三次插值计算方法进行改进,而是将双三次插值应用到本发明实施例技术方案中,并且做适应性更改。
上述适应性更改,一方面包括设置双三次插值运算参数符合本发明实施例所处理的三维CT图像或MRI图像;另一方面,双三次插值一般应用于对二维图像进行插值处理的场景,参照双三次插值对二维图像的处理过程,本发明实施例将双三次插值对二维图像的差值处理过程扩展为对三维医学图像的差值处理,增加了双三次插值处理维度。
S104、将预处理后的待检测区域图像输入经过训练的残差网络,提取得到待检测区域图像中的敏感区域候选区域。
具体的,上述经过训练的残差网络,用于从待检测区域图像中提取得到敏感区域候选区域。
残差网络是计算机视觉技术领域常用的,用于图像分类、目标检测及语义分割的学习网络。在本发明实施例中,残差网络从CT图像或MRI图像的待检测区域图像中提取敏感区域候选区域的具体过程是:
将CT图像或MRI图像的待检测区域图像划分成多个相同大小的立方体图像区域;
分别计算并判断每个立方体图像区域的灰阶值,是否在敏感区域候选区域灰阶值范围内;
将灰阶值在敏感区域候选区域灰阶值范围内的立方体图像区域,标记为敏感区域候选区域。
残差网络具备学习能力,能够通过学习已标注敏感区域和非敏感区域的图像,具备从医学图像中识别敏感区域候选区域的功能。残差网络进行学习的过程,也就是对残差网络进行训练的过程。具体的训练过程,请参见下文介绍的,图2所示的对残差网络进行训练的过程。
利用上述经过训练的残差网络,可以从待检测区域图像中提取得到敏感区域候选区域图像,在后期的处理过程中,只针对待检测区域图像中的敏感区域候选区域图像进行处理即可,例如从敏感区域候选区域图像中进一步提取敏感区域等。因此,从待检测区域图像中提取得到敏感区域候选区域,可以缩小图像处理范围,提高图像处理的针对性。
S105、将提取得到敏感区域候选区域的待检测区域图像输入经过深度学习的3D卷积神经网络,提取得到器官区域图像中的敏感区域。
具体的,上述经过深度学习的3D卷积神经网络,是指经过训练的,能够从标注敏感区域候选区域的器待检测域图像中识别得到敏感区域的模型。
卷积神经网络是一种高效的识别方法,特别是在模式分类领域,由于该网络避免了对图像进行复杂的前期预处理,可以直接输入原始图像,并对原始图像进行识别,因而得到广泛应用。
一般地,卷积神经网络的基本结构包括两层,其一为特征提取层,每个神经元的输入与前一层的局部接受域相连,并提取该局部的特征,一旦该局部特征被提取后,它与其它特征间的位置关系也随之确定下来;其二是特征映射层,网络的每个计算层由多个特征映射组成,每个特征映射是一个平面,平面上所有神经元的权值相等。卷积神经网络主要用来识别位移、缩放及其他形式扭曲不变性的二维图形。由于卷积神经网络的特征检测层通过训练数据进行学习,所以在使用卷积神经网络时,避免了显式的特征抽取,而隐式地从训练数据中进行学习;再者由于同一特征映射面上的神经元权值相同,所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势。卷积神经网络以其局部权值共享的特殊结构在语音识别和图像处理方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类过程中数据重建的复杂度。
3D卷积神经网络是在上述卷积神经网络的基础上,对卷积神经网络进行改进得到的,可以对3维图像进行学习及识别的神经网络,其原理及基本计算方法类似于上述卷积神经网络。由于本发明实施例所处理的医学图像为CT图像或MRI图像等3维医学图像,因此,本发明实施例采用3D卷积神经网络作为图像识别模型。
3D卷积神经网络从CT图像或MRI图像的敏感区域候选区域中,提取得到敏感区域的过程大体可以概括为:
将CT图像或MRI图像的敏感区域候选区域图像划分为多个相同大小的立方体图像区域;
分别计算并判断每一个立方体图像区域的灰阶值,是否在敏感区域灰阶值范围内;
将灰阶值在敏感区域灰阶值范围内的立方体图像区域,标记为敏感区域。
3D卷积神经网络的深度学习过程,也就是对3D卷积神经网络进行训练的过程,具体是指利用已经标注敏感区域,并且已标注敏感区域候选区域的医学图像,对3D卷积神经网络进行训练,使3D卷积神经网络学习从未标注敏感区域,但是已标注敏感区域候选区域的医学图像中提取出敏感区域的能力。具体的学习过程,请参见下文介绍的,图3所示的3D卷积神经网络的深度学习过程。
利用上述经过训练的3D卷积神经网络,可以从已标注敏感区域候选区域的医学图像中,提取得到敏感区域。
通过上述步骤S101~S105的介绍可见,本发明实施例先利用分割算法从医学图像中分割得到待检测区域图像;然后利用经过训练而具备提取敏感区域候选区域能力的残差网络,从待检测区域图像中提取得到敏感区域候选区域;再利用经过训练而具备识别敏感区域能力的3D卷积神经网络,从敏感区域候选区域中提取得到敏感区域。上述处理过程实现了自动从医学图像中提取敏感区域,将本发明实施例技术方案应用到数字医疗临床诊治中,可以减轻医务人员工作量,并且其识别过程更客观,利于降低敏感区域漏检率。
图2是本发明实施例提出的对残差网络进行训练的过程的示意图。对残差网络的训练过程具体包括:
S201、获取标注敏感区域的待检测区域图像;
具体的,上述标注敏感区域的待检测区域图像,是指已经标注出病变敏感区域的,3维的待检测区域图像,例如已经由医务人员标注敏感区域的,人体内部器官区域的CT图像或MRI图像。
S202、将获取的待检测区域图像划分成多个与标注的敏感区域大小相同的图像区域;
具体的,根据标注敏感区域的待检测区域图像中敏感区域的大小及敏感区域形状,将待检测区域图像划分成多个图像区域。其中,所划分的每一图像区域的大小与上述敏感区域的大小相同,并且每一图像区域的形状与上述敏感区域的形状相同。
例如,假设在一幅人体内部器官区域CT图像中已标记一个36×36×36的立方体形状的敏感区域,则将整个器官区域CT图像按照36×36×36的立方体形状进行划分,划分为多个图像区域。
S203、从划分的图像区域中,分别确定正样本和负样本;
具体的,将划分图像区域的待检测区域图像中的,与标注的敏感区域的交叉比例超过设定阈值的图像区域,设定为正样本;将划分图像区域的器官区域图像中的,与标注的敏感区域无交叉的图像区域,设定为负样本。对于划分图像区域的待检测区域图像中的,与标注的敏感区域有交叉,但是交叉比例未达到上述设定比例的图像区域,不做考虑。
S204、将正负样本按照1:1的比例,输入残差网络,对残差网络进行训练。
具体的,在一幅已经标注敏感区域的待检测区域图像中,按照1:1的比例选取正样本和负样本,并将已选取正样本和负样本的待检测区域图像,输入残差网络,使残差网络根据输入的正样本和负样本进行学习,从而具备提取敏感区域候选区域的能力。
进一步的,为了提高残差网络的学习效果,可以选择足够数量的,已经选取正样本和负样本的待检测区域图像,对残差网络进行训练,使残差网络具备完善的提取敏感区域候选区域的能力。
残差网络学习的过程,实际上是通过学习大量的样本,获取样本中敏感区域候选区域像素的特征。当输入待识别的医学图像时,残差网络通过将医学图像中的像素的特征与事先获取的敏感区域候选区域像素特征进行对比,判断医学图像中的像素是否是敏感区域候选区域像素,从而达到从医学图像中提取敏感区域候选区域的目的。
上述训练过程,直到残差网络提取的敏感区域候选区域的误差在设定的误差范围内时为止。
图3是本发明实施例提出的3D卷积神经网络的深度学习过程的示意图。参照图3所示,3D卷积神经网络的深度学习过程包括:
S301、获取标注敏感区域的敏感区域候选区域图像;
具体的,上述标注敏感区域的敏感区域候选区域图像,是指从待检测区域图像中提取得到敏感区域候选区域后,在敏感区域候选区域中进一步标注敏感区域后的图像。
需要说明的是,3D卷积神经网络进行深度学习的目的,是希望能够从敏感区域候选区域图像中,识别得到敏感区域。因此,上述敏感区域候选区域图像,可以是单纯的,只包含敏感区域候选区域的图像,也可以是已标记敏感区域候选区域的待检测区域图像。当上述敏感区域候选区域图像为已标记敏感区域候选区域的待检测区域图像时,3D卷积神经网络所学习的,依然是从待检测区域图像中的敏感区域候选区域中,识别得到敏感区域的能力,即3D卷积神经网络具备先从待检测区域图像中识别敏感区域候选区域的能力,然后再学习从敏感区域候选区域中提取敏感区域的能力。
S302、按照预设的参数,对标注敏感区域的敏感区域候选区域图像进行层级化的函数运算处理,提取得到敏感区域;
具体的,数字图像在计算机内部以向量形式存储,因此可以对其进行函数运算从而达到对数字图像进行处理的目的。3D卷积神经网络包含多层函数运算,分别是卷积层、批归一化层、非线性层、下采样层等,经过若干层的运算处理后,3D卷积神经网络能够从敏感区域候选区域中,识别得到一个三维向量,该三维向量即表示识别得到的敏感区域。
上述预设的参数,具体包括3D卷积神经网络的各层函数运算的初始参数。这些初始参数,可以由3D卷积神经网络自身进行调整,以使得3D卷积神经网络不断提升自身性能。
上述3D卷积神经网络对输入的敏感区域候选区域图像进行函数运算处理的过程,实现了将敏感区域候选区域中像素的灰阶值与敏感区域灰阶值进行对比,从敏感区域候选区域中选出灰阶值满足敏感区域候选区域灰阶值要求的像素点,即从敏感区域候选区域中提取得到敏感区域。
由于本发明实施例采用的是3D卷积神经网络,可以按照不同策略,对敏感区域候选区域图像进行更多层的运算处理,最终得到一个三维向量,即敏感区域。3D卷积神经网络相对于2D卷积神经网络,识别得到的敏感区域更准确,识别效率更高。
S303、将提取得到的敏感区域与敏感区域候选区域中标注的敏感区域进行对比,得到交叉熵损失;
具体的,将识别得到的敏感区域与敏感区域候选区域中标注的敏感区域做差,得到交叉熵损失,即识别得到的敏感区域的误差。
S304、根据交叉熵损失,调整对敏感区域候选区域图像进行层级化的函数运算处理的参数;
具体的,在通过步骤S303计算得到交叉熵损失后,根据交叉熵损失对运算过程中的参数进行自动化的调整,使交叉熵损失减小,即提高识别敏感区域的精度。
S305、重复执行步骤S301~S304,直到交叉熵损失小于设定的阈值
具体的,在重复执行步骤S301~S304时,每次获取的标注敏感区域的敏感区域候选区域图像,都是不同的标注敏感区域的敏感区域候选区域图像。3D卷积神经网络经过足够次数的识别敏感区域,以及调整运算参数,可以使交叉熵损失逐步降低,即识别误差逐步降低。当交叉熵损失降低到小于设定的阈值,并且不再继续减小时,说明3D卷积神经网络识别敏感区域的精度已经能够满足要求,也就是3D卷积神经网络具备了从敏感区域候选区域中识别敏感区域的能力,可以用于从任意的敏感区域候选区域中识别敏感区域。
图4是本发明实施例公开的一种检测敏感区域的装置的结构示意图。一种检测敏感区域的装置,包括:图像获取单元401,用于获取医学图像;分割处理单元402,用于对所述医学图像进行分割处理,得到待检测区域图像;预处理单元403,用于对所述待检测区域图像进行预处理;第一提取单元404,用于将预处理后的所述待检测区域图像输入经过训练的残差网络,从所述待检测区域图像中提取得到敏感区域候选区域;第二提取单元405,用于将提取得到敏感区域候选区域的所述待检测区域图像输入经过深度学习的,3D卷积神经网络,从所述敏感区域候选区域中提取得到敏感区域。
具体的,本实施例中各个单元的具体工作内容,请参见上述方法实施例的内容,此处不再赘述。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种检测敏感区域的方法,其特征在于,包括:
获取医学图像;
对所述医学图像进行分割处理,得到待检测区域图像;
对所述待检测区域图像进行预处理;
将预处理后的所述待检测区域图像输入经过训练的残差网络,从所述待检测区域图像中提取得到敏感区域候选区域;
将提取得到敏感区域候选区域的所述待检测区域图像输入经过深度学习的3D卷积神经网络,从所述敏感区域候选区域中提取得到敏感区域。
2.根据权利要求1所述的方法,其特征在于,所述对所述医学图像进行分割处理,包括:
将所述医学图像输入经过监督训练的,具备语义分割功能的图像分割模型,对所述医学图像进行分割处理。
3.根据权利要求1所述的方法,其特征在于,所述对所述待检测区域图像进行预处理,包括:
对所述待检测区域图像进行双三次插值运算处理。
4.根据权利要求1所述的方法,其特征在于,对所述残差网络的训练过程,包括:
获取标注敏感区域的待检测区域图像;
将所述待检测区域图像划分成多个与标注的敏感区域大小相同的图像区域;
从划分得到的图像区域中,分别确定正样本和负样本;
将所述正样本和所述负样本按照1:1的比例输入残差网络,对所述残差网络进行训练。
5.根据权利要求1所述的方法,其特征在于,所述3D卷积神经网络的深度学习过程,包括:
循环执行以下操作,直到计算得到的交叉熵损失小于设定阈值:
获取标注敏感区域的敏感区域候选区域图像;
按照预设的参数,对所述敏感区域候选区域图像进行层级化的函数运算处理,提取得到敏感区域;
将提取得到的敏感区域与所述敏感区域候选区域图像中标注的敏感区域进行对比,得到交叉熵损失;
判断得到的交叉熵损失是否小于设定阈值;
如果得到的交叉熵损失不小于设定阈值,则根据计算得到的交叉熵损失,调整所述进行层级化的函数运算处理的参数。
6.一种检测敏感区域的装置,其特征在于,包括:
图像获取单元,用于获取医学图像;
分割处理单元,用于对所述医学图像进行分割处理,得到待检测区域图像;
预处理单元,用于对所述待检测区域图像进行预处理;
第一提取单元,用于将预处理后的所述待检测区域图像输入经过训练的残差网络,从所述待检测区域图像中提取得到敏感区域候选区域;
第二提取单元,用于将提取得到敏感区域候选区域的所述待检测区域图像输入经过深度学习的3D卷积神经网络,从所述敏感区域候选区域中提取得到敏感区域。
7.根据权利要求6所述的装置,其特征在于,所述分割处理单元对所述医学图像进行分割处理时,具体用于:
将所述医学图像输入经过监督训练的,具备语义分割功能的图像分割模型,对所述医学图像进行分割处理。
8.根据权利要求6所述的装置,其特征在于,所述预处理单元对所述待检测区域图像进行预处理时,具体用于:
对所述待检测区域图像进行双三次插值运算处理。
9.根据权利要求6所述的装置,其特征在于,所述第一提取单元还用于对所述残差网络进行训练;
所述第一提取单元对所述残差网络进行训练时,具体用于:
获取标注敏感区域的待检测区域图像;将所述待检测区域图像划分成多个与标注的敏感区域大小相同的图像区域;从划分得到的图像区域中,分别确定正样本和负样本;将所述正样本和所述负样本按照1:1的比例输入残差网络,对所述残差网络进行训练。
10.根据权利要求6所述的装置,其特征在于,所述3D卷积神经网络进行深度学习时,具体用于:
循环执行以下操作,直到计算得到的交叉熵损失小于设定阈值:
获取标注敏感区域的敏感区域候选区域图像;
按照预设的参数,对所述敏感区域候选区域图像进行层级化的函数运算处理,提取得到敏感区域;
将提取得到的敏感区域与所述敏感区域候选区域图像中标注的敏感区域进行对比,得到交叉熵损失;
判断得到的交叉熵损失是否小于设定阈值;
如果得到的交叉熵损失不小于设定阈值,则根据计算得到的交叉熵损失,调整所述进行层级化的函数运算处理的参数。
CN201710666437.2A 2017-08-07 2017-08-07 一种检测敏感区域的方法及装置 Pending CN107274406A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710666437.2A CN107274406A (zh) 2017-08-07 2017-08-07 一种检测敏感区域的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710666437.2A CN107274406A (zh) 2017-08-07 2017-08-07 一种检测敏感区域的方法及装置

Publications (1)

Publication Number Publication Date
CN107274406A true CN107274406A (zh) 2017-10-20

Family

ID=60076737

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710666437.2A Pending CN107274406A (zh) 2017-08-07 2017-08-07 一种检测敏感区域的方法及装置

Country Status (1)

Country Link
CN (1) CN107274406A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862694A (zh) * 2017-12-19 2018-03-30 济南大象信息技术有限公司 一种基于深度学习的手足口病检测系统
CN108510493A (zh) * 2018-04-09 2018-09-07 深圳大学 医学图像内目标对象的边界定位方法、存储介质及终端
CN109741299A (zh) * 2018-12-14 2019-05-10 首都医科大学附属北京天坛医院 一种基于头颅ct影像的目标区域的错误检测方法及系统
CN109872306A (zh) * 2019-01-28 2019-06-11 腾讯科技(深圳)有限公司 医学图像分割方法、装置和存储介质
CN109993726A (zh) * 2019-02-21 2019-07-09 上海联影智能医疗科技有限公司 医学图像的检测方法、装置、设备和存储介质
CN110189324A (zh) * 2019-06-05 2019-08-30 桂林电子科技大学 一种医学图像处理方法及处理装置
CN110738643A (zh) * 2019-10-08 2020-01-31 上海联影智能医疗科技有限公司 脑出血的分析方法、计算机设备和存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN105469100A (zh) * 2015-11-30 2016-04-06 广东工业大学 基于深度学习的皮肤活检图像病理特性识别方法
CN105574859A (zh) * 2015-12-14 2016-05-11 中国科学院深圳先进技术研究院 一种基于ct图像的肝脏肿瘤分割方法及装置
CN105825509A (zh) * 2016-03-17 2016-08-03 电子科技大学 基于3d卷积神经网络的脑血管分割方法
CN106203432A (zh) * 2016-07-14 2016-12-07 杭州健培科技有限公司 一种基于卷积神经网显著性图谱的感兴趣区域的定位方法
CN106504232A (zh) * 2016-10-14 2017-03-15 北京网医智捷科技有限公司 一种基于3d卷积神经网络的肺部结节自动检测方法
CN106682435A (zh) * 2016-12-31 2017-05-17 西安百利信息科技有限公司 一种多模型融合自动检测医学图像中病变的系统及方法
CN106780460A (zh) * 2016-12-13 2017-05-31 杭州健培科技有限公司 一种用于胸部ct影像的肺结节自动检测系统
CN106886801A (zh) * 2017-04-14 2017-06-23 北京图森未来科技有限公司 一种图像语义分割方法及装置
CN106940816A (zh) * 2017-03-22 2017-07-11 杭州健培科技有限公司 基于3d全连接卷积神经网络的ct图像肺结节检测系统
CN107016665A (zh) * 2017-02-16 2017-08-04 浙江大学 一种基于深度卷积神经网络的ct肺结节检测方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104281853A (zh) * 2014-09-02 2015-01-14 电子科技大学 一种基于3d卷积神经网络的行为识别方法
CN105469100A (zh) * 2015-11-30 2016-04-06 广东工业大学 基于深度学习的皮肤活检图像病理特性识别方法
CN105574859A (zh) * 2015-12-14 2016-05-11 中国科学院深圳先进技术研究院 一种基于ct图像的肝脏肿瘤分割方法及装置
CN105825509A (zh) * 2016-03-17 2016-08-03 电子科技大学 基于3d卷积神经网络的脑血管分割方法
CN106203432A (zh) * 2016-07-14 2016-12-07 杭州健培科技有限公司 一种基于卷积神经网显著性图谱的感兴趣区域的定位方法
CN106504232A (zh) * 2016-10-14 2017-03-15 北京网医智捷科技有限公司 一种基于3d卷积神经网络的肺部结节自动检测方法
CN106780460A (zh) * 2016-12-13 2017-05-31 杭州健培科技有限公司 一种用于胸部ct影像的肺结节自动检测系统
CN106682435A (zh) * 2016-12-31 2017-05-17 西安百利信息科技有限公司 一种多模型融合自动检测医学图像中病变的系统及方法
CN107016665A (zh) * 2017-02-16 2017-08-04 浙江大学 一种基于深度卷积神经网络的ct肺结节检测方法
CN106940816A (zh) * 2017-03-22 2017-07-11 杭州健培科技有限公司 基于3d全连接卷积神经网络的ct图像肺结节检测系统
CN106886801A (zh) * 2017-04-14 2017-06-23 北京图森未来科技有限公司 一种图像语义分割方法及装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107862694A (zh) * 2017-12-19 2018-03-30 济南大象信息技术有限公司 一种基于深度学习的手足口病检测系统
CN108510493A (zh) * 2018-04-09 2018-09-07 深圳大学 医学图像内目标对象的边界定位方法、存储介质及终端
WO2019196099A1 (zh) * 2018-04-09 2019-10-17 深圳大学 医学图像内目标对象的边界定位方法、存储介质及终端
CN109741299A (zh) * 2018-12-14 2019-05-10 首都医科大学附属北京天坛医院 一种基于头颅ct影像的目标区域的错误检测方法及系统
CN109741299B (zh) * 2018-12-14 2023-10-24 首都医科大学附属北京天坛医院 一种基于头颅ct影像的目标区域的错误检测方法及系统
CN109872306A (zh) * 2019-01-28 2019-06-11 腾讯科技(深圳)有限公司 医学图像分割方法、装置和存储介质
CN109993726A (zh) * 2019-02-21 2019-07-09 上海联影智能医疗科技有限公司 医学图像的检测方法、装置、设备和存储介质
CN110189324A (zh) * 2019-06-05 2019-08-30 桂林电子科技大学 一种医学图像处理方法及处理装置
CN110189324B (zh) * 2019-06-05 2023-09-08 桂林电子科技大学 一种医学图像处理方法及处理装置
CN110738643A (zh) * 2019-10-08 2020-01-31 上海联影智能医疗科技有限公司 脑出血的分析方法、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
CN107274406A (zh) 一种检测敏感区域的方法及装置
CN111476292B (zh) 医学图像分类处理人工智能的小样本元学习训练方法
WO2020215985A1 (zh) 医学影像分割方法、装置、电子设备和存储介质
CN106056595B (zh) 基于深度卷积神经网络自动识别甲状腺结节良恶性的辅助诊断系统
CN108257135A (zh) 基于深度学习方法解读医学图像特征的辅助诊断系统
CN109191476A (zh) 基于U-net网络结构的生物医学图像自动分割新方法
CN107730507A (zh) 一种基于深度学习的病变区域自动分割方法
CN112258530A (zh) 基于神经网络的计算机辅助肺结节自动分割方法
CN109635846A (zh) 一种多类医学图像判断方法和系统
CN108765392B (zh) 一种基于滑动窗口的消化道内镜病变检测和识别方法
CN110532897A (zh) 零部件图像识别的方法和装置
CN111951221A (zh) 一种基于深度神经网络的肾小球细胞图像识别方法
CN107292884A (zh) 一种识别mri图像中水肿和血肿的方法及装置
Fan et al. Lung nodule detection based on 3D convolutional neural networks
CN108010013A (zh) 一种肺ct图像肺结节检测方法
CN111415728A (zh) 基于cnn和gan的ct图像数据自动分类方法及设备
CN108830149A (zh) 一种目标细菌的检测方法及终端设备
CN115564782A (zh) 3d血管及气管分割方法及系统
CN113160120A (zh) 基于多模态融合与深度学习的肝脏血管分割方法及系统
CN113706514B (zh) 基于模板图像的病灶定位方法、装置、设备及存储介质
Lakshminarayanan et al. Diagnosis of cancer using hybrid clustering and convolution neural network from breast thermal image
Zhao et al. Study of image segmentation algorithm based on textural features and neural network
CN112884792A (zh) 肺部图像分割的方法、装置、电子设备及存储介质
CN113610746A (zh) 一种图像处理方法、装置、计算机设备及存储介质
Hirayama et al. Extraction of GGO candidate regions from the LIDC database using deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190725

Address after: 100080 Haidian Street, Haidian District, Beijing

Applicant after: Beijing deep Rui Bolian technology limited liability company

Applicant after: Hangzhou Shenrui Bolian Technology Co., Ltd.

Address before: 100080 Tianchuang Science and Technology Building 1106, No. 8 Caihefang Road, Haidian District, Beijing

Applicant before: Beijing deep Rui Bolian technology limited liability company

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20171020