CN112699868A - 一种基于深度卷积神经网络的图像识别方法、设备 - Google Patents
一种基于深度卷积神经网络的图像识别方法、设备 Download PDFInfo
- Publication number
- CN112699868A CN112699868A CN202011492450.9A CN202011492450A CN112699868A CN 112699868 A CN112699868 A CN 112699868A CN 202011492450 A CN202011492450 A CN 202011492450A CN 112699868 A CN112699868 A CN 112699868A
- Authority
- CN
- China
- Prior art keywords
- chest
- image
- neural network
- convolutional neural
- deep convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
- G06T2207/30064—Lung nodule
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及医疗技术领域,尤其是涉及一种基于深度卷积神经网络的图像识别方法、设备,该方法包括:对胸部的X光片进行预处理,得到符合格式要求的X光片初始图像;对X光片初始图像进行筛查,检测是否为胸部正位图像;将胸部正位图像输入至深度卷积神经网络的二分类模型中进行阴阳性分类;将阳性结果的图像输入至深度卷积神经网络的检测模型中检测疾病类型并对图像中的病灶区域进行轮廓标注;显示图像对应的疾病类型和病灶区域。本发明实施例提供的基于深度卷积神经网络的图像识别方法既能筛查X光胸片的阴阳性,也能定位出病灶区域,同时能标出病灶区域的疾病种类或者征象,给医生提供更具有可解释性的参考意见。
Description
技术领域
本发明涉及医疗技术领域,尤其是涉及一种基于深度卷积神经网络的图像识别方法、设备。
背景技术
胸部X光片是常见的检查或诊断胸部疾病的工具。在三甲医院中,日均产生的X光片数量非常大,一方面,阅片医生在长时间的阅片过程中会逐渐累积疲劳度,进而可能会出现诊断错误的情况;另一方面,在城镇小医院中,日均拍片量虽然不多,但阅片医生的经验不足,也可能出现诊断错误的情况。这就亟需一种可以帮医生减少误诊或提供诊断信息的辅助诊断工具。
随着深度学习的发展,越来越多的深度卷积神经网络算法技术被应用到了医学图像中,AI智能辅助诊断系统应运而生。
现有的大多数AI智能辅助诊断方法,大多数是利用国际公开的数据集(如ChestXray14),或者从医院收集的带报告数据,经过自然语言处理从报告中获取片级的疾病标签,然后训练一个多标签分类网络模型或多个单疾病分类模型,然后对胸部X光片进行预测,采用类激活映射(或加权梯度类激活映射)的方法,将深度卷积神经网络模型学到的疾病特征信息转化成热力图的形式,在热力图上可以看到疾病大致的病灶区域在哪里,以此来更进一步地辅助医生诊断。
首先,国际公开数据集的片子质量参差不齐,存在过度曝光、位置不正、成像不好等质量差的片子;此外,国际公开数据集或医院收集的数据,这些数据集的标签绝大部分是从诊断报告中提取的,提取的方法不能保证标签百分百正确;用这种数据训练出来的深度卷积神经网络会严重偏离实际医生诊断的结果。
其次,上述方式的预测结果或者是一个2分结果,或者只能标出可疑病灶区域,却没有该可疑病灶区域对应的疾病种类或者征象,或者只能提示可疑病种,却无法给出相应的病灶区域,即现有技术基本上都是基于整片的疾病分类,并没有具体定位到疾病所在的位置,即使采用类激活映射技术实现弱监督语义分割能力,但得到的病灶区域信息往往不够准确,假阳很高。
临床医生由于需要准确地将疾病的具体位置写在诊断报告中,所以现有的技术方法与临床诊断的情况不相符,很难在协助医生诊断方面上提供有效的帮助。
发明内容
针对上述技术问题,本发明实施例提供了一种基于深度卷积神经网络的图像识别方法、设备,以解决传统算法给出的AI智能辅助诊断方法无法给出病灶区域对应的疾病种类,可解释性不强的技术问题。
本发明实施例在第一方面提供一种基于深度卷积神经网络的图像识别方法,其特征在于,包括:对胸部的X光片进行预处理,得到符合格式要求的X光片初始图像;对所述X光片初始图像进行筛查,检测所述X光片初始图像是否为胸部正位图像;将所述胸部正位图像输入至深度卷积神经网络的二分类模型中进行阴阳性分类;将阳性结果的所述胸部正位图像输入至深度卷积神经网络的检测模型中检测所述胸部正位图像的疾病类型并对所述胸部正位图像中的病灶区域进行轮廓标注;显示所述胸部正位图像对应的所述疾病类型和所述病灶区域。
可选地,所述对胸部X光片进行预处理,得到符合格式要求的X光片初始图像包括:将所述胸部X光片所有的像素值映射到正态分布上,得到窗宽和窗位;将所述窗宽区间外的噪音像素点去除,并将去除后的所述像素映射到0-255的区间范围,得到X光片初始图像。
可选地,所述对所述X光片初始图像进行筛查,具体为:将所述X光片初始图像输入至胸部正位筛查模型中进行筛查,所述胸部正位筛查模型包括:Resnet-34特征提取网络和2个全连接神经网络,所述Resnet-34特征提取网络用于对所述X光片初始图像进行胸部特征提取;第一全连接神经网络用于判断所述胸部特征是否为胸部正位;第二全连接神经网络用于确认所述胸部特征的光度学解释。
可选地,在将所述胸部正位图像输入至深度卷积神经网络的二分类模型中之前,所述方法还包括:如果所述胸部特征的光度学解释为灰度范围从亮到暗地上升像素值,则将所述X光片初始图像的像素进行处理以得到光度学解释为灰度范围从暗到亮地上升像素值。
可选地,所述深度卷积神经网络的二分类模型用于对所述X光片初始图像进行胸部特征提取,并对提取的所述胸部特征进行阴阳性分类。
可选地,所述深度卷积神经网络的检测模型包括:特征提取网络、特征融合网络、区域生成网络、定性器、定位器和分割器,所述特征提取网络的输出为所述特征融合网络的输入;所述特征融合网络的输出为所述区域生成网络的输入;所述区域生成网络的输出为所述定性器的输入,所述定性器用于检测所述所述胸部正位图像的疾病类型;所述区域生成网络输出为所述定位器的输入,所述定位器用于对所述病灶区域定位;所述定位器输入为所述分割器的输出,所述分割器用于对所述病灶区域的轮廓进行标注。
可选地,所述方法还包括:在所述深度卷积神经网络的二分类模型中的分类结果为阳性,但是所述深度卷积神经网络的检测模型输出的疾病置信度都小于设定阈值时,所述深度卷积神经网络的检测模型强制输出最大置信度对应的所述病灶区的轮廓以及疾病类型。
可选地,所述方法还包括:在胸部疾病报告中可视化的显示所述病灶区域以及所述病灶区域对应的所述疾病类型。
可选地,所述深度卷积神经网络的二分类模型和所述深度卷积神经网络的检测模型的训练集均来自于影像归档和通信系统。
本发明实施例在第二方面提供一种图像识别设备,所述图像识别设备包括:存储器、处理器,通信总线以及存储在所述存储器上的图像识别程序,所述通信总线用于实现处理器与存储器间的通信连接;所述处理器用于执行所述图像识别程序,以实现上述图像识别方法的步骤。
本发明实施例提供的基于深度卷积神经网络的图像识别方法和系统既能筛查X光胸片的阴阳性,也能定位出病灶区域,同时能标出病灶区域的疾病种类或者征象,从而给医生提供更具有可解释性的参考意见,以提升医生出报告的效率和减少工作量。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1为本发明实施例的一种基于深度卷积神经网络的图像识别方法的流程示意图;
图2是本发明实施例提供的胸部正位筛查模型的结构框架图;
图3是本发明实施例提供的基于深度卷积神经网络的胸部正位筛查过程示意图;
图4是本发明实施例提供的深度卷积神经网络的二分类模型的结构框架图;
图5是本发明实施例提供的深度卷积神经网络的检测模型的结构框图;
图6是本发明实施例提供的一种图像识别设备的结构示意图。
具体实施方式
为了便于理解本发明,下面结合附图和具体实施例,对本发明进行更详细的说明。需要说明的是,当元件被表述“固定于”另一个元件,它可以直接在另一个元件上、或者其间可以存在一个或多个居中的元件。当一个元件被表述“连接”另一个元件,它可以是直接连接到另一个元件、或者其间可以存在一个或多个居中的元件。本说明书所使用的术语“上”、“下”、“内”、“外”、“底部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。
除非另有定义,本说明书所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本说明书中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是用于限制本发明。本说明书所使用的术语“和/或”包括一个或多个相关的所列项目的任意的和所有的组合。
本发明提出了一个既能快速筛查胸部X光片阴阳性又能对胸部病灶区域进行精准定位的智能辅助诊断方法及系统,该方法和系统最主要的功能是首先通过一个深度卷积神经网络的二分类模型,迅速筛查出阳性片,达到快速排阴的效果,然后再通过另一个深度卷积神经网络的检测模型,准确的定位阳性片中的病灶区域并预测其属于哪种疾病,从而更有效的给医生提供可解释性的参考意见,这样就能更大的提高医生的工作效率并减少医生的工作量。
以下首先详述该方法的具体实现过程以及深度卷积神经网络的二分类模型和深度卷积神经网络的检测模型的训练过程。
请参阅图1,图1是本发明实施例提供的一种基于深度卷积神经网络的图像识别方法,如图1所示,该方法包括如下步骤:
101、对胸部X光片进行预处理,得到符合格式要求的X光片初始图像。
此步骤是将胸部X光片转换成后面几个模型所要求的格式。
具体地,本发明首先通过将X光片上的所有像素值映射到正态分布上,将得到像素区间(μ-3σ,μ+3σ)的宽度作为窗宽(σ是标准差,μ是均值),区间中心作为窗位;然后,将窗宽区间外的约0.3%噪音像素点去掉,再将去除噪音后的像素映射到0至255的范围;最后根据不同模型的输入需求对X光片进行缩放到相应的尺寸。
在本发明中,下述用于胸部正位片筛查的胸部正位筛查模型的输入尺寸要求为:256×256;下述用于胸部阴阳性筛查的深度卷积神经网络的二分类模型的输入尺寸要求为:256×256。
102、对所述X光片初始图像进行筛查,检测所述X光片初始图像是否为胸部正位图像。
对所述X光片初始图像进行筛查,具体为:将X光片初始图像输入至胸部正位筛查模型中进行筛查。在本发明实施例中,胸部正位筛查模型的主要功能是判断输入的X光片初始图像是否是胸部正位片,以及其光度学解释是灰度范围从亮到暗地上升像素值(MONOCHROME1)还是从暗到亮地上升像素值(MONOCHROME2)该模型的结构框架如图2所示。
由于本发明的方法只适用于胸部正位片,所以需要对胸部是否正位进行筛查。在实际操作过程中,由于医生或拍片工作人员的操作失误,可能会将光度学解释的信息录入错误,导致出现成像完全相反的情况。由于实际操作中,医生可以在阅片时手动将其MONOCHROME1调整成MONOCHROME2,来挽救这种操作失误,而本发明的方法不会读取数据头部信息的光度学解释属性信息,因此胸部正位筛查模型添加了光度学解释,以自动判断光度学解释的信息录入是否有误。
具体地,胸部正位筛查模型包括:Resnet-34特征提取网络和2个全连接神经网络,Resnet-34特征提取网络用于对所述X光片初始图像进行胸部特征提取;第一全连接神经网络用于判断所述胸部特征是否为胸部正位;第二全连接神经网络用于确认所述胸部特征的光度学解释。
在步骤101中得到了用于胸部正位片筛查的尺寸要求为:256×256的图片数据,将256×256的图片数据输入至胸部正位筛查模型的处理过程如下:
首先对256×256的图片数据复制两次,然后重叠成3×256×256的结构再转换成1×3×256×256的结构。
然后将1×3×256×256结构图片数据输入至Resnet-34特征提取网络进行网络提取得到1×1024×8×8的特征图,
对1×1024×8×8的特征图经过平均池化层(average pooling layer)处理后得到1×1024×1×1的向量再转换成1×1024的结构,接着将其分别输入到两个输出通道数为1的第一全连接神经网络和第二全连接神经网络,最后将分别得到的2个值用sigmoid激活函数层对其进行处理。
最终得到两个阈值范围在0到1之间的概率值,其中,第一全连接神经网络对应的概率值表示该输入的图片数据是胸部正位片的概率。在默认情况下,若该概率值大于或等于0.5,则表示该图片数据为胸部正位片,否则是非胸部正位片,筛查结果如图3所示。
第二全连接神经网络对应的概率值表示该输入的图片数据的光度学解释是MONOCHROME2的概率。在默认情况下,若该数值大于或等于0.5,则表示该图片数据的光度学解释是MONOCHROME2,否则是MONOCHROME1。
在光度学解释是MONOCHROME1时,需要将该输入的图片数据转变为:每个值的相反数加上255,以将MONOCHROME1调整成MONOCHROME2。
需要说明的是,所述胸部正位筛查模型、下述用于胸部阴阳性筛查的深度卷积神经网络的二分类模型以及下述用于胸部病灶区域定位定性的深度卷积神经网络的检测模型均由与临床真实环境相符的训练数据训练得到。
制作该训练数据具体包括如下步骤:
1、从医院收集胸部X光影像及相应的诊断报告;
2、对收集的胸部X光影像进行脱敏与质控;
3、基于诊断报告提前分析影像;
4、医生对胸部X光影像的审核与标注;
5、算法人员再审核。
本发明中从医院收集胸部X光影像及相应的诊断报告,是通过DICOM协议从医院的PACS系统(Picture Archiving and Communication Systems,影像归档和通信系统)或者DR、CR设备上获取胸部X光影像数据再根据严格的搜索条件(如表1),收集片子及其诊断报告。
表1
对收集的胸部X光影像进行脱敏和质控,需要消除一些敏感的信息,比如病人姓名、检测机构名字、医生姓名等;然后从收集的胸部X光影像初步筛选出胸部正位片,从而去掉大量侧位片及非胸部X光片;并通过人工质控审核的方式,进一步去掉遗漏的非胸部正位片,以及其他质量不好的片子,如过度曝光,成像差,床旁片,小儿片等不满足训练要求的图片数据。
基于诊断报告提前分析X光影像时,由于从医院收集的数据体量大,且大多数为阴性片(即使在操作时已经挑选了“阳性”),不可能把所有数据都拿去给医生标注,因此本发明在训练数据时提出了从诊断报告中提取关键字的方法,当疾病关键字与已治疗的关键字同时存在时,则认为该病人没有该种疾病,从而快速地挑选出阳性数据,并根据具体需求,不同疾病类别分别挑选出一定的数量去标注,这样就能大大减少标注的成本。
医生标注与审核时,可先由低年资医生对X光影像片子进行标注,用多边形的形式将病灶区域勾勒出来。再通过高年资的医生对其标注进行审核,主要审核低年资生是否存在标错或漏标的情况,若有漏标的情况就补上,若有错标的情况就修改正确。
算法人员再审核是因为算法人员具有专业的训练深度卷积神经网络的经验,只有严谨且准确的标注数据才能训练出精确的网络模型。所以算法人员会对医生标好的数据进行审核,主要审核的内容为标注的多边形的严谨程度,比如有一些关于胸腔积液的多边形太大,囊括到了肺外的背景区域,就需要对其进行纠正。
利用上述方法制作得到的训练数据贴近临床真实环境,数据质量高。
103、将胸部正位图像输入至深度卷积神经网络的二分类模型中进行阴阳性分类。
在本发明实施例中,深度卷积神经网络的二分类模型的主要功能是快速分析胸部X光片的阴阳性,该模型的结构框架如图4所示。
在步骤101中得到了用于胸部正位片筛查的尺寸要求为:256×256的图片数据,将256×256的图片数据输入至深度卷积神经网络的二分类模型进行处理的过程如下:
首先对256×256的图片数据复制两次,然后重叠成3×256×256的结构再转换成1×3×256×256的结构。
然后将1×3×256×256结构图片数据输入至Densenet-121的特征提取网络进行网络提取得到1×1024×8×8的特征图,
对1×1024×8×8的特征图经过平均池化层处理后得到1×1024×1×1的向量再转换成1×1024的结构,接着将其输入到通道数为1的全连接神经网络中,最后用sigmoid激活函数对得到的值进行处理。
最终得到阈值范围在0到1之间的概率值,该概率值表示该输入的图片数据是阳性片的概率。在默认情况下,若该概率值大于或等于0.5,则表示该图片数据为为阳性片,否则是阴性片。
104、将阳性结果的所述胸部正位图像输入至深度卷积神经网络的检测模型中检测所述胸部正位图像的疾病类型并对所述胸部正位图像中的病灶区域进行轮廓标注。
在本发明实施例中,深度卷积神经网络的检测模型的主要功能是将阳性片中具体的病灶区域定位出来,并对每个定位出来的区域进行具体的疾病类型定性分析,胸部病灶区域的疾病类型包括以下17种:肺不张、心影增大、胸腔积液、浸润、肿块、结节、肺炎、气胸、肺实变、肺水肿、肺气肿、肺纤维化、胸膜增厚、膈疝、肺结核、肋骨骨折以及主动脉钙化。
该深度卷积神经网络的检测模型的结构框架如图5所示。主要包括:特征提取网络、特征融合网络、区域生成网络、定性器、定位器和分割器。
其中,特征提取网络采用efficientNet-b2的结构,特征融合网络采用双向特征金字塔融合结构这样可以更有效的提取出更具代表性的特征,以及更好地融合浅层-高层语义特征的信息,为后续定位定型提供基础。
区域生成网络由一个卷积层和两个独立卷积层构成,第一个卷积层的作用是初步解析输入的图片数据的特征信息,并在训练时缓冲反向传播的梯度对主干线的直接影响;两个独立的卷积层,一个用于预测病灶区域的候选框,另一个用于预测该候选框是病灶区域的概率值。
定性器是对区域生产网络输出的候选框进行定性分析,分析其是否有病,若有病则再预测其属于上述17种疾病或征象的哪一种;定位器是对区域生成网络输出的候选框进一步优化,从而输出更准确的定位框;分割器的作用则是对定位器优化过的病灶区域进行分割,从而找出病灶区域的精确轮廓。
在步骤101中得到了用于胸部正位片筛查的尺寸要求为:640×640的图片数据,将640×640的图片数据输入至深度卷积神经网络的检测模型进行处理的过程如下:
将1×3×768×768结构的图片作为输入数据经过特征提取网络和特征融合网络后,由区域生成网络生成1000个病灶区域候选框;然后结合这1000个病灶区域候选框及其对应的特征图,用双线性差值法缩放成1000×256×7×7结构的特征图再输入到定性器、定位器,每个候选框会被分析并输出18个类别的置信度(17类疾病或征象+1类无病)及对应类的精修框(共18个精修框),然后挑选置信度最大的类别及该类别对应的精修框作为输出,最终再经由分割器分割出病灶区域的轮廓(轮廓的坐标信息会最终经过缩放操作回到原图768×768的尺寸)。
在上述不走均检测完毕后,还需要对胸部正位片筛查模型、深度卷积神经网络的二分类模型和深度卷积神经网络的检测模型的输出信息进行整理和输出。在一些实施例中,如果深度卷积神经网络的二分类模型中的分类结果为阳性,但是深度卷积神经网络的检测模型输出的疾病置信度都小于设定阈值时,则在后处理阶段,深度卷积神经网络的检测模型强制输出最大置信度对应的疾病类型及标注的病灶区的轮廓。
105、显示所述胸部正位图像对应的所述疾病类型和可视化的所述病灶区域。
此步骤即在在胸部正位图像中勾勒出病灶区域的轮廓,并标明该轮廓对应的疾病名称或者征象,同时,根据病灶区域的可疑概率,可以做出热力图,供医生诊断参考。
在一些实施例中,还可以在胸部疾病报告中可视化的显示病灶区域以及病灶区域对应的疾病类型。
本发明实施例提供的基于深度卷积神经网络的图像识别方法既能筛查X光胸片的阴阳性,也能定位出病灶区域,同时能标出病灶区域的疾病种类或者征象,从而给医生提供更具有可解释性的参考意见,以提升医生出报告的效率和减少工作量。
请参阅图6,本发明实施例还提供一种该图像识别设备600,该设备可以包括:处理器1001,例如CPU,存储器1003,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1003之间的连接通信。存储器1003可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1003可选的还可以是独立于前述处理器1001的存储设备。
可选地,该图像识别设备还可以包括用户接口、网络接口、摄像头、RF(RadioFrequency,射频)电路,传感器、音频电路、WiFi模块等等。用户接口可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。本领域技术人员可以理解,图6中示出的图像识别设备结构并不构成对图像识别设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图6所示,作为一种计算机存储介质的存储器1003中可以包括操作系统、网络通信模块以及图像识别程序。操作系统是管理和控制图像识别设备硬件和软件资源的程序,支持图像识别程序以及其它软件和/或程序的运行。网络通信模块用于实现存储器1003内部各组件之间的通信,以及与图像识别设备中其它硬件和软件之间通信。
在图6所示的图像识别设备中,处理器1001用于执行存储器1003中存储的图像识别程序,实现上述实施例中的图像识别方法的步骤。
本发明图像识别设备具体实施方式与上述图像识别方法各实施例基本相同,在此不再赘述。
本发明实施例提供的基于深度卷积神经网络的图像识别设备,也能定位出病灶区域,同时能标出病灶区域的疾病种类或者征象,从而给医生提供更具有可解释性的参考意见,以提升医生出报告的效率和减少工作量。
本领域技术人员应该还可以进一步意识到,结合本文中所公开的实施例描述的示例性的双光图像整合方法的各个步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。
本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。所述的计算机软件可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体或随机存储记忆体等。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种基于深度卷积神经网络的图像识别方法,其特征在于,包括如下步骤:
对胸部的X光片进行预处理,得到符合格式要求的X光片初始图像;
对所述X光片初始图像进行筛查,检测所述X光片初始图像是否为胸部正位图像;
将所述胸部正位图像输入至深度卷积神经网络的二分类模型中进行阴阳性分类;
将阳性结果的所述胸部正位图像输入至深度卷积神经网络的检测模型中检测所述胸部正位图像的疾病类型,并对所述胸部正位图像中的病灶区域进行轮廓标注;
显示所述胸部正位图像对应的所述疾病类型和所述病灶区域。
2.根据权利要求1所述的方法,其特征在于,所述对胸部X光片进行预处理,得到符合格式要求的X光片初始图像包括:
将所述胸部X光片所有的像素值映射到正态分布上,得到窗宽和窗位;
将所述窗宽区间外的噪音像素点去除,并将去除后的所述像素映射到0-255的区间范围,得到X光片初始图像。
3.根据权利要求2所述的方法,其特征在于,所述对所述X光片初始图像进行筛查,具体为:将所述X光片初始图像输入至胸部正位筛查模型中进行筛查,所述胸部正位筛查模型包括:Resnet-34特征提取网络和2个全连接神经网络,
所述Resnet-34特征提取网络用于对所述X光片初始图像进行胸部特征提取;
第一全连接神经网络用于判断所述胸部特征是否为胸部正位;
第二全连接神经网络用于确认所述胸部特征的光度学解释。
4.根据权利要求3所述的方法,其特征在于,在将所述胸部正位图像输入至深度卷积神经网络的二分类模型中之前,所述方法还包括:
如果所述胸部特征的光度学解释为灰度范围从亮到暗地上升像素值,则将所述X光片初始图像的像素进行处理以得到光度学解释为灰度范围从暗到亮地上升像素值。
5.根据权利要求4所述的方法,其特征在于,所述深度卷积神经网络的二分类模型用于对所述X光片初始图像进行胸部特征提取,并对提取的所述胸部特征进行阴阳性分类。
6.根据权利要求5所述的方法,其特征在于,所述深度卷积神经网络的检测模型包括:特征提取网络、特征融合网络、区域生成网络、定性器、定位器和分割器,
所述特征提取网络的输出为所述特征融合网络的输入;
所述特征融合网络的输出为所述区域生成网络的输入;
所述区域生成网络的输出为所述定性器的输入,所述定性器用于检测所述所述胸部正位图像的疾病类型;
所述区域生成网络输出为所述定位器的输入,所述定位器用于对所述病灶区域定位;
所述定位器输入为所述分割器的输出,所述分割器用于对所述病灶区域的轮廓进行标注。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
在所述深度卷积神经网络的二分类模型中的分类结果为阳性,但是所述深度卷积神经网络的检测模型输出的疾病置信度都小于设定阈值时,
所述深度卷积神经网络的检测模型强制输出最大置信度对应的所述病灶区的轮廓以及疾病类型。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
在胸部疾病报告中可视化的显示所述病灶区域以及所述病灶区域对应的所述疾病类型。
9.根据权利要求1所述的方法,其特征在于,所述深度卷积神经网络的二分类模型和所述深度卷积神经网络的检测模型的训练集均来自于影像归档和通信系统。
10.一种图像识别设备,其特征在于,所述图像识别设备包括:存储器、处理器,通信总线以及存储在所述存储器上的图像识别程序,
所述通信总线用于实现处理器与存储器间的通信连接;
所述处理器用于执行所述图像识别程序,以实现如权利要求1至10中任一项所述的图像识别方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011492450.9A CN112699868A (zh) | 2020-12-17 | 2020-12-17 | 一种基于深度卷积神经网络的图像识别方法、设备 |
US17/189,156 US11847188B2 (en) | 2020-12-17 | 2021-03-01 | Image recognition method and device based on deep convolutional neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011492450.9A CN112699868A (zh) | 2020-12-17 | 2020-12-17 | 一种基于深度卷积神经网络的图像识别方法、设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112699868A true CN112699868A (zh) | 2021-04-23 |
Family
ID=75508673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011492450.9A Withdrawn CN112699868A (zh) | 2020-12-17 | 2020-12-17 | 一种基于深度卷积神经网络的图像识别方法、设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11847188B2 (zh) |
CN (1) | CN112699868A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298067A (zh) * | 2021-05-17 | 2021-08-24 | 长沙市到家悠享家政服务有限公司 | 体检结果自动审核方法及系统、电子设备及存储介质 |
CN113822861A (zh) * | 2021-09-07 | 2021-12-21 | 中山大学中山眼科中心 | 一种眼表肿物的判断方法及装置 |
CN113907775A (zh) * | 2021-10-13 | 2022-01-11 | 瓴域影诺(北京)科技有限公司 | 一种髋关节影像质量判断方法及系统 |
CN114817991A (zh) * | 2022-05-10 | 2022-07-29 | 上海计算机软件技术开发中心 | 一种车联网图像脱敏方法和系统 |
CN116052847A (zh) * | 2023-02-08 | 2023-05-02 | 中国人民解放军陆军军医大学第二附属医院 | 基于深度学习的胸片多异常识别系统、装置及方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115960605B (zh) * | 2022-12-09 | 2023-10-24 | 西南政法大学 | 一种多色荧光碳点及其应用 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4533067B2 (ja) * | 2004-09-27 | 2010-08-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US9589374B1 (en) * | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
US10417788B2 (en) * | 2016-09-21 | 2019-09-17 | Realize, Inc. | Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks |
US10074038B2 (en) * | 2016-11-23 | 2018-09-11 | General Electric Company | Deep learning medical systems and methods for image reconstruction and quality evaluation |
US11049250B2 (en) * | 2017-11-22 | 2021-06-29 | General Electric Company | Systems and methods to deliver point of care alerts for radiological findings |
-
2020
- 2020-12-17 CN CN202011492450.9A patent/CN112699868A/zh not_active Withdrawn
-
2021
- 2021-03-01 US US17/189,156 patent/US11847188B2/en active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298067A (zh) * | 2021-05-17 | 2021-08-24 | 长沙市到家悠享家政服务有限公司 | 体检结果自动审核方法及系统、电子设备及存储介质 |
CN113822861A (zh) * | 2021-09-07 | 2021-12-21 | 中山大学中山眼科中心 | 一种眼表肿物的判断方法及装置 |
CN113907775A (zh) * | 2021-10-13 | 2022-01-11 | 瓴域影诺(北京)科技有限公司 | 一种髋关节影像质量判断方法及系统 |
CN114817991A (zh) * | 2022-05-10 | 2022-07-29 | 上海计算机软件技术开发中心 | 一种车联网图像脱敏方法和系统 |
CN114817991B (zh) * | 2022-05-10 | 2024-02-02 | 上海计算机软件技术开发中心 | 一种车联网图像脱敏方法和系统 |
CN116052847A (zh) * | 2023-02-08 | 2023-05-02 | 中国人民解放军陆军军医大学第二附属医院 | 基于深度学习的胸片多异常识别系统、装置及方法 |
CN116052847B (zh) * | 2023-02-08 | 2024-01-23 | 中国人民解放军陆军军医大学第二附属医院 | 基于深度学习的胸片多异常识别系统、装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220198214A1 (en) | 2022-06-23 |
US11847188B2 (en) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112699868A (zh) | 一种基于深度卷积神经网络的图像识别方法、设备 | |
US10755413B1 (en) | Method and system for medical imaging evaluation | |
CN108464840B (zh) | 一种乳腺肿块自动检测方法及系统 | |
US10691980B1 (en) | Multi-task learning for chest X-ray abnormality classification | |
CN112241961A (zh) | 基于深度卷积神经网络的胸部x光片辅助诊断方法及系统 | |
CN113052795B (zh) | 一种x射线胸片图像质量确定方法及装置 | |
US7529394B2 (en) | CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system | |
CN112292691A (zh) | 用于使用深度学习提高癌症检测的方法与系统 | |
US10733727B2 (en) | Application of deep learning for medical imaging evaluation | |
CN111325745A (zh) | 骨折区域分析方法和装置、电子设备及可读存储介质 | |
US20230005138A1 (en) | Lumbar spine annatomical annotation based on magnetic resonance images using artificial intelligence | |
US11721023B1 (en) | Distinguishing a disease state from a non-disease state in an image | |
CN112862778A (zh) | 扫描影像检测方法、电子设备和计算机可读介质 | |
CN115526834A (zh) | 免疫荧光图像检测方法及装置、设备、存储介质 | |
CN114757873A (zh) | 肋骨骨折检测方法、装置、终端设备及可读存储介质 | |
CN117237351B (zh) | 一种超声图像分析方法以及相关装置 | |
Fan et al. | Research on abnormal target detection method in chest radiograph based on YOLO v5 algorithm | |
WO2022110525A1 (zh) | 一种癌变区域综合检测装置及方法 | |
CN116703901B (zh) | 肺部医学ct影像分割及分类装置及设备 | |
CN116228660A (zh) | 胸部正片异常部位检测方法及装置 | |
Fonseca et al. | Automatic orientation identification of pediatric chest x-rays | |
Elhanashi et al. | Classification and Localization of Multi-type Abnormalities on Chest X-rays Images | |
CN115564750A (zh) | 术中冰冻切片图像识别方法及装置、设备、存储介质 | |
CN115409812A (zh) | 一种基于融合时间注意机制的ct图像自动分类方法 | |
CN111192679B (zh) | 一种影像数据异常的处理方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210423 |
|
WW01 | Invention patent application withdrawn after publication |