CN109191389A - 一种x光图像自适应局部增强方法 - Google Patents
一种x光图像自适应局部增强方法 Download PDFInfo
- Publication number
- CN109191389A CN109191389A CN201810857171.4A CN201810857171A CN109191389A CN 109191389 A CN109191389 A CN 109191389A CN 201810857171 A CN201810857171 A CN 201810857171A CN 109191389 A CN109191389 A CN 109191389A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- ray image
- parameter
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 13
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims abstract description 17
- 230000003014 reinforcing effect Effects 0.000 claims abstract description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 4
- 230000000644 propagated effect Effects 0.000 claims description 3
- 210000004205 output neuron Anatomy 0.000 claims description 2
- 230000001537 neural effect Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract 1
- 238000000605 extraction Methods 0.000 abstract 1
- 230000002708 enhancing effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000009659 non-destructive testing Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种X光图像自适应局部增强方法。本发明包括(1)构建训练深度神经网络,训练得到网络模型;(2)将X光图像数据输入到训练好的深度神经网络中,得到相应的增益图像的参数矩阵;(3)将得到的增益图像的参数矩阵与原X光图像进行数据处理;(4)输出数据处理后的X光图像;其中构建和训练神经网络的步骤还包括:采集初始图像和与之对应的增强效果较好的图像,对初始图像进行预处理;构建深度学习网络模型,确定模型的层数、训练方式、训练次数;利用有监督的训练方式对图像进行特征提取,参数训练,最终训练出最优的参数。本发明利用深度学习技术对X光图像进行分析,通过非人工干预的手段寻找最适合参数,有比较强的鲁棒性。
Description
技术领域
本发明涉及图像增强方法,具体来讲是一种X光图像自适应局部增强方法,属于X光图像处理领域。
背景技术
X光成像技术在各个领域中都发挥了重要的作用,比如在医疗、安检、无损检测、工业探伤等方面都能看到它的身影,但由于X光成像其本身的物理特性,设备的特点,操作者选用的各种成像参数以及被检者的配合等等原因导致X光图片中常会出现一些噪声、伪影及畸变,对比度常常也不是很明显。针对这些情况,目前主要的图像增强算法可分为针对全局和局部的,针对全局的方法有直方图均衡化和线性对比度拉升等,直方图均衡化利用累计直方图分布概率重新映射图像的数据,对比度拉升线性的调整了图像的动态范围,虽然这些方法比较简单,但是它缺失了一些局部的信息,对于一些图片的增强效果不是很理想。而局部对比度增强主要有两种方法,分别是自适应直方图均衡化(AHE)和自适应对比度增强(ACE)。AHE算法虽然利用了局部的直方图信息,并对其进行了映射,也改变了图像的对比度,但是它需要大量的计算。而ACE算法中最关键的就是参数的选择,本发明主要就是针对这个参数训练,预处理图像中也会用到ACE。
发明内容
本发明针对X光图像处理过程中对图像分析不准确的问题,公开一种X光图像自适应局部增强方法。一种能够自行识别处理X光图像的自适应X光图像局部增强方法。
为实现以上的技术目的,本发明采取的技术方案:
步骤(1)构建训练深度神经网络,并训练得到相应的网络模型;
步骤(2)将X光图像数据输入到训练好的深度神经网络中,得到相应的增益图像的参数矩阵;
步骤(3)将得到的增益图像的参数矩阵与原X光图像进行数据处理;
步骤(4)输出数据处理后的X光图像;
步骤(1)构建训练深度神经网络,并训练得到相应的网络模型,具体如下步骤:
1-1.采集原始的训练图像和与之对应的增强效果较好的图像;
1-2.构建深度网络模型,确定模型的层数、训练方式、训练次数;
1-3.将X光图像送入网络中进行训练,利用有监督的训练方式得到最优的训练参数。
进一步的,步骤1-1具体实现为:随机获取M张X光图像和与之对应的增强效果较好的图片,M>100。
进一步的,步骤1-2中,所描述的神经网络设置为3个卷积层, 3个池化层,一个全连接层,采用卷积神经网络的方式进行训练,迭代次数设置为100次。
步骤(2)所述的将X光图像输入到训练好的深度神经网络中,得到相应的增益图像的参数矩阵。
步骤(3)包括:
将得到的增益图像的参数矩阵与原X光图像进行数据处理,具体数据处理的过程如下:
4-1.计算原X光图像中每个像素以其自身为中心的局部区域的像素平均值,通过下面这个公式来进行计算:
其中,(i,j)为像素中心,x(i,j)是图像中某点的灰度值,窗口大小为(2n+1)*(2n+1),其中n为一个整数。当然这个窗口区域可以不是正方形。mx(i,j)就是这个像素的平均值;最终想要得到的增强后的图像像素的灰度值f(i,j)通过这个公式计算:
f(i,j)=mx(i,j)+G(i,j)[x(i,j)-mx(i,j)] 公式(2)
其中,G(i,j)就是增益图像的参数矩阵。
步骤(1)所述的深度神经网络主要使用的是卷积神经网络,采用的是有监督的学习方式进行训练,利用反向传播(BP)算法重新调整网络的参数,最终使网络达到全局最优。训练的过程中涉及到前向传播和反向传播,前向传播的过程如下:
从输入层到隐含层的过程:
其中neth1是神经元h1的输入加权和,outh1是神经元h1的输出,同样的方法可以计算outh2。
从隐含层到输出层的过程:
其中outo1是输出神经元o1的值。
反向传播的过程如下:
计算总误差:
其中g表示真实值,y表示网络的输出值。以一个权重参数w5 为例子,我们可以用总误差对w5偏导求出w5对总误差的影响(链式法则):
隐含层到输出层的权值更新:
这个就是我们更新的w5的值,η是学习率,同理可更新 w6,w7,w8。
隐含层到隐含层的权值更新:
就是更新的w1的权值,同理可更新w2,w3,w4的权值,这样误差的反向传播就完成了。
本发明有益效果如下:
本发明由于采用以上技术方案,具有以下优点:本发明利用深度学习技术对X光图像进行分析,通过非人工干预的手段寻找所需要的最适合的参数,采用这种方式,能够对各种图片都有很好的适应性,有比较强的鲁棒性。
附图说明
图1是本发明的整体实施方案流程图;
图2是本发明的训练模型示意图;
具体实施方式
附图非限制性地公开了本发明所涉及优选实施例的流程示意图;以下将结合附图详细地说明本发明地技术方案。
一种X光图像自适应局部增强方法,其基本步骤如下:
步骤(1)构建训练深度神经网络,并训练得到相应的网络模型;
步骤(2)将X光图像数据输入到训练好的深度神经网络中,得到相应的增益图像的参数矩阵;
步骤(3)将得到的增益图像的参数矩阵与原X光图像进行数据处理;
步骤(4)输出数据处理后的X光图像;
其中构建训练深度神经网络的步骤如下:
从X光图像中采集M张不同的X光图像,可以是各种类型的,不同对比度的图像。把当前的图像分成两部分,一部分作为训练集,一部分作为测试集。
利用ACE算法对这些X光图像进行增强,其中的可变参数G(i,j) 人为的去设置,找到增强效果比较好的值和其对应的图像。增强后得到的图像就是我们初始图所对应的标签。
将训练样本的图像和标签放入深度神经网络中训练,利用卷积神经网络和反向传播,训练出深度神经网络模型。
从X光图像中获取N张不同的X光图像,将这些图片输入到训练好的网络模型中得到所对应的增益图像的参数矩阵。
将得到的增益图像的参数矩阵与原图像进行数据处理得到增强图像。
如图1所示,我们将训练图片送入深度神经网络中,训练出深度神经网络模型,再将新的要增强的X光图片放入这个已经训练好的网络模型中,得到与之对应的增益图像的参数矩阵,再将这个增益图像的参数矩阵与原图进行数据处理,最终得到增强的图像。其中所使用的神经网络的结构如图2所示,可以看到其中的网络架构包括:
3个卷积层,其大小分别为5*5,3*3和3*3,每个卷积层后面跟一个池化层,这三个池化层的大小都为2*2,最后由一个全连接层处理后得到输出。
Claims (4)
1.一种X光图像自适应局部增强方法,其特征在于包括如下步骤:
步骤(1)构建训练深度神经网络,并训练得到相应的网络模型;
步骤(2)将X光图像数据输入到训练好的深度神经网络中,得到相应的增益图像的参数矩阵;
步骤(3)将得到的增益图像的参数矩阵与原X光图像进行数据处理;
步骤(4)输出数据处理后的X光图像;
步骤(1)构建训练深度神经网络,并训练得到相应的网络模型,具体如下步骤:
1-1.采集原始的训练图像和与之对应的增强效果较好的图像;
1-2.构建深度网络模型,确定模型的层数、训练方式、训练次数;
1-3.将X光图像送入网络中进行训练,利用有监督的训练方式得到最优的训练参数;
步骤(3)所述的将得到的增益图像的参数矩阵与原X光图像进行数据处理,具体数据处理的过程如下:
3-1.计算原X光图像中每个像素以其自身为中心的局部区域的像素平均值,通过下面这个公式来进行计算:
其中,(i,j)为像素中心,x(i,j)是图像中某点的灰度值,窗口大小为(2n+1)*(2n+1),其中n为一个整数;当然这个窗口区域可以不是正方形;mx(i,j)就是这个像素的平均值;最终想要得到的增强后的图像像素的灰度值f(i,j)通过这个公式计算:
f(i,j)=mx(i,j)+G(i,j)[x(i,j)-mx(i,j)] 公式(2)
其中,G(i,j)就是增益图像的参数矩阵。
2.根据权利要求1所述的一种X光图像自适应局部增强方法,其特征在于步骤1-1具体实现为:随机获取M张X光图像和与之对应的增强效果较好的图片,M>100。
3.根据权利要求2所述的一种X光图像自适应局部增强方法,其特征在于步骤1-2具体实现为:所描述的神经网络设置为3个卷积层,3个池化层,一个全连接层,采用卷积神经网络的方式进行训练,迭代次数设置为100次。
4.根据权利要求3所述的一种X光图像自适应局部增强方法,其特征在于步骤(1)所述的深度神经网络主要使用的是卷积神经网络,采用的是有监督的学习方式进行训练,利用反向传播算法重新调整网络的参数,最终使网络达到全局最优;训练的过程中涉及到前向传播和反向传播,前向传播的过程如下:
从输入层到隐含层的过程:
其中neth1是神经元h1的输入加权和,outh1是神经元h1的输出,同样的方法可以计算outh2;
从隐含层到输出层的过程:
其中outo1是输出神经元o1的值;
反向传播的过程如下:
计算总误差:
其中g表示真实值,y表示网络的输出值;以一个权重参数w5为例子,我们可以用总误差对w5偏导求出w5对总误差的影响:
隐含层到输出层的权值更新:
这个就是我们更新的w5的值,η是学习率,同理可更新w6,w7,w8;
隐含层到隐含层的权值更新:
就是更新的w1的权值,同理可更新w2,w3,w4的权值,这样误差的反向传播就完成了。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810857171.4A CN109191389A (zh) | 2018-07-31 | 2018-07-31 | 一种x光图像自适应局部增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810857171.4A CN109191389A (zh) | 2018-07-31 | 2018-07-31 | 一种x光图像自适应局部增强方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109191389A true CN109191389A (zh) | 2019-01-11 |
Family
ID=64937524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810857171.4A Pending CN109191389A (zh) | 2018-07-31 | 2018-07-31 | 一种x光图像自适应局部增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109191389A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109946746A (zh) * | 2019-03-21 | 2019-06-28 | 长安大学 | 一种基于深度神经网络的安检系统及方法 |
CN110200648A (zh) * | 2019-04-09 | 2019-09-06 | 田昕 | 一种医用膝关节康复护理系统及信息处理方法 |
CN110232671A (zh) * | 2019-06-19 | 2019-09-13 | 杨梦宁 | 一种基于图像调性的图像视觉效果增强的方法 |
CN110264423A (zh) * | 2019-06-19 | 2019-09-20 | 重庆米弘科技有限公司 | 一种基于全卷积网络的图像视觉效果增强的方法 |
WO2021129289A1 (zh) * | 2019-12-24 | 2021-07-01 | 珠海奔图电子有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
CN114363477A (zh) * | 2021-12-30 | 2022-04-15 | 上海网达软件股份有限公司 | 基于滑窗权重回归的视频自适应锐化的方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0575208A1 (fr) * | 1992-06-16 | 1993-12-22 | SAT (Société Anonyme de Télécommunications) | Procédé de détection d'apparition d'objets ponctuels sur fond texturé |
CN101666682A (zh) * | 2009-08-06 | 2010-03-10 | 重庆邮电大学 | 基于场景统计的神经网络非均匀性校正方法 |
CN103824281A (zh) * | 2014-01-07 | 2014-05-28 | 沈阳航空航天大学 | 一种胸部x光图像中骨骼抑制的方法 |
-
2018
- 2018-07-31 CN CN201810857171.4A patent/CN109191389A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0575208A1 (fr) * | 1992-06-16 | 1993-12-22 | SAT (Société Anonyme de Télécommunications) | Procédé de détection d'apparition d'objets ponctuels sur fond texturé |
CN101666682A (zh) * | 2009-08-06 | 2010-03-10 | 重庆邮电大学 | 基于场景统计的神经网络非均匀性校正方法 |
CN103824281A (zh) * | 2014-01-07 | 2014-05-28 | 沈阳航空航天大学 | 一种胸部x光图像中骨骼抑制的方法 |
Non-Patent Citations (2)
Title |
---|
D. WANG 等: "Modulation Format Recognition and OSNR Estimation Using CNN-Based Deep Learning", 《IEEE PHOTONICS TECHNOLOGY LETTERS》 * |
任静静 等: "基于快速卷积神经网络的图像去模糊", 《计算机辅助设计与图形学学报》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109946746A (zh) * | 2019-03-21 | 2019-06-28 | 长安大学 | 一种基于深度神经网络的安检系统及方法 |
CN110200648A (zh) * | 2019-04-09 | 2019-09-06 | 田昕 | 一种医用膝关节康复护理系统及信息处理方法 |
CN110232671A (zh) * | 2019-06-19 | 2019-09-13 | 杨梦宁 | 一种基于图像调性的图像视觉效果增强的方法 |
CN110264423A (zh) * | 2019-06-19 | 2019-09-20 | 重庆米弘科技有限公司 | 一种基于全卷积网络的图像视觉效果增强的方法 |
CN110232671B (zh) * | 2019-06-19 | 2023-05-16 | 重庆米弘科技有限公司 | 一种基于图像调性的图像视觉效果增强的方法 |
WO2021129289A1 (zh) * | 2019-12-24 | 2021-07-01 | 珠海奔图电子有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
CN114363477A (zh) * | 2021-12-30 | 2022-04-15 | 上海网达软件股份有限公司 | 基于滑窗权重回归的视频自适应锐化的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109191389A (zh) | 一种x光图像自适应局部增强方法 | |
CN110334805A (zh) | 一种基于生成对抗网络的jpeg域图像隐写方法和系统 | |
CN108492271A (zh) | 一种融合多尺度信息的自动图像增强系统及方法 | |
CN109214990A (zh) | 一种基于Inception模型的深度卷积神经网络图像去噪方法 | |
CN109584251A (zh) | 一种基于单目标区域分割的舌体图像分割方法 | |
CN109978778A (zh) | 基于残差学习的卷积神经网络医学ct图像去噪方法 | |
CN111062880A (zh) | 一种基于条件生成对抗网络的水下图像实时增强方法 | |
CN110074813A (zh) | 一种超声图像重建方法及系统 | |
CN108648188A (zh) | 一种基于生成对抗网络的无参考图像质量评价方法 | |
CN111723701B (zh) | 一种水中目标识别方法 | |
CN111260591B (zh) | 一种基于注意力机制的图像自适应去噪方法 | |
CN107909109A (zh) | 基于显著性和多尺度深度网络模型的sar图像分类方法 | |
CN110060315B (zh) | 一种基于人工智能的图像运动伪影消除方法及系统 | |
CN110543916B (zh) | 一种缺失多视图数据的分类方法及系统 | |
CN110443775B (zh) | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 | |
CN107909588A (zh) | 基于三维全卷积神经网络的mri皮质下分区系统 | |
CN113837974A (zh) | 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法 | |
CN106097274A (zh) | 一种自适应分数阶微分图像增强算法 | |
CN114897728A (zh) | 图像增强方法、装置、终端设备以及存储介质 | |
CN107977949A (zh) | 一种基于投影字典对学习的医学图像融合质量改善的方法 | |
CN110458842B (zh) | 基于双通道三维密集连接网络的脑肿瘤分割方法 | |
CN107346430A (zh) | 一种核磁共振图像自动筛选方法 | |
CN106611409B (zh) | 一种基于二次图像融合的小目标增强检测方法 | |
CN111340760B (zh) | 基于多任务两级卷积神经网络的膝关节定位方法 | |
CN116863285A (zh) | 多尺度生成对抗网络的红外与可见光图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20220415 |