CN106910192B - 一种基于卷积神经网络的图像融合效果评估方法 - Google Patents
一种基于卷积神经网络的图像融合效果评估方法 Download PDFInfo
- Publication number
- CN106910192B CN106910192B CN201710129695.7A CN201710129695A CN106910192B CN 106910192 B CN106910192 B CN 106910192B CN 201710129695 A CN201710129695 A CN 201710129695A CN 106910192 B CN106910192 B CN 106910192B
- Authority
- CN
- China
- Prior art keywords
- layer
- neural network
- output
- convolutional neural
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 65
- 238000011156 evaluation Methods 0.000 title claims abstract description 51
- 230000000694 effects Effects 0.000 title claims abstract description 27
- 230000004927 fusion Effects 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 50
- 238000012360 testing method Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000005070 sampling Methods 0.000 claims description 42
- 239000002131 composite material Substances 0.000 claims description 19
- 238000011176 pooling Methods 0.000 claims description 18
- 230000035945 sensitivity Effects 0.000 claims description 18
- 210000002569 neuron Anatomy 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 14
- 239000013598 vector Substances 0.000 claims description 10
- 238000005516 engineering process Methods 0.000 claims description 9
- 230000001537 neural effect Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 239000006185 dispersion Substances 0.000 claims description 2
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000013441 quality evaluation Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 17
- 238000012937 correction Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的图像融合效果评估方法,属于图像拼接和图像质量评价技术领域,涉及计算机视觉领域,包括以下步骤:S1:生成训练数据集和测试数据集。S2:生成卷积神经网络模型。S3:基于训练的卷积神经网络测试测试数据集。本发明利用卷积神经网络,可以代替繁琐的,大量的人为统计评分,并且可以准确地判断图像拼接中融合效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。
Description
技术领域
本发明属于图像拼接和图像质量评价技术领域,涉及计算机视觉领域,尤其涉及一种基于卷积神经网络的图像融合效果评估方法。
背景技术
随着电子信息产业的发展和技术进步,能够获取、记录视频信息的设备日益普及,但与人眼的视场范围相比,普通摄像机的视场要小得多,如何有效的利用计算机技术扩大摄像机拍摄图像和视频的视场范围,引起了研究者的广泛注意。图像拼接技术可以解决由于摄像机等成像仪器的视角和大小的限制,不能生成宽视场图片的问题,现有的图像拼接技术主要有两种方案:
第一种方案是用一个常规镜头的投影变换和多项式畸变校正技术用校正模板图像对镜头畸变参数进行畸变校正,生成一组中间校正后的2D图像,然后采用2D图像配准技术对校正后的图像元进行2D配准,最后对配准的两幅图像进行融合。
第二种方案是把图像的径向畸变校正参数和图像元的位姿参数作为一体,整体用最优化技术进行参数估计,生成一个参数映射表,然后利用参数映射表将原始图片逐张映射到全景图像中,处理完所有的图像后,将两两相邻的处理之后的图像在重叠区域做一次融合过渡。
从上述过程可以看出,图像拼接算法性能的好坏受图像配准和图像融合两大步骤的共同影响。针对拼接合成图像进行算法评价是不可或缺的,但对于图像拼接算法的定量评价分析,目前尚无统一的标准。已有的评价方法都是通过人眼观测拼接缝的方法来评估拼接质量的好坏,而人眼观测的方法误差较大,无法准确评估图像拼接算法的拼接质量。
发明内容
本发明为克服上述情况不足,旨在提供一种可以准确判断图像拼接中融合效果的方法。一种基于卷积神经网络的图像融合效果评估方法,包括以下步骤:
S1:生成训练数据集和测试数据集;S2:生成卷积神经网络模型;S3:基于训练的卷积神经网络测试测试数据集;
所述S1包括S101、S102、S103、S104;
S101:获取拼接合成图像;
S102:计算拼接合成图像的客观评价参数;选取了偏差指数作为客观评价参数;所述偏差指数计算公式如下:
其中,D表示偏差指数,F(i,j)表示拼接合成图像中像素灰度值,A(i,j)表示拼接合成图像中像素灰度值与原始图像序列相对应像素灰度值,M,N分别表示拼接合成图像的宽度和高度;
S103:生成训练数据集;
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集;对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成a块,对每一块进行处理,依据偏差指数、标准差两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集X={D1,SD1,D2,SD2,…,Da,SDa};
计算每一个块内的每个像素和每个拼接图像对应的原始图像的每个像素的差的平方值Avg;将0~Avg构成的闭区间均匀的分成五等分,按值的大小从小到大将区间依次标记为E1、E2、E3、E4、E5,如果某一块的像素差的平方值落在E1这个区间,表明该块的拼接效果好,如果某一块的像素差的平方值落在E5这个区间,则标定该块的拼接效果差;将所有训练样本集进行平方值Avg计算及拼接效果标定,获得与原始图像序列相对应的理想输出Y={y1,y2,…,ya},其中,yi∈{E1,E2,E3,E4,E5},并且{X,Y}一起构成了卷积神经网络的训练数据集合;
S104:获取测试数据集;
所述S2步骤包括S201、S202、S203;
S201:构建卷积神经网络模型;S202:设置输入层与卷积采样层参数;S203:利用训练数据集训练卷积神经网络。
进一步的,所述步骤S2中采用非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的。
进一步的,所述S201具体为:以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与第一卷积采样层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到第一卷积采样层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
进一步的,所述步骤202具体为:输入层:X={D1,SD1,D2,SD2,…,Da,SDa}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理;
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1];
卷积之后会紧跟着一个子采样,对于子采样来说,有h个输入特征,就有h个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
其中,down(.)表示一个下采样函数,采样函数Max-Pooling池化模式,池化核大小为2*2,步长为2。
进一步的,所述步骤S203具体分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换,传送到输出层,计算出与X相对应的实际输出O;计算实际输出O与理想输出Y之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
第二阶段:后向传播阶段
后向传播阶段是按照上述前向传播阶段平方误差代价函数反向传播调整网络每一层的权重矩阵;反向传播回来的误差可以看做是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
其中,表示每个元素相乘,l表示层数,n分别当前层上特征的映射编号,表示第l层上的第n个神经节点的灵敏度,表示下采样层的权值,为可训练的常数,up()表示上采样操作,’表示转置,和表示第l层第n个特征对应的权值和偏置,表示第l-1层的第n个特征;池化层的逆向误差传播公式计算如下:
最后,对每个神经元运用δ规则进行权值更新;即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放;用向量的形式表述就是,对于第l层,误差对于l层每一个权值的导数是l层的输入与l层的灵敏度的叉乘;计算偏置和卷积核的偏导数公式如下:
进一步的,所述步骤S3具体为:将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
本发明利用卷积神经网络,可以代替繁琐大量的人为统计评分,并且可以准确地判断图像拼接中融合效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中基于卷积神经网络的图像融合效果评估方法流程图;
图2为本发明实施例中训练数据集与测试数据集的计算流程图;
图3为本发明实施例中卷积神经网络计算流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提出的一种基于卷积神经网络的图像融合效果评估方法具体包括以下步骤:
S1:生成训练数据集和测试数据集。
如图2所示,训练数据集与测试数据集的计算方法如下:
S101:获取拼接合成图像。
利用图像采集设备拍摄N组原始图像序列,然后采用不同的待评价拼接算法对这N组原始图像序列进行拼接,获得与每种待评价拼接算法相对应的N组拼接合成图像。
S102:计算拼接合成图像的客观评价参数。
本发明主要关心的是拼接合成图像的匹配误差,为了实现对拼接合成图像配准效果的评价,选取了偏差指数作为客观评价参数,进一步的,还可以增加峰值信噪比作为客观评价参数,这两种评价参数的具体计算方法如下:
(1)偏差指数
偏差指数是拼接合成图像中各个像素灰度值与原始图像序列相对应像素灰度值差绝对值同原始图像相对应像素灰度之比的平均值,计算公式如下:
其中,D表示偏差指数,F(i,j)表示拼接合成图像中像素灰度值,A(i,j)表示拼接合成图像中像素灰度值与原始图像序列相对应像素灰度值,M,N分别表示拼接合成图像的宽度和高度。偏差指数的大小表示拼接合成图像与原始图像序列平均灰度值的相对差异,图像的偏差指数越小,说明拼接合成图像与原始图像序列越接近,即拼接合成图像在提高空间分辨率的同时,较好地保留了原始图像的光谱信息。
(2)标准差
S103:生成训练数据集。
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集。对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成a块,对每一块进行处理,依据上述偏差指数、标准差两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集X={D1,SD1,D2,SD2,…,Da,SDa}。
计算每一个块内的每个像素和每个拼接图像对应的原始图像的每个像素的差的平方值Avg;将0~Avg构成的闭区间均匀的分成五等分,按值的大小从小到大将区间依次标记为E1、E2、E3、E4、E5,如果某一块的像素差的平方值落在E1这个区间,表明该块的拼接效果好,如果某一块的像素差的平方值落在E5这个区间,则标定该块的拼接效果差。将所有训练样本集进行平方值Avg计算及拼接效果标定,获得与原始图像序列相对应的理想输出Y={y1,y2,…,ya},其中,yi∈{E1,E2,E3,E4,E5},并且{X,Y}一起构成了卷积神经网络的训练数据集合。(输出就是标签)
S104:获取测试数据集。
测试样本图像包括原始序列图像以及拼接合成图像,按照步骤S103介绍的方法获取测试数据集ts={D1,SD1,D2,SD2,…,DM,SDM}。
S2:卷积神经网络模型。
在本发明实施例中,采用的是非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的,这种非全连接和权重共享的网络结构使该模型更类似于生物神经网络,降低了网络模型的复杂度,减少了权重的数量。
如图3所示,卷积神经网络模型的训练包括如下步骤:
S201:构建一个卷积神经网络模型。
以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与第一卷积采样层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到第一卷积采样层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
以上仅给出卷积神经网络模型的一个示例,实际上卷积神经网络模型的构建方式可以根据应用目的进行经验设置,包括卷积池化层数、全链接层数、卷积核的数量与大小以及池化尺度等参数可以根据应用目的进行设置。
S202:设置输入层与卷积采样层参数。
输入层:X={D1,SD1,D2,SD2,…,Da,SDa}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理。
卷积采样层(包括第一卷积采样层和第二卷积采样层):在一个卷积层l,输入层的输入或者是上一层的第i个特征被一个可学习的卷积核进行卷积,然后通过一个激活函数,就可以得到输出的第j个特征每一个输出可能是组合卷积多个输入的值,具体计算方法如下:
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1]。
卷积之后会紧跟着一个子采样,对于子采样来说,有h个输入特征,就有h个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
其中,down(.)表示一个下采样函数,优选Max-Pooling池化模式,池化核大小为2*2,步长为2。
卷积神经网络中的每一个特征提取层(子采样层)都紧跟着一个用来求局部平均与二次提取的计算层(卷积层),这种特有的两次特征提取结构使网络在识别时对输入样本有较高的畸变容忍能力。
S203:利用训练数据集训练卷积神经网络。
卷积神经网络在本质上是一种输入到输出的映射,他能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确数学表达式,只要用已知的模式对卷积神经网络进行训练,网络就具有输入到输出对之间的映射能力。在开始训练前,所有的权重都应该进行随机初始化。
卷积神经网络的训练方法可以分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换(卷积采样层,卷积采样层,全链接层,全链接层),传送到输出层,计算出与X相对应的实际输出O。计算实际输出O与理想输出Y之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
第二阶段:后向传播阶段
后向传播阶段是按照上述前向传播阶段平方误差代价函数反向传播调整网络每一层的权重矩阵。反向传播回来的误差可以看做是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
其中,表示每个元素相乘,l表示层数,n分别表示当前层上特征的映射编号,表示第l层上的第n个神经节点的灵敏度,表示下采样层的权值,为可训练的常数,up()表示上采样操作,’表示转置,和表示第l层第n个特征对应的权值和偏置,表示第l-1层的第n个特征。池化层的逆向误差传播公式计算如下:
最后,对每个神经元运用δ规则进行权值更新。即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放。用向量的形式表述就是,对于第l层,误差对于l层每一个权值(组合为矩阵)的导数是l层的输入(等于上一层的输出)与l层的灵敏度(该层每个神经元的δ组合成一个向量的形式)的叉乘。计算偏置和卷积核的偏导数公式如下:
利用步骤S1获取的训练数据集,采用Hinge损失函数和随机梯度下降方法对卷积神经网络进行训练,当整个卷积神经网络的损失函数趋于局部最优解附近时,完成训练;其中局部最优解事先由人工设定。
S3:基于训练的卷积神经网络测试测试数据集。
将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
根据上述卷积神经网络输出的每块的输出标签,计算每一幅待评价拼接合成图像所有块的输出标签的平均值,然后计算同一拼接算法下所有拼接合成图像输出标签的平均值作为该拼接算法效果好坏的评价等级。
综上所述,利用卷积神经网络,可以代替繁琐的,大量的人为统计评分,并且可以准确地判断图像拼接中融合效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (6)
1.一种基于卷积神经网络的图像融合效果评估方法,其特征在于,包括以下步骤:
S1:生成训练数据集和测试数据集;S2:生成卷积神经网络模型;S3:基于训练的卷积神经网络测试测试数据集;
所述S1包括S101、S102、S103、S104;
S101:获取拼接合成图像;
S102:计算拼接合成图像的客观评价参数;选取了偏差指数作为客观评价参数;所述偏差指数计算公式如下:
其中,D表示偏差指数,F(i,j)表示拼接合成图像中像素灰度值,A(i,j)表示拼接合成图像中像素灰度值与原始图像序列相对应像素灰度值,M,N分别表示拼接合成图像的宽度和高度;
S103:生成训练数据集;
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集;对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成a块,对每一块进行处理,依据偏差指数、标准差两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集X={D1,SD1,D2,SD2,…,Da,SDa};
计算每一个块内的每个像素和每个拼接图像对应的原始图像的每个像素的差的平方值Avg;将0~Avg构成的闭区间均匀的分成五等分,按值的大小从小到大将区间依次标记为E1、E2、E3、E4、E5,如果某一块的像素差的平方值落在E1这个区间,表明该块的拼接效果好,如果某一块的像素差的平方值落在E5这个区间,则标定该块的拼接效果差;将所有训练样本集进行平方值Avg计算及拼接效果标定,获得与原始图像序列相对应的理想输出Y={y1,y2,…,ya},其中,yi∈{E1,E2,E3,E4,E5},并且{X,Y}一起构成了卷积神经网络的训练数据集合;
S104:获取测试数据集;
所述S2步骤包括S201、S202、S203;
S201:构建卷积神经网络模型;S202:设置输入层与卷积采样层参数;S203:利用训练数据集训练卷积神经网络。
2.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述步骤S2中采用非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的。
3.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述S201具体为:以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与第一卷积采样层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到第一卷积采样层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
4.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述步骤202具体为:输入层:X={D1,SD1,D2,SD2,…,Da,SDa}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理;
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1];
卷积之后会紧跟着一个子采样,对于子采样来说,有h个输入特征,就有h个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
其中,down(.)表示一个下采样函数,采样函数为Max-Pooling池化模式,池化核大小为2*2,步长为2。
5.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述步骤S203具体分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换,传送到输出层,计算出与X相对应的实际输出O;计算实际输出O与理想输出Y之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
第二阶段:后向传播阶段
后向传播阶段是按照上述前向传播阶段平方误差代价函数反向传播调整网络每一层的权重矩阵;反向传播回来的误差可以看做是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
其中,表示每个元素相乘,l表示层数,n表示当前层上特征的映射编号,表示第l层上的第n个神经节点的灵敏度,表示下采样层的权值,为可训练的常数,up()表示上采样操作,’表示转置,和表示第l层第n个特征对应的权值和偏置,表示第l-1层的第n个特征;池化层的逆向误差传播公式计算如下:
最后,对每个神经元运用δ规则进行权值更新;即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放;用向量的形式表述就是,对于第l层,误差对于l层每一个权值的导数是l层的输入与l层的灵敏度的叉乘;计算偏置和卷积核的偏导数公式如下:
6.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述步骤S3具体为:将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710129695.7A CN106910192B (zh) | 2017-03-06 | 2017-03-06 | 一种基于卷积神经网络的图像融合效果评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710129695.7A CN106910192B (zh) | 2017-03-06 | 2017-03-06 | 一种基于卷积神经网络的图像融合效果评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106910192A CN106910192A (zh) | 2017-06-30 |
CN106910192B true CN106910192B (zh) | 2020-09-22 |
Family
ID=59187655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710129695.7A Active CN106910192B (zh) | 2017-03-06 | 2017-03-06 | 一种基于卷积神经网络的图像融合效果评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106910192B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729986B (zh) * | 2017-09-19 | 2020-11-03 | 平安科技(深圳)有限公司 | 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质 |
CN109557114B (zh) * | 2017-09-25 | 2021-07-16 | 清华大学 | 检查方法和检查设备以及计算机可读介质 |
CN107609638B (zh) * | 2017-10-12 | 2019-12-10 | 湖北工业大学 | 一种基于线性编码器和插值采样优化卷积神经网络的方法 |
CN108267724A (zh) * | 2018-01-19 | 2018-07-10 | 中国人民解放军陆军装甲兵学院 | 一种雷达目标识别的未知目标识别方法 |
CN108226889A (zh) * | 2018-01-19 | 2018-06-29 | 中国人民解放军陆军装甲兵学院 | 一种雷达目标识别的分类器模型训练方法 |
CN108647045B (zh) * | 2018-03-20 | 2021-10-01 | 科大讯飞股份有限公司 | 激活函数的实现方法及装置、存储介质、电子设备 |
CN109284765A (zh) * | 2018-07-18 | 2019-01-29 | 成都信息工程大学 | 基于负值特征的卷积神经网络的自然图像分类方法 |
CN109447907B (zh) * | 2018-09-20 | 2020-06-16 | 宁波大学 | 一种基于全卷积神经网络的单图像增强方法 |
CN110956575B (zh) * | 2018-09-26 | 2022-04-12 | 京东方科技集团股份有限公司 | 转变图像风格的方法和装置、卷积神经网络处理器 |
CN109493319B (zh) * | 2018-10-10 | 2021-06-22 | 武汉联影医疗科技有限公司 | 融合图像效果量化方法、装置、计算机设备和存储介质 |
CN110348404B (zh) * | 2019-07-16 | 2023-05-02 | 湖州学院 | 一种农村道路景观视觉评价分析方法 |
CN111222776B (zh) * | 2019-12-31 | 2021-08-31 | 中国科学院国家空间科学中心 | 基于卷积神经网络的卫星网络协调态势评估方法及系统 |
CN111369598B (zh) * | 2020-03-02 | 2021-03-30 | 推想医疗科技股份有限公司 | 深度学习模型的训练方法及装置、应用方法及装置 |
CN111815690B (zh) * | 2020-09-11 | 2020-12-08 | 湖南国科智瞳科技有限公司 | 一种用于显微图像实时拼接的方法、系统和计算机设备 |
CN115457614B (zh) * | 2021-05-20 | 2023-08-04 | 马上消费金融股份有限公司 | 一种图像质量评价方法、模型训练方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971329A (zh) * | 2014-05-26 | 2014-08-06 | 电子科技大学 | 一种基于遗传优化细胞神经网络的多源图像融合方法 |
CN105512674A (zh) * | 2015-11-25 | 2016-04-20 | 中国科学院自动化研究所 | 基于密集匹配子自适应相似性度量的rgb-d物体识别方法和装置 |
CN106295507A (zh) * | 2016-07-25 | 2017-01-04 | 华南理工大学 | 一种基于集成卷积神经网络的性别识别方法 |
CN106326886A (zh) * | 2016-11-07 | 2017-01-11 | 重庆工商大学 | 基于卷积神经网络的手指静脉图像质量评估方法及评估系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9734567B2 (en) * | 2015-06-24 | 2017-08-15 | Samsung Electronics Co., Ltd. | Label-free non-reference image quality assessment via deep neural network |
-
2017
- 2017-03-06 CN CN201710129695.7A patent/CN106910192B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971329A (zh) * | 2014-05-26 | 2014-08-06 | 电子科技大学 | 一种基于遗传优化细胞神经网络的多源图像融合方法 |
CN105512674A (zh) * | 2015-11-25 | 2016-04-20 | 中国科学院自动化研究所 | 基于密集匹配子自适应相似性度量的rgb-d物体识别方法和装置 |
CN106295507A (zh) * | 2016-07-25 | 2017-01-04 | 华南理工大学 | 一种基于集成卷积神经网络的性别识别方法 |
CN106326886A (zh) * | 2016-11-07 | 2017-01-11 | 重庆工商大学 | 基于卷积神经网络的手指静脉图像质量评估方法及评估系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106910192A (zh) | 2017-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106910192B (zh) | 一种基于卷积神经网络的图像融合效果评估方法 | |
CN106920224B (zh) | 一种评估拼接图像清晰度的方法 | |
CN106920215B (zh) | 一种全景图像配准效果的检测方法 | |
Lopez et al. | Deep single image camera calibration with radial distortion | |
Sun et al. | Blind quality assessment for in-the-wild images via hierarchical feature fusion and iterative mixed database training | |
CN106991388B (zh) | 关键点定位方法 | |
CN110991511A (zh) | 一种基于深度卷积神经网络的向日葵作物种子分拣方法 | |
CN109325395A (zh) | 图像的识别方法、卷积神经网络模型的训练方法及装置 | |
CN108665460A (zh) | 基于组合神经网络和分类神经网络的图像质量评价方法 | |
CN112116601B (zh) | 基于生成对抗残差网络的压缩感知采样重建方法及系统 | |
Ou et al. | A novel rank learning based no-reference image quality assessment method | |
JP2021515927A (ja) | 照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体 | |
CN112561807B (zh) | 一种基于卷积神经网络的端到端径向畸变校正方法 | |
Liao et al. | A deep ordinal distortion estimation approach for distortion rectification | |
CN105550649A (zh) | 基于全耦合局部约束表示的极低分辨率人脸识别方法及系统 | |
CN115018711B (zh) | 一种用于仓库调度的图像超分辨率重建方法 | |
CN115526891B (zh) | 一种缺陷数据集的生成模型的训练方法及相关装置 | |
CN111460947B (zh) | 基于bp神经网络对显微镜下金属矿物的识别方法及系统 | |
CN112598604A (zh) | 一种盲脸复原方法及系统 | |
CN116843756A (zh) | 一种基于计算机视觉的望远镜位姿监测方法 | |
CN117333750A (zh) | 空间配准与局部全局多尺度的多模态医学图像融合方法 | |
CN115439669A (zh) | 基于深度学习的特征点检测网络及跨分辨率图像匹配方法 | |
CN113128518B (zh) | 基于孪生卷积网络和特征混合的sift误匹配检测方法 | |
CN114066735A (zh) | 基于最小一乘的稀疏采样傅里叶叠层成像人工神经网络重建方法 | |
CN113781375A (zh) | 一种基于多曝光融合的车载视觉增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |