CN106910192B - 一种基于卷积神经网络的图像融合效果评估方法 - Google Patents

一种基于卷积神经网络的图像融合效果评估方法 Download PDF

Info

Publication number
CN106910192B
CN106910192B CN201710129695.7A CN201710129695A CN106910192B CN 106910192 B CN106910192 B CN 106910192B CN 201710129695 A CN201710129695 A CN 201710129695A CN 106910192 B CN106910192 B CN 106910192B
Authority
CN
China
Prior art keywords
layer
neural network
output
convolutional neural
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710129695.7A
Other languages
English (en)
Other versions
CN106910192A (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panodux Imaging Technology Co ltd
Original Assignee
Panodux Imaging Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panodux Imaging Technology Co ltd filed Critical Panodux Imaging Technology Co ltd
Priority to CN201710129695.7A priority Critical patent/CN106910192B/zh
Publication of CN106910192A publication Critical patent/CN106910192A/zh
Application granted granted Critical
Publication of CN106910192B publication Critical patent/CN106910192B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积神经网络的图像融合效果评估方法,属于图像拼接和图像质量评价技术领域,涉及计算机视觉领域,包括以下步骤:S1:生成训练数据集和测试数据集。S2:生成卷积神经网络模型。S3:基于训练的卷积神经网络测试测试数据集。本发明利用卷积神经网络,可以代替繁琐的,大量的人为统计评分,并且可以准确地判断图像拼接中融合效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。

Description

一种基于卷积神经网络的图像融合效果评估方法
技术领域
本发明属于图像拼接和图像质量评价技术领域,涉及计算机视觉领域,尤其涉及一种基于卷积神经网络的图像融合效果评估方法。
背景技术
随着电子信息产业的发展和技术进步,能够获取、记录视频信息的设备日益普及,但与人眼的视场范围相比,普通摄像机的视场要小得多,如何有效的利用计算机技术扩大摄像机拍摄图像和视频的视场范围,引起了研究者的广泛注意。图像拼接技术可以解决由于摄像机等成像仪器的视角和大小的限制,不能生成宽视场图片的问题,现有的图像拼接技术主要有两种方案:
第一种方案是用一个常规镜头的投影变换和多项式畸变校正技术用校正模板图像对镜头畸变参数进行畸变校正,生成一组中间校正后的2D图像,然后采用2D图像配准技术对校正后的图像元进行2D配准,最后对配准的两幅图像进行融合。
第二种方案是把图像的径向畸变校正参数和图像元的位姿参数作为一体,整体用最优化技术进行参数估计,生成一个参数映射表,然后利用参数映射表将原始图片逐张映射到全景图像中,处理完所有的图像后,将两两相邻的处理之后的图像在重叠区域做一次融合过渡。
从上述过程可以看出,图像拼接算法性能的好坏受图像配准和图像融合两大步骤的共同影响。针对拼接合成图像进行算法评价是不可或缺的,但对于图像拼接算法的定量评价分析,目前尚无统一的标准。已有的评价方法都是通过人眼观测拼接缝的方法来评估拼接质量的好坏,而人眼观测的方法误差较大,无法准确评估图像拼接算法的拼接质量。
发明内容
本发明为克服上述情况不足,旨在提供一种可以准确判断图像拼接中融合效果的方法。一种基于卷积神经网络的图像融合效果评估方法,包括以下步骤:
S1:生成训练数据集和测试数据集;S2:生成卷积神经网络模型;S3:基于训练的卷积神经网络测试测试数据集;
所述S1包括S101、S102、S103、S104;
S101:获取拼接合成图像;
S102:计算拼接合成图像的客观评价参数;选取了偏差指数作为客观评价参数;所述偏差指数计算公式如下:
Figure GDA0002483395200000021
其中,D表示偏差指数,F(i,j)表示拼接合成图像中像素灰度值,A(i,j)表示拼接合成图像中像素灰度值与原始图像序列相对应像素灰度值,M,N分别表示拼接合成图像的宽度和高度;
S103:生成训练数据集;
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集;对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成a块,对每一块进行处理,依据偏差指数、标准差两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集X={D1,SD1,D2,SD2,…,Da,SDa};
计算每一个块内的每个像素和每个拼接图像对应的原始图像的每个像素的差的平方值Avg;将0~Avg构成的闭区间均匀的分成五等分,按值的大小从小到大将区间依次标记为E1、E2、E3、E4、E5,如果某一块的像素差的平方值落在E1这个区间,表明该块的拼接效果好,如果某一块的像素差的平方值落在E5这个区间,则标定该块的拼接效果差;将所有训练样本集进行平方值Avg计算及拼接效果标定,获得与原始图像序列相对应的理想输出Y={y1,y2,…,ya},其中,yi∈{E1,E2,E3,E4,E5},并且{X,Y}一起构成了卷积神经网络的训练数据集合;
S104:获取测试数据集;
所述S2步骤包括S201、S202、S203;
S201:构建卷积神经网络模型;S202:设置输入层与卷积采样层参数;S203:利用训练数据集训练卷积神经网络。
进一步的,所述步骤S102中选取了标准差作为客观评价参数,标准差是由均值间接求得的,反映了图像灰度值I(i,j)相对于图像灰度均值
Figure GDA0002483395200000022
的离散程度,即图像像素值的分布情况;拼接合成图像的标准差SD定义为:
Figure GDA0002483395200000031
进一步的,所述步骤S2中采用非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的。
进一步的,所述S201具体为:以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与第一卷积采样层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到第一卷积采样层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
进一步的,所述步骤202具体为:输入层:X={D1,SD1,D2,SD2,…,Da,SDa}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理;
卷积采样层:在一个卷积层l,输入层的输入或者是上一层的第i个特征
Figure GDA0002483395200000032
被一个可学习的卷积核进行卷积,然后通过一个激活函数,就可以得到输出的第j个特征
Figure GDA0002483395200000033
每一个输出
Figure GDA0002483395200000034
是组合卷积多个输入
Figure GDA0002483395200000035
的值,具体计算方法如下:
Figure GDA0002483395200000036
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,
Figure GDA0002483395200000037
表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,
Figure GDA0002483395200000038
表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1];
卷积之后会紧跟着一个子采样,对于子采样来说,有h个输入特征,就有h个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
Figure GDA0002483395200000039
其中,down(.)表示一个下采样函数,采样函数Max-Pooling池化模式,池化核大小为2*2,步长为2。
进一步的,所述步骤S203具体分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换,传送到输出层,计算出与X相对应的实际输出O;计算实际输出O与理想输出Y之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
Figure GDA0002483395200000041
其中,K表示输出数据的维数,
Figure GDA0002483395200000042
表示第n个训练数据对应的理想输出数据的第k维,
Figure GDA0002483395200000043
表示第n个训练数据对应的网络输出的第k个输出;
第二阶段:后向传播阶段
后向传播阶段是按照上述前向传播阶段平方误差代价函数反向传播调整网络每一层的权重矩阵;反向传播回来的误差可以看做是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
Figure GDA0002483395200000044
其中,
Figure GDA00024833952000000418
表示每个元素相乘,l表示层数,n分别当前层上特征的映射编号,
Figure GDA0002483395200000045
表示第l层上的第n个神经节点的灵敏度,
Figure GDA0002483395200000046
表示下采样层的权值,为可训练的常数,up()表示上采样操作,’表示转置,
Figure GDA0002483395200000047
Figure GDA0002483395200000048
表示第l层第n个特征对应的权值和偏置,
Figure GDA0002483395200000049
表示第l-1层的第n个特征;池化层的逆向误差传播公式计算如下:
Figure GDA00024833952000000410
其中,Q表示输入特征的集合,
Figure GDA00024833952000000411
表示l+1层的第n个特征与第l层的第m个特征之间相关的卷积核,
Figure GDA00024833952000000412
表示第l+1层的第n个神经节点的灵敏度,
Figure GDA00024833952000000413
表示第l层的第m个神经节点的灵敏度;
最后,对每个神经元运用δ规则进行权值更新;即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放;用向量的形式表述就是,对于第l层,误差对于l层每一个权值的导数是l层的输入与l层的灵敏度的叉乘;计算偏置和卷积核的偏导数公式如下:
Figure GDA00024833952000000414
Figure GDA00024833952000000415
其中,E表示误差代价函数,
Figure GDA00024833952000000416
Figure GDA00024833952000000417
计算卷积时的每一个小区域patch,u、v分别表示灵敏度矩阵
Figure GDA0002483395200000051
中的元素位置;利用上述卷积核和偏置的偏导,更新卷积核和偏置。
进一步的,所述步骤S3具体为:将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
本发明利用卷积神经网络,可以代替繁琐大量的人为统计评分,并且可以准确地判断图像拼接中融合效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中基于卷积神经网络的图像融合效果评估方法流程图;
图2为本发明实施例中训练数据集与测试数据集的计算流程图;
图3为本发明实施例中卷积神经网络计算流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提出的一种基于卷积神经网络的图像融合效果评估方法具体包括以下步骤:
S1:生成训练数据集和测试数据集。
如图2所示,训练数据集与测试数据集的计算方法如下:
S101:获取拼接合成图像。
利用图像采集设备拍摄N组原始图像序列,然后采用不同的待评价拼接算法对这N组原始图像序列进行拼接,获得与每种待评价拼接算法相对应的N组拼接合成图像。
S102:计算拼接合成图像的客观评价参数。
本发明主要关心的是拼接合成图像的匹配误差,为了实现对拼接合成图像配准效果的评价,选取了偏差指数作为客观评价参数,进一步的,还可以增加峰值信噪比作为客观评价参数,这两种评价参数的具体计算方法如下:
(1)偏差指数
偏差指数是拼接合成图像中各个像素灰度值与原始图像序列相对应像素灰度值差绝对值同原始图像相对应像素灰度之比的平均值,计算公式如下:
Figure GDA0002483395200000061
其中,D表示偏差指数,F(i,j)表示拼接合成图像中像素灰度值,A(i,j)表示拼接合成图像中像素灰度值与原始图像序列相对应像素灰度值,M,N分别表示拼接合成图像的宽度和高度。偏差指数的大小表示拼接合成图像与原始图像序列平均灰度值的相对差异,图像的偏差指数越小,说明拼接合成图像与原始图像序列越接近,即拼接合成图像在提高空间分辨率的同时,较好地保留了原始图像的光谱信息。
(2)标准差
标准差是由均值间接求得的,反映了图像灰度值I(i,j)相对于图像灰度均值
Figure GDA0002483395200000063
的离散程度,即图像像素值的分布情况。拼接合成图像的标准差SD定义为:
Figure GDA0002483395200000062
S103:生成训练数据集。
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集。对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成a块,对每一块进行处理,依据上述偏差指数、标准差两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集X={D1,SD1,D2,SD2,…,Da,SDa}。
计算每一个块内的每个像素和每个拼接图像对应的原始图像的每个像素的差的平方值Avg;将0~Avg构成的闭区间均匀的分成五等分,按值的大小从小到大将区间依次标记为E1、E2、E3、E4、E5,如果某一块的像素差的平方值落在E1这个区间,表明该块的拼接效果好,如果某一块的像素差的平方值落在E5这个区间,则标定该块的拼接效果差。将所有训练样本集进行平方值Avg计算及拼接效果标定,获得与原始图像序列相对应的理想输出Y={y1,y2,…,ya},其中,yi∈{E1,E2,E3,E4,E5},并且{X,Y}一起构成了卷积神经网络的训练数据集合。(输出就是标签)
S104:获取测试数据集。
测试样本图像包括原始序列图像以及拼接合成图像,按照步骤S103介绍的方法获取测试数据集ts={D1,SD1,D2,SD2,…,DM,SDM}。
S2:卷积神经网络模型。
在本发明实施例中,采用的是非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的,这种非全连接和权重共享的网络结构使该模型更类似于生物神经网络,降低了网络模型的复杂度,减少了权重的数量。
如图3所示,卷积神经网络模型的训练包括如下步骤:
S201:构建一个卷积神经网络模型。
以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与第一卷积采样层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到第一卷积采样层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
以上仅给出卷积神经网络模型的一个示例,实际上卷积神经网络模型的构建方式可以根据应用目的进行经验设置,包括卷积池化层数、全链接层数、卷积核的数量与大小以及池化尺度等参数可以根据应用目的进行设置。
S202:设置输入层与卷积采样层参数。
输入层:X={D1,SD1,D2,SD2,…,Da,SDa}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理。
卷积采样层(包括第一卷积采样层和第二卷积采样层):在一个卷积层l,输入层的输入或者是上一层的第i个特征
Figure GDA0002483395200000071
被一个可学习的卷积核进行卷积,然后通过一个激活函数,就可以得到输出的第j个特征
Figure GDA0002483395200000072
每一个输出
Figure GDA0002483395200000073
可能是组合卷积多个输入
Figure GDA0002483395200000074
的值,具体计算方法如下:
Figure GDA0002483395200000081
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,
Figure GDA0002483395200000082
表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,
Figure GDA0002483395200000083
表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1]。
卷积之后会紧跟着一个子采样,对于子采样来说,有h个输入特征,就有h个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
Figure GDA0002483395200000084
其中,down(.)表示一个下采样函数,优选Max-Pooling池化模式,池化核大小为2*2,步长为2。
卷积神经网络中的每一个特征提取层(子采样层)都紧跟着一个用来求局部平均与二次提取的计算层(卷积层),这种特有的两次特征提取结构使网络在识别时对输入样本有较高的畸变容忍能力。
S203:利用训练数据集训练卷积神经网络。
卷积神经网络在本质上是一种输入到输出的映射,他能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确数学表达式,只要用已知的模式对卷积神经网络进行训练,网络就具有输入到输出对之间的映射能力。在开始训练前,所有的权重都应该进行随机初始化。
卷积神经网络的训练方法可以分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换(卷积采样层,卷积采样层,全链接层,全链接层),传送到输出层,计算出与X相对应的实际输出O。计算实际输出O与理想输出Y之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
Figure GDA0002483395200000085
其中,K表示输出数据的维数,
Figure GDA0002483395200000086
表示第n个训练数据对应的理想输出数据的第k维,
Figure GDA0002483395200000087
表示第n个训练数据对应的网络输出的第k个输出。
第二阶段:后向传播阶段
后向传播阶段是按照上述前向传播阶段平方误差代价函数反向传播调整网络每一层的权重矩阵。反向传播回来的误差可以看做是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
Figure GDA0002483395200000091
其中,
Figure GDA00024833952000000916
表示每个元素相乘,l表示层数,n分别表示当前层上特征的映射编号,
Figure GDA0002483395200000092
表示第l层上的第n个神经节点的灵敏度,
Figure GDA0002483395200000093
表示下采样层的权值,为可训练的常数,up()表示上采样操作,’表示转置,
Figure GDA0002483395200000094
Figure GDA0002483395200000095
表示第l层第n个特征对应的权值和偏置,
Figure GDA0002483395200000096
表示第l-1层的第n个特征。池化层的逆向误差传播公式计算如下:
Figure GDA0002483395200000097
其中,Q表示输入特征的集合,
Figure GDA0002483395200000098
表示l+1层的第n个特征与第l层的第m个特征之间相关的卷积核,
Figure GDA0002483395200000099
表示第l+1层的第n个神经节点的灵敏度,
Figure GDA00024833952000000910
表示第l层的第m个神经节点的灵敏度。
最后,对每个神经元运用δ规则进行权值更新。即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放。用向量的形式表述就是,对于第l层,误差对于l层每一个权值(组合为矩阵)的导数是l层的输入(等于上一层的输出)与l层的灵敏度(该层每个神经元的δ组合成一个向量的形式)的叉乘。计算偏置和卷积核的偏导数公式如下:
Figure GDA00024833952000000911
Figure GDA00024833952000000912
其中,E表示误差代价函数,
Figure GDA00024833952000000913
Figure GDA00024833952000000914
计算卷积时的每一个小区域(patch),u,v分别表示灵敏度矩阵
Figure GDA00024833952000000915
中的元素位置。利用上述卷积核和偏置的偏导,更新卷积核和偏置。
利用步骤S1获取的训练数据集,采用Hinge损失函数和随机梯度下降方法对卷积神经网络进行训练,当整个卷积神经网络的损失函数趋于局部最优解附近时,完成训练;其中局部最优解事先由人工设定。
S3:基于训练的卷积神经网络测试测试数据集。
将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
根据上述卷积神经网络输出的每块的输出标签,计算每一幅待评价拼接合成图像所有块的输出标签的平均值,然后计算同一拼接算法下所有拼接合成图像输出标签的平均值作为该拼接算法效果好坏的评价等级。
综上所述,利用卷积神经网络,可以代替繁琐的,大量的人为统计评分,并且可以准确地判断图像拼接中融合效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (6)

1.一种基于卷积神经网络的图像融合效果评估方法,其特征在于,包括以下步骤:
S1:生成训练数据集和测试数据集;S2:生成卷积神经网络模型;S3:基于训练的卷积神经网络测试测试数据集;
所述S1包括S101、S102、S103、S104;
S101:获取拼接合成图像;
S102:计算拼接合成图像的客观评价参数;选取了偏差指数作为客观评价参数;所述偏差指数计算公式如下:
Figure FDA0002483395190000011
其中,D表示偏差指数,F(i,j)表示拼接合成图像中像素灰度值,A(i,j)表示拼接合成图像中像素灰度值与原始图像序列相对应像素灰度值,M,N分别表示拼接合成图像的宽度和高度;
选取了标准差作为客观评价参数,标准差是由均值间接求得的,反映了图像灰度值I(i,j)相对于图像灰度均值
Figure FDA0002483395190000012
的离散程度,即图像像素值的分布情况;拼接合成图像的标准差SD定义为:
Figure FDA0002483395190000013
S103:生成训练数据集;
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集;对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成a块,对每一块进行处理,依据偏差指数、标准差两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集X={D1,SD1,D2,SD2,…,Da,SDa};
计算每一个块内的每个像素和每个拼接图像对应的原始图像的每个像素的差的平方值Avg;将0~Avg构成的闭区间均匀的分成五等分,按值的大小从小到大将区间依次标记为E1、E2、E3、E4、E5,如果某一块的像素差的平方值落在E1这个区间,表明该块的拼接效果好,如果某一块的像素差的平方值落在E5这个区间,则标定该块的拼接效果差;将所有训练样本集进行平方值Avg计算及拼接效果标定,获得与原始图像序列相对应的理想输出Y={y1,y2,…,ya},其中,yi∈{E1,E2,E3,E4,E5},并且{X,Y}一起构成了卷积神经网络的训练数据集合;
S104:获取测试数据集;
所述S2步骤包括S201、S202、S203;
S201:构建卷积神经网络模型;S202:设置输入层与卷积采样层参数;S203:利用训练数据集训练卷积神经网络。
2.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述步骤S2中采用非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的。
3.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述S201具体为:以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与第一卷积采样层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到第一卷积采样层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
4.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述步骤202具体为:输入层:X={D1,SD1,D2,SD2,…,Da,SDa}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理;
卷积采样层:在一个卷积层l,输入层的输入或者是上一层的第i个特征
Figure FDA0002483395190000021
被一个可学习的卷积核进行卷积,然后通过一个激活函数,就可以得到输出的第j个特征
Figure FDA0002483395190000022
每一个输出
Figure FDA0002483395190000023
是组合卷积多个输入
Figure FDA0002483395190000024
的值,具体计算方法如下:
Figure FDA0002483395190000025
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,
Figure FDA0002483395190000026
表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,
Figure FDA0002483395190000027
表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1];
卷积之后会紧跟着一个子采样,对于子采样来说,有h个输入特征,就有h个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
Figure FDA0002483395190000031
其中,down(.)表示一个下采样函数,采样函数为Max-Pooling池化模式,池化核大小为2*2,步长为2。
5.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述步骤S203具体分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换,传送到输出层,计算出与X相对应的实际输出O;计算实际输出O与理想输出Y之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
Figure FDA0002483395190000032
其中,K表示输出数据的维数,
Figure FDA0002483395190000033
表示第n个训练数据对应的理想输出数据的第k维,
Figure FDA0002483395190000034
表示第n个训练数据对应的网络输出的第k个输出;
第二阶段:后向传播阶段
后向传播阶段是按照上述前向传播阶段平方误差代价函数反向传播调整网络每一层的权重矩阵;反向传播回来的误差可以看做是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
Figure FDA0002483395190000035
其中,
Figure FDA0002483395190000036
表示每个元素相乘,l表示层数,n表示当前层上特征的映射编号,
Figure FDA0002483395190000037
表示第l层上的第n个神经节点的灵敏度,
Figure FDA0002483395190000038
表示下采样层的权值,为可训练的常数,up()表示上采样操作,’表示转置,
Figure FDA0002483395190000039
Figure FDA00024833951900000310
表示第l层第n个特征对应的权值和偏置,
Figure FDA00024833951900000311
表示第l-1层的第n个特征;池化层的逆向误差传播公式计算如下:
Figure FDA00024833951900000312
其中,Q表示输入特征的集合,
Figure FDA00024833951900000313
表示l+1层的第n个特征与第l层的第m个特征之间相关的卷积核,
Figure FDA00024833951900000314
表示第l+1层的第n个神经节点的灵敏度,
Figure FDA00024833951900000315
表示第l层的第m个神经节点的灵敏度;
最后,对每个神经元运用δ规则进行权值更新;即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放;用向量的形式表述就是,对于第l层,误差对于l层每一个权值的导数是l层的输入与l层的灵敏度的叉乘;计算偏置和卷积核的偏导数公式如下:
Figure FDA0002483395190000041
Figure FDA0002483395190000042
其中,E表示误差代价函数,
Figure FDA0002483395190000043
Figure FDA0002483395190000044
计算卷积时的每一个小区域,u、v分别表示灵敏度矩阵
Figure FDA0002483395190000045
中的元素位置;利用上述卷积核和偏置的偏导,更新卷积核和偏置。
6.根据权利要求1所述的基于卷积神经网络的图像融合效果评估方法,其特征在于,所述步骤S3具体为:将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
CN201710129695.7A 2017-03-06 2017-03-06 一种基于卷积神经网络的图像融合效果评估方法 Active CN106910192B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710129695.7A CN106910192B (zh) 2017-03-06 2017-03-06 一种基于卷积神经网络的图像融合效果评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710129695.7A CN106910192B (zh) 2017-03-06 2017-03-06 一种基于卷积神经网络的图像融合效果评估方法

Publications (2)

Publication Number Publication Date
CN106910192A CN106910192A (zh) 2017-06-30
CN106910192B true CN106910192B (zh) 2020-09-22

Family

ID=59187655

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710129695.7A Active CN106910192B (zh) 2017-03-06 2017-03-06 一种基于卷积神经网络的图像融合效果评估方法

Country Status (1)

Country Link
CN (1) CN106910192B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729986B (zh) * 2017-09-19 2020-11-03 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN109557114B (zh) * 2017-09-25 2021-07-16 清华大学 检查方法和检查设备以及计算机可读介质
CN107609638B (zh) * 2017-10-12 2019-12-10 湖北工业大学 一种基于线性编码器和插值采样优化卷积神经网络的方法
CN108267724A (zh) * 2018-01-19 2018-07-10 中国人民解放军陆军装甲兵学院 一种雷达目标识别的未知目标识别方法
CN108226889A (zh) * 2018-01-19 2018-06-29 中国人民解放军陆军装甲兵学院 一种雷达目标识别的分类器模型训练方法
CN108647045B (zh) * 2018-03-20 2021-10-01 科大讯飞股份有限公司 激活函数的实现方法及装置、存储介质、电子设备
CN109284765A (zh) * 2018-07-18 2019-01-29 成都信息工程大学 基于负值特征的卷积神经网络的自然图像分类方法
CN109447907B (zh) * 2018-09-20 2020-06-16 宁波大学 一种基于全卷积神经网络的单图像增强方法
CN110956575B (zh) * 2018-09-26 2022-04-12 京东方科技集团股份有限公司 转变图像风格的方法和装置、卷积神经网络处理器
CN109493319B (zh) * 2018-10-10 2021-06-22 武汉联影医疗科技有限公司 融合图像效果量化方法、装置、计算机设备和存储介质
CN110348404B (zh) * 2019-07-16 2023-05-02 湖州学院 一种农村道路景观视觉评价分析方法
CN111222776B (zh) * 2019-12-31 2021-08-31 中国科学院国家空间科学中心 基于卷积神经网络的卫星网络协调态势评估方法及系统
CN111369598B (zh) * 2020-03-02 2021-03-30 推想医疗科技股份有限公司 深度学习模型的训练方法及装置、应用方法及装置
CN111815690B (zh) * 2020-09-11 2020-12-08 湖南国科智瞳科技有限公司 一种用于显微图像实时拼接的方法、系统和计算机设备
CN115457614B (zh) * 2021-05-20 2023-08-04 马上消费金融股份有限公司 一种图像质量评价方法、模型训练方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971329A (zh) * 2014-05-26 2014-08-06 电子科技大学 一种基于遗传优化细胞神经网络的多源图像融合方法
CN105512674A (zh) * 2015-11-25 2016-04-20 中国科学院自动化研究所 基于密集匹配子自适应相似性度量的rgb-d物体识别方法和装置
CN106295507A (zh) * 2016-07-25 2017-01-04 华南理工大学 一种基于集成卷积神经网络的性别识别方法
CN106326886A (zh) * 2016-11-07 2017-01-11 重庆工商大学 基于卷积神经网络的手指静脉图像质量评估方法及评估系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9734567B2 (en) * 2015-06-24 2017-08-15 Samsung Electronics Co., Ltd. Label-free non-reference image quality assessment via deep neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103971329A (zh) * 2014-05-26 2014-08-06 电子科技大学 一种基于遗传优化细胞神经网络的多源图像融合方法
CN105512674A (zh) * 2015-11-25 2016-04-20 中国科学院自动化研究所 基于密集匹配子自适应相似性度量的rgb-d物体识别方法和装置
CN106295507A (zh) * 2016-07-25 2017-01-04 华南理工大学 一种基于集成卷积神经网络的性别识别方法
CN106326886A (zh) * 2016-11-07 2017-01-11 重庆工商大学 基于卷积神经网络的手指静脉图像质量评估方法及评估系统

Also Published As

Publication number Publication date
CN106910192A (zh) 2017-06-30

Similar Documents

Publication Publication Date Title
CN106910192B (zh) 一种基于卷积神经网络的图像融合效果评估方法
CN106920224B (zh) 一种评估拼接图像清晰度的方法
CN106920215B (zh) 一种全景图像配准效果的检测方法
Lopez et al. Deep single image camera calibration with radial distortion
Sun et al. Blind quality assessment for in-the-wild images via hierarchical feature fusion and iterative mixed database training
CN106991388B (zh) 关键点定位方法
CN110991511A (zh) 一种基于深度卷积神经网络的向日葵作物种子分拣方法
CN109325395A (zh) 图像的识别方法、卷积神经网络模型的训练方法及装置
CN108665460A (zh) 基于组合神经网络和分类神经网络的图像质量评价方法
CN112116601B (zh) 基于生成对抗残差网络的压缩感知采样重建方法及系统
Ou et al. A novel rank learning based no-reference image quality assessment method
JP2021515927A (ja) 照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体
CN112561807B (zh) 一种基于卷积神经网络的端到端径向畸变校正方法
Liao et al. A deep ordinal distortion estimation approach for distortion rectification
CN105550649A (zh) 基于全耦合局部约束表示的极低分辨率人脸识别方法及系统
CN115018711B (zh) 一种用于仓库调度的图像超分辨率重建方法
CN115526891B (zh) 一种缺陷数据集的生成模型的训练方法及相关装置
CN111460947B (zh) 基于bp神经网络对显微镜下金属矿物的识别方法及系统
CN112598604A (zh) 一种盲脸复原方法及系统
CN116843756A (zh) 一种基于计算机视觉的望远镜位姿监测方法
CN117333750A (zh) 空间配准与局部全局多尺度的多模态医学图像融合方法
CN115439669A (zh) 基于深度学习的特征点检测网络及跨分辨率图像匹配方法
CN113128518B (zh) 基于孪生卷积网络和特征混合的sift误匹配检测方法
CN114066735A (zh) 基于最小一乘的稀疏采样傅里叶叠层成像人工神经网络重建方法
CN113781375A (zh) 一种基于多曝光融合的车载视觉增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant