CN106920215B - 一种全景图像配准效果的检测方法 - Google Patents

一种全景图像配准效果的检测方法 Download PDF

Info

Publication number
CN106920215B
CN106920215B CN201710128212.1A CN201710128212A CN106920215B CN 106920215 B CN106920215 B CN 106920215B CN 201710128212 A CN201710128212 A CN 201710128212A CN 106920215 B CN106920215 B CN 106920215B
Authority
CN
China
Prior art keywords
layer
output
image
neural network
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710128212.1A
Other languages
English (en)
Other versions
CN106920215A (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha Full Image Technology Co Ltd
Original Assignee
Changsha Full Image Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha Full Image Technology Co Ltd filed Critical Changsha Full Image Technology Co Ltd
Priority to CN201710128212.1A priority Critical patent/CN106920215B/zh
Publication of CN106920215A publication Critical patent/CN106920215A/zh
Application granted granted Critical
Publication of CN106920215B publication Critical patent/CN106920215B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种全景图像配准效果检测方法,属于图像拼接和图像质量评价技术领域,涉及计算机视觉领域,包括以下步骤:S1:生成训练数据集和测试数据集。S2:生成卷积神经网络模型。S3:基于训练的卷积神经网络测试测试数据集。根据卷积神经网络输出的每块的输出标签,计算每一幅待评价拼接合成图像所有块的输出标签的平均值,然后计算同一拼接算法下所有拼接合成图像输出标签的平均值作为该拼接算法效果好坏的评价等级。利用卷积神经网络,可以代替繁琐的,大量的人为统计评分,并且可以准确地判断图像拼接中配准效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。

Description

一种全景图像配准效果的检测方法
技术领域
本发明属于图像拼接和图像质量评价技术领域,涉及计算机视觉领域,尤其涉及一种全景图像配准效果检测方法。
背景技术
随着电子信息产业的发展和技术进步,能够获取、记录视频信息的设备日益普及,但与人眼的视场范围相比,普通摄像机的视场要小得多,如何有效的利用计算机技术扩大摄像机拍摄图像和视频的视场范围,引起了研究者的广泛注意。图像拼接技术可以解决由于摄像机等成像仪器的视角和大小的限制,不能生成宽视场图片的问题,现有的图像拼接技术主要有两种方案:
第一种方案是用一个常规镜头的投影变换和多项式畸变校正技术用校正模板图像对镜头畸变参数进行畸变校正,生成一组中间校正后的2D图像,然后采用2D图像配准技术对校正后的图像元进行2D配准,最后对配准的两幅图像进行融合。
第二种方案是把图像的径向畸变校正参数和图像元的位姿参数作为一体,整体用最优化技术进行参数估计,生成一个参数映射表,然后利用参数映射表将原始图片逐张映射到全景图像中,处理完所有的图像后,将两两相邻的处理之后的图像在重叠区域做一次融合过渡。
从上述过程可以看出,图像拼接算法性能的好坏受图像配准和图像融合两大步骤的共同影响。针对拼接合成图像进行算法评价是不可或缺的,但对于图像拼接算法的定量评价分析,目前尚无统一的标准。已有的评价方法都是通过人眼观测拼接缝的方法来评估拼接质量的好坏,而人眼观测的方法误差较大,无法准确评估图像拼接算法的拼接质量。
发明内容
本发明为克服上述情况不足,旨在提供一种可以准确判断图像拼接中配准效果的方法。
一种全景图像配准效果检测方法,包括以下步骤:S1:生成训练数据集和测试数据集; S2:生成卷积神经网络模型;S3:基于训练的卷积神经网络测试测试数据集;
所述S1包括S101、S102、S103、S104;
S101:获取拼接合成图像;
S102:计算拼接合成图像的客观评价参数;选取了配准误差作为客观评价参数;该评价参数用于体现图像拼接算法的配准性能,本发明中采用特征位置平均误差来反映配准误差,可由下式计算:
Figure GDA0002306584090000021
其中
Figure GDA0002306584090000022
其中,Q是评价的拼接序列图像数量,K是每相邻图像间的特征匹配对数,H是它们与参考平面IR之间的变换矩阵,xjk,xik表示图像的第k个特征对,这里的特征是区域特征、或线特征或点特征,对待特征匹配对(xi,xj)中的xi而言,投影到参考平面再投影到其相邻图像后变成坐标x′i,xj与x′i之间的几何距离误差可以体现配准的准确性;特征位置平均误差εn是指每幅图像Ii和其相邻图像Ij上的特征匹配对经过参考平面IR变换后的几何距离误差值的平均值,CL是拼接序列图像的匹配误差;
S103:生成训练数据集;
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集;对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成M块,对每一块进行处理,依据上述两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集 X={CG1,CL1,CG2,CL2,...,CGM,CLM};基于每个块都会得到一个配准误差,设置一个阈值τ,将每个块的配准误差与τ进行比较,得到对应于每个块的理想输出yi,计算公式如下:
Figure GDA0002306584090000023
将所有块的理想输出组合成训练数据集Y={y1,y2,...,yM},{X,Y}一起构成了卷积神经网络的训练数据集合;
S104:获取测试数据集;
所述S2步骤包括S201、S202、S203;
S201:构建卷积神经网络模型;S202:设置输入层与卷积采样层参数;S203:利用训练数据集训练卷积神经网络。
进一步的,所述步骤S2中采用非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的。
进一步的,所述S201具体为:以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与该层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到该层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
进一步的,所述步骤202具体为:输入层:X={CG1,CL1,CG2,CL2,...,CGM,CLM}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理;
卷积采样层:在一个卷积层l,输入层的输入或者是上一层的第i个特征
Figure GDA0002306584090000031
被一个可学习的卷积核进行卷积,然后通过一个激活函数,就可以得到输出的第j个特征
Figure GDA0002306584090000032
每一个输出
Figure GDA0002306584090000033
是组合卷积多个输入
Figure GDA0002306584090000034
的值,具体计算方法如下:
Figure GDA0002306584090000035
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,
Figure GDA0002306584090000036
表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,
Figure GDA0002306584090000037
表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1];
卷积之后会紧跟着一个子采样,对于子采样来说,有N个输入特征,就有N个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
Figure GDA0002306584090000038
其中,down(.)表示一个下采样函数,采样函数为Max-Pooling池化模式,池化核大小为2*2,步长为2。
进一步的,所述步骤S203具体分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换,传送到输出层,计算出与X相对应的实际输出O;计算实际输出O与理想输出Y 之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
Figure GDA0002306584090000041
其中,A表示输出数据的维数,
Figure GDA0002306584090000042
表示第n个训练数据对应的理想输出数据的第a维,
Figure GDA0002306584090000043
表示第n个训练数据对应的网络输出的第a个输出;
第二阶段:后向传播阶段
后向传播阶段是按照上述计算前向平方误差方法反向传播调整网络每一层的权重矩阵;反向传播回来的误差看作是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
Figure GDA0002306584090000044
其中,
Figure GDA00023065840900000418
表示每个元素相乘,l表示层数,n表示当前层上特征的映射编号,
Figure GDA0002306584090000045
表示第l层上的第n个神经节点的灵敏度,
Figure GDA0002306584090000046
表示下采样层的权值,为可训练的常数,up()表示上采样操作,’表示转置,
Figure GDA0002306584090000047
Figure GDA0002306584090000048
表示第l层第n个特征对应的权值和偏置,
Figure GDA0002306584090000049
表示第l-1层的第n个特征;池化层的逆向误差传播公式计算如下:
Figure GDA00023065840900000410
其中,D表示输入特征的集合,
Figure GDA00023065840900000411
表示l+1层的第n个特征与第l层的第d个特征之间相关的卷积核,
Figure GDA00023065840900000412
表示第l+1层的第n个神经节点的灵敏度,
Figure GDA00023065840900000413
表示第l层的第d个神经节点的灵敏度;
最后,对每个神经元运用δ规则进行权值更新;即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放;用向量的形式表述就是,对于第l层,误差对于该层每一个权值(组合为矩阵)的导数是该层的输入(等于上一层的输出)与该层的灵敏度(该层每个神经元的δ组合成一个向量的形式)的叉乘;计算偏置和卷积核的偏导数公式如下:
Figure GDA00023065840900000414
Figure GDA00023065840900000415
其中,E表示误差代价函数,
Figure GDA00023065840900000416
Figure GDA00023065840900000417
计算卷积时的每一个小区域(patch),u、v分别表示灵敏度矩阵
Figure GDA0002306584090000051
中的元素位置;利用上述卷积核和偏置的偏导,更新卷积核和偏置。
进一步的,所述步骤S3具体为:将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
本发明根据卷积神经网络输出的每块的输出标签,计算每一幅待评价拼接合成图像所有块的输出标签的平均值,然后计算同一拼接算法下所有拼接合成图像输出标签的平均值作为该拼接算法效果好坏的评价等级。利用卷积神经网络,可以代替繁琐的,大量的人为统计评分,并且可以准确地判断图像拼接中配准效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中一种全景图像配准效果检测方法的流程图;
图2为本发明实施例中训练数据集与测试数据集的计算流程图;
图3为本发明实施例中卷积神经网络计算流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提出的一种全景图像配准效果检测方法具体包括以下步骤:
S1:生成训练数据集和测试数据集。
如图2所示,训练数据集与测试数据集的计算方法如下:
S101:获取拼接合成图像。
利用图像采集设备拍摄N组原始图像序列,然后采用不同的待评价拼接算法对这N组原始图像序列进行拼接,获得与每种待评价拼接算法相对应的N组拼接合成图像。
S102:计算拼接合成图像的客观评价参数。
本发明主要关心的是拼接合成图像的匹配误差,为了实现对拼接合成图像配准效果的评价,选取了配准误差作为客观评价参数,进一步的,还可以增加信息熵作为客观评价参数。这两种评价参数的具体计算方法如下:
(1)配准误差
该评价参数用于体现图像拼接算法的配准性能,本发明中采用特征位置平均误差来反映配准误差,可由下式计算:
Figure GDA0002306584090000061
其中
Figure GDA0002306584090000062
其中,Q是评价的拼接序列图像数量,K是每相邻图像间的特征匹配对数,H是它们与参考平面IR之间的变换矩阵,xjk,xik表示图像的第k个特征对,这里的特征是区域特征、或线特征或点特征,对待特征匹配对(xi,xj)中的xi而言,投影到参考平面再投影到其相邻图像后变成坐标x′i,xj与x′i之间的几何距离误差可以体现配准的准确性。特征位置平均误差εn是指每幅图像Ii和其相邻图像Ij上的特征匹配对经过参考平面IR变换后的几何距离误差值的平均值,CL是拼接序列图像的匹配误差。
(2)信息熵
信息熵是反映图像信息量的一个重要指标。可通过下式计算拼接合成图像I的信息熵:
Figure GDA0002306584090000063
其中,CG表示拼接合成图像的信息熵,pi为灰度值i的像素与图像总像素数之比,L是灰度级别。对于拼接合成图像I来说,信息熵越大,则代表图像的信息越丰富,图像越复杂。
S103:生成训练数据集。
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集。对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成M块,对每一块进行处理,依据上述两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集 X={CG1,CL1,CG2,CL2,...,CGM,CLM}。基于每个块都会得到一个配准误差,设置一个阈值τ,将每个块的配准误差与τ进行比较,得到对应于每个块的理想输出yi,计算公式如下:
Figure GDA0002306584090000071
将所有块的理想输出组合成训练数据集Y={y1,y2,...,yM},{X,Y}一起构成了卷积神经网络的训练数据集合。
S104:获取测试数据集。
测试样本图像包括原始序列图像以及拼接合成图像,按照步骤S103介绍的方法获取测试数据集ts={CG1,CL1,CG2,CL2,...,CGM,CLM}。
S2:卷积神经网络模型。
在本发明实施例中,采用的是非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的,这种非全连接和权重共享的网络结构使该模型更类似于生物神经网络,降低了网络模型的复杂度,减少了权重的数量。
如图3所示,卷积神经网络模型的训练包括如下步骤:
S201:构建一个卷积神经网络模型。
以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与该层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到该层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
以上仅给出卷积神经网络模型的一个示例,实际上卷积神经网络模型的构建方式可以根据应用目的进行经验设置,包括卷积池化层数、全链接层数、卷积核的数量与大小以及池化尺度等参数可以根据应用目的进行设置。
S202:设置输入层与卷积采样层参数。
输入层:X={CG1,CL1,CG2,CL2,...,CGM,CLM}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理。
卷积采样层(包括第一卷积采样层和第二卷积采样层):在一个卷积层l,输入层的输入或者是上一层的第i个特征
Figure GDA0002306584090000081
被一个可学习的卷积核进行卷积,然后通过一个激活函数,就可以得到输出的第j个特征
Figure GDA0002306584090000082
每一个输出
Figure GDA0002306584090000083
是组合卷积多个输入
Figure GDA0002306584090000084
的值,具体计算方法如下:
Figure GDA0002306584090000085
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,
Figure GDA0002306584090000086
表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,
Figure GDA0002306584090000087
表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1]。
卷积之后会紧跟着一个子采样,对于子采样来说,有N个输入特征,就有N个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
Figure GDA0002306584090000088
其中,down(.)表示一个下采样函数,采样函数为Max-Pooling池化模式,池化核大小为2*2,步长为2。
卷积神经网络中的每一个特征提取层(子采样层)都紧跟着一个用来求局部平均与二次提取的计算层(卷积层),这种特有的两次特征提取结构使网络在识别时对输入样本有较高的畸变容忍能力。
S203:利用训练数据集训练卷积神经网络。
卷积神经网络在本质上是一种输入到输出的映射,他能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确数学表达式,只要用已知的模式对卷积神经网络进行训练,网络就具有输入到输出对之间的映射能力。在开始训练前,所有的权重都应该进行随机初始化。
卷积神经网络的训练方法可以分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换(卷积采样层,卷积采样层,全链接层,全链接层),传送到输出层,计算出与X相对应的实际输出O。计算实际输出O与理想输出Y之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
Figure GDA0002306584090000091
其中,A表示输出数据的维数,
Figure GDA0002306584090000092
表示第n个训练数据对应的理想输出数据的第a维,
Figure GDA0002306584090000093
表示第n个训练数据对应的网络输出的第a个输出。
第二阶段:后向传播阶段
后向传播阶段是按照上述计算前向平方误差方法反向传播调整网络每一层的权重矩阵。反向传播回来的误差看作是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
Figure GDA0002306584090000094
其中,
Figure GDA00023065840900000919
表示每个元素相乘,l表示层数,n表示当前层上特征的映射编号,
Figure GDA0002306584090000095
表示第 l层上的第n个神经节点的灵敏度,
Figure GDA0002306584090000096
表示下采样层的权值,为可训练的常数,up()表示上采样操作,’表示转置,
Figure GDA0002306584090000097
Figure GDA0002306584090000098
表示第l层第n个特征对应的权值和偏置,
Figure GDA0002306584090000099
表示第l-1 层的第n个特征。池化层的逆向误差传播公式计算如下:
Figure GDA00023065840900000910
其中,D表示输入特征的集合,
Figure GDA00023065840900000911
表示l+1层的第n个特征与第l层的第d个特征之间相关的卷积核,
Figure GDA00023065840900000912
表示第l+1层的第n个神经节点的灵敏度,
Figure GDA00023065840900000913
表示第l层的第d个神经节点的灵敏度。
最后,对每个神经元运用δ规则进行权值更新。即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放。用向量的形式表述就是,对于第l层,误差对于该层每一个权值(组合为矩阵)的导数是该层的输入(等于上一层的输出)与该层的灵敏度(该层每个神经元的δ组合成一个向量的形式)的叉乘。计算偏置和卷积核的偏导数公式如下:
Figure GDA00023065840900000914
Figure GDA00023065840900000915
其中,E表示误差代价函数,
Figure GDA00023065840900000916
Figure GDA00023065840900000917
计算卷积时的每一个小区域(patch),u, v分别表示灵敏度矩阵
Figure GDA00023065840900000918
中的元素位置。利用上述卷积核和偏置的偏导,更新卷积核和偏置。
利用步骤S1获取的训练数据集,采用Hinge损失函数和随机梯度下降方法对卷积神经网络进行训练,当整个卷积神经网络的损失函数趋于局部最优解附近时,完成训练;其中局部最优解事先由人工设定。
S3:基于训练的卷积神经网络测试测试数据集。
将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
根据上述卷积神经网络输出的每块的输出标签,计算每一幅待评价拼接合成图像所有块的输出标签的平均值,然后计算同一拼接算法下所有拼接合成图像输出标签的平均值作为该拼接算法效果好坏的评价等级。
综上所述,利用卷积神经网络,可以代替繁琐的,大量的人为统计评分,并且可以准确地判断图像拼接中配准效果的好坏,克服单因素评价指标所带来的局限性,有利于全自动自适应图像拼接系统的实现,具有非常重要的应用价值。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (6)

1.一种全景图像配准效果检测方法,其特征在于,包括以下步骤:
S1:生成训练数据集和测试数据集;S2:生成卷积神经网络模型;S3:基于训练的卷积神经网络测试测试数据集;
所述S1包括S101、S102、S103、S104;
S101:获取拼接合成图像;
S102:计算拼接合成图像的客观评价参数;选取了配准误差作为客观评价参数;该评价参数用于体现图像拼接算法的配准性能,本发明中采用特征位置平均误差来反映配准误差,可由下式计算:
Figure FDA0002306584080000011
其中
Figure FDA0002306584080000012
其中,Q是评价的拼接序列图像数量,K是每相邻图像间的特征匹配对数,H是它们与参考平面IR之间的变换矩阵,xjk,xik表示图像的第k个特征对,这里的特征是区域特征、或线特征或点特征,对待特征匹配对(xi,xj)中的xi而言,投影到参考平面再投影到其相邻图像后变成坐标x′i,xj与x′i之间的几何距离误差可以体现配准的准确性;特征位置平均误差εn是指每幅图像Ii和其相邻图像Ij上的特征匹配对经过参考平面IR变换后的几何距离误差值的平均值,CL是拼接序列图像的匹配误差;
选取了信息熵作为客观评价参数;信息熵是反映图像信息量的一个重要指标,通过下式计算拼接合成图像I的信息熵:
Figure FDA0002306584080000013
其中,CG表示拼接合成图像的信息熵,pi为灰度值i的像素与图像总像素数之比,L是灰度级别;
S103:生成训练数据集;
根据S101步得到的拼接合成图像以及S102步设置的客观评价参数,计算卷积神经网络的训练数据集;对训练样本集中所有的拼接合成图像以及相对应的原始图像序列,使用图像配准技术,将拼接合成图像与原始图像序列进行配准,得到二者的重合区域,将重合区域按行均匀分割成M块,对每一块进行处理,依据上述两种评价参数的计算方法,对每个块计算它们的客观评价参数,作为卷积神经网络的训练数据集X={CG1,CL1,CG2,CL2,...,CGM,CLM};基于每个块都会得到一个配准误差,设置一个阈值τ,将每个块的配准误差与τ进行比较,得到对应于每个块的理想输出yi,计算公式如下:
Figure FDA0002306584080000021
将所有块的理想输出组合成训练数据集Y={y1,y2,...,yM},{X,Y}一起构成了卷积神经网络的训练数据集合;
S104:获取测试数据集;
所述S2步骤包括S201、S202、S203;
S201:构建卷积神经网络模型;S202:设置输入层与卷积采样层参数;S203:利用训练数据集训练卷积神经网络。
2.根据权利要求1所述的全景图像配准效果检测方法,其特征在于,所述步骤S2中采用非全连接的深层神经网络模型,且同一层中某些神经元之间的连接权重是共享的。
3.根据权利要求1所述的全景图像配准效果检测方法,其特征在于,所述S201具体为:以步骤S1生成的训练数据集中的客观评价参数X为输入,构建一个卷积神经网络模型,该卷积神经网络采用5层的神经网络,分别是输入层,第一卷积采样层,第二卷积采样层,全链接层,输出层,其中,在第一卷积采样层首先将输入与该层设定的不同卷积核和可加偏置进行卷积,卷积后产生若干个特征,然后对特征按照设定的池化尺度大小进行特征值求和,加权值,加偏置,最后通过一个Sigmoid函数得到该层的输出,第二卷积采样层进行与第一卷积采样层相同的操作,区别在于两层所使用到的卷积核、池化尺度大小以及偏置不同,两次卷积采样层的输出是特征映射图,全链接层将第二卷积采样层的特征正向传播输出特征向量,同时也可以进行反向传播操作,在输出层中将输入的特征向量按输出标签的大小指定输出。
4.根据权利要求1所述的全景图像配准效果检测方法,其特征在于,所述步骤202具体为:输入层:X={CG1,CL1,CG2,CL2,...,CGM,CLM}是卷积神经网络的输入,为了将各项不同的评价参数综合起来,需要对各个评价指标进行归一化处理;
卷积采样层:在一个卷积层l,输入层的输入或者是上一层的第i个特征
Figure FDA0002306584080000022
被一个可学习的卷积核进行卷积,然后通过一个激活函数,就可以得到输出的第j个特征
Figure FDA0002306584080000031
每一个输出
Figure FDA0002306584080000032
是组合卷积多个输入
Figure FDA0002306584080000033
的值,具体计算方法如下:
Figure FDA0002306584080000034
其中,i,j分别表示上一层和当前层上特征映射编号,Mj表示选取的输入特征集合的一个子集,
Figure FDA0002306584080000035
表示第l层的第j个特征与第l-1层的第i个特征之间相关的卷积核,
Figure FDA0002306584080000036
表示第l层的第j个特征对应的附加的偏置,*表示卷积操作,激活函数f(.)采用sigmoid函数将输出压缩到[0,1];
卷积之后会紧跟着一个子采样,对于子采样来说,有N个输入特征,就有N个输出特征,只是每个输出特征在大小上变小了,计算公式如下:
Figure FDA0002306584080000037
其中,down(.)表示一个下采样函数,采样函数为Max-Pooling池化模式,池化核大小为2*2,步长为2。
5.根据权利要求1所述的全景图像配准效果检测方法,其特征在于,所述步骤S203具体分为如下两个阶段:
第一阶段:前向传播阶段
对给定的训练数据集{X,Y},将训练数据集中的X输入到卷积神经网络的输入层,经过逐层的变换,传送到输出层,计算出与X相对应的实际输出O;计算实际输出O与理想输出Y之间的误差,这里采用平方误差代价函数,第n个训练数据的误差表示为:
Figure FDA0002306584080000038
其中,A表示输出数据的维数,
Figure FDA0002306584080000039
表示第n个训练数据对应的理想输出数据的第a维,
Figure FDA00023065840800000310
表示第n个训练数据对应的网络输出的第a个输出;
第二阶段:后向传播阶段
后向传播阶段是按照上述计算前向平方误差方法反向传播调整网络每一层的权重矩阵;反向传播回来的误差看作是每个神经元的偏置的灵敏度δ,卷积层逆向误差传播公式为:
Figure FDA00023065840800000311
其中,°表示每个元素相乘,l表示层数,n表示当前层上特征的映射编号,
Figure FDA00023065840800000312
表示第l层上的第n个神经节点的灵敏度,
Figure FDA00023065840800000313
表示下采样层的权值,为可训练的常数,up()表示上采样操作,
Figure FDA00023065840800000413
表示转置,
Figure FDA0002306584080000041
Figure FDA0002306584080000042
表示第l层第n个特征对应的权值和偏置,
Figure FDA0002306584080000043
表示第l-1层的第n个特征;池化层的逆向误差传播公式计算如下:
Figure FDA0002306584080000044
其中,D表示输入特征的集合,
Figure FDA0002306584080000045
表示l+1层的第n个特征与第l层的第d个特征之间相关的卷积核,
Figure FDA0002306584080000046
表示第l+1层的第n个神经节点的灵敏度,
Figure FDA0002306584080000047
表示第l层的第d个神经节点的灵敏度;
最后,对每个神经元运用δ规则进行权值更新;即对一个给定的神经元,得到它的输入,然后用这个神经元的δ来进行缩放;用向量的形式表述就是,对于第l层,误差对于该层每一个权值的导数是该层的输入与该层的灵敏度的叉乘;计算偏置和卷积核的偏导数公式如下:
Figure FDA0002306584080000048
Figure FDA0002306584080000049
其中,E表示误差代价函数,
Figure FDA00023065840800000410
Figure FDA00023065840800000411
计算卷积时的每一个小区域,u、v分别表示灵敏度矩阵
Figure FDA00023065840800000412
中的元素位置;利用上述卷积核和偏置的偏导,更新卷积核和偏置。
6.根据权利要求1所述的全景图像配准效果检测方法,其特征在于,所述步骤S3具体为:将步骤S103生成的测试数据集作为步骤S2训练好的卷积神经网络的输入,经过该神经网络后输出对应每个块的输出标签。
CN201710128212.1A 2017-03-06 2017-03-06 一种全景图像配准效果的检测方法 Active CN106920215B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710128212.1A CN106920215B (zh) 2017-03-06 2017-03-06 一种全景图像配准效果的检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710128212.1A CN106920215B (zh) 2017-03-06 2017-03-06 一种全景图像配准效果的检测方法

Publications (2)

Publication Number Publication Date
CN106920215A CN106920215A (zh) 2017-07-04
CN106920215B true CN106920215B (zh) 2020-03-27

Family

ID=59461274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710128212.1A Active CN106920215B (zh) 2017-03-06 2017-03-06 一种全景图像配准效果的检测方法

Country Status (1)

Country Link
CN (1) CN106920215B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580690B1 (en) 2021-08-31 2023-02-14 Raytheon Company Horizon-based navigation

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257087B (zh) * 2017-12-27 2021-03-26 深圳进化动力数码科技有限公司 一种双目相机拼接效果的检验方法、检验装置及终端设备
CN108182427B (zh) * 2018-01-30 2021-12-14 电子科技大学 一种基于深度学习模型和迁移学习的人脸识别方法
CN112055870A (zh) * 2018-03-02 2020-12-08 皇家飞利浦有限公司 图像配准合格评价
CN108829737B (zh) * 2018-05-21 2021-11-05 浙江大学 基于双向长短期记忆网络的文本交叉组合分类方法
CN110555341B (zh) * 2018-05-31 2023-04-07 赛灵思电子科技(北京)有限公司 池化方法和装置、检测方法和设备、电子设备、存储介质
CN109064502B (zh) * 2018-07-11 2021-10-22 西北工业大学 基于深度学习和人工设计特征相结合的多源图像配准方法
CN109272442B (zh) * 2018-09-27 2023-03-24 百度在线网络技术(北京)有限公司 全景球面图像的处理方法、装置、设备和存储介质
CN110276744B (zh) * 2019-05-15 2021-10-26 北京航空航天大学 图像拼接质量的测评方法及装置
CN110827335B (zh) * 2019-11-01 2020-10-16 北京推想科技有限公司 乳腺影像配准方法和装置
US11983844B2 (en) 2019-12-31 2024-05-14 Chison Medical Technologies Co. Ltd. Panoramic stitching method, apparatus, and storage medium
CN112365399B (zh) * 2020-10-09 2024-05-03 江苏星闪世图科技(集团)有限公司 基于深度学习的风机叶片图像全景拼接方法和系统
CN112200845A (zh) * 2020-10-22 2021-01-08 清华大学 一种图像配准方法和装置
CN112508849A (zh) * 2020-11-09 2021-03-16 中国科学院信息工程研究所 数字图像拼接检测方法及装置
CN113191952A (zh) * 2021-06-02 2021-07-30 重庆渝微电子技术研究院有限公司 一种360度全景环视设备拼接图像评价方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101334893A (zh) * 2008-08-01 2008-12-31 天津大学 基于模糊神经网络的融合图像质量综合评价方法
CN102169576A (zh) * 2011-04-02 2011-08-31 北京理工大学 一种图像拼接算法定量评价方法
CN106326886A (zh) * 2016-11-07 2017-01-11 重庆工商大学 基于卷积神经网络的手指静脉图像质量评估方法及评估系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741107B2 (en) * 2015-06-05 2017-08-22 Sony Corporation Full reference image quality assessment based on convolutional neural network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101334893A (zh) * 2008-08-01 2008-12-31 天津大学 基于模糊神经网络的融合图像质量综合评价方法
CN102169576A (zh) * 2011-04-02 2011-08-31 北京理工大学 一种图像拼接算法定量评价方法
CN106326886A (zh) * 2016-11-07 2017-01-11 重庆工商大学 基于卷积神经网络的手指静脉图像质量评估方法及评估系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
一种改进的卷积神经网络的无参考JPEG2000图像质量评价方法;朱睿 等;《计算机应用与软件》;20170131;第34卷(第1期);全文 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580690B1 (en) 2021-08-31 2023-02-14 Raytheon Company Horizon-based navigation

Also Published As

Publication number Publication date
CN106920215A (zh) 2017-07-04

Similar Documents

Publication Publication Date Title
CN106920215B (zh) 一种全景图像配准效果的检测方法
CN106910192B (zh) 一种基于卷积神经网络的图像融合效果评估方法
CN106920224B (zh) 一种评估拼接图像清晰度的方法
Lopez et al. Deep single image camera calibration with radial distortion
CN110458765B (zh) 基于感知保持卷积网络的图像质量增强方法
CN112116601B (zh) 基于生成对抗残差网络的压缩感知采样重建方法及系统
CN111126412B (zh) 基于特征金字塔网络的图像关键点检测方法
CN110555434A (zh) 一种局部对比和全局指导的立体图像视觉显著性检测方法
CN106355195B (zh) 用于测量图像清晰度值的系统及其方法
CN110879982B (zh) 一种人群计数系统及方法
CN108171249B (zh) 一种基于rgbd数据的局部描述子学习方法
JP2021515927A (ja) 照明条件の設定方法、装置、システム及びプログラム並びに記憶媒体
CN111127435B (zh) 基于双流卷积神经网络的无参考图像质量评估方法
CN112561807B (zh) 一种基于卷积神经网络的端到端径向畸变校正方法
CN113592715B (zh) 一种面向小样本图像集的超分辨率图像重构方法
CN115018711B (zh) 一种用于仓库调度的图像超分辨率重建方法
CN115205196A (zh) 基于孪生网络与特征融合的无参考图像质量评价方法
CN113971764A (zh) 一种基于改进YOLOv3的遥感图像小目标检测方法
CN111626379B (zh) 肺炎x光图像检测方法
CN114021704B (zh) 一种ai神经网络模型的训练方法及相关装置
CN115860091A (zh) 一种基于正交约束的深度特征描述符学习方法
CN114663880A (zh) 基于多层级跨模态自注意力机制的三维目标检测方法
CN113128518B (zh) 基于孪生卷积网络和特征混合的sift误匹配检测方法
CN107833210B (zh) 一种基于神经网络的外观检测方法和系统
CN112598604A (zh) 一种盲脸复原方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant