CN106709878A - 一种快速图像融合方法 - Google Patents

一种快速图像融合方法 Download PDF

Info

Publication number
CN106709878A
CN106709878A CN201611076440.0A CN201611076440A CN106709878A CN 106709878 A CN106709878 A CN 106709878A CN 201611076440 A CN201611076440 A CN 201611076440A CN 106709878 A CN106709878 A CN 106709878A
Authority
CN
China
Prior art keywords
minimum
difference
path
forall
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201611076440.0A
Other languages
English (en)
Other versions
CN106709878B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jinghuahui Equipment Technology Co ltd
Original Assignee
Changsha Full Image Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha Full Image Technology Co Ltd filed Critical Changsha Full Image Technology Co Ltd
Priority to CN201611076440.0A priority Critical patent/CN106709878B/zh
Publication of CN106709878A publication Critical patent/CN106709878A/zh
Application granted granted Critical
Publication of CN106709878B publication Critical patent/CN106709878B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明公开了一种快速图像融合方法,涉及鱼眼图像拼接技术领域,包括:取出图像融合区;找出最优融合中心线;计算线性映射查找表;根据所述线性映射查找表进行图像融合。找出最优融合中心线步骤包括:计算融合区的边缘特征;计算边缘特征与绝对灰度差值的和;寻找最小累加差值及其路径从而得到最优融合中心线。本方法综合计算了融合区内图像的灰度差异和边缘特征,规划路径避开图像中内容丰富区域,再利用动态迭代方法进行最优融合中心线搜索,解决了融合区图像模糊问题,图像真实清晰,大大提高图像拼接结果的效果。同时极大降低了计算的复杂度,降低了对系统资源的需求。

Description

一种快速图像融合方法
技术领域
本发明涉及图像通信技术领域,尤其是涉及鱼眼图像拼接技术领域。
背景技术
鱼眼图像拼接是一种利用实景图像组成全景空间的技术,目前的鱼眼图像拼接技术主要有两种方案:
第一种方案是用一个常规镜头的投影变换和多项式畸变校正技术用校正模板图像对镜头畸变参数进行畸变校正,生成一组中间校正后的2D图像,然后采用2D图像配准技术对校正后的图像元进行2D配准,最后对配准的两幅图像进行融合。
第二种方案是把鱼眼图像的径向畸变校正参数和图像元的位姿参数作为一体,整体用最优化技术进行参数估计,最后调用参数映射表对镜头单元图像进行图像拼接。
这些方法在图像融合过程中如果采用直接融合的方法(例如:平均值法、加权平均法、中值滤波法),会导致生成的全景图像因为重叠区域的细节差异而出现明显的拼接缝。
为了解决拼接缝这个技术问题,目前常用的方法是采用动态规划和graph-cut的方法来查找最优融合中心线,具体来说就是利用两幅图像重叠区域内像素之间的灰度差异和颜色差异,在重叠区域中找到一条灰度和颜色差异最小的线,这条线就被称为最优融合中心线。
在中国专利公布号CN105957007A中介绍了一种基于最优融合线的加权融合方法,它采用graph-cut的最优缝合线算法来找出重合区域中差异最小的划分线,然后利用加权平均法在最优缝合线L周围对待拼接的图像像素值进行融合,该最优缝合线算法基于像素级寻找差异最小的划分线,在对重叠区域中内容丰富的地方进行加权平均融合时,会产生较大的模糊现象。在中国专利公布号CN103856727A中介绍了一种结合颜色和结构差异最小的最优缝合线算法,利用人工智能中的启发式A*搜索算法计算平均累计误差值最小的线作为最优缝合线,该方法计算复杂,运算量大,占用系统资源多。
采用现有技术中的方法生成的全景图像,容易出现模糊、拼接错位等现象,生成的全景图像效果不佳,同时占用大量的系统资源,对硬件配置的要求极高。
发明内容
本发明为克服图像拼接后模糊的问题,旨在提供一种寻找最优融合中心线融合后得到清晰鱼眼图像的方法。
一种快速图像融合方法,所述方法包括:
获取同一时刻鱼眼镜头采集的多幅鱼眼图像,从中取出融合区;在所述融合区内找出最优融合中心线;利用所述最优融合中心线计算线性映射查找表;根据所述线性映射查找表进行图像融合;
在所述融合区内找出最优融合中心线的步骤包括:计算融合区的边缘特征;计算边缘特征与绝对灰度差值的和;寻找最小累加差值及其路径从而得到最优融合中心线;
所述计算融合区的边缘特征的具体步骤如下:利用Canny边缘检测算子提取所述融合区中相互重叠的区域I1和I2的边缘特征,其中第一步:利用高斯滤波模板平滑I1和I2:首先生成方差σ=1.4的高斯滤波模板h(x,y,σ),然后对I1和I2进行高斯平滑处理,得到去除噪声后的相互重叠区域g1(x,y)和g2(x,y),I1和I2内(x,y)处灰度化后灰度值分别用I1(x,y)和I2(x,y)表示,所用公式如下所示:
第二步:利用一阶偏导的有限差分进行计算梯度的幅值和方向:已经平滑滤波后的相互重叠区域g1(x,y)和g2(x,y)的梯度可以用2*2的一阶有限差分近似式来计算x和y方向上的偏导数;以g1(x,y)为例,g1(x,y)在x和y方向上的偏导数分别为Gx(x,y)和Gy(x,y)表示:
根据x与y方向的梯度可以计算g1(x,y)像素点的梯度幅值G(x,y)与角度θ(x,y):
第三步:对梯度幅值进行非极大值抑制;将梯度角离散为圆周的四个扇区之一,然后用3*3的模板作抑制运算;对于每个像素点,邻域的中心像素梯度值G(x,y)与沿着梯度线的两个像素的梯度值相比,如果G(x,y)不比沿梯度线的两个相邻像素梯度值大,则令G(x,y)=0;第四步:用双阈值算法检测和连接边缘:对非极大值抑制后的g1(x,y)用低阈值t1和高阈值t2进行判断,其中t1=0.4×t2;把任意边缘像素梯度值小于t1的像素丢弃,把任意边缘像素梯度值大于t2的像素保留,把任意边缘像素梯度值在t1与t2之间的,如能通过边缘连接到一个像素大于t2而且边缘所有像素大于最小阈值t1的则保留,否则丢弃;对一个融合区,利用双阈值算法检测得到融合区的边缘特征G1(x,y)和G2(x,y);
所述计算边缘特征与绝对灰度差值的和的具体步骤如下:计算对准之后重叠区域中像素对的绝对灰度差值imgdiff,像素对的绝对灰度差值计算方法如下:
将边缘特征G1(x,y)和G2(x,y)叠加到绝对灰度差值imgdiff(x,y)中;
所述寻找最小累加差值及其路径从而得到最优融合中心线的具体步骤如下:选取32个起始点,并将其初始位置保存在path中;在极小邻域内计算每个起始点走过一行的最小累加误差及其最小路径;获取最小累加差值及其路径;
寻找最小累加差值及其路径从而得到最优融合中心线:选取32个起始点,并将其初始位置保存在path中;在极小邻域内计算每个起始点走过一行的最小累加误差及其最小路径;获取最小累加差值及其路径;所述选取32个起始点并将其初始位置保存在path中的具体步骤如下:获取边缘特征与绝对灰度差值的和Imgdiff(x,y),将其第一行中间的32个像素作为生长起始点,并将这32个起始点在Imgdiff(x,y)中的位置保存在path(x,y)中,这32个起始点的像素值作为第一行的最小累加差值保存在acc_error(cur,y)中,同时将其赋值给acc_error(pre,y),其中i∈1......32。
所述在极小邻域内计算每个起始点走过一行的最小累加误差及其最小路径的具体步骤如下:对于acc_error(pre,y)中的每一元素,我们限定它在Imgdiff(x,y)的所有路径在一个极小的邻域w中,其中3≤w≤5。获取每一路径点在融合区内当前行的位置信息,找出与这些位置相对应的Imgdiff(x,y)的邻域,然后在这一邻域内计算所有元素的最小值,将它与acc_error(pre,y)进行叠加,就可以得到acc_error(cur,y),同时将邻域内取得最小值的位置保存在path(x,y)中;最小累加差值的计算公式如下:
acc_error_min=min(Imgdiff(x,path(x-1,y)),Imgdiff(x,path(x-1,y)+1),Imgdiff(x,path(x-1,y)-1))
所述获取最小累加差值及其路径的具体步骤如下:逐行从上至下遍历整个融合区,得到从所有路径起始点开始走过整个融合区的最小累加差值以及与之对应的最小路径线。在最后一行的acc_error(cur,y)中选取最小的那个元素所在的位置,找到这个位置在path(x,y)矩阵中对应的那一列,即找出的最优融合中心线的位置。
所述利用最优融合中心线计算线性映射查找表的具体步骤如下:其中blend_w表示进行实际线性融合宽度;
作为一个优选的实施例,所述计算融合区的边缘特征的步骤与计算边缘特征与绝对灰度差值的和的步骤之间还包括如下步骤:计算边缘特征的差异性同时利用这个差异性使相互重叠的区域对准;该步骤包括如下子步骤:计算边缘特征G1(x,y)和G2(x,y)的绝对误差值dg(x,y):
对绝对误差值按列求和得到累加误差值向量Dg(y):
移动重叠区域使计算的边缘特征的差值最小:取累加误差值向量Dg(y)中最小元素Dmin,然后固定G1(x,y),将G2(x,y)向下平移Dmin行,向下超出的部分丢掉,向上空白的部分用G1(x,y)中对应部分填补,之后将G1(x,y)和G2(x,y)做绝对差值运算并且保存在最小边缘差异Emin中,然后按照步长为1依次向上移动G2(x,y),同时对G1(x,y)和G2(x,y)做绝对差值运算,将得到的边缘差异和Emin相比较,如果比Emin小,那么用所述边缘差异更新Emin,否则丢弃该边缘差异;当G2(x,y)向上移动到距离原图像Dmin行时,会得到G2(x,y)在移动范围为(-Dmin~Dmin)时的最小边缘差异Emin以及相对应的G2(x,y)向上或向下移动的步数step,然后利用step将融合区中的I2(x,y)相对应的向上或向下移动step行;Emin的计算方法如下:
min(.)表示取最小值运算,Emin的大小为H×W,H表示重叠区域的高度,W表示重叠区域的宽度。
作为一个优选的实施例,在根据所述线性映射查找表进行图像融合之后所述方法还包括:对全景图像进行颜色、亮度均衡处理。
本发明的方法综合计算了融合区内图像的灰度差异和边缘特征,规划路径避开图像中内容丰富区域,再利用动态迭代方法进行最优融合中心线搜索,解决了融合区图像模糊问题,图像真实清晰,大大提高图像拼接结果的效果。同时极大降低了计算的复杂度,降低了对系统资源的需求即降低了系统的硬件要求。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一种实施例的系统流程框图;
图2是相邻两幅鱼眼图像融合区示意图;
图3是计算最优融合中心线的流程图;
图4是根据本发明一种实施例Canny边缘检测算子实现流程图;
图5是根据本发明一种实施例Canny边缘检测算子在x和y方向上的模板示意图;
图6是根据本发明一种实施例Canny边缘检测算子中非极大值抑制模板示意图;
图7是根据本发明一种实施例利用边缘特征对融合区进行对准的流程图;
图8是根据本发明一种实施例最优融合中心线的搜索算法实现流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种快速图像融合方法,图1是本发明快速图像融合方法的系统流程框图。如图1所示,本发明所提供的方法包括以下步骤:
S1:获取同一时刻鱼眼镜头采集的多幅鱼眼图像,从中取出融合区。具体方法如下:获取同一时刻待融合的多幅鱼眼图像,将任意两幅相邻鱼眼图像相互重叠的区域指定为一个融合区且首尾两幅鱼眼图像的重叠区域也指定为一个融合区。如图2所示,相邻的两幅鱼眼图像分别命名为Image1、Image2,它们相互重叠的区域为I1和I2,这两个相互重叠的区域一起构成了一个融合区。
S2:在所述融合区内找出最优融合中心线。采用综合边缘特征与灰度差异的动态迭代算法在融合区中找出一条最优融合中心线,找出融合区中最优融合中心线方法如图3流程图步骤所示,S2包括S201、S202、S203、S204、S205、S206等大步骤。其中:
S201:计算融合区的边缘特征。具体步骤如下:利用Canny边缘检测算子提取融合区中相互重叠的区域I1和I2的边缘特征,Canny边缘检测算子的具体步骤如图4流程图所示,S201包括S2011、S2012、S2013、S2014等小步骤。其中:
S2011:利用高斯滤波模板平滑I1和I2。步骤如下:首先生成方差σ=1.4的高斯滤波模板h(x,y,σ),然后对I1和I2进行高斯平滑处理,得到去除噪声后的相互重叠区域g1(x,y)和g2(x,y),所用公式如下所示:
其中,I1(x,y)和I2(x,y)表示I1和I2内(x,y)处灰度化后灰度值,*表示卷积运算。
S2012:利用一阶偏导的有限差分进行计算梯度的幅值和方向。步骤如下:已经平滑滤波后的相互重叠区域g1(x,y)和g2(x,y)的梯度可以用2*2的一阶有限差分近似式来计算x和y方向上的偏导数。以g1(x,y)为例,g1(x,y)在x和y方向上的偏导数分别用Gx(x,y)和Gy(x,y)表示:
x和y方向上的偏导数模板如图5所示,根据x与y方向的梯度可以计算g1(x,y)中像素点的梯度幅值G(x,y)与角度θ(x,y):
G(x,y)反映了图像的边缘强度,θ(x,y)表示方位角反映了梯度的方向,当G(x,y)取得局部最大值时,其对应的梯度方向θ(x,y)反映了边缘的方向。
S2013:对梯度幅值进行非极大值抑制。仅仅得到全局的梯度并不足以确定边缘,因此必须保留局部梯度最大的点,且要抑制非极大值。方法如下:将梯度角离散为圆周的四个扇区之一,然后用3*3的模板作抑制运算。如图6中a图中四个扇区的标号为0到3,对应b图中3*3邻域的四种可能组合。对于每个像素点,邻域的中心像素梯度值G(x,y)与沿着梯度线的两个像素的梯度值相比,如果G(x,y)不比沿梯度线的两个相邻像素梯度值大,则令G(x,y)=0。
S2014:用双阈值算法检测和连接边缘。具体步骤如下:对非极大值抑制后的g1(x,y)用低阈值t1和高阈值t2进行判断,其中t1=0.4×t2。即把任意边缘像素梯度值小于t1的像素丢弃,把任意边缘像素梯度值大于t2的像素保留,把任意边缘像素梯度值在t1与t2之间的,如果能通过边缘连接到一个像素大于t2而且边缘所有像素大于最小阈值t1的则保留,否则丢弃。对一个融合区,利用双阈值算法检测后就可以得到融合区的边缘特征G1(x,y)和G2(x,y)。
S202:计算边缘特征的差异性同时利用这个差异性使相互重叠的区域对准,如图7所示。具体包括如下S2021、S2022、S2023等步骤:
S2021:计算边缘特征G1(x,y)和G2(x,y)的绝对误差值dg(x,y),方法如下:
其中,||表示求绝对值运算。
S2022:对绝对误差值按列求和得到累加误差值向量Dg(y),方法如下:
S2023:移动重叠区域使计算的边缘特征的差值最小。具体步骤如下:取累加误差值向量Dg(y)中最小元素Dmin,然后固定G1(x,y),将G2(x,y)向下平移Dmin行,向下超出的部分丢掉,向上空白的部分用G1(x,y)中对应部分填补,接下来将G1(x,y)和G2(x,y)做绝对差值运算并且保存在最小边缘差异Emin中,然后按照步长为1依次向上移动G2(x,y),同时对G1(x,y)和G2(x,y)做绝对差值运算,将得到的边缘差异和Emin相比较,如果比Emin小,那么用这个边缘差异更新Emin,否则丢弃这个边缘差异。当G2(x,y)向上移动到距离原图像Dmin行时,会得到G2(x,y)在移动范围为(-Dmin~Dmin)时的最小边缘差异Emin以及相对应的G2(x,y)向上或向下移动的步数step,然后利用step将融合区中的I2(x,y)相对应的向上或向下移动step行。Emin的计算方法如下:
其中,min(.)表示取最小值运算,Emin的大小为H×W,H表示重叠区域的高度,W表示重叠区域的宽度。
利用S201步中从融合区相互重叠的区域中提取的边缘特征G2(x,y)和G2(x,y),将这两个特征矩阵做绝对差值运算得到在这两个重叠区域中边缘特征的差异,这个差异值表明融合区在水平方向上并没有完全的对准,如果在水平方向上直接进行线性融合,会导致融合区产生错位现象。最后通过S2023这个步骤,利用特征矩阵的最小边缘差异,在垂直方向上调整融合区中相互重叠的区域,使这两个重叠区域在水平方向上对准,从而解决融合后图像错位问题。
S203:计算边缘特征与绝对灰度差值的和
计算对准之后重叠区域中像素对的绝对灰度差值imgdiff,像素对的绝对灰度差值计算方法如下:
将上述S201步中提取出来的边缘特征G1(x,y)和G2(x,y)叠加到绝对灰度差值imgdiff(x,y)中,得到表示相互重叠的区域结构与灰度差异的特征Imgdiff(x,y)。
S204:寻找最小累加差值及其对应的路径。具体步骤如下:在计算得到边缘特征与绝对灰度差值的和之后,该结果是一个H×W的矩阵。我们选取该矩阵第一行的中间32个像素作为路径起始点,采取逐行从上至下的搜索算法,分别计算出每个路径起始点对应的一条融合线的平均累加误差值,选取平均累加误差值最小的那条线作为最优融合中心线,从而保证最优融合中心线要尽可能的穿越融合区平滑部分的原则。该搜索算法的具体实现流程图如图8所示,步骤如下:
S2041:选取32个路径起始点,并将其初始位置保存在path(x,y)中。具体步骤如下:获取边缘特征与绝对灰度差值的和Imgdiff(x,y),将其第一行中间的32个像素作为生长起始点,并将这32个起始点在Imgdiff(x,y)中的位置保存在path(x,y)中,这32个起始点的像素值作为第一行的最小累加差值保存在acc_error(cur,y)中,同时将其赋值给acc_error(pre,y),其中i∈1......32。
S2042:在极小邻域内计算每个路径起始点走过一行的最小累加差值及其最小路径。具体步骤如下:对于acc_error(pre,y)中的每一元素,我们限定它在Imgdiff(x,y)的所有路径在一个极小的邻域w中,即每一元素从上往下可以移动的范围不超过w,其中3≤w≤5。获取每一路径点在融合区内当前行的位置信息,找出与这些位置相对应的Imgdiff(x,y)的邻域,然后在这一邻域内计算所有元素的最小值,将它与acc_error(pre,y)进行叠加,就可以得到acc_error(cur,y),同时将邻域内取得最小值的位置保存在path(x,y)中。最小累加差值的计算公式如下:
acc_error_min=min(Imgdiff(x,path(x-1,y)),Imgdiff(x,path(x-1,y)+1),Imgdiff(x,path(x-1,y)-1))
S2043:获取最小累加差值及其路径。具体步骤如下:
逐行从上至下遍历整个融合区,得到从所有路径起始点开始走过整个融合区的最小累加差值以及与之对应的最小路径线。在最后一行的acc_error(cur,y)中选取最小的那个元素所在的位置,找到这个位置在path(x,y)矩阵中对应的那一列,即找出的最优融合中心线的位置。
本发明的方法只要找出最后一行的acc_error(cur,i)中选取最小的那个元素所在的位置,然后对应到path矩阵中,因此极大降低了计算的复杂度,降低了对系统资源的需求即降低了系统的硬件要求。
通过步骤S2中的S201、S203、S204,首先计算了融合区内相互重叠区域的灰度差异和边缘特征差异,然后综合这两种差异信息,规划路径避开图像中的内容丰富的区域,在融合区内利用动态迭代的方法进行最优融合中心线搜索。通过搜索出来的最优融合中心线,让合成的全景图像尽可能地接近真实,不会因为融合区内的细节差异而产生明显的拼接缝隙。同时最优融合中心线的搜索方法考虑了融合区的边缘特征和灰度差异,因此融合成的全景图像在融合区没有图像的模糊问题。
S3:利用最优融合中心线计算线性映射查找表
通过最优融合中心线建立每个融合区中重叠区域像素点对应位置的线性映射查找表table。线性映射查找表的生成方法如下:
其中,blend_w表示进行实际线性融合的宽度。
在步骤S3中,利用找出的最优融合中心线,建立融合区的线性映射查找表。具体就是以最优融合中心线为中心,在它两边对称地取大小为的一个区域,组合起来就是一个的区间,table表中与这个区间相对应的位置的值是线性变化的,大小都在0~1内,在这个区间的左边的table表的值为1,在这个区间的右边的table表的值为0。
S4:根据线性映射查找表进行图像融合
根据生成的多个线性映射查找表,根据线性加权公式对每个融合区的各个像素进行线性加权,融合成一幅全景图像。采用线性映射查找表的方法相比于直接的平均融合,有一个线性区域的过渡,因此可以让图像的融合区更加平滑,进一步消除了缝合缝隙。
S5:对全景图像进行颜色、亮度均衡处理
对生成的全景图像进行亮度与颜色的均衡处理,以消除不同摄像机之间的色彩差异,得到最终的鱼眼镜头全景图像。具体就是通过鱼眼镜头的光照模型,利用曝光补偿blocksgain算法进行光线融和,从而校正一幅鱼眼图像内部的光照不均匀性,然后通过相邻两幅鱼眼图像重叠区域之间的关系,建立相邻两幅图像之间直方图映射表,通过映射表对两幅鱼眼图像做整体的映射变换,最终达到整体的亮度和颜色的一致性。
本发明的有益效果是:
1、通过步骤S2中的S201、S203、S204,首先计算了融合区内相互重叠区域的灰度差异和边缘特征差异,然后综合这两种差异信息,规划路径避开图像中的内容丰富的区域,在融合区内利用动态迭代的方法进行最优融合中心线搜索。通过搜索出来的最优融合中心线,让合成的全景图像尽可能地接近真实,不会因为融合区内的细节差异而产生明显的拼接缝隙。同时最优融合中心线的搜索方法考虑了融合区的边缘特征和灰度差异,因此融合成的全景图像在融合区没有图像的模糊问题。S204只要找出最后一行的acc_error(cur,i)中选取最小的那个元素所在的位置,然后对应到path矩阵中,运算简单,因此极大的降低了计算的复杂度,降低了对系统资源的需求即降低了系统的硬件要求。
2、通过S202来调整融合区中相互重叠的区域,进一步在解决模糊的问题的基础上解决融合区的错位问题。利用S201步中从融合区相互重叠的区域中提取的边缘特征G1(x,y)和G2(x,y),将这两个特征矩阵做绝对差值运算得到在这两个重叠区域中边缘特征的差异,这个差异值表明融合区在水平方向上并没有完全的对准。通过S2023这个步骤,利用特征矩阵的最小绝对差值,在垂直方向上调整融合区中相互重叠的区域,使这两个重叠区域在水平方向上对准,从而解决融合后图像错位问题。
3、通过步骤S3和S4,建立融合区的线性映射查找表,可以使融合区看起来更加平滑,进一步消除了缝合缝隙。
4、通过S5的曝光补偿blocksgain算法解决了因光线不同而造成两幅图像曝光度不同的问题,此外建立相邻两幅图像之间直方图映射表,通过映射表对两幅鱼眼图像做整体的映射变换,使得两幅图像达到了整体的亮度和颜色的一致性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (3)

1.一种快速图像融合方法,其特征在于,所述方法包括:
获取同一时刻鱼眼镜头采集的多幅鱼眼图像,从中取出融合区;在所述融合区内找出最优融合中心线;利用所述最优融合中心线计算线性映射查找表;根据所述线性映射查找表进行图像融合;
在所述融合区内找出最优融合中心线的步骤包括:计算融合区的边缘特征;计算边缘特征与绝对灰度差值的和;寻找最小累加差值及其路径从而得到最优融合中心线;
所述计算融合区的边缘特征的具体步骤如下:利用Canny边缘检测算子提取所述融合区中相互重叠的区域I1和I2的边缘特征,其中第一步:利用高斯滤波模板平滑I1和I2:首先生成方差σ=1.4的高斯滤波模板h(x,y,σ),然后对I1和I2进行高斯平滑处理,得到去除噪声后的相互重叠区域g1(x,y)和g2(x,y),I1和I2内(x,y)处灰度化后灰度值分别用I1(x,y)和I2(x,y)表示,所用公式如下所示:
h ( x , y , σ ) = 1 2 πσ 2 exp ( - x 2 + y 2 2 σ 2 ) ∀ x ∈ 1...... H , ∀ y ∈ 1...... W
g 1 ( x , y ) = h ( x , y , σ ) * I 1 ( x , y ) ∀ x ∈ 1...... H , ∀ y ∈ 1...... W
g 2 ( x , y ) = h ( x , y , σ ) * I 2 ( x , y ) ∀ x ∈ 1...... H , ∀ y ∈ 1...... W ;
第二步:利用一阶偏导的有限差分进行计算梯度的幅值和方向:已经平滑滤波后的相互重叠区域g1(x,y)和g2(x,y)的梯度可以用2*2的一阶有限差分近似式来计算x和y方向上的偏导数;以g1(x,y)为例,g1(x,y)在x和y方向上的偏导数分别为Gx(x,y)和Gy(x,y)表示:
G x ( x , y ) = I 1 ( x + 1 , y ) - I 1 ( x , y ) + I 1 ( x + 1 , y + 1 ) - I 1 ( x , y + 1 ) 2 ;
G y ( x , y ) = I 1 ( x , y + 1 ) - I 1 ( x , y ) + I 1 ( x + 1 , y + 1 ) - I 1 ( x + 1 , y ) 2 ;
根据x与y方向的梯度可以计算g1(x,y)像素点的梯度幅值G(x,y)与角度θ(x,y):
G ( x , y ) = G x 2 ( x , y ) + G y 2 ( x , y ) ∀ x ∈ 1...... H , ∀ y ∈ 1...... W
θ ( x , y ) = tan - 1 ( G y ( x , y ) / G x ( x , y ) ) ∀ x ∈ 1...... H , ∀ y ∈ 1...... W
第三步:对梯度幅值进行非极大值抑制;将梯度角离散为圆周的四个扇区之一,然后用3*3的模板作抑制运算;对于每个像素点,邻域的中心像素梯度值G(x,y)与沿着梯度线的两个像素的梯度值相比,如果G(x,y)不比沿梯度线的两个相邻像素梯度值大,则令G(x,y)=0;第四步:用双阈值算法检测和连接边缘:对非极大值抑制后的g1(x,y)用低阈值t1和高阈值t2进行判断,其中t1=0.4×t2;把任意边缘像素梯度值小于t1的像素丢弃,把任意边缘像素梯度值大于t2的像素保留,把任意边缘像素梯度值在t1与t2之间的,如能通过边缘连接到一个像素大于t2而且边缘所有像素大于最小阈值t1的则保留,否则丢弃;对一个融合区,利用双阈值算法检测得到融合区的边缘特征G1(x,y)和G2(x,y);
所述计算边缘特征与绝对灰度差值的和的具体步骤如下:计算对准之后重叠区域中像素对的绝对灰度差值imgdiff,像素对的绝对灰度差值计算方法如下:
img d i f f ( x , y ) = | I 1 ( x , y ) - I 2 ( x , y ) | ∀ x ∈ 1...... H , ∀ y ∈ 1...... W ;
将边缘特征G1(x,y)和G2(x,y)叠加到绝对灰度差值imgdiff(x,y)中;
Img d i f f ( x , y ) = img d i f f ( x , y ) + G 1 ( x , y ) + G 2 ( x , y ) ∀ x ∈ 1...... H , ∀ y ∈ 1...... W ;
所述寻找最小累加差值及其路径从而得到最优融合中心线的具体步骤如下:选取32个起始点,并将其初始位置保存在path中;在极小邻域内计算每个起始点走过一行的最小累加误差及其最小路径;获取最小累加差值及其路径;
寻找最小累加差值及其路径从而得到最优融合中心线:选取32个起始点,并将其初始位置保存在path中;在极小邻域内计算每个起始点走过一行的最小累加误差及其最小路径;获取最小累加差值及其路径;所述选取32个起始点并将其初始位置保存在path中的具体步骤如下:获取边缘特征与绝对灰度差值的和Imgdiff(x,y),将其第一行中间的32个像素作为生长起始点,并将这32个起始点在Imgdiff(x,y)中的位置保存在path(x,y)中,这32个起始点的像素值作为第一行的最小累加差值保存在acc_error(cur,y)中,同时将其赋值给acc_error(pre,y),其中i∈1......32。
所述在极小邻域内计算每个起始点走过一行的最小累加误差及其最小路径的具体步骤如下:对于acc_error(pre,y)中的每一元素,我们限定它在Imgdiff(x,y)的所有路径在一个极小的邻域w中,其中3≤w≤5;获取每一路径点在融合区内当前行的位置信息,找出与这些位置相对应的Imgdiff(x,y)的邻域,然后在这一邻域内计算所有元素的最小值,将它与acc_error(pre,y)进行叠加,就可以得到acc_error(cur,y),同时将邻域内取得最小值的位置保存在path(x,y)中;最小累加差值的计算公式如下:
acc_error_min=min(Imgdiff(x,path(x-1,y)),Imgdiff(x,path(x-1,y)+1),Imgdiff(x,path(x-1,y)-1))
a c c _ e r r o r ( c u r , y ) = a c c _ e r r o r _ min + a c c _ e r r o r ( p r e , y ) ∀ x ∈ 1...... H , ∀ y ∈ 1...... W ;
所述获取最小累加差值及其路径的具体步骤如下:逐行从上至下遍历整个融合区,得到从所有路径起始点开始走过整个融合区的最小累加差值以及与之对应的最小路径线;在最后一行的acc_error(cur,y)中选取最小的那个元素所在的位置,找到这个位置在path(x,y)矩阵中对应的那一列,即找出的最优融合中心线的位置;
所述利用最优融合中心线计算线性映射查找表的具体步骤如下:其中blend_w表示进行实际线性融合宽度;
t a b l e ( y , x ) = 1 1 &le; x < ( s e a m _ l i n e ( y ) - b l e n d _ w - 1 2 ) - ( 1 b l e n d _ w - 1 ) &times; x + 3 / 2 ( s e a m _ l i n e ( y ) - b l e n d _ w - 1 2 ) &le; x &le; ( s e a m _ l i n e ( y ) + b l e n d _ w - 1 2 ) 0 ( s e a m _ l i n e ( y ) + b l e n d _ w - 1 2 ) < x &le; W .
2.根据权利要求1所述的快速图像融合方法,其特征在于,所述计算融合区的边缘特征的步骤与计算边缘特征与绝对灰度差值的和的步骤之间还包括如下步骤:计算边缘特征的差异性同时利用这个差异性使相互重叠的区域对准;该步骤包括如下子步骤:计算边缘特征G1(x,y)和G2(x,y)的绝对误差值dg(x,y):
d g ( x , y ) = | G 1 ( x , y ) - G 2 ( x , y ) | &ForAll; x &Element; 1...... H , &ForAll; y &Element; 1...... W
对绝对误差值按列求和得到累加误差值向量Dg(y):
D g ( y ) = &Sigma; x = 1 H d g ( x , y ) &ForAll; x &Element; 1...... H , &ForAll; y &Element; 1...... W
移动重叠区域使计算的边缘特征的差值最小:取累加误差值向量Dg(y)中最小元素Dmin,然后固定G1(x,y),将G2(x,y)向下平移Dmin行,向下超出的部分丢掉,向上空白的部分用G1(x,y)中对应部分填补,之后将G1(x,y)和G2(x,y)做绝对差值运算并且保存在最小边缘差异Emin中,然后按照步长为1依次向上移动G2(x,y),同时对G1(x,y)和G2(x,y)做绝对差值运算,将得到的边缘差异和Emin相比较,如果比Emin小,那么用所述边缘差异更新Emin,否则丢弃该边缘差异;当G2(x,y)向上移动到距离原图像Dmin行时,会得到G2(x,y)在移动范围为(-Dmin~Dmin)时的最小边缘差异Emin以及相对应的G2(x,y)向上或向下移动的步数step,然后利用step将融合区中的I2(x,y)相对应的向上或向下移动step行;Emin的计算方法如下:
E min = min | G 1 ( x , y ) - G 2 ( x - D m i n + k , y ) | &ForAll; k &Element; 0......2 * D min , &ForAll; x &Element; 1...... H , &ForAll; y &Element; 1...... W
min(.)表示取最小值运算,Emin的大小为H×W,H表示重叠区域的高度,W表示重叠区域的宽度。
3.根据权利要求1或2所述的快速图像融合方法,其特征在于,在根据所述线性映射查找表进行图像融合的步骤之后,所述方法还包括:对全景图像进行颜色、亮度均衡处理。
CN201611076440.0A 2016-11-30 2016-11-30 一种快速图像融合方法 Expired - Fee Related CN106709878B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611076440.0A CN106709878B (zh) 2016-11-30 2016-11-30 一种快速图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611076440.0A CN106709878B (zh) 2016-11-30 2016-11-30 一种快速图像融合方法

Publications (2)

Publication Number Publication Date
CN106709878A true CN106709878A (zh) 2017-05-24
CN106709878B CN106709878B (zh) 2018-05-04

Family

ID=58934195

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611076440.0A Expired - Fee Related CN106709878B (zh) 2016-11-30 2016-11-30 一种快速图像融合方法

Country Status (1)

Country Link
CN (1) CN106709878B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107203986A (zh) * 2017-05-26 2017-09-26 努比亚技术有限公司 一种图像融合方法、装置及计算机可读存储介质
CN107529017A (zh) * 2017-10-12 2017-12-29 长沙全度影像科技有限公司 一种全景相机的多拼接模式的系统及方法
CN107958466A (zh) * 2017-12-01 2018-04-24 大唐国信滨海海上风力发电有限公司 一种Slam算法优化基于模型的跟踪方法
CN108109208A (zh) * 2017-12-01 2018-06-01 同济大学 一种海上风电场增强现实方法
CN108510445A (zh) * 2018-03-30 2018-09-07 长沙全度影像科技有限公司 一种全景图像拼接方法
CN108537730A (zh) * 2018-03-27 2018-09-14 宁波江丰生物信息技术有限公司 一种图像拼接方法
CN109120858A (zh) * 2018-10-30 2019-01-01 努比亚技术有限公司 一种图像拍摄方法、装置、设备及存储介质
CN109523491A (zh) * 2018-12-13 2019-03-26 深圳市路畅智能科技有限公司 用于环视辅助泊车的环视光照均一化方法和装置
CN114202357A (zh) * 2021-11-24 2022-03-18 安徽新华传媒股份有限公司 一种数字图片ar广告实现方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101110122A (zh) * 2007-08-31 2008-01-23 北京工业大学 基于特征的大幅面文化遗产图像拼接方法
CN105701764A (zh) * 2016-01-05 2016-06-22 曲阜裕隆生物科技有限公司 一种用于医学图像的拼接方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101110122A (zh) * 2007-08-31 2008-01-23 北京工业大学 基于特征的大幅面文化遗产图像拼接方法
CN105701764A (zh) * 2016-01-05 2016-06-22 曲阜裕隆生物科技有限公司 一种用于医学图像的拼接方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
贾银江: "《无人机遥感图像拼接关键技术研究》", 《中国博士学位论文全文数据库》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107203986A (zh) * 2017-05-26 2017-09-26 努比亚技术有限公司 一种图像融合方法、装置及计算机可读存储介质
CN107529017A (zh) * 2017-10-12 2017-12-29 长沙全度影像科技有限公司 一种全景相机的多拼接模式的系统及方法
CN107958466A (zh) * 2017-12-01 2018-04-24 大唐国信滨海海上风力发电有限公司 一种Slam算法优化基于模型的跟踪方法
CN108109208A (zh) * 2017-12-01 2018-06-01 同济大学 一种海上风电场增强现实方法
CN107958466B (zh) * 2017-12-01 2022-03-29 大唐国信滨海海上风力发电有限公司 一种Slam算法优化基于模型的跟踪方法
CN108109208B (zh) * 2017-12-01 2022-02-08 同济大学 一种海上风电场增强现实方法
CN108537730B (zh) * 2018-03-27 2021-10-22 宁波江丰生物信息技术有限公司 一种图像拼接方法
CN108537730A (zh) * 2018-03-27 2018-09-14 宁波江丰生物信息技术有限公司 一种图像拼接方法
CN108510445A (zh) * 2018-03-30 2018-09-07 长沙全度影像科技有限公司 一种全景图像拼接方法
CN109120858B (zh) * 2018-10-30 2021-01-15 努比亚技术有限公司 一种图像拍摄方法、装置、设备及存储介质
CN109120858A (zh) * 2018-10-30 2019-01-01 努比亚技术有限公司 一种图像拍摄方法、装置、设备及存储介质
CN109523491A (zh) * 2018-12-13 2019-03-26 深圳市路畅智能科技有限公司 用于环视辅助泊车的环视光照均一化方法和装置
CN114202357A (zh) * 2021-11-24 2022-03-18 安徽新华传媒股份有限公司 一种数字图片ar广告实现方法

Also Published As

Publication number Publication date
CN106709878B (zh) 2018-05-04

Similar Documents

Publication Publication Date Title
CN106709878B (zh) 一种快速图像融合方法
CN106530267B (zh) 一种避免全景图像错位的融合方法
US20220044356A1 (en) Large-field-angle image real-time stitching method based on calibration
CN106462944B (zh) 高分辨率全景vr生成器及方法
CN107301620B (zh) 基于相机阵列的全景成像方法
CN105245841B (zh) 一种基于cuda的全景视频监控系统
CN106940876A (zh) 一种基于surf的快速无人机航拍图像拼接算法
CN110390640A (zh) 基于模板的泊松融合图像拼接方法、系统、设备及介质
CN106780326A (zh) 一种提高全景图像清晰度的融合方法
CN103985133B (zh) 基于图割能量优化的影像间最优拼接线寻找方法及系统
CN104732485B (zh) 一种数字化x线图像的拼接方法及系统
CN103440664B (zh) 一种生成高分辨率深度图的方法、系统及计算设备
JP7093015B2 (ja) パノラマ映像合成装置、パノラマ映像合成方法、及びパノラマ映像合成プログラム
CN113221665A (zh) 一种基于动态最佳缝合线和改进渐入渐出法的视频融合算法
CN107993263A (zh) 环视系统自动标定方法、汽车、标定装置及存储介质
CN111553841B (zh) 一种基于最佳缝合线更新的实时视频拼接方法
CN105096287A (zh) 一种改进的多次泊松图像融合方法
Ye et al. Depth super-resolution with deep edge-inference network and edge-guided depth filling
US11823357B2 (en) Corrective lighting for video inpainting
CN104574443B (zh) 一种全景摄像机间运动目标的协同跟踪方法
CN113343878A (zh) 基于生成对抗网络的高保真人脸隐私保护方法和系统
CN105069749A (zh) 一种轮胎模具图像的拼接方法
CN109754385A (zh) 未配准多聚焦图像的快速融合方法
CN110390657A (zh) 一种图像融合方法
CN107093165A (zh) 一种递归图像的快速显示方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20201223

Address after: 101104 E57, 1st floor, building 1, courtyard 116, beidahua village, Tongzhou District, Beijing

Patentee after: BEIJING JINGHUAHUI EQUIPMENT TECHNOLOGY Co.,Ltd.

Address before: 410205 room 402, 4 / F, building 9, phase I, CLP Software Park, No. 39, Jianshan Road, high tech Development Zone, Changsha City, Hunan Province

Patentee before: PANODUX IMAGING TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180504

Termination date: 20211130

CF01 Termination of patent right due to non-payment of annual fee