CN103247038A - 一种视觉认知模型驱动的全局图像信息合成方法 - Google Patents

一种视觉认知模型驱动的全局图像信息合成方法 Download PDF

Info

Publication number
CN103247038A
CN103247038A CN2013101278414A CN201310127841A CN103247038A CN 103247038 A CN103247038 A CN 103247038A CN 2013101278414 A CN2013101278414 A CN 2013101278414A CN 201310127841 A CN201310127841 A CN 201310127841A CN 103247038 A CN103247038 A CN 103247038A
Authority
CN
China
Prior art keywords
image
image information
model
visual
cognitive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101278414A
Other languages
English (en)
Other versions
CN103247038B (zh
Inventor
邹丽晖
张德政
阿孜古丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology Beijing USTB
Original Assignee
University of Science and Technology Beijing USTB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology Beijing USTB filed Critical University of Science and Technology Beijing USTB
Priority to CN201310127841.4A priority Critical patent/CN103247038B/zh
Publication of CN103247038A publication Critical patent/CN103247038A/zh
Application granted granted Critical
Publication of CN103247038B publication Critical patent/CN103247038B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明提供一种视觉认知模型驱动的全局图像信息合成方法,包括步骤:建立图像显著性视觉认知模型,定义全局图像信息合成的列宽选择驱动能量函数;构建全局图像信息合成图模型,定义节点并计算节点连接边权重;采用最短路径搜索算法在所述全局图像信息合成图模型中搜索使得全局合成图像显著性视觉认知差异达到最小的剪切路径;沿所述使得全局合成图像的显著性视觉认知差异达到最小的剪切路径顺序在所述密集视频序列图像中的每帧图像中选择一定像素列宽,并将选择出的像素列宽按序码放后合成为全局合成图像。该方法可充分发挥人的视觉认知模型在全局场景图像合成中的作用,合理避免由多维运动物体干扰造成的合成瑕疵,能够有效复现广域大场景的关键内容。

Description

一种视觉认知模型驱动的全局图像信息合成方法
技术领域
本发明涉及计算机视觉领域,是一种大视场图像合成技术,尤其是一种视觉认知模型驱动的全局图像信息合成方法。
背景技术
广域大视场图像信息获取与处理技术对诸多学科发展产生了重要影响,在国防、警戒、民事安全等诸多领域具有广泛需求。然而由于受限于摄像设备感光元器件的制作工艺,普通摄像设备视场远不能达到人眼视场大小,越来越多的应用场合需要视场范围更大、分辨率更高的图像信息以提高系统的可靠性与安全性。特别地,在安防侦查系统中,广域视场图像信息的获取更加受到重视,尤其是在现代化监控与警备模式下,图像信息是获取环境态势的必要手段。
数字图像拼接技术为打破摄像设备视场角的限制,提供了很好的解决办法,引起了研究者的广泛注意。它是通过寻找一系列空间重叠图像间的几何关系,对齐图像,并运用恰当的图像融合算法平滑过渡重叠区域,形成无缝、宽视角目标图像的技术。其主要技术分为两个流派:以Richard Szeliski为代表的基于运动关系的图像拼接模型和以Shmuel Peleg为代表的基于自适应流形的图像拼接模型。前者通过准确求出图像间的几何变换关系来进行图像配准和融合,可处理具有平移,旋转,仿射等多种变换的待拼接图像,且相邻待拼接图像不必密集重叠,因此成为图像拼接领域的经典算法;后者通过对密集采集的图像切分狭窄条带进行剪切与多重投影粘贴,根据光流垂直方向自适应选择拼接模型完成图像拼接,此类方法可突破相机运动限制,这一研究成果推动了图像拼接技术的进一步发展,成为图像拼接领域研究的新热点。
全局图像信息合成是在数字图像拼接技术基础上复现拍摄场景的关键内容,为研究人员提供更加丰富的视觉态势信息,有效降低序列窄视场图像无法准确提供全局场景中目标数量、位置关系等信息而引起的漏警、误警,提高系统的安全性能。
但是,上述两种主流图像拼接方法多集中在图像像素级数据配准与融合计算,而忽视了人的视觉认知机制作用和图像内容之间的关系处理,不能完全有效依据场景内容合成保留人们所关注的重要信息。而且在受到采集平台运动、目标物体非线性复杂运动、背景变化等因素的干扰时,更加无法有效形成全局场景图像。因此,对场景内含有复杂多维运动物体的全局图像信息合成问题更待进一步提出有效的方案。
发明内容
本发明的目的是解决场景内含有复杂多维运动物体的全局图像信息合成问题,本发明提出一种视觉认知模型驱动的全局图像信息合成方法,能够克服全局图像合成过程中运动物体多维复杂运动对全局图像拼接合成的影响。
本发明提供的一种视觉认知模型驱动的全局图像信息合成方法,包括步骤:步骤一:建立图像显著性视觉认知模型,并以所述显著性视觉认知模型为约束导向定义全局图像信息合成的列宽选择驱动能量函数;步骤二:构建全局图像信息合成图模型,定义节点并计算节点连接边权重;将预先采集的密集视频序列图像组成图像时空体序列V(x,y,t),并以所述密集视频序列图像中的每帧图像的列x为横坐标,以采集时间t为纵坐标,将每帧图像的每列像素看作一个节点,按时间顺序排列相邻图像列节点,在x-t坐标空间把所述图像时空体序列构建成一个全局图像信息合成图模型V(x,t):并设连接各节点的所有边上的权重为相应列间的显著性视觉认知差异;其中,(x,y)为所述密集视频序列图像空间(列,行)坐标参数,t为所述密集视频序列图像采集路径推进的时间参数;步骤三:根据步骤一中定义的所述列宽选择驱动能量函数,采用最短路径搜索算法在步骤二中所构建的所述全局图像信息合成图模型中搜索使得全局合成图像显著性视觉认知差异达到最小的剪切路径;步骤四:沿所述使得全局合成图像的显著性视觉认知差异达到最小的剪切路径顺序在所述密集视频序列图像中的每帧图像中选择一定像素列宽,并将选择出的像素列宽按序码放后合成为全局合成图像。
所述视觉认知模型驱动的全局图像信息合成方法中,步骤一中所述显著性视觉认知模型由图像灰度信息、边界轮廓信息及景深图层区域信息三部分组成,定义如下:
CSCM(I)=αCgray(I)+βCedge(I)+γCdepth(I)
其中,CSCM(I)为所述显著性视觉认知模型;Cgray(I)为图像灰度信息;Cedge(I)为边界轮廓信息;Cdepth(I)为景深图层区域信息;α,β,γ为比例系数。
所述视觉认知模型驱动的全局图像信息合成方法中,所述列宽选择驱动能量函数为:
Figure BDA00003044336000031
其中,
Figure BDA00003044336000032
是从输出的全局合成图像列M(i)到输入图像列V(x,Δy,t)的映射,Δy是V(x,t)垂直方向上的偏移量。
所述视觉认知模型驱动的全局图像信息合成方法中,步骤二中所述设连接各节点的所有边上的权重为相应列间的显著性视觉认知差异,包括:根据步骤一中定义的所述列宽选择驱动能量函数计算视觉显著性认知差异ΔCSCMi);若设Υi=V(xi,ti),Υi+1=V(xj,tj),则所述图像灰度信息视觉显著性认知差异ΔCgrayi)为:
ΔCgrayi)=min{||Vgray(xi,ti)-Vgray(xj-1,tj)||,||Vgray(xi+1,ti)-Vgray(xj,tj)||},
其中Vgray(xi,ti)和Vgray(xj,tj)为输入的所述密集视频序列图像中第ti帧图像第xi列的灰度值与第tj帧图像第xj列的灰度值;
所述边界轮廓信息视觉显著性认知差异ΔCedgei)为:
ΔCedgei)=min{||Vedge(xi,ti)-Vedge(xj-1,tj)||,||Vedge(xi+1,ti)-Vedge(xj,tj)||},
其中Vedge(xi,ti)和Vedge(xj,tj)为输入的所述密集视频序列图像中第ti帧图像第xi列的边界轮廓响应值与第tj帧图像第xj列的边界轮廓响应值;
所述景深图层区域信息视觉显著性认知差异ΔCdepthi)为:
ΔCdepthi)=min{||Vdepth(xi,ti)-Vdepth(xj-1,tj)||,||Vdepth(xi+1,ti)-Vdepth(xj,tj)||},
其中VD(xi,ti)和VD(xj,tj)为输入的所述密集视频序列图像中第ti帧图像xi列的景深值与第tj帧图像xj列的景深值。
所述视觉认知模型驱动的全局图像信息合成方法中,计算所述边界轮廓信息视觉显著性认知差异时,优先选用相位一致性检测方法提取所述密集视频序列图像的有效边界轮廓响应值。
所述视觉认知模型驱动的全局图像信息合成方法中,计算所述景深图层区域信息视觉显著性认知差异时,通过计算所述密集视频序列图像中相邻两帧图5像视差获取图像的景深值,包括以下步骤:以所述相邻两帧图像序列图像互为参考图像,双向计算所述相邻两帧图像的匹配代价;根据所述相邻两帧图像的匹配代价进行交叉检验估计视差值,并采用优胜者全选算法作为视差选择方法估计所述相邻两帧图像的初始视差图;采用Mean-Shift算法划分所述相邻两帧图像中采集时间靠前的那帧图像的一致性区域得到若干个分割块,并以各分割块内的中值视差值作为分割块整体视差值对所述相邻两帧图像的初始视差图滤波求取区块视差。
所述视觉认知模型驱动的全局图像信息合成方法中,步骤三中所述最短路径搜索算法优先选用Dijkstra算法。
本发明的上述技术方案的有益效果如下:
本发明从人的视觉显著性认知学习出发,建立了包含图像灰度、边界轮廓、景深图层区域信息的显著性视觉认知模型,并根据该视觉认知模型定义全局合成图像的约束能量函数,结合自适应流形拼接框架,提出一种视觉认知模型驱动的全局图像信息合成方法。该方法可充分发挥人的视觉认知模型在全局场景图像合成中的作用,合理避免由多维运动物体干扰造成的合成瑕疵,如运动合成模糊、运动物体剪切、背景亮度阶跃等;无需相机标定和运动估计,能够有效复现广域大场景的关键内容,为安防侦查等广域大范围监控系统提供全局态势理解与决策提供支持。本发明亦能为其他可引入视觉认知机制的相关计算机视觉技术研究提供有效思路。
附图说明
图1为本发明实施例提供的将密集视频序列图像合成全局合成图像的原理示意图;
图2为本发明实施例提供的一种视觉认知模型驱动的全局图像信息合成方法流程图;
图3为为图像时空体序列在x-t空间所对应的全局图像信息合成图模型;
图4为通过计算相邻图像视差获取图像的景深图层区域信息的方法流程图;
图5为一组预先采集的密集视频序列图像;
图6为图5中的序列图像的相位一致性边界轮廓映射图;
图7为图5中的序列图像的景深图层区域标签图;
图8为采用本发明实施例提供的方法对图5中的视频序列图像的最优剪切路径;
图9为采用本发明实施例提供的方法对图5中的视频序列图像合成所得的全局合成图像。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明实施例提供的视觉认知模型驱动的全局图像信息合成方法是用于将若干幅场景内含有复杂多维运动物体的全局图像合成为大场景图像的方法。为便于说明本实施例提供的方法,本实施例首先在室内环境下,将摄像机架于平稳可移动平台上,以恒定速度做水平旋转扫描,同时随其搭载的平台进行平移运动,采集到若干组包含一系列有关人的复杂运动的场景的密集视频序列图像。随后将所采集的密集视频序列图像合成大视场全局图像。具体合成过程如图1所示,从每帧输入图像中选择一系列垂直于相机运动方向的像素列,并把它们按序码放排列在一起,形成全局合成图像,其中每帧所选择的像素列宽度不一定相同,需根据图像内容确定,且两帧之间接缝处要求过渡平滑,使局部合成图像与输入序列图像在纹理结构等细节上尽可能地保证相似,从而避免运动物体合成瑕疵,降低合成痕迹,满足人的视觉感受。
为实现上述像素列宽选择与合成的过程,本发明从视觉认知注意机制出发,驱动全局图像信息合成。图2所示为本发明实施例提供的一种视觉认知模型驱动的全局图像信息合成方法流程图,包括如下步骤:
S1:建立图像显著性视觉认知模型,并以该显著性视觉认知模型为约束导向,定义全局图像信息合成的列宽选择驱动能量函数。其中,显著性视觉认知模型由图像灰度信息、边界轮廓信息及景深图层区域信息三部分组成,列宽选择驱动能量函数用于表征显著性视觉认知差异。
S2:构建全局图像信息合成图模型,定义节点并计算节点连接边权重。具体地,将预先采集的密集视频序列图像组成图像时空体序列V(x,y,t),(x,y)为图像空间(列,行)坐标参数,t为相机沿采集路径推进的时间参数,以密集视频序列图像中每帧图像列为横坐标,以时间参数为纵坐标,将每列像素看作一个节点,按时间顺序排列相邻图像列节点,把图像时空体序列在x-t空间构建成一个全局图像信息合成图模型(如图3所示),并设连接各节点的所有可能边上的权重为相应列间的显著性视觉认知差异,将全局图像合成问题转化为在该图模型上搜索剪切整个图像时空体序列路径的问题,即寻找一条从第一帧图像第一列到最后一帧图像最后一列的列宽选择切割路径,如图3所示为图像时空体序列在x-t空间所对应的全局图像信息合成图模型,该图模型沿x轴方向的每一行表示一帧图像,其中每个节点(图中的圆圈)表示这一帧图像的一列,图中箭头所示方向为从第一帧图像第一列到最后一帧图像最后一列的列宽选择切割路径。显然,每一条剪切路径对应一种拼接合成的可能结果;
S3:用最短路径搜索算法,求出全局最优剪切路径。即:根据S1中定义的列宽选择驱动能量函数,采用最短路径搜索算法在S2所构建的图模型中,搜索使得全局合成图像的显著性视觉认知差异达到最小的剪切路径,该条路径所对应的全局合成图像是考虑了各显著性视觉认知因素、包含了最小形变的合成流形,使合成拼接效果达到最佳。
S4:沿最优剪切路径顺序在密集视频序列图像的每帧图像中选择优化的像素列宽,按序码放合成为最优的全局合成图像。
通过对视觉注意机制的理解及根据对图像信号及其内容认知的特点,发现当人们观察一幅图像时,会对图像亮度信息,即灰度范围产生第一印象;同时会对图像关键内容的边界轮廓产生特别的关注;另外对图像整体内容进行语义分析时会按照它们各自在场景中的远近区域位置进行观察与梳理。因此本发明提出将图像灰度信息、边界轮廓信息及景深图层区域信息作为视觉显著性认知模型的重要组成部分,将S1中的图像显著性视觉认知模型定义如下:
CSCM(I)=αCgray(I)+βCedge(I)+γCdepth(I)      (1)
其中,Cgray(I)为图像灰度信息;Cedge(I)为边界轮廓信息;Cdepth(I)为景深图层区域信息;α,β,γ为比例系数。
通过对图像显著性视觉认知特性进行建模描述,可根据上述认知模型为全局图像合成提供约束向导,避免合成图像在图像显著内容(如显著运动物体等)上造成错误合成。据此定义如下列宽选择驱动能量函数:
Figure BDA00003044336000071
其中,
Figure BDA00003044336000074
是从输出的全局合成图像列M(i)到输入图像列V(x,Δy,t)的映射,Δy是V(x,t)垂直方向上的偏移量,若预先采集密集视频序列图像时以水平运动为主运动,可近似认为Δy≈0,则Υi=M(i)=V(x,0,t)。该列宽选择驱动能量函数minCost(M)要求全局合成图像相邻列之间显著性差异代价最小,当合成输出图像相邻列间的显著性差异最小则全局合成图像效果最优。将(1)式代入(2)式并整理可得:
Figure BDA00003044336000072
Figure BDA00003044336000073
(3)
所述S2中构建全局图像信息合成图模型节点边权重的计算,需根据S1中所定义的列宽选择驱动能量函数计算视觉显著性认知差异ΔCSCMi),具体计算方法如下:
设图像时空体序列V(x,y,t),(x,y)为图像空间(列,行)坐标参数,t为相机沿采集路径推进的时间参数。如果Υi=V(j,0,k),Υi+1=V(g,0,h),即设合成输出图像的第i列和第i+1列分别为V(j,k)和V(g,h),也就是第k帧输入图像的第j列和第h帧输入图像的第g列,那么显著性视觉认知差异ΔCSCMi)为:
ΔCSCMi)=min{||V(j,k)-V(g-1,h)||,||V(j+1,k)-V(g,h)||}     (4)
当V(g,h)与V(j,k)在输出拼接流形中为相邻列时,如果ΔCSCMi)足够小说明V(j,k)与V(g,h)的前一列V(g-1,h)非常相似,或者是V(g,h)与V(j,k)的后一列V(j+1,k)非常相似,那么可认为从V(j,k)到V(g,h)的过渡是平滑的,就像从V(g-1,h)到V(g,h)或从V(j,k)到V(j+1,k)的局部过渡一样,保持了输入序列帧内显著图像内容的一致性。
若设Υi=V(xi,ti),Υi+1=V(xj,tj),根据式(4)分别计算式(3)中各部分视觉显著性认知差异:
(1)图像灰度信息视觉显著性认知差异ΔCgrayi):
ΔCgrayi)=min{||Vgray(xi,ti)-Vgray(xj-1,tj)||,Vgray(xi+1,ti)-Vgray(xj,tj)||}     (5)
其中Vgray(xi,ti)和Vgray(xj,tj)为输入的所述密集视频序列图像中第ti帧图像xi列的灰度值与第tj帧图像xj列的灰度值。
(2)边界轮廓信息视觉显著性认知差异ΔCedgei):
ΔCedgei)=min{||Vedge(xi,ti)-Vedge(xj-1,tj)||,Vedge(xi+1,ti)-Vedge(xj,tj)||}     (6)
其中Vedge(xi,ti)和Vedge(xj,tj)为输入的所述密集视频序列图像中第ti帧图像xi列的边界轮廓响应值与第tj帧图像xj列的边界轮廓响应值。
其中,图像的边界轮廓响应值Vedge可通过基于梯度变化的传统边缘检测算子进行检测,如Sobel、Canny等算子,这类方法原理计算简单、物理意义明确。
由于基于梯度变化的传统边缘检测算子进行检测所得到的图像的边界轮廓响应值Vedge的检测结果严重依赖于图像亮度和对比度的变化程度,在光照条件不理想或者亮度变化不剧烈的时候检测效果不理想,因此,本实施例优选相位一致性检测方法来提取所采集的密集视频序列图像的有效边界轮廓信息,它可检测出包括边缘特征和线特征在内的多种图像特征。与梯度信息相比,图像的相位信息非常稳定,对图像亮度和对比度具有不变性。
基于相位一致性的图像特征检测方法的出发点是将图像中傅里叶分量相位一致性最高的点作为显著特征,从相位信息中提取的图像特征更加符合人类视觉系统感知特性。相位一致性是在频率域上的测度值,源于局部能量模型,最早由Morrone等人提出,其表达式为:
PC ( x ) = | E ( x ) | Σ n A n ( x ) - - - ( 7 )
其中An(x)为傅里叶分量在位置x处的振幅,|E(x)|为局部能量。相位一致性即为局部能量与所有局部傅里叶分量的振幅之和的比值,其本质是图像中各个频率成分的相位相似度的一种度量,是一个无量纲的量,其值从1到0,表示从显著特征降到无特征。
由于现有的式(7)定义的相位一致性在提取边缘或角点时定位不准确且对噪声敏感,因此本实施例中采用Kovesi在计算频域内二维滤波器与图像卷积的基础上提出相位一致性的改进算法,由下式计算位置(x,y)处的相位一致值:
Figure BDA00003044336000091
其中,符号
Figure BDA00003044336000099
表示如果值为正则等于原值,否则为0;ε为避免除数为零引入的常量;Wo(x,y)为频率展开的权重因子,To为噪声补偿函数;Ano(x)为当前位置在方向o、尺度n上的幅值,它与相位偏离函数ΔΦ(x,y)的乘积为:
Ano(x,y)ΔΦno(x,y)=eno(x,y)φe(x,y)+ono(x,y)φo(x,y)     (9)
-|eno(x,y)φo(x,y)+ono(x,y)φe(x,y)|
Δ Φ no ( x , y ) = cos ( φ no ( x , y ) - φ ‾ o ( x , y ) ) - | sin ( φ no ( x , y ) - φ ‾ o ( x , y ) ) | - - - ( 10 )
其中φe(x,y)=∑neno(x,y)/E(x,y),φo(x,y)=∑nono(x,y)/E(x,y),且局部能量E(x,y)定义为:
E ( x , y ) = ( Σ n e no ( x , y ) ) 2 + ( Σ n o no ( x , y ) ) 2 - - - ( 11 )
式中 e no ( x , y ) =I ( x , y ) * M no e , e no ( x , y ) =I ( x , y ) * M no o 分别为原图像I与奇、偶正交Log-Gabor小波的卷积之和,
Figure BDA00003044336000097
分别为第n个尺度在方向o上的奇、偶Log-Gabor小波。
(3)景深图层区域信息视觉显著性认知差异ΔCdepthi):
Figure BDA00003044336000098
其中VD(xi,ti)和VD(xj,tj)为第ti帧图像xi列的景深值与第tj帧图像xj列的景深值。
通常在立体视觉中从不同视点采集同一景物的感知图像,可通过三角测量原理计算图像像素间的位置偏差即视差,来获取景物的三维深度信息,二者存在一一对应关系,深度增加,视差减小。根据上述关系,图像的景深图层区域信息Vdepth可由相邻图像间的视差计算来近似获取场景内部三维深度区域信息,选择一幅图像作为参考图像,另一幅图像作为匹配图像,匹配目标就是建立图像空间到离散视差空间的映射,也就是为参考图像中每个像素p确定视差值。
本实施例通过计算相邻图像视差获取图像的景深图层区域信息,图4所示为通过计算相邻图像视差获取图像的景深图层区域信息的方法流程图,其实现步骤如下:
S41:双向计算局部匹配代价。此步骤中,以所采集的密集视频序列图像中相邻两帧序列图像互为参考图像,使匹配图像在参考图像上滑动,双向计算参考图像像素点(x,y)与关于视差d的待匹配图像像素点在局部窗口N(x,y)内的匹配代价:
C(x,y,d)=(1-ω)*CSAD(x,y,d)+ω*CGRAD(x,y,d)     (13)
其中,
C SAD ( x , y , d ) = Σ ( i , j ) ∈ N ( x , y ) | I 1 ( i , j ) - I 2 ( i + d , j ) |
C GRAD ( x , y , d ) = Σ ( i , j ) ∈ N x ( x , y ) | ▿ x I 1 ( i , j ) - ▿ x I 2 ( i + d , j ) | - - - ( 14 )
+ Σ ( i , j ) ∈ N y ( x , y ) | ▿ y I 1 ( i , j ) - ▿ y I 2 ( i + d , j ) |
该匹配代价结合了绝对灰度差异和(SAD)与梯度差异(GRAD),对场景变化具有自适应非相似性测量的特性。
S42:以优胜者全选((Winner Takes All,WTA)算法估计初始视差图。根据双向匹配代价进行交叉检验来估计视差值,并采用优胜者全选算法作为视差选择方法估计所述相邻两帧图像的初始视差图。WTA方法的基本思想就是对于参考图中的一点,在匹配图中计算视差范围内的叠加匹配代价,取匹配代价最小的点作为参考图中点的对应点。设预定的视差范围为Rd=[dmin,dmax],且搜素范围中的视差个数Nd=dmax-dmin+1,则参考图像中的初始匹配得到的视差为:
D int ( x , y ) = arg min d ∈ R d C ( x , y , d ) - - - ( 15 )
S43:采用Mean-Shift算法划分所述相邻两帧图像中采集时间靠前的那帧图像的一致性区域,并以分割块内中值视差值作为分割块整体视差值对所述相邻两帧图像的初始视差图滤波求取区块视差,得到相邻两帧图像的视差图。此步骤中,首先采用Mean-Shift算法分割参考图像,获得颜色或灰度一致性区域,本算法假设视差值在这些分割区域间平滑变化,并且仅在区域边界发生深度变化,而Mean-Shift易产生过分割的特点恰好满足该假设条件。然后对初始视差图进行滤波,取Mean-Shift分割块内中值视差值作为分割块整体视差值对初始视差图进行滤波,取Mean-Shift分割块内中值视差值作为分割块整体视差值即:
Dsi=median(d(x,y)),(x,y)∈Segi     (16)
通过上述对视差的求解过程,间接计算了景深信息,最后可将视差图像转换为图像的景深图层区域信息Vdepth
图2所示S3中采用最短路径搜索算法计算使全局合成图像显著性视觉认知差异达到最小的最优剪切路径,优选Dijkstra算法,它是解决求取加权图中给定顶点之间最短路径问题最为直接和有效的方法,其基本思想是:假设u0=Vstart为源点,v0=Vend为目标点,按距离u0由近及远为顺序,依次求得u0到加权图中的各顶点的最短路和距离,直至v0或直至加权图中的所有顶点,算法结束;同时采用标号算法以避免重复,并保留每一步的计算信息。算法具体步骤如下:
步骤1:令l(u0)=0,对于v≠u0,令l(v)=∞,S0={u0},i=0;
步骤2:对每个
Figure BDA00003044336000111
Figure BDA00003044336000112
代替l(v),当u,v不相等时,w(uv)=∞。计算
Figure BDA00003044336000113
把达到这个最小值的一个顶点记为ui+1,令Si+1=Si∪{ui+1};
步骤3:若i=|V|-1,则停止;若i<|V|-1,则用i+1代替i,转向步骤2。
算法结束时,从u0到各顶点v的距离由v的最后一次标号l(v)给出。在v进入Si之前的标号记为T标号,v进入Si时的标号l(v)记为P标号,则算法就是不断修改各个点的T标号,直至获得P标号。若在算法运行过程中,将每一顶点获得P标号所由来的边在图上标明,那么当算法结束时,u0至各点的最短路径也就在图上标示出来了。
图5为一组预先采集的密集视频序列图像,在这序列图像的场景内的人进行了一系列非刚性运动。图6为采用本发明实施例提供的方法对图5中的序列图像进行处理后得到的相位一致性边界轮廓映射图,图7为采用本发明实施例提供的方法对图5中的序列图像进行处理后得到的景深图层区域标签图,图8所示为采用本发明实施例提供的方法得到的对图5中的视频序列图像的最优剪切路径,最终采用本发明实施例提供的方法合成的大视场全局合成图像如图9所示。从图9的合成效果可以看到:当非刚性运动物体为主要对象时,本方法可有效避免运动物体被重复拉伸扫描或缺失剪切的现象,保证了运动物体的完整性。
经过大量合成测试实验验证,结果表明本发明提出的视觉认知模型驱动的全局图像信息合成方法可有效解决存在复杂多维运动物体的大视场全局图像合成问题,确保运动合成目标的完整性,具有良好的合成效果和较强的鲁棒性。
本发明为高效解决场景含复杂多维运动物体的全局图像信息合成问题,从人的视觉显著性认知学习出发,分析视觉层次感知机制及其计算模型,提取场景显著性区域与建模描述,以该视觉认知模型为约束条件,结合自适应流形拼接框架,提出一种视觉认知模型驱动的全局图像信息合成方法。该方法可充分发挥人的视觉认知模型在全局场景图像合成中的作用,合理避免物体各种运动干扰造成的合成瑕疵,如运动合成模糊、运动物体剪切、背景亮度阶跃等;同时,该方法无需相机标定和运动估计,能有效复现广域大场景的关键内容,为安防侦查等广域大范围监控系统提供全局态势理解与决策提供支持。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (7)

1.一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,包括步骤:
步骤一:建立图像显著性视觉认知模型,并以所述显著性视觉认知模型为约束导向定义全局图像信息合成的列宽选择驱动能量函数;
步骤二:构建全局图像信息合成图模型,定义节点并计算节点连接边权重:将预先采集的密集视频序列图像组成图像时空体序列V(x,y,t),并以所述密集视频序列图像中的每帧图像的列x为横坐标,以采集时间t为纵坐标,将每帧图像的每列像素看作一个节点,按时间顺序排列相邻图像列节点,在x-t坐标空间把所述图像时空体序列构建成一个全局图像信息合成图模型V(x,t):并设连接各节点的所有边上的权重为相应列间的显著性视觉认知差异;其中,(x,y)为所述密集视频序列图像空间(列,行)坐标参数,t为所述密集视频序列图像采集路径推进的时间参数;
步骤三:根据步骤一中定义的所述列宽选择驱动能量函数,采用最短路径搜索算法在步骤二中所构建的所述全局图像信息合成图模型中搜索使得全局合成图像显著性视觉认知差异达到最小的剪切路径;
步骤四:沿所述使得全局合成图像的显著性视觉认知差异达到最小的剪切路径顺序在所述密集视频序列图像中的每帧图像中选择一定像素列宽,并将选择出的像素列宽按序码放后合成为全局合成图像。
2.如权利要求1所述的一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,步骤一中所述显著性视觉认知模型由图像灰度信息、边界轮廓信息及景深图层区域信息三部分组成,定义如下:
CSCM(I)=αCgray(I)+βCedge(I)+γCdepth(I)
其中,CSCM(I)为所述显著性视觉认知模型;Cgray(I)为图像灰度信息;Cedge(I)为边界轮廓信息;Cdepth(I)为景深图层区域信息;α,β,γ为比例系数。
3.如权利要求2所述的一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,所述列宽选择驱动能量函数为:
Figure FDA00003044335900021
其中,
Figure FDA00003044335900022
是从输出的全局合成图像列M(i)到输入图像列V(x,Δy,t)的映射,Δy是V(x,t)垂直方向上的偏移量。
4.如权利要求3所述的一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,步骤二中所述设连接各节点的所有边上的权重为相应列间的显著性视觉认知差异,包括:根据步骤一中定义的所述列宽选择驱动能量函数计算视觉显著性认知差异ΔCSCMi);
若设Υi=V(xi,ti),Υi+1=V(xj,tj),则所述图像灰度信息视觉显著性认知差异ΔCgrayi)为:
ΔCgrayi)=min{||Vgray(xi,ti)-Vgray(xj-1,tj)||,||Vgray(xi+1,ti)-Vgray(xj,tj)||},
其中Vgray(xi,ti)和Vgray(xj,tj)为输入的所述密集视频序列图像中第ti帧图像第xi列的灰度值与第tj帧图像第xj列的灰度值;
所述边界轮廓信息视觉显著性认知差异ΔCedgei)为:
ΔCedgei)=min{||Vedge(xi,ti)-Vedge(xj-1,tj)||,||Vedge(xi+1,ti)-Vedge(xj,tj)||},
其中Vedge(xi,ti)和Vedge(xj,tj)为输入的所述密集视频序列图像中第ti帧图像第xi列的边界轮廓响应值与第tj帧图像第xj列的边界轮廓响应值;
所述景深图层区域信息视觉显著性认知差异ΔCdepthi)为:
ΔCdepthi)=min{||Vdepth(xi,ti)-Vdepth(xj-1,tj)||,||Vdepth(xi+1,ti)-Vdepth(xj,tj)||},
其中VD(xi,ti)和VD(xj,tj)为输入的所述密集视频序列图像中第ti帧图像xi列的景深值与第tj帧图像xj列的景深值。
5.如权利要求4所述的一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,计算所述边界轮廓信息视觉显著性认知差异时,采用相位一致性检测方法提取所述密集视频序列图像的有效边界轮廓响应值。
6.如权利要求4所述的一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,计算所述景深图层区域信息视觉显著性认知差异时,通过计算所述密集视频序列图像中相邻两帧图像视差获取图像的景深值,包括以下步骤:
以所述相邻两帧图像序列图像互为参考图像,双向计算所述相邻两帧图像的匹配代价;
根据所述相邻两帧图像的匹配代价进行交叉检验估计视差值,并采用优胜者全选算法作为视差选择方法估计所述相邻两帧图像的初始视差图;
采用Mean-Shift算法划分所述相邻两帧图像中采集时间靠前的那帧图像的一致性区域得到若干个分割块,并以各分割块内的中值视差值作为分割块整体视差值对所述相邻两帧图像的初始视差图滤波求取区块视差。
7.如权利要求1至6任一项所述的一种视觉认知模型驱动的全局图像信息合成方法,其特征在于,步骤三中所述最短路径搜索算法为Dijkstra算法。
CN201310127841.4A 2013-04-12 2013-04-12 一种视觉认知模型驱动的全局图像信息合成方法 Expired - Fee Related CN103247038B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310127841.4A CN103247038B (zh) 2013-04-12 2013-04-12 一种视觉认知模型驱动的全局图像信息合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310127841.4A CN103247038B (zh) 2013-04-12 2013-04-12 一种视觉认知模型驱动的全局图像信息合成方法

Publications (2)

Publication Number Publication Date
CN103247038A true CN103247038A (zh) 2013-08-14
CN103247038B CN103247038B (zh) 2016-01-20

Family

ID=48926543

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310127841.4A Expired - Fee Related CN103247038B (zh) 2013-04-12 2013-04-12 一种视觉认知模型驱动的全局图像信息合成方法

Country Status (1)

Country Link
CN (1) CN103247038B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778626A (zh) * 2013-12-31 2014-05-07 北京理工大学 一种基于视觉显著区域的快速图像配准方法
CN103793710A (zh) * 2013-12-12 2014-05-14 中国科学院深圳先进技术研究院 一种图像显著性物体检测方法和装置
CN106131456A (zh) * 2016-07-17 2016-11-16 合肥赑歌数据科技有限公司 视频拼接系统
CN107122548A (zh) * 2017-04-27 2017-09-01 贵州大学 面向产品造型风格的用户认知及量化模型的建模方法
CN107979729A (zh) * 2014-01-24 2018-05-01 青岛海信移动通信技术股份有限公司 一种显示预览图像的方法及设备
CN109525806A (zh) * 2017-09-20 2019-03-26 夏普株式会社 便携式显示装置、图像供给装置、显示系统
CN111664798A (zh) * 2020-04-29 2020-09-15 深圳奥比中光科技有限公司 一种深度成像方法、装置及计算机可读存储介质
CN113632091A (zh) * 2019-03-22 2021-11-09 辉达公司 迭代空间图生成

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101510299A (zh) * 2009-03-04 2009-08-19 上海大学 基于视觉显著性的图像自适应方法
CN101609547A (zh) * 2009-07-16 2009-12-23 复旦大学 基于累积能量的无缝拼接图像处理方法
US20120189161A1 (en) * 2011-01-25 2012-07-26 Electronics And Telecommunications Research Institute Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
US20130050579A1 (en) * 2011-08-29 2013-02-28 Himax Technologies Limited Object-based system and method of directing visual attention by a subliminal cue
CN103020933A (zh) * 2012-12-06 2013-04-03 天津师范大学 一种基于仿生视觉机理的多源图像融合方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101510299A (zh) * 2009-03-04 2009-08-19 上海大学 基于视觉显著性的图像自适应方法
CN101609547A (zh) * 2009-07-16 2009-12-23 复旦大学 基于累积能量的无缝拼接图像处理方法
US20120189161A1 (en) * 2011-01-25 2012-07-26 Electronics And Telecommunications Research Institute Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
US20130050579A1 (en) * 2011-08-29 2013-02-28 Himax Technologies Limited Object-based system and method of directing visual attention by a subliminal cue
CN103020933A (zh) * 2012-12-06 2013-04-03 天津师范大学 一种基于仿生视觉机理的多源图像融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SIMONE FRINTROP 等: "Computational visual attention systems and their cognitive foundations: a survey", 《ACM TRANSACTIONS ON APPLIED PERCEPTION》 *
陈科尹 等: "基于视觉显著性改进的水果图像模糊聚类分割算法", 《农业工程学报》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103793710A (zh) * 2013-12-12 2014-05-14 中国科学院深圳先进技术研究院 一种图像显著性物体检测方法和装置
CN103793710B (zh) * 2013-12-12 2017-02-15 中国科学院深圳先进技术研究院 一种图像显著性物体检测方法和装置
CN103778626A (zh) * 2013-12-31 2014-05-07 北京理工大学 一种基于视觉显著区域的快速图像配准方法
CN103778626B (zh) * 2013-12-31 2016-09-07 北京理工大学 一种基于视觉显著区域的快速图像配准方法
CN107979729A (zh) * 2014-01-24 2018-05-01 青岛海信移动通信技术股份有限公司 一种显示预览图像的方法及设备
CN107979729B (zh) * 2014-01-24 2020-06-16 青岛海信移动通信技术股份有限公司 一种显示预览图像的方法及设备
CN106131456A (zh) * 2016-07-17 2016-11-16 合肥赑歌数据科技有限公司 视频拼接系统
CN107122548A (zh) * 2017-04-27 2017-09-01 贵州大学 面向产品造型风格的用户认知及量化模型的建模方法
CN109525806A (zh) * 2017-09-20 2019-03-26 夏普株式会社 便携式显示装置、图像供给装置、显示系统
CN113632091A (zh) * 2019-03-22 2021-11-09 辉达公司 迭代空间图生成
CN111664798A (zh) * 2020-04-29 2020-09-15 深圳奥比中光科技有限公司 一种深度成像方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN103247038B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
CN103247038A (zh) 一种视觉认知模型驱动的全局图像信息合成方法
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN101542529B (zh) 图像的深度图的生成方法和图像处理单元
Toulminet et al. Vehicle detection by means of stereo vision-based obstacles features extraction and monocular pattern analysis
US8712096B2 (en) Method and apparatus for detecting and tracking vehicles
KR101782670B1 (ko) 이미 존재하는 정지 이미지 내의 비디오의 시각화
CN107305635A (zh) 对象识别方法、对象识别装置和分类器训练方法
CN106910217A (zh) 视觉地图建立方法、计算装置、计算机存储介质和智能车辆
CN103856727A (zh) 一种多路实时视频拼接处理系统
AU2006203980A1 (en) Navigation and inspection system
WO2008020598A1 (fr) Dispositif et procédé de détection d'un nombre d'objets
CN103226822A (zh) 医疗影像拼接方法
CN105182350A (zh) 一种应用特征跟踪的多波束声呐目标探测方法
Le Meur et al. A spatio-temporal model of the selective human visual attention
Saur et al. Change detection in UAV video mosaics combining a feature based approach and extended image differencing
Zhang et al. Bundle adjustment for monocular visual odometry based on detections of traffic signs
CN105139401A (zh) 一种深度图中深度的可信度的评估方法
US20230230203A1 (en) Vehicle undercarriage imaging
CN110033483A (zh) 基于dcnn深度图生成方法及系统
CN115359326A (zh) 单目3d目标检测方法及装置
CN109115232B (zh) 导航的方法和装置
Yang et al. SAM-Net: Semantic probabilistic and attention mechanisms of dynamic objects for self-supervised depth and camera pose estimation in visual odometry applications
Kim et al. Joint detection of motion boundaries and occlusions
TW202022804A (zh) 路面影像重建與載具定位之方法與系統
CN104599231A (zh) 一种基于Kinect和网络摄像机的动态人像合成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160120

Termination date: 20190412

CF01 Termination of patent right due to non-payment of annual fee