CN102142148B - 视频空时特征提取方法 - Google Patents
视频空时特征提取方法 Download PDFInfo
- Publication number
- CN102142148B CN102142148B CN 201110082669 CN201110082669A CN102142148B CN 102142148 B CN102142148 B CN 102142148B CN 201110082669 CN201110082669 CN 201110082669 CN 201110082669 A CN201110082669 A CN 201110082669A CN 102142148 B CN102142148 B CN 102142148B
- Authority
- CN
- China
- Prior art keywords
- much
- motion
- video
- space
- geometric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
一种计算机视频处理技术领域的视频空时特征提取方法,通过分别对视频流中的相邻两帧的图像以及进行高斯滤波并在光滑的图像上计算出边缘及纹理区域的几何正则度及几何正则方向并构建空间几何流场,然后在两幅图像之间建立运动方程并采用块匹配相关法计算每个像素点的运动矢量;再对计算出的几何流场采用M×M邻域局部平均法消除奇异值,最后将空间几何流场与时域几何运动流融合,即得到该像素点的空时特征向量。本发明对光照变化具有更高的鲁棒性及计算性能,运动目标的结构清晰,可以有效的分离临近的运动目标,在交通监控中的车流估计以及异常事件检测中发挥更好的鲁棒性及效率。
Description
技术领域
本发明涉及的是一种计算机视频处理技术领域的方法,具体是一种视频空时特征提取方法。
背景技术
目前,计算机视觉技术在城市交通监控中发挥着越来越重要的作用,比如交通流量监控,拥塞估计,异常事件检测等。车辆运动分析作为一项重要任务,由于复杂的城市交通环境(如光线及天气变化变化,遮挡等),仍然面临很大的挑战。目前有关车辆运动分析的工作主要分为两大类,一种是传统的基于检测、跟踪的长期运动分析,但是目前仍然缺乏可靠稳定的多目标跟踪算法。近年来越来越多的研究者采用另一种方法,直接基于底层的运动特征进行统计或者建模,避免进行运动目标的检测与跟踪。
经对现有技术文献检索发现,光流法(optical flow)和特征点匹配法(feature pointcorrespondence)是两种重要的底层运动特征提取方法。但是光流法基于亮度恒常假设,并且大多数计算方法采用空间全局平滑(参见:Berthold K.P.Horn and Brian G.Schunck,“Determining optical flow,”Artificial Intelligence,vol.17,no.1-3,pp.185-203,1981.人工智能,1981年第12卷,第1-3期,185-203页,确定光流)或者局部平滑假设(参见:BruceD.Lucas and Takeo Kanade,“An iterative image registration technique with an application tostereo vision,”in Proceedings of the 1981 DARPA Image Understanding Workshop,April1981,pp.121-130.1981年4月的DARPA图像理解工作组会议121-130页,一种应用于立体视觉的迭代图像配准技术),使得其面临如下三个问题:1)易受噪声,以及光线变化等影响;2)运动边界扩散;3)大多数的光流计算方法要对帧中的所有像素进行计算,计算量大,实时性相对较差。基于特征点匹配的方法(参见:HanWang and Michael Brady,“Real-time cornerdetection algorithm for motion estimation,”Image and Vision Computing,vol.13,no.9,pp.695-703,1995.图像与视频计算,1995年第13卷,第9期,695-703页,用于运动估计的实时角点检测算法)虽然鲁棒性能很好,但是过于稀疏,不利于观察整个目标的运动状态,以及运动目标结构的提取。
发明内容
本发明针对现有技术存在的上述不足,提供一种视频空时特征提取方法,对光照变化具有更高的鲁棒性及计算性能,运动目标的结构清晰,可以有效的分离临近的运动目标,在交通监控中的车流估计以及异常事件检测中发挥更好的鲁棒性及效率。
本发明是通过以下技术方案实现的,本发明包括以下几个步骤:
第一步:分别对视频流中的两帧图像I(x,y,t)以及I(x,y,t+Δt)进行高斯滤波,即I′(x,y)=G(x,y,δ)*I(x,y),其中:I′(x,y)为滤波后的图像,δ为高斯正态分布的方差,t为图像所处时间,Δt为两帧图像的时间间隔。
第二步:分别计算滤波后的两帧图像的边缘及纹理区域的几何正则度及几何正则方向,并构建空间几何流场,具体步骤为:
2.1)以点(x,y)为中心,选择(2m+1)×(2m+1)方块,2≤m≤4;
2.2)根据方块的大小初始化N个几何正则方向集θi∈(-π/2,π/2],并将每个方块分别沿N个几何正则方向映射成序列S(θi),然后对序列S(θi)进行一维正交小波变换;
2.3)计算点(x,y)的最优几何正则方向θ:
其中:dWT为沿θ方向的正则度,WT(S(θ))为沿θ方向进行一维正交小波变换后的系数;当dWT<T时,则将dWT作为该点的几何正则度,对应的角度θ为该点的最优几何正则方向;否则该方块为平滑且该点不定义几何正则方向;其中:Ix为水平梯度,Iy为垂直梯度,α为固定系数。
2.4)将标量的最优几何正则方向θ用单位向量表示,即空间几何流:
gs(x,y)=(nx,ny)=(cosθ,sinθ)。
2.5)重复上述步骤2.1)至2.4)直至所有点均计算得到其对应的空间几何流,对应综合得出整幅图像的空间几何流场。
第三步:基于最优几何正则方向不变,在两帧图像的空间几何流场之间建立运动方程:
gs(x,y,t)=gs(x+u,y+v,t+Δt),
其中:gs(x,y,t)表示时空点p=(x,y,t)处的最优几何正则方向,gs(x,y,t+Δt)表示时空点p=(x+u,y+v,t+Δt)处的最优几何正则方向,gt(x,y,t)=(u,v)为所要求的时空点p=(x,y,t)处的运动矢量,即该点的时域几何运动流,u为X方向的分量,v为Y方向的分量。
第四步:采用块匹配法求解运动方程,计算时域几何运动流gt(x,y,t),具体步骤包括:
4.1)设定匹配窗口大小为(2K+1)×(2K+1),搜索窗口大小为(2L+1)×(2L+1),一般的,4≤K≤10,8≤L≤20,且L>K,则对于目标函数E(g;u,v):
其中:dpenalty为距离惩罚因子且与离中心的距离成正比,
4.2)采用穷尽搜索求出使E(g;u,v)最小的块作为最佳匹配块,对应的gt(x,y,t)=(u,v)即为所要求的时域几何运动流。
第五步:对计算出的时域几何运动流场采用M×M邻域局部平均法消除奇异值,(2k+1)≤M≤(2L+1);
第六步:将空间几何流场与时域几何运动流场融合,即得到一种空时特征向量g(x,y)=(u,v,nx,ny),其中:(u,v)表示时域运动特征,单位向量(nx,ny)表示空域的几何结构特征。
与现有技术相比,本发明的主要贡献和特点在于:1)利用空间几何结构不变特征,从而对光照变化具有鲁棒性;2)只计算边缘及纹理区域的运动,剔除了大部分平坦区域,能够有效描述目标空间结构的同时减少了计算量;4)运动边界清晰,可以有效分离临近的运动目标。
附图说明
图1为本发明流程图。
图2为基于Bresenham算法将二维数据沿几何正则方向θ(红色箭头为)映射成一维序列S(θ)。
图3为实施例中有微弱光线变化以及大尺度运动的含有临近运动车辆的相邻两个图片帧。
图4(a)为叠加在图3(a)上的本发明计算结果效果示意图,(b)为叠加在图3(a)上的光流法计算结果效果示意图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例
本实施采用的图像帧来自数据库VISOR中的交通监控视(video for traffic surveillance)。VISOR数据库是意大利摩德纳大学图像实验室提供的在线视频监控数据库。
本实施例涉及的视频底层空时特征提取方法,包括如下具体步骤:
第一步:分别对视频流中的两帧图像I(x,y,t)以及I(x,y,t+Δt)进行高斯滤波,即
I′(x,y)=G(x,y,δ)*I(x,y),
其中:I′(x,y)为滤波后的图像,δ为高斯正态分布的方差。本实施例中δ=1,Δt=1,即连续两帧图像。
第二步:分别计算滤波后的两帧图像的空间几何流gs(x,y)。
以每个像素点为中心选择9×9大小的方块,计算出88个初始化几何正则方向集。对于每一个初始化方向,本实施例基于Bresenham算法将块内的二维像素重新排序成一维序列S(θ),并对其进行一维haar小波变换后得到系数WThaar(S(θ))。根据目标函数dWT,找到一个最优几何正则方向,具体为:
若dWT其小于自适应阈值T,则将其作为该点的几何正则度,其对应的方向作为该点的最优几何正则方向,否则该点不定义几何正则方向,取值inf。
为了避免直接使用标量值θ进行后续计算可能出现的一些问题,将其转换为单位向量场gs(x,y)=(nx,ny)=(cosθ,sinθ)。
第三步:基于最优几何正则方向不变,在连续两帧图像的空间几何流场之间建立运动方程:具体是:
gs(x,y,t)=gs(x+u,y+v,t+1)
其中:gs(x,y,t)表示时空点p=(x,y,t)处的最优几何正则方向,gs(x,y,t+1)表示时空点p=(x+u,y+v,t+1)处的最优几何正则方向,gt(x,y,t)=(u,v)为所要求的时空点p=(x,y,t)处的时域几何运动流。
第四步:基于块匹配的方法,求解上述运动方程,计算时域几何运动流gt(x,y,t)。设定匹配窗口大小为(2K+1)×(2K+1)(本实施例K=4),搜索窗大小为(2L+1)×(2L+1)(L>K)(本实施例L=8)。
具体步骤为:
1.计算块之间的欧氏距离。
其中:E(g;u,v)是以时空点(x,y,t)为中心的处像素运动矢量为(u,v)时的匹配误差。没有定义几何正则方向的点不参与计算。
2.采用穷尽搜索方法,遍历搜索窗中的所有子块,重复步骤1,计算出搜索窗内所有的E(g;u,v)。
3.求出最小的E(g;u,v),找到最佳匹配块,对应的(u,v)即为所要求得时域几何运动流。
具体是:
其中dpenalty为距离惩罚因子,本实施例中
第五步:对计算出的时域几何流场采用M×M(本实施例M=9)邻域局部平均法消除奇异值,不存在几何运动流的点不参加计算;
第六步:将第二步提取的空间几何流与时域几何运动流融合,即为所求的视频空时特征(u,v,nx,ny)。
通过实验证明,本实施例较之以前方法能很好的进行车辆运动估计,并且同时获得运动目标的空间结构信息。图3(a)(b)是有微弱光线变化以及大尺度运动的含有临近运动车辆的相邻两个图片帧。图4(a)是由本实施例得到的时域几何运动流效果示意图,图4(b)是光流法计算结果效果示意图。(通过对计算的结果进行采样,并表示为速度场。)由图4所示可以看出,由本实施例方法采用了对光照变化鲁棒的空间几何流作为运动不变量,因此得到的结果对光照变化更具有鲁棒性。此外由于空间几何流只定义于边缘及纹理区域,因此本发明无需进行边缘检测,便可得出运动目标的边缘及纹理运动特征,蕴含丰富的车辆空间结构信息,便于后续的进一步处理。
Claims (3)
1.一种视频空时特征提取方法,其特征在于,包括以下几个步骤:
第一步:分别对视频流中的两帧图像进行高斯滤波;
第二步:分别计算滤波后的两帧图像的边缘及纹理区域的几何正则度及最优几何正则方向并构建空间几何流场;
第三步:基于最优几何正则方向不变,在两帧图像的空间几何流场之间建立运动方程;
第四步:采用块匹配相关法计算时域几何运动流;
第五步:对计算出的几何流场采用M×M邻域局部平均法消除奇异值;
第六步:将空间几何流场与时域几何运动流融合,即得到一种视频的空时特征。
2.根据权利要求1所述的视频空时特征提取方法,其特征是,第三步中所述的运动方程为gs(x,y,t)=gs(x+u,y+v,t+Δt),其中:gs(x,y,t)表示时空点p=(x,y,t)处的最优几何正则方向,gs(x,y,t+Δt)表示时空点p=(x+u,y+v,t+Δt)处的最优几何正则方向,gt(x,y,t)=(u,v)为时空点p=(x,y,t)处的时域几何运动流,u为X方向的分量,v为Y方向的分量,Δt为两帧图像的时间间隔。
3.根据权利要求1所述的视频空时特征提取方法,其特征是,第六步所述的空时特征为g(x,y)=(u,v,nx,ny),其中:(u,v)为时域运动特征,单位向量(nx,ny)为空域的结构特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110082669 CN102142148B (zh) | 2011-04-02 | 2011-04-02 | 视频空时特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110082669 CN102142148B (zh) | 2011-04-02 | 2011-04-02 | 视频空时特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102142148A CN102142148A (zh) | 2011-08-03 |
CN102142148B true CN102142148B (zh) | 2013-02-06 |
Family
ID=44409632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110082669 Expired - Fee Related CN102142148B (zh) | 2011-04-02 | 2011-04-02 | 视频空时特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102142148B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8917940B2 (en) * | 2013-04-26 | 2014-12-23 | Mitutoyo Corporation | Edge measurement video tool with robust edge discrimination margin |
CN105426813B (zh) * | 2015-10-27 | 2018-09-25 | 杭州电子科技大学 | 一种视频异常行为检测方法 |
CN107240121B (zh) * | 2017-05-26 | 2020-02-21 | 深圳大学 | 基于几何代数的视频分析处理的统一模型建模方法与装置 |
CN111652905B (zh) * | 2020-04-27 | 2023-07-07 | 长春理工大学 | 一种一维块匹配运动估计方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060111528A (ko) * | 2003-11-24 | 2006-10-27 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 비디오 신호에서 국부적인 시각적 공간-시간 상세의 검출 |
CN101421745B (zh) * | 2004-04-15 | 2016-05-11 | 美国医软科技公司 | 空间-时间肿瘤检测,分割和诊断信息提取系统及方法 |
CN1945628A (zh) * | 2006-10-20 | 2007-04-11 | 北京交通大学 | 一种基于时空显著单元的视频内容表示方法 |
CN101420594A (zh) * | 2007-10-26 | 2009-04-29 | 三星电子株式会社 | 将视频图像划分为构成区域的设备和方法 |
CN101930072B (zh) * | 2010-07-28 | 2013-01-02 | 重庆大学 | 基于多特征融合的红外弱小运动目标航迹起始方法 |
-
2011
- 2011-04-02 CN CN 201110082669 patent/CN102142148B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102142148A (zh) | 2011-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107133559B (zh) | 基于360度全景的运动物体检测方法 | |
Zhou et al. | Efficient road detection and tracking for unmanned aerial vehicle | |
TWI448977B (zh) | 基於視訊分析的物件計數方法與裝置 | |
US7747075B2 (en) | Salient motion detection system, method and program product therefor | |
CN103458261B (zh) | 一种基于立体视觉的视频场景变化检测方法 | |
CN112215074A (zh) | 基于无人机视觉的实时目标识别与检测追踪系统及方法 | |
CN108280844B (zh) | 一种基于区域候选框跟踪的视频目标定位方法 | |
CN106023245A (zh) | 基于中智集相似度量测的静态背景下运动目标检测方法 | |
CN102142148B (zh) | 视频空时特征提取方法 | |
Meshram et al. | Traffic surveillance by counting and classification of vehicles from video using image processing | |
CN105678720A (zh) | 一种全景拼接判断图像匹配方法及装置 | |
Tran et al. | A robust traffic-aware city-scale multi-camera vehicle tracking of vehicles | |
Dike et al. | Unmanned aerial vehicle (UAV) based running person detection from a real-time moving camera | |
CN101877135B (zh) | 一种基于背景重构的运动目标检测方法 | |
CN105303544A (zh) | 一种基于最小边界距离的视频拼接方法 | |
CN103426178A (zh) | 一种基于均值偏移的复杂场景下目标跟踪方法及装置 | |
Zhou et al. | Fast road detection and tracking in aerial videos | |
CN105513092A (zh) | 一种用于目标跟踪的模板特征选择方法 | |
CN115512263A (zh) | 一种面向高空坠物的动态视觉监测方法及装置 | |
Brehar et al. | A study of the impact of HOG and LBP based temporal association on far infrared pedestrian detection | |
Jehad et al. | Developing and validating a real time video based traffic counting and classification | |
CN101685538A (zh) | 对象跟踪方法和装置 | |
Zheng et al. | Semantic Plane-Structure based motion detection with a nonstationary camera | |
Liu et al. | Research on lane detection method with shadow interference | |
Ammar et al. | An efficient Real Time Implementation of Motion Estimation in Video Sequences on SOC |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130206 |