CN103458261A - 一种基于立体视觉的视频场景变化检测方法 - Google Patents
一种基于立体视觉的视频场景变化检测方法 Download PDFInfo
- Publication number
- CN103458261A CN103458261A CN2013104053126A CN201310405312A CN103458261A CN 103458261 A CN103458261 A CN 103458261A CN 2013104053126 A CN2013104053126 A CN 2013104053126A CN 201310405312 A CN201310405312 A CN 201310405312A CN 103458261 A CN103458261 A CN 103458261A
- Authority
- CN
- China
- Prior art keywords
- depth
- scene
- pixel
- stereoscopic vision
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于立体视觉的视频场景变化检测方法,包括以下步骤:(a)在当前时刻,利用变分法通过聚焦分别恢复双目相机所获取的左眼图像和右眼图像中的场景深度信息;(b)利用双目立体匹配方法获得当前场景深度,并利用(a)得到的场景深度信息对双目立体匹配方法无法获取深度的区域进行插值;(c)将(b)得到的当前场景深度与前一时刻获得的场景深度进行比较,得到对应的场景变化。本发明计算过程收敛快速、并可减少立体视觉致密匹配方法在重复纹理区域和遮挡区域容易产生的错误。
Description
技术领域
本发明涉及视频内容分析技术,特别是涉及一种基于立体视觉的视频场景变化的检测方法。
背景技术
检测视频场景的变化是视频监控领域中视频内容自动分析技术的一个主要内容,对于在监控环境中及时发现入侵物或异物具有重要意义。
现有的单目相机只能获得场景的二维信息,这种方式下异物目标的检测最终还是需要采用目标外观建模的方式完成,因而需要事先采集异物目标在各种情况下的图像作为异物模型的训练样本,如:不同光照条件下,不同场景下的异物等。这种方式不仅费时费力而且难以穷尽各种情况。另外,传统方法只能检测学习过的场景和目标对象,当场景或目标发生外观、姿态或光照等变化时,系统就难以准确检测到异物目标,造成漏报和误报。
为了提高检测的识别率和准确性,业内已经出现了基于双目视觉的视频场景变化检测技术。从双目相机拍摄的左眼图像和右眼图像可以获取深度信息,通过检测深度信息的变化来检测场景变化。然而,现有的获取深度信息的方法,例如立体视觉致密匹配方法,对于重复纹理区域和遮挡区域处理效果不佳,并且收敛速度较慢,不利于在实时场合下的应用。
发明内容
针对现有技术的不足,本发明的目的在于提出一种基于立体视觉的视频场景变化检测方法。该方法将基于变分法的、通过聚焦恢复深度的方法与立体视觉致密匹配方法相结合,可以得到监控场景的深度信息,并由此实现对于视频场景变化的检测。
为了实现以上发明目的,本发明采用的技术方案如下:
一种基于立体视觉的视频场景变化检测方法,包括以下步骤:
(a)在当前时刻,利用变分法通过聚焦分别恢复双目相机所获取的左眼图像和右眼图像中的场景深度信息;
(b)利用双目立体匹配方法获得当前场景深度,并用(a)中得到的场景深度信息对所述当前场景深度中遮挡部分的像素对应的深度值进行插值优化,得到优化后的当前场景深度;
(c)将(b)得到的优化后的当前场景深度与前一时刻获得的场景深度进行比较,计算深度差异,得到对应的场景变化。
本发明具有以下有益的效果:计算过程收敛快速、并可减少立体视觉致密匹配方法在重复纹理区域和遮挡区域容易产生的错误。
附图说明
图1为本发明提出的基于立体视觉的视频场景变化检测方法的整体流程示意图;
图2为基于变分法的通过聚焦恢复深度信息的方法的流程示意图;
图3为基于变分法的通过聚焦恢复深度信息的方法中使用的拉普拉斯算子示意图。
具体实施方式
以下结合附图对本发明的技术方案进行详细说明。
参见图1,本发明提出的基于立体视觉的视频场景变化检测方法包括以下三个主要步骤:
(a)在当前时刻,利用变分法通过聚焦分别恢复双目相机所获取的左眼图像和右眼图像中的场景深度信息;
(b)利用双目立体匹配方法获得当前场景深度,并用(a)中得到的场景深度信息进行插值优化;
(c)将(b)得到的当前场景深度与前一时刻获得的场景深度进行比较,得到对应的场景变化。
对于步骤(a),在当前的t时刻,双目相机获取监控场景的左眼图像和右眼图像。利用变分法通过聚焦分别恢复双目相机所获取的左眼图像和右眼图像中的场景深度信息。物体深度信息的一个强线索是其模糊程度,它随物体表面远离摄像机焦距而增加。连续调整摄像机成像平面到透镜的距离,图像中同一点的清晰度会随之发生变化,通过选取整个对焦过程中图像中每一点达到最大清晰度时对焦点的位置,根据镜头法则1/z_0+1/z_i=1/f,就可以计算得到该点到镜头的距离(也即深度信息)。
具体方法流程图图2所示。
首先,初始设置摄像机对焦位置为摄像机可达范围的最近点。在本特定实施例中,摄像机最近对焦点位置为1.4米。连续调整摄像机对焦位置,使摄像机对焦点距离匀速增大,并以预定帧率(例如每秒30帧)的速度采集摄像机图像。
接着,利用拉普拉斯算子计算每幅图像每个像素点的清晰度。现有方法通常使用一个区域内梯度平方的均值或者精心设计的有理多项式滤波器对图像清晰度进行评价,这些方法难以包含所有朝向的边缘响应,并且具有较高的计算复杂度。因此,本发明使用拉普拉斯算子对图像清晰度进行评价,使用的拉普拉斯算子包含所有朝向的边缘响应,并且可以利用积分图像进行快速计算,计算复杂度较低。本实施例中,使用的拉普拉斯算子核为 在连续调整摄像机对焦位置的过程中,对每个像素点利用设计的拉普拉斯核进行滤波,得到每个像素点在时域上的清晰度变化曲线。如图3所示。
然后,根据所有图像的每个像素点的所述清晰度变化曲线,利用变分法估计场景深度。在得到图像中每个像素点在连续调整摄像机成像平面过程中清晰度的变化曲线后,现有技术通常通过选取整条变化曲线的最大值的位置或曲线中清晰度较高的前几个位置的平均值作为该点的准确对焦位置。这些方法速度较快但易受图像中噪声的影响,并且缺乏图像中相邻点之间深度的局部一致性约束,在此引入变分法来选取对焦点。
为了利用变分法完成对焦点的选取,需要进行以下两个假设:
1、准确的对焦点对应于最大的清晰度
2、相邻像素对应的深度是平滑的,即相邻像素的深度值不会发生剧烈变化,可根据需要设置阈值来规定平滑。
基于以上两个假设,为每个图像中的像素点选取准确的对焦点位置就等价于使以下能量公式最小
E=EData+αESmooth
其中EData是关于图像中每个点的清晰度的函数,每个点的对焦位置选取越准确,该点对应的清晰度越大,EData值越小。EData的计算公式如下所示:
另外,ESmooth项用来约束相邻像素之间的深度平滑性,为深度图梯度的平方,描述相邻像素深度差的大小,并引入关于每个点清晰度L(x,y,d)的非线性函数g(L(x,y,d))来减弱平滑性约束对边缘部分的影响,其中ε用来调整图像清晰度L(x,y,d)对平滑性约束影响的权重,α用来调整数据项和平滑项所占的比例。
最后,上述能量公式的最小化可通过欧拉-拉格朗日方程求解完成,求解结果为每个像素点对应的对焦点的位置,即该点的深度值。
对于步骤(b),利用双目立体匹配方法计算左眼图像和右眼图像之间的视差,从而计算左眼图像和右眼图像对应的深度图。在本实施例中,作为示例,双目立体匹配方法可以采用文献[1]所提出的方法。其中,计算每个像素p对应视差为disp时的代价S(p,disp)=∑rLr(p,disp),其中r为方向,Lr(p,disp)为像素p对应视差为disp时在方向r上的匹配代价和平滑代价之和:
需要指出,通常的双目立体匹配方法对于图像区域中产生遮挡的部分很难获得准确的深度值,因此对于遮挡部分的像素点q,其对应的深度值可通过(a)中得到的场景深度信息进行插值得到。对于左眼图像或右眼图像中遮挡部分的像素q对应的深度值,可以实用公式计算,其中,N为q邻域内可利用立体匹配方法计算深度的像素集合,|N|表示N中像素点的数目,dk为N中一点k利用立体匹配方法计算得到的深度值,和分别为(a)中利用左眼或右眼输入图像序列计算得到的深度图中像素q和k对应的深度值。
对于步骤(c),将步骤(b)得到的当前场景深度与前一时刻(即,t-1时刻)获得的场景深度进行比较,计算深度差异,即得到对应的场景变化。
以上利用具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (5)
1.一种基于立体视觉的视频场景变化检测方法,包括以下步骤:
(a)在当前时刻,利用变分法通过聚焦分别恢复双目相机所获取的左眼图像和右眼图像中的场景深度信息;
(b)利用双目立体匹配方法获得当前场景深度,并用(a)中得到的场景深度信息对所述当前场景深度中遮挡部分的像素对应的深度值进行插值优化,得到优化后的当前场景深度;
(c)将(b)得到的优化后的当前场景深度与前一时刻的场景深度进行比较,计算深度差异,得到对应的场景变化。
2.根据权利要求1所述的基于立体视觉的视频场景变化检测步骤,步骤(a)包括以下步骤:
初始设置摄像机对焦位置为摄像机可达范围的最近点,然后连续调整摄像机对焦位置,使摄像机对焦点距离匀速增大,并以预定帧率(例如每秒30帧)的速度采集摄像机图像;
利用拉普拉斯算子计算每幅图像每个像素点的清晰度,得到每个像素点在时域上的清晰度变化曲线;
根据所有图像的每个像素点的所述清晰度变化曲线,利用变分法估计场景深度。
3.根据权利要求2所述的基于立体视觉的视频场景变化检测步骤,其中,步骤(a)使用的拉普拉斯算子核为
4.根据权利要求2所述的基于立体视觉的视频场景变化检测步骤,其中,所述根据所有图像的每个像素点的所述清晰度变化曲线,利用变分法估计场景深度具体为:
为每个图像中的像素点选取准确的对焦点位置等价于使以下能量公式(1)最小化,
E=EData+αESmooth (1)
其中EData是关于图像中每个点的清晰度的函数,计算公式如下:
其中,Ω表示图像中所有像素点位置的集合,F(x,y,d)表示位置(x,y)∈Ω对焦点位置为d∈D时的模糊程度,ESmooth为用来约束相邻像素之间的深度平滑性的项,其计算公式如下:
其中,为深度图梯度的平方,描述相邻像素深度差的大小,g(L(x,y,d))为关于每个点清晰度L(x,y,d)的非线性函数,用来减弱平滑性约束对边缘部分的影响,其中ε用来调整图像清晰度L(x,y,d)对平滑性约束影响的权重,a用来调整数据项和平滑项所占的比例;
通过欧拉-拉格朗日方程求解所述能量公式(1)的最小化,求解结果为每个像素点对应的对焦点的位置,即该点的深度值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310405312.6A CN103458261B (zh) | 2013-09-08 | 2013-09-08 | 一种基于立体视觉的视频场景变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310405312.6A CN103458261B (zh) | 2013-09-08 | 2013-09-08 | 一种基于立体视觉的视频场景变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103458261A true CN103458261A (zh) | 2013-12-18 |
CN103458261B CN103458261B (zh) | 2015-04-08 |
Family
ID=49740154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310405312.6A Expired - Fee Related CN103458261B (zh) | 2013-09-08 | 2013-09-08 | 一种基于立体视觉的视频场景变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103458261B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104079827A (zh) * | 2014-06-27 | 2014-10-01 | 中国科学院自动化研究所 | 一种光场成像自动重对焦方法 |
CN104680544A (zh) * | 2015-03-18 | 2015-06-03 | 哈尔滨工程大学 | 基于3维流场正则化的变分场景流估计方法 |
CN105184780A (zh) * | 2015-08-26 | 2015-12-23 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
CN107766838A (zh) * | 2017-11-08 | 2018-03-06 | 央视国际网络无锡有限公司 | 一种视频场景切换检测方法 |
CN108038819A (zh) * | 2017-12-14 | 2018-05-15 | 华侨大学 | 一种基于交互式的笔画生成方法 |
CN108171766A (zh) * | 2017-12-14 | 2018-06-15 | 华侨大学 | 一种具有笔画轮廓纠正功能的图像生成方法 |
CN108352056A (zh) * | 2015-11-20 | 2018-07-31 | 高通股份有限公司 | 用于校正错误深度信息的系统和方法 |
CN111415380A (zh) * | 2020-03-03 | 2020-07-14 | 智方达(天津)科技有限公司 | 一种基于景深信息的视频运动放大方法 |
CN112462722A (zh) * | 2020-12-07 | 2021-03-09 | 北京达美盛软件股份有限公司 | 一种用于控制及显示的实时数字孪生工厂系统 |
CN113269236A (zh) * | 2021-05-10 | 2021-08-17 | 青岛理工大学 | 基于多模型集成的装配体变化检测方法、设备和介质 |
TWI774418B (zh) * | 2021-06-11 | 2022-08-11 | 大陸商廣州立景創新科技有限公司 | 相機模組、對焦調整系統及對焦方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101720047A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
CN102156987A (zh) * | 2011-04-25 | 2011-08-17 | 深圳超多维光电子有限公司 | 获取场景深度信息的方法及装置 |
CN102509074A (zh) * | 2011-10-18 | 2012-06-20 | Tcl集团股份有限公司 | 一种目标识别方法和设备 |
CN102523464A (zh) * | 2011-12-12 | 2012-06-27 | 上海大学 | 一种双目立体视频的深度图像估计方法 |
CN102903098A (zh) * | 2012-08-28 | 2013-01-30 | 四川虹微技术有限公司 | 一种基于图像清晰度差异的深度估计方法 |
CN102982545A (zh) * | 2012-11-22 | 2013-03-20 | 清华大学深圳研究生院 | 一种图像深度估计方法 |
-
2013
- 2013-09-08 CN CN201310405312.6A patent/CN103458261B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101720047A (zh) * | 2009-11-03 | 2010-06-02 | 上海大学 | 基于颜色分割的多目摄像立体匹配获取深度图像的方法 |
CN102156987A (zh) * | 2011-04-25 | 2011-08-17 | 深圳超多维光电子有限公司 | 获取场景深度信息的方法及装置 |
CN102509074A (zh) * | 2011-10-18 | 2012-06-20 | Tcl集团股份有限公司 | 一种目标识别方法和设备 |
CN102523464A (zh) * | 2011-12-12 | 2012-06-27 | 上海大学 | 一种双目立体视频的深度图像估计方法 |
CN102903098A (zh) * | 2012-08-28 | 2013-01-30 | 四川虹微技术有限公司 | 一种基于图像清晰度差异的深度估计方法 |
CN102982545A (zh) * | 2012-11-22 | 2013-03-20 | 清华大学深圳研究生院 | 一种图像深度估计方法 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104079827B (zh) * | 2014-06-27 | 2017-12-22 | 中国科学院自动化研究所 | 一种光场成像自动重对焦方法 |
CN104079827A (zh) * | 2014-06-27 | 2014-10-01 | 中国科学院自动化研究所 | 一种光场成像自动重对焦方法 |
CN104680544A (zh) * | 2015-03-18 | 2015-06-03 | 哈尔滨工程大学 | 基于3维流场正则化的变分场景流估计方法 |
CN104680544B (zh) * | 2015-03-18 | 2017-08-04 | 哈尔滨工程大学 | 基于3维流场正则化的变分场景流估计方法 |
CN105184780A (zh) * | 2015-08-26 | 2015-12-23 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
US9936189B2 (en) | 2015-08-26 | 2018-04-03 | Boe Technology Group Co., Ltd. | Method for predicting stereoscopic depth and apparatus thereof |
CN105184780B (zh) * | 2015-08-26 | 2018-06-05 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和系统 |
CN108352056A (zh) * | 2015-11-20 | 2018-07-31 | 高通股份有限公司 | 用于校正错误深度信息的系统和方法 |
CN108352056B (zh) * | 2015-11-20 | 2023-03-14 | 高通股份有限公司 | 用于校正错误深度信息的系统和方法 |
CN107766838A (zh) * | 2017-11-08 | 2018-03-06 | 央视国际网络无锡有限公司 | 一种视频场景切换检测方法 |
CN107766838B (zh) * | 2017-11-08 | 2021-06-01 | 央视国际网络无锡有限公司 | 一种视频场景切换检测方法 |
CN108171766A (zh) * | 2017-12-14 | 2018-06-15 | 华侨大学 | 一种具有笔画轮廓纠正功能的图像生成方法 |
CN108171766B (zh) * | 2017-12-14 | 2021-09-07 | 华侨大学 | 一种具有笔画轮廓纠正功能的图像生成方法 |
CN108038819B (zh) * | 2017-12-14 | 2021-11-26 | 华侨大学 | 一种基于交互式的笔画生成方法 |
CN108038819A (zh) * | 2017-12-14 | 2018-05-15 | 华侨大学 | 一种基于交互式的笔画生成方法 |
CN111415380A (zh) * | 2020-03-03 | 2020-07-14 | 智方达(天津)科技有限公司 | 一种基于景深信息的视频运动放大方法 |
CN112462722A (zh) * | 2020-12-07 | 2021-03-09 | 北京达美盛软件股份有限公司 | 一种用于控制及显示的实时数字孪生工厂系统 |
CN112462722B (zh) * | 2020-12-07 | 2021-12-24 | 北京达美盛软件股份有限公司 | 一种用于控制及显示的实时数字孪生工厂系统 |
CN113269236A (zh) * | 2021-05-10 | 2021-08-17 | 青岛理工大学 | 基于多模型集成的装配体变化检测方法、设备和介质 |
CN113269236B (zh) * | 2021-05-10 | 2022-04-01 | 青岛理工大学 | 基于多模型集成的装配体变化检测方法、设备和介质 |
TWI774418B (zh) * | 2021-06-11 | 2022-08-11 | 大陸商廣州立景創新科技有限公司 | 相機模組、對焦調整系統及對焦方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103458261B (zh) | 2015-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103458261B (zh) | 一种基于立体视觉的视频场景变化检测方法 | |
US11288818B2 (en) | Methods, systems, and computer readable media for estimation of optical flow, depth, and egomotion using neural network trained using event-based learning | |
CN111209770B (zh) | 一种车道线识别方法及装置 | |
CN103325112B (zh) | 动态场景中运动目标快速检测方法 | |
CN105225482A (zh) | 基于双目立体视觉的车辆检测系统和方法 | |
EP3076367A1 (en) | Method for road detection from one image | |
US20140003704A1 (en) | Imaging system and method | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
CN103440653A (zh) | 双目视觉立体匹配方法 | |
CN103927717A (zh) | 基于改进型双边滤波的深度图像恢复方法 | |
CN103996201A (zh) | 一种基于改进梯度和自适应窗口的立体匹配方法 | |
CN104331901A (zh) | 一种基于tld的多视角目标跟踪装置及方法 | |
CN102074014A (zh) | 一种利用基于图论的图像分割算法的立体匹配方法 | |
CN110688905A (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
EP3293700B1 (en) | 3d reconstruction for vehicle | |
CN102156995A (zh) | 一种运动相机下的视频运动前景分割方法 | |
CN105069804A (zh) | 基于智能手机的三维模型扫描重建方法 | |
CN102136136A (zh) | 基于自适应Census变换的光度不敏感立体匹配方法 | |
Hung et al. | Consistent binocular depth and scene flow with chained temporal profiles | |
CN104517317A (zh) | 一种车载红外图像三维重建方法 | |
CN113744315B (zh) | 一种基于双目视觉的半直接视觉里程计 | |
CN103985128A (zh) | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 | |
Garg et al. | Look no deeper: Recognizing places from opposing viewpoints under varying scene appearance using single-view depth estimation | |
CN105466399A (zh) | 快速半全局密集匹配方法和装置 | |
CN104778673B (zh) | 一种改进的高斯混合模型深度图像增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150408 Termination date: 20150908 |
|
EXPY | Termination of patent right or utility model |