CN104680544B - 基于3维流场正则化的变分场景流估计方法 - Google Patents
基于3维流场正则化的变分场景流估计方法 Download PDFInfo
- Publication number
- CN104680544B CN104680544B CN201510117536.6A CN201510117536A CN104680544B CN 104680544 B CN104680544 B CN 104680544B CN 201510117536 A CN201510117536 A CN 201510117536A CN 104680544 B CN104680544 B CN 104680544B
- Authority
- CN
- China
- Prior art keywords
- scene flows
- smooth
- depth
- scene
- flow field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000009792 diffusion process Methods 0.000 claims abstract description 19
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 5
- 238000009499 grossing Methods 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 230000000903 blocking effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于3维流场正则化的变分场景流估计方法。包括以下步骤:利用已经标定好的左右摄像机获取左右图像序列;将3维流场进行正则化得到场景流数据项;将2维光流平滑项向3维空间扩展,得到场景流驱动各向异性的场景流平滑项;根据方向信息设计扩散张量并进行本征分解,得到每个方向上的扩散强度,从而进行各向异性平滑,得到深度平滑项;将场景流数据项、场景流平滑项和深度平滑项合并,构建能量泛函;使用变分极小化的方法,得到能量泛函对应的Euler方程的解;利用超松弛迭代对Euler方程进行迭代求解,得到优化后的场景流和深度信息。本发明具有鲁棒性高,场景流精确的优点。
Description
技术领域
本发明属于一种场景流估计方法,尤其涉及一种基于场景流驱动各向异性平滑和各向异性深度图平滑的,基于3维流场正则化的变分场景流估计方法。
背景技术
真实世界是3维的,传统的数字视频记录的是3维动态场景在2维平面上的投影,表现为2维图像序列,丢失了深度信息,不利于科学研究应用。场景流是光流由2维平面向3维空间的扩展,可在3维空间中描述场景点的运动。光流可看作是场景流在2维图像平面上的投影,是对真实运动场的近似,相对于光流,场景流更符合3维真实运动。
在基于2维光流正则化的场景流估计中,近期的方法多采用流驱动各向同性平滑假设而忽略了流场方向性信息,从而导致在运动不连续处及遮挡位置场景流估计误差大,且针对2维光流进行平滑求解场景流不符合实际运动模型。本发明方法直接对3维流场施加平滑假设约束,则可令运动模型更符合实际情况,提高估计精度。INRIA的Basha等人提出了使用多视及3维流场平滑假设的场景流估计方法,Quiroga等则在已知深度图的情况下利用3维流场平滑假设求解场景流。也有人提出将2维平滑约束进行3维扩展,但使用的仍是各向同性场景流驱动方法,在遮挡或运动不连续区域场景流估计误差显著增加的问题依然存在,而各向异性平滑假设对克服此类问题有着重要意义。
发明内容
本发明的目的是提供一种具有高鲁棒性的基于3维流场正则化的变分场景流估计方法。
本发明是通过以下技术方案实现的:
基于3维流场正则化的变分场景流估计方法,包括以下几个步骤:
步骤一:将左右摄像机光轴平行摆放,利用标定板进行标定,获得摄像机内外参数;
步骤二:利用已经标定好的左右摄像机获取左右图像序列;
步骤三:利用获得的左右立体图像序列计算视差图,由视差图转换得到深度图;
步骤四:将3维流场进行正则化得到场景流数据项;
步骤五:将2维光流平滑项向3维空间扩展,得到场景流驱动各向异性的场景流平滑项;
步骤六:根据方向信息设计扩散张量并进行本征分解,得到每个方向上的扩散强度,从而进行各向异性平滑,得到深度平滑项;
步骤七:将场景流数据项、场景流平滑项和深度平滑项合并,构建能量泛函;
步骤八:使用变分极小化的方法,得到能量泛函对应的Euler方程的解;
步骤九:利用超松弛迭代对Euler方程进行迭代求解,得到优化后的场景流和深度信息。
本发明基于3维流场正则化的变分场景流估计方法,还可以包括:
1、场景流数据项为:
Edata=∫Ω(El+Er+EZ+EZ')dx
其中,场景流W=(vX,vY,vZ)T,Z为t时刻场景点深度,Z'为t+1时刻场景点深度,且Z=Z+vZ,El(W,Z)为左图像序列的能量函数,Er(W,Z)右图像序列的能量函数,EZ(W,Z)为t时刻深度图序列的能量函数,EZ′(W,Z)为t+1时刻深度图序列的能量函数,
El(W,Z)=ψ(Gσ*(Il(x+w,t+1)-Il(x,t))2)
Er(W,Z)=y(Gs*(Il(x+w+d',t+1)-Ir(x+d,t))2)
EZ(W,Z)=ψ(Gσ*(Ir(x+d,t)-Il(x,t))2)
EZ′(W,Z)=ψ(Gσ*(Ir(x+w+d',t+1)-Il(x+w,t+1))2)
其中,t时刻距离d=(fb/Z,0)T,t+1时刻距离d'=(fb/(Z+vZ),0)T,f为摄像机焦距,b为基线长度,光流w为:
2、场景流平滑项为:
其中,为场景流结构张量,可以分解为3个正交的特征矢量v1,v2,v3,对应的特征值分别为μ1,μ2,μ3。
3、深度平滑项为:
其中,扩散张量J′(Sσ)=λ1v1v1 T+λ2v2v2 T,λ1,λ2为两个特征值,
4、能量泛函为:
Esf=Edata+αEsmooth+βEdepth,
其中,α和β为系数。
有益效果:
本发明提供一种基于场景流驱动各向异性平滑和各向异性深度图平滑项的场景估计新方法,以解决现有技术中在遮挡或运动不连续区域场景流估计误差显著增加的问题,提高场景流估计的鲁棒性和精度。
附图说明
图1为本发明的设计流程图。
具体实施方式
下面将结合附图1对本发明做进一步详细说明。
S1.此步骤为对双目立体系统进行标定。将两个相同的摄像机平行放置(基本平行即可),使用棋盘标定法进行标定,使用数学方法计算得到摄像机的内外部参数,经双目校正后,左右图像是极线对齐的,左右摄像机获取的相应图像特征点在同一极线上,即对应的像素点在同一水平线上。
S2.利用已经标定好的双目立体系统获取左右立体图像序列。
S3.基于获取的左右图像序列计算视差图,获取空间中同一点在左右图像上的水平位置差,即视差。将空间中所有点的视差全部获取得到视差图,并由视差图转换得到深度图。此视差图也可以由任意视觉系统获取。
S4.设计基于3维流场正则化的场景流数据项。对双目立体摄像机进行标定,得到摄像机的内参数。对3维流场进行平滑时,流场和对应的数据项均采用摄像机坐标系进行表示,3维数据项使用彩色恒常假设及局部邻域约束。为约束3维流场,数据项利用摄像机内参数进行透视投影变换以表示为场景流W=(vX,vY,vZ)T与深度Z的函数,不失一般性,设立体摄像机具有单位焦距,光心位于图像原点,则场景流数据项一般形式在参考摄像机坐标系下可表示为
Edata=∫Ω(El+Er+EZ+EZ')dx (1)
其中,Z为t时刻场景点深度,Z'为t+1时刻场景点深度,且Z=Z+vZ。上式中各分量能量函数表示为
El(W,Z)=ψ(Gσ*(Il(x+w,t+1)-Il(x,t))2) (2)
Er(W,Z)=y(Gs*(Il(x+w+d',t+1)-Ir(x+d,t))2) (3)
EZ(W,Z)=ψ(Gσ*(Ir(x+d,t)-Il(x,t))2) (4)
EZ′(W,Z)=ψ(Gσ*(Ir(x+w+d',t+1)-Il(x+w,t+1))2) (5)
其中,d=(fb/Z,0)T,d'=(fb/(Z+vZ),0)T,f为摄像机焦距,b为基线长度。且利用透视投影关系,光流w可用场景流W及深度Z表示为
利用以上关系即可将数据项表示为场景流与深度的函数,以直接对3维流场施加约束。式中Gσ代表方差为σ的高斯平滑,标量函数ψ(s2)是一个可微函数,且是凸性的,这是为了保证其收敛性。
S5.设计3维流场平滑项。此部分直接对3维流场进行正则化,流场在3维空间具有光滑性,设计一种场景流驱动非线性各向异性平滑假设,从而在保证场景流光滑性的同时保持流场在3维空间中的运动不连续,形式如下。
上式中为场景流结构张量,可以分解为3个正交的特征矢量v1,v2,v3,对应的特征值分别为μ1,μ2,μ3,这3个特征值反应场景流在这3个特征矢量v1,v2,v3方向上的变化,这个张量反应的是场景流的局部变化信息。使用式(7)所示的平滑项,经过最速下降法,能够得到扩散项,
式(8)中的扩散矩阵,其特征值ψ'(u1),ψ'(u2),ψ'(u3)是不同的,从而实现场景流的各项异性扩散。
S6.设计深度平滑项。此部分的深度平滑项仅包含对深度图的平滑,相应的非线性各向异性深度图扩散项为,
通过设计扩散张量并进行本征分解,以得到不同方向上的扩散强度,从而进行各向异性平滑。
对扩散张量J(Sσ)进行设计,首先假设v1,v2已知,分别为平行于图像梯度方向和垂直于梯度方向,根据本征分解定理,J′(Sσ)=λ1v1v1 T+λ2v2v2 T,只需要设计特征值λ1,λ2就可以了,可以将其设计为,
这样在梯度|▽Z|→0的平坦区域,λ1→0.5,λ2→0.5,上述扩散变为各项同性扩散。在灰度边缘区域|▽Z|→∞,λ1→0,λ1→1,这样就增大了v2方向,即垂直方向的扩散,并且减小了v1方向,即平行梯度方向上的扩散。
S7.将数据项,
Edata=∫Ω(El+Er+EZ+EZ')dx (12)
场景流平滑项,
深度平滑项Edepth合并,构建场景流能量泛函,
Esf=Edata+αEsmooth+βEdepth (14)
S8.根据能量泛函,使用变分极小化的方法,得到能量泛函对应Euler方程的解,其通用形式为,
S9.利用超松弛迭代求解。此部分的算法需要深度初值,可以使用立体视差匹配算法得到的视差图,转换为深度图后作为初值代入算法进行迭代运算,场景流初值可设置为0。本方案采用的计算策略为,采用基于中值滤波的金字塔分级计算策略,按照一定的采样标准,将前后两帧图像分成n层,形成金字塔结构,原始图像为最高分辨率,越向上分辨率越低,采用这种方法,可以消除场景流估计的大位移问题。使用嵌套固定点迭代进行偏微分方程组的线性化,消除彩色恒常假设及鲁棒惩罚函数带来的非线性,使用超松弛迭代计算金字塔每一层中的场景流变化增量。
Claims (5)
1.基于3维流场正则化的变分场景流估计方法,其特征在于,包括以下几个步骤:
步骤一:将左右摄像机光轴平行摆放,利用标定板进行标定,获得摄像机内外参数;
步骤二:利用已经标定好的左右摄像机获取左右图像序列;
步骤三:利用获得的左右立体图像序列计算视差图,由视差图转换得到深度图;
步骤四:将3维流场进行正则化得到场景流数据项;
步骤五:将2维光流平滑项向3维空间扩展,得到场景流驱动各向异性的场景流平滑项;
步骤六:根据方向信息设计扩散张量并进行本征分解,得到每个方向上的扩散强度,从而进行各向异性平滑,得到深度平滑项;
步骤七:将场景流数据项、场景流平滑项和深度平滑项合并,构建能量泛函;
步骤八:使用变分极小化的方法,得到能量泛函对应的Euler方程的解;
步骤九:利用超松弛迭代对Euler方程进行迭代求解,得到优化后的场景流和深度信息。
2.根据权利要求1所述的基于3维流场正则化的变分场景流估计方法,其特征在于:所述的场景流数据项为:
Edata=∫Ω(El+Er+EZ+EZ')dx
其中,场景流W=(vX,vY,vZ)T,Z为t时刻场景点深度,Z'为t+1时刻场景点深度,且Z=Z+vZ,El(W,Z)为左图像序列的能量函数,Er(W,Z)右图像序列的能量函数,EZ(W,Z)为t时刻深度图序列的能量函数,EZ′(W,Z)为t+1时刻深度图序列的能量函数,
El(W,Z)=ψ(Gσ*(Il(x+w,t+1)-Il(x,t))2)
Er(W,Z)=y(Gs*(Il(x+w+d',t+1)-Ir(x+d,t))2)
EZ(W,Z)=ψ(Gσ*(Ir(x+d,t)-Il(x,t))2)
EZ′(W,Z)=ψ(Gσ*(Ir(x+w+d',t+1)-Il(x+w,t+1))2)
其中,t时刻距离d=(fb/Z,0)T,t+1时刻距离d'=(fb/(Z+vZ),0)T,f为摄像机焦距,b为基线长度,光流w为:
Gσ代表方差为σ的高斯平滑。
3.根据权利要求2所述的基于3维流场正则化的变分场景流估计方法,其特征在于:所述的场景流平滑项为:
其中,为场景流结构张量,可以分解为3个正交的特征矢量v1,v2,v3,对应的特征值分别为μ1,μ2,μ3。
4.根据权利要求3所述的基于3维流场正则化的变分场景流估计方法,其特征在于:所述的深度平滑项为:
其中,扩散张量J′(Sσ)=λ1v1v1 T+λ2v2v2 T,λ1,λ2为两个特征值,
5.根据权利要求1所述的基于3维流场正则化的变分场景流估计方法,其特征在于:所述的能量泛函为:
Esf=Edata+αEsmooth+βEdepth,
其中,α和β为系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510117536.6A CN104680544B (zh) | 2015-03-18 | 2015-03-18 | 基于3维流场正则化的变分场景流估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510117536.6A CN104680544B (zh) | 2015-03-18 | 2015-03-18 | 基于3维流场正则化的变分场景流估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104680544A CN104680544A (zh) | 2015-06-03 |
CN104680544B true CN104680544B (zh) | 2017-08-04 |
Family
ID=53315537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510117536.6A Expired - Fee Related CN104680544B (zh) | 2015-03-18 | 2015-03-18 | 基于3维流场正则化的变分场景流估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104680544B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106485675B (zh) * | 2016-09-27 | 2019-06-14 | 哈尔滨工程大学 | 一种基于3d局部刚性和深度图引导各向异性平滑的场景流估计方法 |
CN106504202B (zh) * | 2016-09-27 | 2019-04-12 | 哈尔滨工程大学 | 一种基于自适应非局部平滑的3d场景流估计方法 |
CN107341815B (zh) * | 2017-06-01 | 2020-10-16 | 哈尔滨工程大学 | 基于多目立体视觉场景流的剧烈运动检测方法 |
CN107767393B (zh) * | 2017-09-07 | 2021-05-25 | 南京信息工程大学 | 一种面向移动硬件的场景流估计方法 |
CN108932725B (zh) * | 2018-06-08 | 2021-10-26 | 哈尔滨工程大学 | 基于卷积神经网络的场景流估计方法 |
CN109242891B (zh) * | 2018-08-03 | 2020-05-01 | 天津大学 | 一种基于改进光流场模型的图像配准方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103458261A (zh) * | 2013-09-08 | 2013-12-18 | 华东电网有限公司 | 一种基于立体视觉的视频场景变化检测方法 |
-
2015
- 2015-03-18 CN CN201510117536.6A patent/CN104680544B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103458261A (zh) * | 2013-09-08 | 2013-12-18 | 华东电网有限公司 | 一种基于立体视觉的视频场景变化检测方法 |
Non-Patent Citations (3)
Title |
---|
Mobile Scene Flow Synthesis;Vincent Ly等;《IEEE International Symposium on Multimedia》;20131210;第439-444页 * |
Multi-view Scene Flow Estimation:A View Centered Variational Approach;Tali Basha等;《International Journal of Computer Vision》;20120614;第6-21页 * |
基于彩色的微分光流估计及运动目标检测技术研究;项学智;《中国博士学位论文全文数据库(信息科技辑)》;20110415;正文第2-5章 * |
Also Published As
Publication number | Publication date |
---|---|
CN104680544A (zh) | 2015-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104680544B (zh) | 基于3维流场正则化的变分场景流估计方法 | |
CN103247075B (zh) | 基于变分机制的室内环境三维重建方法 | |
CN107564061B (zh) | 一种基于图像梯度联合优化的双目视觉里程计算方法 | |
CN106780576B (zh) | 一种面向rgbd数据流的相机位姿估计方法 | |
CN106550174B (zh) | 一种基于单应性矩阵的实时视频稳像方法 | |
Zhuang et al. | Rolling-shutter-aware differential sfm and image rectification | |
CN104869387A (zh) | 基于光流法的双目图像最大视差获取方法 | |
CN106485675B (zh) | 一种基于3d局部刚性和深度图引导各向异性平滑的场景流估计方法 | |
CN108010081B (zh) | 一种基于Census变换和局部图优化的RGB-D视觉里程计方法 | |
CN104034269B (zh) | 一种单目视觉测量方法与装置 | |
CN108053367A (zh) | 一种基于rgb-d特征匹配的3d点云拼接与融合方法 | |
CN106651938A (zh) | 一种融合高分辨率彩色图像的深度图增强方法 | |
CN110766024B (zh) | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 | |
CN103456038A (zh) | 一种井下环境三维场景重建方法 | |
CN111311664B (zh) | 一种深度、位姿与场景流的联合无监督估计方法及系统 | |
CN106056622B (zh) | 一种基于Kinect相机的多视点深度视频复原方法 | |
CN107977996A (zh) | 基于靶标标定定位模型的空间目标定位方法 | |
US10229508B2 (en) | Dynamic particle filter parameterization | |
CN112927251B (zh) | 基于形态学的场景稠密深度图获取方法、系统及装置 | |
CN110310331A (zh) | 一种基于直线特征与点云特征结合的位姿估计方法 | |
CN108629828B (zh) | 三维大场景的移动过程中的场景渲染过渡方法 | |
CN103700082B (zh) | 基于对偶四元数相对定向的图像拼接方法 | |
CN114693720A (zh) | 基于无监督深度学习的单目视觉里程计的设计方法 | |
CN104504691B (zh) | 基于低秩纹理的摄像机位置和姿态测量方法 | |
CN113345032B (zh) | 一种基于广角相机大畸变图的初始化建图方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170804 |