CN106504202B - 一种基于自适应非局部平滑的3d场景流估计方法 - Google Patents

一种基于自适应非局部平滑的3d场景流估计方法 Download PDF

Info

Publication number
CN106504202B
CN106504202B CN201610854332.5A CN201610854332A CN106504202B CN 106504202 B CN106504202 B CN 106504202B CN 201610854332 A CN201610854332 A CN 201610854332A CN 106504202 B CN106504202 B CN 106504202B
Authority
CN
China
Prior art keywords
smooth
scene flows
adaptive non
non local
equation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610854332.5A
Other languages
English (en)
Other versions
CN106504202A (zh
Inventor
项学智
白二伟
徐旺旺
颜子轲
肖德广
李佳佳
盛玉娇
魏依萌
张磊
乔玉龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201610854332.5A priority Critical patent/CN106504202B/zh
Publication of CN106504202A publication Critical patent/CN106504202A/zh
Application granted granted Critical
Publication of CN106504202B publication Critical patent/CN106504202B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明属于机器视觉领域,具体涉及一种基于自适应非局部平滑的3D场景流估计方法。本发明包括:根据双目摄像机获取的立体图像序列之间的对应关系,将局部约束方法与全局平滑相结合,并引入自适应非局部平滑;参考Lucas模型,设计局部邻域约束的场景流数据项;平滑项采用鲁棒函数,构造近似于L1范数的全变分平滑;使用去对偶的方式求解能量泛函。本发明能够有效地去除图像序列中噪声产生的异质点,保持运动场的边缘信息,能有效地传递给低纹理区域。

Description

一种基于自适应非局部平滑的3D场景流估计方法
技术领域
本发明属于机器视觉领域,具体涉及一种基于自适应非局部平滑的3D场景流估计方法。
背景技术
我们所处的世界是复杂多变的,而人类认识世界的过程中,绝大多部分信息是来自于视觉。随着计算机技术和传感器的快速发展,机器视觉成为人类实现自动数据采集的重要组成部分,它被广泛应用在军事,医疗和民用等领域。而在视觉领域,相比于静止的物体,运动的物体包含了更多的信息,运动流场搭建了从底层信息到高层图像分析的桥梁。
光流场通过结合物体亮度与运动场,巧妙地实现了对物体运动的估计,但是它丢失了深度方向的信息,不利于3维场景的科学研究应用。相比于光流,场景流在这方面更具优势,能够提供更真实的底层信息。
传统的场景流主要是基于全变分和L1范数的TV-L1模型,由于它模型简单易于计算得到了广泛应用,但是它存在着大量的不足,主要有:1.不能有效地去除图像序列中噪声产生的异质点,2.由于是对流场的全局平滑,无法保持运动场的边缘信息,模糊掉了有用的运动特征,3.速度信息不能有效地传递给低纹理区域。
发明内容
本发明的目的在于通过计算流场点邻域内所有相似点欧式距离的平均值,在迭代的每一层对流场进行平滑处理,以解决现有场景流模型中的缺点的基于自适应非局部平滑的3D场景流估计方法。
本发明的目的是这样实现的:
S1根据双目摄像机获取的立体图像序列之间的对应关系,将局部约束方法与全局平滑相结合,并引入自适应非局部平滑,构建场景流能量泛函:
S2参考Lucas模型,设计局部邻域约束的场景流数据项:
其中,region为像素点的邻域范围,ω为像素点在计算流场时的权重系数,像素点离中心越近,权重系数ω越大。由于数据项的邻域约束是相同像素点在时刻t和时刻t+1的左右图像对的邻域之和,可以有效地低噪声带来的估计误差,数据项满足亮度不变性假设,并引入鲁棒性惩罚函数ψ(s2)去除集外点的影响;
S3平滑项采用鲁棒函数ψ(s2),构造近似于L1范数的全变分平滑:
STV=ψ(|▽u|2+|▽v|2+|▽w|2),
在原有全变分平滑项STV的基础上,引入自适应非局部平滑SMF,通过计算速度邻域内所有相似点欧式距离的平均值,在迭代的每一层对流场进行自适应平滑处理,消除图像噪声,环境噪声,通过滤波的方式将有效的运动信息投射给低纹理等无法获取有效运动信息的区域:
其中,ηi,j,i',j'为自适应权重因子,它代表了像素点(i',j')与(i,j)处的流场的相似程度;
在每一次迭代中平滑场景流,引入辅助变量(u',v',w'),在迭代计算中通过去耦合加速模型的计算,辅助平滑项定义如下:
SDU=(||u-u'||2+||v-v'||2+||w-w'||2);
S4使用去对偶的方式求解能量泛函,将能量泛函分解成相互对偶的两个方程:
E(u',v',w')=∫Ω2SDU3SMF)dx
采用交替迭代求全局最优解的方式,分别求得3D场景流和辅助流场。
步骤S3包括:
SMF中自适应权重因子定义如下:
I(i,j)为(i,j)处的亮度值,α1=α2=7,o(i,j)为遮挡函数,使用以下等式进行计算:
等式中αd=0.3,αe=20,d(i,j)是散度公式,定义为:
步骤S4包括:
S4.1.方程E(u,v,w)满足TV-L1-Duality形式,将方程进一步分解为两个部分交替迭代:
1)固定辅助变量(u',v',w'),得到:
使用全变分去噪ROF模型求解;
2)将(u,v,w)固定,求解方程:
并将数据项简写作ρ(w),即:
采用将N维优化问题转化为1维逐点阈值求解的方案处理,
S4.2求解E(u',v',w')使用收缩算子的优化方案,迭代方式如下:
以u'为例,选择5x5的矩形区域Ni,j,固定(u,v,w):
u'(k+1)=median(Heighbors(k)∪Data)i,j
u'(k+1)的初始值取上一步的结果,即:
u'0=u;
Heighbors(k)为u'的邻域集合:
Heighbors(k)={u'(k) i',j'},(i',j')∈Ni,j
Data通过以下的形式表示,
v',w'具有相同的求解方式。
本发明的有益效果在于:本发明能够有效地去除图像序列中噪声产生的异质点,保持运动场的边缘信息,能有效地传递给低纹理区域。
附图说明
图1为本发明的设计流程图。
图2为双目摄像机采集到图像序列的立体对应关系。
图3为本发明收缩算子模型。
具体实施方式
下面结合附图对本发明进行更详尽的描述。
本发明包括以下几个步骤:
S1.根据双目摄像机获取的立体图像序列之间的对应关系,将局部约束方法与全局平滑相结合,并引入自适应非局部平滑,构建场景流能量泛函。
S2.参考Lucas模型,设计局部邻域约束的场景流数据项,数据项满足亮度不变性假设,并引入鲁棒性惩罚函数去掉集外点的影响。
S3.平滑项采用鲁棒函数,构造近似于L1范数的全变分平滑,并引入自适应非局部平滑SMF,在迭代的每一层对流场进行平滑处理,消除图像噪声,环境噪声,还能通过滤波的方式将有效的运动信息投射给低纹理等无法获取有效运动信息的区域,引入辅助变量(u',v',w'),在迭代计算中通过去耦合加速模型的计算,获得更好的全局最优性。
S4.使用去对偶的方式求解能量泛函,将能量泛函分解成相互对偶的两个方程E(u,v,w)和E(u',v',w'),采用交替迭代求全局最优解的方式,分别求得3D场景流和辅助流场。
其中在求解E(u,v,w)的过程中,由于满足TV-L1-Duality形式,将其进一步分解为两部分:
方程(1)使用全变分去噪ROF(Rudin,Osher and Fatemi)模型求解,方程(2)采用逐点阈值求解的方案,将N维优化问题减少到1维。
求解E(u',v',w')的迭代方法为收缩算子的优化方案,最终得到平滑的场景流。
S1.如附图2所示,利用已经标定好的双目立体系统获取左右立体图像序列。
真实场景中的点在短时间内由P0位置移动到了Pt位置,相对应的,在左右摄像机成像平面中分别为点pl和点pr,由于视角的不同,pl和pr存在一个位置上的差异,用d表示,W=(U,V,W)为真实世界中点P的速度矢量,w=(u,v,w)为映射到成像平面的速度矢量。
根据双目摄像机获取的立体图像序列之间的对应关系,将局部约束方法与全局平滑相结合,并引入自适应非局部平滑,构建场景流能量泛函:
S2.参考Lucas模型,设计局部约束的场景流数据项。
其中,region为像素点的邻域范围,ω为像素点在计算流场时的权重系数,像素点离中心越近,权重系数ω越大。由于数据项的邻域约束综合了时刻t和时刻t+1的左右图像对,可以有效的降低噪声带来的估计误差,数据项满足亮度不变性假设。引入如下定义:
Δ(I,x;I',x+dx)=|I'(x+dx)-I(x)| (5)
根据附图2所示的立体对应关系,各项分别定义为:
Cml=ψ(Δ(Il,x;Il,x+w)), (6)
Cmr=ψ(Δ(Ir,x;Ir,x+w)), (7)
Cst=ψ(Δ(Il,x;Ir,x+d)), (8)
Cst'=ψ(Δ(Il,x+w;Ir,x+w+d')), (9)
ψ(s2)=(s22)α为鲁棒性惩罚函数,α被证明在小于0.5的时候,性能达到最优,取α=0.45。在变分极小化的过程中,数据项采用一阶泰勒展开近似表示:
S3.平滑项采用鲁棒函数ψ(s2),构造近似于L1范数的全变分平滑,相比于L2范数,它对偏差的处罚小,能够减少对流场边缘的模糊,具有更优的间断处理能力,定义如下:
STV=ψ(|▽u|2+|▽v|2+|▽w|2), (11)
在原有全变分平滑项STV的基础上,引入自适应非局部平滑SMF,通过计算领域内所有相似点的平均值,在迭代的每一层对流场进行平滑处理,消除图像噪声,环境噪声,还能通过滤波的方式将有效的运动信息投射给低纹理等无法获取有效运动信息的区域,SMF定义如下:
其中,ηi,j,i',j'为自适应权重因子,它代表了像素点(i',j')与(i,j)处的流场的相似程度,定义如下:
I(i,j)为(i,j)处的亮度值,α1=α2=7,o(i,j)为遮挡函数,使用以下等式进行计算:
等式中αd=0.3,αe=20,d(i,j)是散度公式,定义为:
为加速场景流计算,在每一次迭代中平滑场景流,并引入辅助变量(u',v',w'),在迭代计算中通过去耦合加速模型的计算,获得更好的全局最优性,
SDU=(||u-u'||2+||v-v'||2+||w-w'||2), (16)
S4.使用去对偶的方式求解能量泛函,将能量泛函(3)分解成相互对偶的两个方程:
E(u',v',w')=∫Ω2SDU3SMF)dx, (18)
采用交替迭代求全局最优解的方式,分别求得3D场景流和辅助流场。
S4.1方程E(u,v,w)满足TV-L1-Duality形式。将方程进一步分解为两个部分交替迭代:
1>.固定辅助变量(u',v',w'),求解方程:
方程(19)满足全变分去噪ROF(Rudin,Osher and Fatemi)模型,利用梯度下降法,得到TV平滑模型,即:
将上述方程的变换为离散迭代的形式:
首次迭代将(u',v',w')设置为0,之后的迭代中(u',v',w')取交替迭代的上一步中得到的(u,v,w)。
2>.将(u,v,w)固定,求解方程:
并将数据项简写作ρ(w),即:
方程(27)不依赖于辅助变量(u',v',w')的导数,采用将N维优化问题转化为使用1维逐点阈值求解的方案处理,
S4.2.求解E(u',v',w')使用收缩算子的优化方案,迭代方式如下:
基于总变分的TV-L1去噪模型为:
将其离散化:
仅考虑一个邻接点,并令之为0:
推导出它的解:
shrink为收缩算子,它的模型如图3:
由此推出一般模型:
其中wi>0,ui按升序排列,即u1≤u2≤...ui,S(u)是严格的凸函数,上式的解为:
u=median{u1,u2...un,p1,p2...pn}, (33)
其中,pi=(S')-1(∑wi)。
根据以上理论,以u'为例,我们选择5x5的矩形区域Ni,j,固定(u,v,w)利用以下的迭代方式进行求解:
u'(k+1)=median(Heighbors(k)∪Data)i,j, (34)
这里u'(k+1)的初始值取上一步的结果,即:
u'0=u, (35)
Heighbors(k)为u'的邻域集合,形式如下:
Heighbors(k)={u'(k) i',j'},(i',j')∈Ni,j, (36)
Data通过以下的形式表示,
v',w'具有相同的求解方式。最终得到平滑的场景流。
以上实施方式仅用于说明本发明的技术方案,而非对其的限制,本领域的科研人员在不使相应的技术方案脱离本发明的精神和范围的情况下,还可以做出各种变化与变型,所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。
本发明涉及一种基于自适应非局部平滑的3D场景流估计方法,包括:S1.根据双目摄像机获取的立体图像序列之间的对应关系,将局部约束方法与全局平滑相结合,并引入自适应非局部平滑,构建场景流能量泛函。S2.参考Lucas光流模型,设计局部邻域约束的场景流数据项,数据项满足亮度不变性假设,并引入鲁棒性惩罚函数去掉集外点的影响。S3.平滑项采用L1范数的全变分TV-L1平滑,并引入自适应非局部平滑SMF,在迭代的每一层对流场进行平滑处理,消除图像噪声,环境噪声,将有效的运动信息投射给低纹理等无法获取有效运动信息的区域,引入辅助变量(u',v',w'),在迭代计算中通过去耦合加速模型的计算,获得更好的全局最优性。S4.使用去对偶的方式求解能量泛函,将能量泛函分解成相互对偶的两个方程E(u,v,w)和E(u',v',w'),采用交替迭代求全局最优解的方式,分别求得3D场景流和辅助流场。其中在求解E(u,v,w)的过程中,由于满足TV-L1-Duality形式将其进一步分解为两部分,第一部分使用全变分去噪ROF(Rudin,Osher and Fatemi)模型求解,第二部分采用逐点阈值求解的方案,将N维优化问题使用1维阈值处理。求解E(u',v',w')的迭代方法为收缩算子的优化方案,最终得到平滑的场景流。

Claims (3)

1.一种基于自适应非局部平滑的3D场景流估计方法,其特征在于,包括以下步骤:
S1根据双目摄像机获取的立体图像序列之间的对应关系,将局部约束方法与全局平滑相结合,并引入自适应非局部平滑,构建场景流能量泛函:
S2参考Lucas模型,设计局部邻域约束的场景流数据项:
其中,region为像素点的邻域范围,ω为像素点在计算流场时的权重系数,像素点离中心越近,权重系数ω越大;由于数据项的邻域约束是相同像素点在时刻t和时刻t+1的左右图像对的邻域之和,可以有效降低噪声带来的估计误差,数据项满足亮度不变性假设,并引入鲁棒性惩罚函数ψ(s2)去除集外点的影响;
S3平滑项采用鲁棒函数ψ(s2)来构造全变分平滑:
STV=ψ(|▽u|2+|▽v|2+|▽w|2),
在原有全变分平滑项STV的基础上,引入自适应非局部平滑SMF,通过计算速度邻域内所有相似点欧式距离的平均值,在迭代的每一层对流场进行自适应平滑处理,消除图像噪声与环境噪声,通过滤波的方式将有效的运动信息投射给无法获取有效运动信息的低纹理区域:
其中,ηi,j,i',j'为自适应权重因子,它代表了像素点(i',j')与(i,j)处的流场的相似程度;
在每一次迭代中平滑场景流,引入辅助变量(u',v',w'),在迭代计算中通过去耦合加速模型的计算,辅助平滑项定义如下:
SDU=(||u-u'||2+||v-v'||2+||w-w'||2);
S4使用去对偶的方式求解能量泛函,将能量泛函分解成相互对偶的两个方程:
E(u',v',w')=∫Ω2SDU3SMF)dx,
采用交替迭代求全局最优解的方式,分别求得3D场景流和辅助流场。
2.根据权利要求1所述的一种基于自适应非局部平滑的3D场景流估计方法,其特征在于,步骤S3包括:
SMF中自适应权重因子定义如下:
I(i,j)为(i,j)处的亮度值,α1=α2=7,o(i,j)为遮挡函数,使用以下等式进行计算:
等式中αd=0.3,αe=20,d(i,j)是散度公式,定义为:
3.根据权利要求1所述的一种基于自适应非局部平滑的3D场景流估计方法,其特征在于,步骤S4包括:
S4.1.方程E(u,v,w)满足TV-L1-Duality形式,将方程进一步分解为两个部分交替迭代:
1)固定辅助变量(u',v',w'),得到:
使用全变分去噪ROF模型求解;
2)将(u,v,w)固定,求解方程:
并将数据项简写作ρ(w),即:
采用将N维优化问题转化为1维逐点阈值求解的方案处理,
S4.2.求解E(u',v',w')使用收缩算子的优化方案,迭代方式如下:
选择5x5的矩形区域Ni,j,固定(u,v,w):
u'(k+1)=median(Heighbors(k)∪Data)i,j
u'(k+1)的初始值取上一步的结果,即:
u'0=u;
Heighbors(k)为u'的邻域集合:
Heighbors(k)={u'(k) i',j'},(i',j')∈Ni,j
Data通过以下的形式表示:
v',w'具有相同的求解方式。
CN201610854332.5A 2016-09-27 2016-09-27 一种基于自适应非局部平滑的3d场景流估计方法 Active CN106504202B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610854332.5A CN106504202B (zh) 2016-09-27 2016-09-27 一种基于自适应非局部平滑的3d场景流估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610854332.5A CN106504202B (zh) 2016-09-27 2016-09-27 一种基于自适应非局部平滑的3d场景流估计方法

Publications (2)

Publication Number Publication Date
CN106504202A CN106504202A (zh) 2017-03-15
CN106504202B true CN106504202B (zh) 2019-04-12

Family

ID=58290572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610854332.5A Active CN106504202B (zh) 2016-09-27 2016-09-27 一种基于自适应非局部平滑的3d场景流估计方法

Country Status (1)

Country Link
CN (1) CN106504202B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341815B (zh) * 2017-06-01 2020-10-16 哈尔滨工程大学 基于多目立体视觉场景流的剧烈运动检测方法
CN107767393B (zh) * 2017-09-07 2021-05-25 南京信息工程大学 一种面向移动硬件的场景流估计方法
CN111775759B (zh) * 2020-07-10 2020-12-15 李国安 一种新能源汽车充电桩智能管理系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318569A (zh) * 2014-10-27 2015-01-28 北京工业大学 基于深度变分模型的空间显著性区域提取方法
CN104680544A (zh) * 2015-03-18 2015-06-03 哈尔滨工程大学 基于3维流场正则化的变分场景流估计方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318569A (zh) * 2014-10-27 2015-01-28 北京工业大学 基于深度变分模型的空间显著性区域提取方法
CN104680544A (zh) * 2015-03-18 2015-06-03 哈尔滨工程大学 基于3维流场正则化的变分场景流估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大规模场景流体模拟的耦合算法;武小龙等;《计算机辅助设计与图形学学报》;20110630;1029-1031

Also Published As

Publication number Publication date
CN106504202A (zh) 2017-03-15

Similar Documents

Publication Publication Date Title
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN106251399B (zh) 一种基于lsd-slam的实景三维重建方法及实施装置
Cannons A review of visual tracking
JP2022173399A (ja) 画像処理装置、画像処理方法
Yu et al. 3d reconstruction from accidental motion
CN104899590B (zh) 一种无人机视觉目标跟随方法及系统
CN104144282B (zh) 一种适用于空间机器人视觉系统的快速数字稳像方法
CN106595659A (zh) 城市复杂环境下多无人机视觉slam的地图融合方法
CN106504202B (zh) 一种基于自适应非局部平滑的3d场景流估计方法
Pintore et al. Omnidirectional image capture on mobile devices for fast automatic generation of 2.5 D indoor maps
US10839541B2 (en) Hierarchical disparity hypothesis generation with slanted support windows
WO2023071790A1 (zh) 目标对象的姿态检测方法、装置、设备及存储介质
CN104680544B (zh) 基于3维流场正则化的变分场景流估计方法
Kim et al. Spatio-temporal weighting in local patches for direct estimation of camera motion in video stabilization
CN113674400A (zh) 基于重定位技术的光谱三维重建方法、系统及存储介质
CN112668550A (zh) 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法
Tan et al. Background subtraction based level sets for human segmentation in thermal infrared surveillance systems
CN107330930B (zh) 三维图像深度信息提取方法
CN112927251A (zh) 基于形态学的场景稠密深度图获取方法、系统及装置
CN103337082B (zh) 基于统计形状先验的视频分割方法
CN101710426A (zh) 一种深度图像跟踪方法
CN116823694B (zh) 基于多聚焦信息整合的红外与可见光图像融合方法及系统
Zhao et al. 3D object tracking via boundary constrained region-based model
Lee et al. Single image-based depth estimation using dual off-axis color filtered aperture camera
Kim et al. Two-phase approach for multi-view object extraction

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant