CN102592287A - 基于3d视频的时空域运动分割与估计模型的凸优化方法 - Google Patents
基于3d视频的时空域运动分割与估计模型的凸优化方法 Download PDFInfo
- Publication number
- CN102592287A CN102592287A CN2011104573719A CN201110457371A CN102592287A CN 102592287 A CN102592287 A CN 102592287A CN 2011104573719 A CN2011104573719 A CN 2011104573719A CN 201110457371 A CN201110457371 A CN 201110457371A CN 102592287 A CN102592287 A CN 102592287A
- Authority
- CN
- China
- Prior art keywords
- mrow
- variable
- segmentation
- motion
- estimation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 116
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000005457 optimization Methods 0.000 title claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 6
- 230000014509 gene expression Effects 0.000 claims description 30
- 230000009977 dual effect Effects 0.000 claims description 13
- 238000013519 translation Methods 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 11
- 230000002040 relaxant effect Effects 0.000 claims description 8
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于3D视频的时空域运动分割与估计模型的凸优化方法,实施步骤如下:1)根据活动轮廓思想以及背景三维运动参数与二维光流的映射关系建立基于3D视频的时空域运动分割与估计模型;2)将模型转换为对应的水平集描述方程,求出对应的梯度下降方程,求出所述梯度下降方程的等价方程,求出对应于所述等价方程的能量泛函,对能量泛函进行凸松弛,得到凸优化后的时空域运动分割与估计模型;3)引入代价变量对凸优化后的时空域运动分割与估计模型进行进一步的松弛,采用多变量交替迭代算法最小化凸优化后的时空域运动分割与估计模型,迭代收敛后根据选择的门限函数得到最终的分割曲面。本发明具有对目标数量变化的适应性强、分割结果不依赖初始化轮廓、运算效率高的优点。
Description
技术领域
本发明涉及基于计算机视觉的运动分析领域,特别涉及一种利用凸松弛的概念将基于3D视频的运动分割与估计模型转化为全局凸优化极值问题的方法。
背景技术
视频序列的运动分析是计算机视觉领域中的一个基本研究课题,它的应用领域包括治安监控、机器视觉、自动导航、国防兵器、数字媒体、视频编码、3D电视、虚拟现实和智能交通等领域,这些都是国内外重点发展和研究领域。
尽管从二维序列图像或视频中进行运动分割、提取场景获得三维结构和物体的运动信息,无论从理论上还是在实际中都很重要,但由于图像形成的复杂性、三维运动场与图像特征的二维运动场之间的非线性关系和缺乏深度信息不能够对二维运动场精确建模等原因,所得的解通常是在某种先验知识作为约束条件下的近似解,且所得解对数据的噪声非常敏感。随着立体视觉系统和距离传感器的发展和进入实用,三维数据能够比较容易的直接获得。由于三维数据的信息量远高于二维图像,能够准确地表达三维运动和二维运动,三维运动的估计大为简化,将三维数据用于运动分割、提取场景的三维结构和物体的运动信息估计,可以期望得到更为准确和鲁棒的解。
Osher和Sethian首先提出了依赖于时间的运动曲面的水平集描述。水平集方法避免了对拓扑结构变化的处理,计算稳定,已在图像/视频处理和计算机视觉等领域得到了广泛的应用。国内外,不少学者将水平集方法应用在运动分割和光流估算上。有文献将由摄像机运动引起的背景运动用匀速模型表示,同时实现由摄像机运动引起的二维运动场估算和分割曲面的演化,曲面的演变用水平集方法实现。我们在前面研究了基于偏微分方程组水平集方法的多运动目标分割、跟踪、背景运动补偿和运动速度估计,方法中考虑了背景各点运动速度不相同的情况,它能同时进行背景光流的估算、背景运动补偿和运动目标的分割,但不能对摄像机的三维运动进行估算。然而,水平集方法也有一定的局限性,就是它对初始化条件敏感,产生这种现象的原因正是因为能量函数的非凸性使得水平集表示存在局部最小值。目前,很多的研究者将目光放在了如何建立全局凸模型的方法上,克服了水平集方法局部最小值和速度慢的问题,成为又一个研究热点。
发明内容
本发明要解决的技术问题是提供一种对目标数量变化的适应性强、分割结果不依赖初始化轮廓、运算效率高的基于3D视频的时空域运动分割与估计模型的凸优化方法。
为解决上述技术问题,本发明采用的技术方案为:
一种基于3D视频的时空域运动分割与估计模型的凸优化方法,其实施步骤如下:
1)根据活动轮廓思想以及背景三维运动参数与二维光流的映射关系建立基于3D视频的时空域运动分割与估计模型;
2)将所述时空域运动分割与估计模型转换为对应的水平集描述方程,求出所述水平集描述方程对应的梯度下降方程,求出所述梯度下降方程的等价方程,求解对应于所述等价方程的能量泛函,对能量泛函进行凸松弛,得到凸优化后的时空域运动分割与估计模型;
3)引入代价变量对凸优化后的时空域运动分割与估计模型进行进一步的松弛,采用多变量交替迭代算法最小化所述凸优化后的时空域运动分割与估计模型,迭代收敛后根据选择的门限函数得到最终的分割曲面。
作为本发明上述技术方案的进一步改进:
所述步骤1)中建立的时空域运动分割与估计模型的函数表达式为:
其中E为能量泛函,C为分割曲面,T为背景的平移变量,W为背景的旋转变量,T和W的表达分别为T=(t1,t2,t3)、W=(w1,w2,w3),It为图像的时间差分,Cin、Cout分别为时空域中曲面的内部(目标)和外部(背景)区域,ds为单位曲面,dx为单位像素点,α、λ为比例因子,s和q分别为对应于每个像素点的常数向量;s和q的函数表达式分别为:
其中,Ix为图像的横向差分,Iy为图像的纵向差分,x为像素点在图像坐标中的x轴坐标值,y为像素点在图像坐标中的y轴坐标值,Z为像素点在空间坐标中的z轴坐标值,f为摄像机焦距。
所述步骤2)的详细步骤为:
A)将所述时空域运动分割与估计模型转换为对应的水平集描述方程,所述水平集描述方程的函数表达式为:
其中,Ω为整个时空域积分区域,为内部(目标)区域的运动描述符,为外部(背景)区域的运动描述符,φ为符号距离函数,为符号距离函数φ的梯度的模,δ(φ)为关于符号距离函数φ的Dirac函数,H(φ)为关于符号距离函数φ的Heaviside函数,λ为比例因子;和的函数表达式为:
其中,It为图像的时间差分,T为背景的平移变量,W为背景的旋转变量,α为比例因子,s和q分别为对应于每个像素点的常数向量;
B)求出所述水平集描述方程对应的梯度下降方程,所述梯度下降方程的函数表达式为:
其中T为背景的平移变量,W为背景的旋转变量,x为图像空间中某一个像素点x,t为时间步长,为符号距离函数φ对时间步长的偏微分,为符号距离函数φ的散度,λ为比例因子,为内部区域的运动描述符,为外部区域的运动描述符,δ(φ)为关于符号距离函数φ的Dirac函数;
C)由于δ≥0,求出所述梯度下降方程的等价方程:
求解对应于所述梯度下降方程的等价方程的能量泛函:
将φ∈{0,1}松弛到连续区间[0,1]上,并用标记符号u代替φ,得到凸优化后的时空域运动分割与估计模型,所述凸优化后的时空域运动分割与估计模型的函数表达式为:
所述步骤3)的详细步骤为:
a)引入一个辅助变量v∈[0,1]来松弛对分割变量的限制,将所述优化后的时空域运动分割与估计模型进一步松弛,进一步松弛后的时空域运动分割与估计模型的函数表达式为:
b)将背景的平移变量T和旋转变量W初始化为0,将分割变量u和代价变量v初始化为任意值;
c)固定分割变量和代价变量,更新运动变量和区域运动描述符;
d)引入一个与分割变量对应的对偶变量,固定运动变量和代价变量,利用原始-对偶变量的对应关系更新分割变量;
e)固定运动变量和分割变量,更新代价变量;然后重复迭代所述步骤c)~步骤e)直至所述进一步松弛后的时空域运动分割与估计模型收敛;
f)选择门限函数σ∈(0,1),根据所述门限函数σ∈(0,1)得到最终的分割曲面C={x|u(x)=σ}。
所述步骤c)的详细步骤为:
对背景的运动参数(T,W)建立超定线性方程组θiAi=bi,其中θi=(Ti,Wi)为第i次迭代的背景运动变量,Ai是6×Ni的矩阵,bi是1×Ni的向量,其中Ni为第i次迭代时背景区域的像素点个数, bi=(-It(1),...,-It(Ni)),然后采用最小二乘法求解所述超定线性方程组得到运动参数(T,W)的估计值,并根据所述估计值更新 和r(T,W,x);
所述步骤d)的详细步骤为:
引入与原始分割变量u相对应的对偶变量当运动变量和代价变量固定,根据原始-对偶变量定义,u的泛函极值子问题的函数表达式为:
其中,v为代价变量,δt为时间步长。
所述步骤e)的详细步骤为:
当运动变量和分割变量固定时,代价变量的泛函极值子问题为:
对所述极值子问题求解,得到代价变量的迭代式为:
vi+1=min{max{ui+1-ελri+1(T,W,x),0},1}
其中vi+1为v在第i+1次迭代的值,ui+1为u在第i+1次迭代的值,ε为常数变量,λ为比例因子,ri+1(T,W,x)为区域运动描述符在第i+1次迭代的值。
本发明具有下述优点:
1、本发明通过活动轮廓思想以及背景三维运动参数与二维光流的映射关系建立基于3D视频的时空域运动分割与估计模型,能够实现基于时空域的动态背景情况下的多目标跟踪,能有效的利用空间和时域信息更好施加三维运动约束,适合于处理目标数目有变化的情况。
2、本发明通过对能量泛函进行凸松弛得到凸优化后的时空域运动分割与估计模型,然后通过引入代价变量对凸优化后的时空域运动分割与估计模型进行进一步的松弛,实现对时空域运动分割与估计模型的全局凸优化,能够避免初始化轮廓对结果的影响。
3、本发明通过引入代价变量对凸优化后的时空域运动分割与估计模型进行进一步的松弛,并引入对偶变量,采用多变量交替迭代算法最小化凸优化后的时空域运动分割与估计模型,极大地提高了运算效率。
附图说明
图1为本发明实施例的基本流程示意图。
图2为本发明实施例步骤3)的基本流程示意图。
图3为本发明实施例中3D视频在时空域运动分割与估计模型收敛后对某一帧图像估计出的光流场示意图。
图4为本发明实施例中基于图3的图像帧的分割变量演化结果示意图。
图5为本发明实施例中基于图3的图像帧的最终得到的分割曲面示意图。
具体实施方式
如图1所示,本发明实施例基于3D视频的时空域运动分割与估计模型的凸优化方法的实施步骤如下:
1)根据活动轮廓思想以及背景三维运动参数与二维光流的映射关系建立基于3D视频的时空域运动分割与估计模型;
2)将时空域运动分割与估计模型转换为对应的水平集描述方程,求出水平集描述方程对应的梯度下降方程,求出梯度下降方程的等价方程,求解对应于等价方程的能量泛函,对能量泛函进行凸松弛,得到凸优化后的时空域运动分割与估计模型;
3)引入代价变量对凸优化后的时空域运动分割与估计模型进行进一步的松弛,采用多变量交替迭代算法最小化凸优化后的时空域运动分割与估计模型,迭代收敛后根据选择的门限函数得到最终的分割曲面。
本实施例中,步骤1)中建立的时空域运动分割与估计模型的函数表达式为:
其中E为能量泛函,C为分割曲面,T为背景的平移变量,W为背景的旋转变量,T和W的表达分别为T=(t1,t2,t3)、W=(w1,w2,w3),It为图像的时间差分,Cin、Cout分别为时空域中曲面的内部(目标)和外部(背景)区域,ds为单位曲面,dx为单位像素点,α、λ为比例因子,s和q分别为对应于每个像素点的常数向量;s和q的函数表达式分别为:
其中,Ix为图像的横向差分,Iy为图像的纵向差分,x为像素点在图像坐标中的x轴坐标值,y为像素点在图像坐标中的y轴坐标值,Z为像素点在空间坐标中的z轴坐标值,f为摄像机焦距。
一般来说,两相的主动轮廓模型可以表示为:
其中C代表闭合曲线(2D图像)或曲面(3D图像),Cin和Cout分别代表图像空间中C的内部和外部区域,gb:Ω→R是边缘函数(比如测地线模型中的边缘检测函数),分别为自定义的内部和外部区域函数,ds、dx分别为单位长度/面积和单位像素点,λ为权重参数。
在摄像机运动的情况下建立对目标的运动分割与估计模型,首先是选择适当的参数模型对背景运动建模。假设背景为一个运动刚体,其三维运动(T,W)分别用平移变量T=(t1,t2,t3)和旋转变量W=(w1,w2,w3)表示。背景中任意一点运动产生的光流w=(u,v)满足光流约束方程其中代表图像梯度。根据光流场与三维运动参数的映射关系,背景区域的任意像素点满足以下三维光流约束方程:
Iop(T,W,x)=It+s·T+q·W=0 (2)
其中s和q均为3*1的常向量:
当(T,W)正确估计时,背景区域的Iop应该趋近于0;反之,前景区域的Iop就较大,因此3D光流约束方程是一个很好的用于区别前景和背景的特征。我们可以选用以下观察模型来设计区域运动函数:
其中α是用于控制内部和外部区间竞争的变量。另外,gb=1定义为时空曲面上的惩罚项,用来平滑三维曲面。这样,我们就得到了基于3D序列的时空域运动分割与估计模型:
本实施例中,步骤2)的详细步骤为:
A)将时空域运动分割与估计模型转换为对应的水平集描述方程,水平集描述方程的函数表达式为:
其中,Ω为整个时空域积分区域,为内部(目标)区域的运动描述符,为外部(背景)区域的运动描述符,φ为符号距离函数,为符号距离函数φ的梯度的模,δ(φ)为关于符号距离函数φ的Dirac函数,H(φ)为关于符号距离函数φ的Heaviside函数,λ为比例因子;和的函数表达式为:
其中,It为图像的时间差分,T为背景的平移变量,W为背景的旋转变量,α为比例因子,s和q分别为对应于每个像素点的常数向量;
B)求出水平集描述方程对应的梯度下降方程,梯度下降方程的函数表达式为:
其中T为背景的平移变量,W为背景的旋转变量,x为图像空间中某一个像素点x,t为时间步长,为符号距离函数φ对时间步长的偏微分,为符号距离函数φ的散度,λ为比例因子,为内部区域的运动描述符,为外部区域的运动描述符,δ(φ)为关于符号距离函数φ的Dirac函数;
C)由于δ≥0,求出梯度下降方程的等价方程:
求解对应于梯度下降方程的等价方程的能量泛函:
将φ∈{0,1}松弛到连续区间[0,1]上,并用标记符号u代替φ,得到凸优化后的时空域运动分割与估计模型,凸优化后的时空域运动分割与估计模型的函数表达式为:
能量函数的最小化通常使用水平集方法进行求解,它的主要思想是用n+1维函数的零水平集隐性的表示n维曲线C:Ω→Rn,这种方法的优势是可以处理变化的拓扑结构比如多条曲线的分裂和合并,且计算稳定。然而,水平集方法也有以下不足之处:1)每次迭代后都需要重新初始化符号距离函数,计算效率低;2)因为存在局部最小值问题,所有对初始化曲线敏感。为了克服上述问题,我们将对得到的3D时空域运动分割与估计模型进行凸优化。
基于水平集方法的3D时空域运动分割与估计模型(4)的目标函数可以表示为:
其中Ω为整个时空域积分区域,φ为以符号距离函数表示的水平集函数,H(φ)和δ(φ)分别为Heaviside函数和Dirac函数,和为前面定义的区域函数。形如式(5)的多变量优化问题通常采用子极值问题的交替优化来实现,当更新当前的后,水平集函数对应的梯度下降方程为:
由于δ≥0且不会影响水平集演化方向,式(6)可以改写成以下等价形式:
式(7)正是如下能量泛函对应的梯度下降方程
在水平集描述中φ的定义区间为{0,1},由于能量函数(8)定义在非凸集上,故其仍为非全局最优问题。将φ∈{0,1}松弛到连续区间[0,1]上,为了避免混淆,用符号u代替φ,上述问题就转化为如下全局最优模型:
其中
如图2所示,本实施例步骤3)的详细步骤为:
a)引入一个辅助变量v∈[0,1]来松弛对分割变量的限制,将优化后的时空域运动分割与估计模型进一步松弛,进一步松弛后的时空域运动分割与估计模型的函数表达式为:
b)将背景的平移变量T和旋转变量W初始化为0,将分割变量u和代价变量v初始化为任意值。
c)固定分割变量和代价变量,更新运动变量和区域运动描述符。
d)引入一个与分割变量对应的对偶变量,固定运动变量和代价变量,利用原始-对偶变量的对应关系更新分割变量。
e)固定运动变量和分割变量,更新代价变量;然后重复迭代步骤c)~步骤e)直至进一步松弛后的时空域运动分割与估计模型收敛;本实施例中3D视频中某一帧图像在时空域运动分割与估计模型收敛后估计出的光流场如图3所示,该帧图像的分割变量演化结果图如图4所示。
本实施例中,步骤c)的详细步骤为:
对背景的运动参数(T,W)建立超定线性方程组θiAi=bi,其中θi=(Ti,Wi)为第i次迭代的背景运动变量,Ai是6×Ni的矩阵,bi是1×Ni的向量,其中Ni为第i次迭代时背景区域的像素点个数, bi=(-It(1),...,-It(Ni)),然后采用最小二乘法求解超定线性方程组得到运动参数(T,W)的估计值,并根据估计值更新 和r(T,W,x);
本实施例中,步骤d)的详细步骤为:
为了求解分割变量,我们引入一个变量则全变分可以改写为以下形式:
根据对偶矢量的定义,对方程(11)求解可得:
将式(12)代入方程(11),得到:
式(13)等同于以下最小化问题:
根据欧拉-拉格朗日方程,可以得到x点处的最优解的必要条件:
将(16)代入(15),得到:
(17)
(19)
其中时间步长取δt=1/8。
代价变量的作用是对足够小的ε,使得u≈v。本实施例中,步骤e)的详细步骤为:
当运动变量和分割变量固定时,代价变量的泛函极值子问题为:
对极值子问题求解,得到代价变量的迭代式为:
vi+1=min{max{ui+1-ελri+1(T,W,x),0},1}
其中vi+1为v在第i+1次迭代的值,ui+1为u在第i+1次迭代的值,ε为常数变量,λ为比例因子,ri+1(T,W,x)为区域运动描述符在第i+1次迭代的值。
以上所述仅为本发明的优选实施方式,本发明的保护范围并不仅限于上述实施方式,凡是属于本发明原理的技术方案均属于本发明的保护范围。对于本领域的技术人员而言,在不脱离本发明的原理的前提下进行的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.一种基于3D视频的时空域运动分割与估计模型的凸优化方法,其特征在于其实施步骤如下:
1)根据活动轮廓思想以及背景三维运动参数与二维光流的映射关系建立基于3D视频的时空域运动分割与估计模型;
2)将所述时空域运动分割与估计模型转换为对应的水平集描述方程,求出所述水平集描述方程对应的梯度下降方程,求出所述梯度下降方程的等价方程,求解对应于所述等价方程的能量泛函,对能量泛函进行凸松弛,得到凸优化后的时空域运动分割与估计模型;
3)引入代价变量对凸优化后的时空域运动分割与估计模型进行进一步的松弛,采用多变量交替迭代算法最小化所述凸优化后的时空域运动分割与估计模型,迭代收敛后根据选择的门限函数得到最终的分割曲面。
2.根据权利要求1所述的基于3D视频的时空域运动分割与估计模型的凸优化方法,其特征在于,所述步骤1)中建立的时空域运动分割与估计模型的函数表达式为:
其中E为能量泛函,C为分割曲面,T为背景的平移变量,W为背景的旋转变量,T和W的表达分别为T=(t1,t2,t3)、W=(w1,w2,w3),It为图像的时间差分,Cin、Cout分别为时空域中曲面的内部(目标)和外部(背景)区域,ds为单位曲面,dx为单位像素点,α、λ为比例因子,s和q分别为对应于每个像素点的常数向量;s和q的函数表达式分别为:
其中,Ix为图像的横向差分,Iy为图像的纵向差分,x为像素点在图像坐标中的x轴坐标值,y为像素点在图像坐标中的y轴坐标值,Z为像素点在空间坐标中的z轴坐标值,f为摄像机焦距。
3.根据权利要求2所述的基于3D视频的时空域运动分割与估计模型的凸优化方法,其特征在于,所述步骤2)的详细步骤为:
A)将所述时空域运动分割与估计模型转换为对应的水平集描述方程,所述水平集描述方程的函数表达式为:
其中,Ω为整个时空域积分区域, 为内部(目标)区域的运动描述符, 为外部(背景)区域的运动描述符,φ为符号距离函数, 为符号距离函数φ的梯度的模,δ(φ)为关于符号距离函数φ的Dirac函数,H(φ)为关于符号距离函数φ的Heaviside函数,λ为比例因子; 和 的函数表达式为:
其中,It为图像的时间差分,T为背景的平移变量,W为背景的旋转变量,α为比例因子,s和q分别为对应于每个像素点的常数向量;
B)求出所述水平集描述方程对应的梯度下降方程,所述梯度下降方程的函数表达式为:
其中T为背景的平移变量,W为背景的旋转变量,x为图像空间中某一个像素点x,t为时间步长, 为符号距离函数φ对时间步长的偏微分, 为符号距离函数φ的散度,λ为比例因子, 为内部区域的运动描述符, 为外部区域的运动描述符,δ(φ)为关于符号距离函数φ的Dirac函数;
C)由于δ≥0,求出所述梯度下降方程的等价方程:
求解对应于所述梯度下降方程的等价方程的能量泛函:
将φ∈{0,1}松弛到连续区间[0,1]上,并用标记符号u代替φ,得到凸优化后的时空域运动分割与估计模型,所述凸优化后的时空域运动分割与估计模型的函数表达式为:
4.根据权利要求3所述的基于3D视频的时空域运动分割与估计模型的凸优化方法,其特征在于,所述步骤3)的详细步骤为:
a)引入一个辅助变量v∈[0,1]来松弛对分割变量的限制,将所述优化后的时空域运动分割与估计模型进一步松弛,进一步松弛后的时空域运动分割与估计模型的函数表达式为:
b)将背景的平移变量T和旋转变量W初始化为0,将分割变量u和代价变量v初始化为任意值;
c)固定分割变量和代价变量,更新运动变量和区域运动描述符;
d)引入一个与分割变量对应的对偶变量,固定运动变量和代价变量,利用原始-对偶变量的对应关系更新分割变量;
e)固定运动变量和分割变量,更新代价变量;然后重复迭代所述步骤c)~步骤e)直至所述进一步松弛后的时空域运动分割与估计模型收敛;
f)选择门限函数σ∈(0,1),根据所述门限函数σ∈(0,1)得到最终的分割曲面C={x|u(x)=σ}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110457371.9A CN102592287B (zh) | 2011-12-31 | 2011-12-31 | 基于3d视频的时空域运动分割与估计模型的凸优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110457371.9A CN102592287B (zh) | 2011-12-31 | 2011-12-31 | 基于3d视频的时空域运动分割与估计模型的凸优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102592287A true CN102592287A (zh) | 2012-07-18 |
CN102592287B CN102592287B (zh) | 2014-06-04 |
Family
ID=46480877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110457371.9A Expired - Fee Related CN102592287B (zh) | 2011-12-31 | 2011-12-31 | 基于3d视频的时空域运动分割与估计模型的凸优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102592287B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102800189A (zh) * | 2012-07-22 | 2012-11-28 | 江南大学 | 一种物联网环境下智能泊车路径优化方法 |
CN106803260A (zh) * | 2016-12-28 | 2017-06-06 | 辽宁师范大学 | 基于局部熵凸优化的红外船舶图像活动轮廓分割方法 |
CN107300386A (zh) * | 2017-06-05 | 2017-10-27 | 西北工业大学 | 一种基于仅测角导航的闭环凸优化最优交会制导方法 |
CN110163888A (zh) * | 2019-05-30 | 2019-08-23 | 闽江学院 | 一种新型的运动分割模型数量检测方法 |
CN110268338A (zh) * | 2017-02-09 | 2019-09-20 | 谷歌有限责任公司 | 使用视觉输入进行代理导航 |
CN110740331A (zh) * | 2019-08-05 | 2020-01-31 | 辽宁师范大学 | 基于自适应步长和Levenberg-Marquardt优化的视频弹性运动估计方法 |
CN111127479A (zh) * | 2019-12-17 | 2020-05-08 | 昆明理工大学 | 一种基于曲线面积的水平集图像分割方法 |
CN111325727A (zh) * | 2020-02-19 | 2020-06-23 | 重庆邮电大学 | 一种基于局部熵和水平集算法的颅内出血区域三维分割方法 |
CN112508925A (zh) * | 2020-12-16 | 2021-03-16 | 广州大学 | 电子锁面板质量检测方法、系统、计算机装置和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101038671A (zh) * | 2007-04-25 | 2007-09-19 | 上海大学 | 基于立体视觉三维手指运动轨迹跟踪方法 |
EP2214137A2 (en) * | 2009-01-29 | 2010-08-04 | Vestel Elektronik Sanayi ve Ticaret A.S. | A method and apparatus for frame interpolation |
-
2011
- 2011-12-31 CN CN201110457371.9A patent/CN102592287B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101038671A (zh) * | 2007-04-25 | 2007-09-19 | 上海大学 | 基于立体视觉三维手指运动轨迹跟踪方法 |
EP2214137A2 (en) * | 2009-01-29 | 2010-08-04 | Vestel Elektronik Sanayi ve Ticaret A.S. | A method and apparatus for frame interpolation |
Non-Patent Citations (3)
Title |
---|
SHIYAN WANG, ET AL.: "A Variational Approach for Ego-motion Estimation and Segmentation Based on 3D TOF Camera", 《2011 4TH INTERNATIONAL CONGRESS ON IMAGE AND SIGNAL PROCESSING》, vol. 3, 17 October 2011 (2011-10-17), pages 1160 - 1164 * |
于慧敏,等: "基于水平集的多运动目标时空分割与跟踪", 《中国图象图形学报》, vol. 12, no. 7, 31 July 2007 (2007-07-31), pages 1218 - 1223 * |
于慧敏,等: "基于水平集的多运动目标检测和分割", 《浙江大学学报(工学版)》, vol. 41, no. 3, 31 March 2007 (2007-03-31), pages 412 - 417 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102800189B (zh) * | 2012-07-22 | 2014-12-10 | 江南大学 | 一种物联网环境下智能泊车路径优化方法 |
CN102800189A (zh) * | 2012-07-22 | 2012-11-28 | 江南大学 | 一种物联网环境下智能泊车路径优化方法 |
CN106803260A (zh) * | 2016-12-28 | 2017-06-06 | 辽宁师范大学 | 基于局部熵凸优化的红外船舶图像活动轮廓分割方法 |
CN106803260B (zh) * | 2016-12-28 | 2019-08-09 | 辽宁师范大学 | 基于局部熵凸优化的红外船舶图像活动轮廓分割方法 |
CN110268338B (zh) * | 2017-02-09 | 2022-07-19 | 谷歌有限责任公司 | 使用视觉输入进行代理导航 |
CN110268338A (zh) * | 2017-02-09 | 2019-09-20 | 谷歌有限责任公司 | 使用视觉输入进行代理导航 |
CN107300386A (zh) * | 2017-06-05 | 2017-10-27 | 西北工业大学 | 一种基于仅测角导航的闭环凸优化最优交会制导方法 |
CN107300386B (zh) * | 2017-06-05 | 2020-06-09 | 西北工业大学 | 一种基于仅测角导航的闭环凸优化最优交会制导方法 |
CN110163888A (zh) * | 2019-05-30 | 2019-08-23 | 闽江学院 | 一种新型的运动分割模型数量检测方法 |
CN110163888B (zh) * | 2019-05-30 | 2021-03-02 | 闽江学院 | 一种新型的运动分割模型数量检测方法 |
CN110740331A (zh) * | 2019-08-05 | 2020-01-31 | 辽宁师范大学 | 基于自适应步长和Levenberg-Marquardt优化的视频弹性运动估计方法 |
CN110740331B (zh) * | 2019-08-05 | 2023-01-31 | 辽宁师范大学 | 基于自适应步长和Levenberg-Marquardt优化的视频弹性运动估计方法 |
CN111127479A (zh) * | 2019-12-17 | 2020-05-08 | 昆明理工大学 | 一种基于曲线面积的水平集图像分割方法 |
CN111325727A (zh) * | 2020-02-19 | 2020-06-23 | 重庆邮电大学 | 一种基于局部熵和水平集算法的颅内出血区域三维分割方法 |
CN111325727B (zh) * | 2020-02-19 | 2023-06-16 | 重庆邮电大学 | 一种基于局部熵和水平集算法的颅内出血区域三维分割方法 |
CN112508925A (zh) * | 2020-12-16 | 2021-03-16 | 广州大学 | 电子锁面板质量检测方法、系统、计算机装置和存储介质 |
CN112508925B (zh) * | 2020-12-16 | 2023-07-04 | 广州大学 | 电子锁面板质量检测方法、系统、计算机装置和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN102592287B (zh) | 2014-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102592287A (zh) | 基于3d视频的时空域运动分割与估计模型的凸优化方法 | |
Zhu et al. | The edge of depth: Explicit constraints between segmentation and depth | |
Gordon et al. | Depth from videos in the wild: Unsupervised monocular depth learning from unknown cameras | |
Liu et al. | Camliflow: bidirectional camera-lidar fusion for joint optical flow and scene flow estimation | |
Brickwedde et al. | Mono-sf: Multi-view geometry meets single-view depth for monocular scene flow estimation of dynamic traffic scenes | |
Liu et al. | Unsupervised Learning of Scene Flow Estimation Fusing with Local Rigidity. | |
Petrovai et al. | Exploiting pseudo labels in a self-supervised learning framework for improved monocular depth estimation | |
Li et al. | Rigidflow: Self-supervised scene flow learning on point clouds by local rigidity prior | |
Jiao et al. | Effiscene: Efficient per-pixel rigidity inference for unsupervised joint learning of optical flow, depth, camera pose and motion segmentation | |
CN103702098A (zh) | 一种时空域联合约束的三视点立体视频深度提取方法 | |
Cao et al. | Learning independent object motion from unlabelled stereoscopic videos | |
CN108021857B (zh) | 基于无人机航拍图像序列深度恢复的建筑物检测方法 | |
Zhu et al. | Robustness meets deep learning: An end-to-end hybrid pipeline for unsupervised learning of egomotion | |
CN106952292B (zh) | 基于6自由度场景流聚类的3d运动目标检测方法 | |
Wang et al. | 3D hierarchical refinement and augmentation for unsupervised learning of depth and pose from monocular video | |
Wang et al. | Improving RGB-D SLAM accuracy in dynamic environments based on semantic and geometric constraints | |
Liu et al. | Learning optical flow and scene flow with bidirectional camera-lidar fusion | |
Lu et al. | 3d sceneflownet: Self-supervised 3d scene flow estimation based on graph cnn | |
Papadopoulos et al. | Neural vision-based semantic 3D world modeling | |
Shi et al. | Self-supervised learning of depth and ego-motion with differentiable bundle adjustment | |
Bhutani et al. | Unsupervised Depth and Confidence Prediction from Monocular Images using Bayesian Inference | |
Ziyun et al. | The compensated HS optical flow estimation based on matching Harris corner points | |
Zhang et al. | Dyna-depthformer: Multi-frame transformer for self-supervised depth estimation in dynamic scenes | |
Chen et al. | A compacted structure for cross-domain learning on monocular depth and flow estimation | |
CN114170288A (zh) | 一种基于面元的三维重建方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140604 |