CN106384361B - 多视环境中基于水平集函数演化的非刚性目标场景流估计方法 - Google Patents
多视环境中基于水平集函数演化的非刚性目标场景流估计方法 Download PDFInfo
- Publication number
- CN106384361B CN106384361B CN201610824712.4A CN201610824712A CN106384361B CN 106384361 B CN106384361 B CN 106384361B CN 201610824712 A CN201610824712 A CN 201610824712A CN 106384361 B CN106384361 B CN 106384361B
- Authority
- CN
- China
- Prior art keywords
- level set
- set function
- voxel
- target
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Generation (AREA)
Abstract
本发明公开了多视环境中基于水平集函数演化的非刚性目标场景流估计,具体按照以下步骤实施:步骤1:多视环境设置及预处理;步骤2:获取静态目标三维外形;步骤3:构建时间序列上的关于水平集函数的能量泛函;步骤4:获取动态非刚性目标三维外形及其场景流。本发明用水平集函数的演化模拟非刚性目标的运动,在时空颜色相关性约束、投影区域一致性约束下有效地驱动非刚性目标初始外形曲面向目标曲面演化,而水平集函数自身特点的约束,使的水平集函数演化后仍为水平集函数,避免了水平集函数重新初始化的问题,解决了现在估计非刚性目标的场景流时,由于环境因素,计算方法不当,往往会使得场景流不够连续、不平滑或存在空洞的问题。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种多视环境中基于水平集函数演化的非刚性目标场景流估计方法。
背景技术
多视环境中非刚性目标的三维外形场景流估计指在多视环境下获取目标在不同视点的图像,依据计算机视觉原理恢复目标的三维外形,然后根据多视环境获取的目标的运动视频,使用计算机视觉、数字视频处理方法估计其三维外形的运动场,即场景流。非刚性目标三维外形场景流估计方法可获取动态非刚性目标不同时刻三维外形的关联性,因此在虚拟现实、人机交互等方面有着重要的应用。
文献Three-Dimensional Scene Flow(IEEE Transactions on PatternAnalysis and Machine Intelligence,27(3):475–480,2005)和Time VaryingVolumetric Scene Reconstruction Using Scene Flow(The 18th British MachineVision Conference,2007)首先使用多视摄像机获取目标的运动视频,然后分别求取每个摄像机获取的视频的光流场,最后依据计算机视觉理论,将多摄像机标定参数与多个摄像机中的光流场结合,恢复目标的场景流。这类方法获取的场景流其实是由不同视点场景流拼合而成的,因此摄像机标定误差、噪声等因素往往会使得最终获取的场景流存在不连续、不平滑现象。
发明内容
本发明的目的是提供一种多视环境中基于水平集函数演化的非刚性目标场景流估计方法,解决了现有获取的场景流存在不连续、不平滑的问题。
本发明所采用的技术方案是,多视环境中基于水平集函数演化的非刚性目标场景流估计方法,具体按照以下步骤实施:
步骤1:多视环境设置及预处理;
步骤2:获取静态目标三维外形;
步骤3:构建时间序列上的关于水平集函数的能量泛函;
步骤4:获取动态非刚性目标三维外形及其场景流。
本发明的特点还在于:
步骤1具体为:
将nCamNum个摄像机环绕观测场景放置,并使用张氏标定法获取摄像机的内、外参数;然后使用nCamNum个摄像机采集不包含目标的背景图像{Back1,Back2,...,Backj,...,BacknCamNum};之后将动态非刚性目标O置于观测场景中,多个摄像机同步采集目标的运动视频,在时刻t、时刻t+1,同步采集到的视频帧分别为{I1,t,I2,t,...,Ij,t,...,IncamNum,t}、{I1,t+1,I2,t+1,...,Ij,t+1,...,InCamNum,t+1},最后使用背景减法获取目标O的侧影轮廓,即目标图像,在时刻t和时刻t+1,分别使用多视图像帧减去背景图像,从而获取目标图像:{Silhouette1,t,...,Silhouettej,t,...,SilhouettenCamNum,t}、{Silhouette1,t+1,...,Silhouettej,t+1,...,SilhouettenCamNum,t+1}。
步骤2具体为:
将多视摄像机的公共观测区域离散化为一个三维体素空间Ω;
首先,使用{Silhouette1,t,...,Silhouettej,t,...,SilhouettenCamNum,t},基于体素着色法重建目标三维外形的体素模型Shape_Datat,其中,
然后,重建目标三维外形,及初始化场景流估计所需的水平集函数:
Step1:初始化水平集函数φ(x):在Ω内,靠近Ω边缘的区域构造一个足够大的封闭初始曲面Γ(0),确保其能够包括Shape_Data的所有体素,构造初始水平集函数φ0(x):
其中c0为一预先给定的正整数;
Step2:构造关于水平集函数φ(x)的能量函数E(φ):
其中,α、β和γ为比例系数,g(x)为在Ω中计算距离场为:g(x)=dist(x,Shape_Data),其中,x∈Ω,dist(x,Shape_Data)表示体素x到三维外形Shape_Data的最短距离,δ为Dirac函数;
P(φ)为惩罚项为:
为:
A(φ)为加速项为:
H(x)是Heaviside函数,η是偏移程度,当g<η时,加速项失效,从而可确保曲面不会穿过空洞;
对于能量函数E(φ),其相应的梯度下降流,即水平集函数的演化速度为:
Step3:令更新水平集函数:
φn+1(x)=φn(x)+δτ·D(φn(x)) (7)
n表示迭代次数,δτ为时间步长;
Step4:判断是否小于阈值来判断是否收敛,若不收敛,则按照式(7)计算φn+1(x)的值,并转至Step4,若收敛,则结束;
令ft(x)=φn+1(x),作为时刻t目标三维外形的水平集函数表示。
在曲面演化开始前,η赋值为以体素为单位的模型最大空洞的直径长度。
为了加快Step3的更新速度,使用窄带法:提取零水平集φ(x,τ)=0,将提取出的体素放入集合LevelSet中,对于每个体素i,i∈LevelSet,构造窄带其中为体素i的邻域,r为邻域的范围,通常指定其为以i为中心,2r+1为边长的立方体,即更新只在零水平集的邻域内进行。
步骤3具体为:
将多视环境获取的非刚性目标运动视频提供的信息作为约束条件,构建关于水平集函数的能量泛函E(ft+1,Vt):
①时空颜色相关性约束项
时间颜色相关性φ_temp(vox,Vt vox)是指在时刻t目标三维外形上的某一体素以速度Vt vox运动,在时刻t+1对应的目标三维外形上的体素为vox,其运动前后的颜色保持一致;
时间颜色相关性φ_temp(vox,Vt vox)为:
nVisNum表示对体素vox可见的视点个数,proj(vox)表示体素vox在视点j的二维投影,photo(X,t+1)为时刻t+1像素X对应的像素颜色值,φ_temp(vox,Vt vox)反映了目标三维外形上的体素运动前后在多视图像中投影的颜色相关性:φ_temp(vox,Vt vox)越小,颜色相关性越大;
空间颜色相关性φ_space(vox,t+1)是指时刻t+1目标三维外形上体素vox与其周围的体素具有颜色一致性;
空间颜色相关性φ_space(vox,t+1)为:
其中:
将时间颜色相关性和空间颜色相关性结合,得出时空颜色相关性约束项:
φ_color(vox,Vt vox)=isColored(vox,Vt vox)gφ_temp(vox,Vt vox)+(1-isColored(vox,Vt vox))gφ_space(vox,t+1)(10)
其中,表示时刻t体素vox-Vt vox是否被判断为目标三维外形上的体素且已被着色,其取值方式为:
此时,Ω中所有体素的时空颜色相关性约束对应的能量函数为:
②投影区域一致性约束项
投影区域一致性约束项对应的能量函数为:
其中in_Silhouette(vox)表示体素vox在多视图像中的投影是否都落入目标的侧影轮廓中:
③水平集函数规整项
水平集函数规整项对应的能量函数P(f)为:
在上述约束项和规整项的基础上,能量泛函E(ft+1,Vt)为:
E(ft+1,Vt)=κgEcolor(ft+1,Vt)+λgEregion(ft+1)+μgP(ft+1) (14)
其中,μ>0为常量参数,用于控制f偏离符号距离函数后的惩罚效应,κ、λ表示权重系数。
步骤4具体为:
最小化能量函数E(ft+1,Vt),对应的水平集函数ft+1的梯度下降流为:
则水平集函数ft+1的演化方程:
其中,δτ表示水平集函数演化的时间步长;
将更新后的水平集函数作为已知条件,那么场景流的估计问题就相当于求取时空颜色相关性约束项中关于场景流的梯度下降流:
场景流相应的估计过程为:
当水平集函数停止演化时,其对应的零水平集即为时刻t+1的目标三维外形,此时的Vt即为所估计的场景流。
本发明的有益效果是:本发明多视环境中基于水平集函数演化的非刚性目标场景流估计方法,用水平集函数的演化模拟非刚性目标的运动,在时空颜色相关性约束、投影区域一致性约束下有效地驱动非刚性目标初始外形曲面向目标曲面演化,而水平集函数自身特点的约束,使的水平集函数演化后仍为水平集函数,避免了水平集函数重新初始化的问题,解决了现在估计非刚性目标的场景流时,由于环境因素,计算方法不当,往往会使得场景流不够连续、不平滑或存在空洞的问题。
具体实施方式
下面结合具体实施方式对本发明进行详细说明。
本发明多视环境中基于水平集函数演化的非刚性目标场景流估计方法,具体按照以下步骤实施:
步骤1:多视环境设置及预处理
将nCamNum个摄像机环绕观测场景放置,并使用张氏标定法获取摄像机的内、外参数;然后使用nCamNum个摄像机采集不包含目标的背景图像{Back1,Back2,...,Backj,...,BacknCamNum};之后将动态非刚性目标O置于观测场景中,多个摄像机同步采集目标的运动视频,在时刻t、时刻t+1,同步采集到的视频帧分别为{I1,t,I2,t,...,Ij,t,...,InCamNum,t}、{I1,t+1,I2,t+1,...,Ij,t+1,...,InCamNum,t+1},最后使用背景减法获取目标O的侧影轮廓,即目标图像,在时刻t和时刻t+1,分别使用多视图像帧减去背景图像,从而获取目标图像:{Silhouette1,t,...,Silhouettej,t,...,SilhouettenCamNum,t}、{Silhouette1,t+1,...,Silhouettej,t+1,...,SilhouettenCamNum,t+1}。
步骤2:获取静态目标三维外形
静态目标三维外形的获取过程即为动态目标场景流估计所需水平集函数的初始化过程。
将多视摄像机的公共观测区域离散化为一个三维体素空间Ω;
首先,使用{Silhouette1,t,...,Silhouettej,t,...,SilhouettenCamNum,t},基于体素着色法重建目标三维外形的体素模型Shape_Datat,其中,
然后,重建目标三维外形,及初始化场景流估计所需的水平集函数:
Step1:初始化水平集函数φ(x):在Ω内,靠近Ω边缘的区域构造一个足够大的封闭初始曲面Γ(0),确保其能够包括Shape_Data的所有体素,构造初始水平集函数φ0(x):
其中c0为一预先给定的正整数;
Step2:构造关于水平集函数φ(x)的能量函数E(φ):
其中,α、β和γ为比例系数,g(x)为在Ω中计算距离场为:g(x)=dist(x,Shape_Data),其中,x∈Ω,dist(x,Shape_Data)表示体素x到三维外形Shape_Data的最短距离,δ为Dirac函数;
P(φ)为惩罚项为:
为:
A(φ)为加速项为:
H(x)是Heaviside函数,η是偏移程度,当g<η时,加速项失效,从而可确保曲面不会穿过空洞;在曲面演化开始前,η赋值为以体素为单位的模型最大空洞的直径长度。
对于能量函数E(φ),其相应的梯度下降流,即水平集函数的演化速度为:
Step3:令更新水平集函数:
φn+1(x)=φn(x)+δτ·D(φn(x)) (7)
n表示迭代次数,δτ为时间步长;
为了加快计算速度,本发明使用窄带法:提取零水平集φ(x,τ)=0,将提取出的体素放入集合LevelSet中,对于每个体素i,i∈LevelSet,构造窄带其中为体素i的邻域,r为邻域的范围,通常指定其为以i为中心,2r+1为边长的立方体,即更新只在零水平集的邻域内进行。
Step4:判断是否小于阈值来判断是否收敛,若不收敛,则按照式(7)计算φn+1(x)的值,并转至Step4,若收敛,则结束;
令ft(x)=φn+1(x),作为时刻t目标三维外形的水平集函数表示。
步骤3:构建时间序列上的关于水平集函数的能量泛函
将多视环境获取的非刚性目标运动视频提供的信息作为约束条件,构建关于水平集函数的能量泛函E(ft+1,Vt)(ft+1为水平集函数,其初始值为ft,Vt表示时刻t目标三维外形的场景流)。在该能量函数的最小化过程中,水平集函数演化,其相应零水平集(ft+1(vox)=0时)向着运动后的目标三维外形逼近。
为了保证零水平集函数能够向着目标三维外形演化,本发明使用了如下三种约束条件:
①时空颜色相关性约束项
时空颜色相关性约束项用于驱动水平集函数向着目标三维外形演化,包括:时间颜色相关性和空间颜色相关性两部分。时间颜色相关性φ_temp(vox,Vt vox)是指在时刻t目标三维外形上的某一体素以速度Vt vox运动,在时刻t+1对应的目标三维外形上的体素为vox,其运动前后的颜色保持一致。空间颜色相关性φ_space(vox,t+1)是指时刻t+1目标三维外形上体素vox与其周围的体素具有颜色一致性。
时间颜色相关性φ_temp(vox,Vt vox)为:
nVisNum表示对体素vox可见的视点个数,proj(vox)表示体素vox在视点j的二维投影,photo(X,t+1)为时刻t+1像素X对应的像素颜色值,φ_temp(vox,Vt vox)反映了目标三维外形上的体素运动前后在多视图像中投影的颜色相关性:φ_temp(vox,Vt vox)越小,颜色相关性越大;
空间颜色相关性φ_space(vox,t+1)为:
其中:
将时间颜色相关性和空间颜色相关性结合,得出时空颜色相关性约束项:
φ_color(vox,Vt vox)=isColored(vox,Vt vox)gφ_temp(vox,Vt vox)+(1-isColored(vox,Vt vox))gφ_space(vox,t+1)(10)
其中,表示时刻t体素vox-Vt vox是否被判断为目标三维外形上的体素且已被着色,其取值方式为:
此时,Ω中所有体素的时空颜色相关性约束对应的能量函数为:
②投影区域一致性约束项
投影区域一致性约束项用于避免水平集函数的过度演化。
目标三维外形在多视二维图像中的投影都会落入到该目标的侧影轮廓中:因此当表示目标三维外形的零水平集上的体素在所有视点的投影均落入到目标在各个视点的侧影轮廓中时,水平集函数的演化速度为正,即零水平集向着非目标区域运动;反之,水平集演化速度为负,即零水平集向着目标区域运动。
投影区域一致性约束项对应的能量函数为:
其中in_Silhouette(vox)表示体素vox在多视图像中的投影是否都落入目标的侧影轮廓中:
③水平集函数规整项
水平集函数规整项用于保持水平集函数在演化过程中的稳定性:保证水平集函数每次演化后仍为水平集函数,避免了水平集函数演化后的重新初始化问题。该约束项是由水平集函数的定义来确定的,即:由于水平集函数f为距离函数,而距离函数满足约束条件本发明也以该约束条件作为水平集函数的规整项。
水平集函数规整项对应的能量函数P(ft+1)为:
在上述三种约束条件下,构造时刻t+1关于水平集函数ft+1和场景流Vt的能量泛函E(ft+1,Vt),该能量泛函由三部分组成:关于时空颜色相关性约束项的能量函数Ecolor(ft+1,Vt)、关于投影区域一致性约束项的能量函数Eregion(ft+1),水平集函数规整项的能量函数P(ft+1),即:
E(ft+1,Vt)=κgEcolor(ft+1,Vt)+λgEregion(ft+1)+μgP(ft+1) (14)
其中,μ>0为常量参数,用于控制f偏离符号距离函数后的惩罚效应,κ、λ表示权重系数。
步骤4:获取动态非刚性目标三维外形及其场景流
优化能量函数E(ft+1,Vt),获得相应的水平集函数ft+1及对应场景流Vt。本发明基于梯度下降流法获取当能量函数的最小化时对应的水平集函数。f对应的零水平集即为运动后非刚性目标的三维外形,而此时就相当于在能量函数E(ft+1,Vt)中,已知ft+1,求取场景流Vt,具体为:
最小化能量函数E(ft+1,Vt),对应的水平集函数ft+1的梯度下降流为:
则水平集函数ft+1的演化方程:
其中,δτ表示水平集函数演化的时间步长;
将更新后的水平集函数作为已知条件,那么场景流的估计问题就相当于求取时空颜色相关性约束项中关于场景流的梯度下降流:
场景流相应的估计过程为:
当水平集函数停止演化时,其对应的零水平集即为时刻t+1的目标三维外形,此时的Vt即为所估计的场景流。
Claims (4)
1.多视环境中基于水平集函数演化的非刚性目标场景流估计方法,其特征在于,具体按照以下步骤实施:
步骤1:多视环境设置及预处理;具体为:将nCamNum个摄像机环绕观测场景放置,并使用张氏标定法获取摄像机的内、外参数;然后使用nCamNum个摄像机采集不包含目标的背景图像{Back1,Back2,...,Backj,...,BacknCamNum};之后将动态非刚性目标O置于观测场景中,多个摄像机同步采集目标的运动视频,在时刻t、时刻t+1,同步采集到的视频帧分别为{I1,t,I2,t,...,Ij,t,...,InCamNum,t}{I1,t+1,I2,t+1,...,Ij,t+1,...,InCamNum,t+1},最后使用背景减法获取目标O的侧影轮廓,即目标图像,在时刻t和时刻t+1,分别使用多视图像帧减去背景图像,从而获取目标图像:{Silhouette1,t,...,Silhouettej,t,...,SilhouettenCamNum,t}、{Silhouette1,t+1,...,Silhouettej,t+1,...,SilhouettenCamNum,t+1};
步骤2:获取静态目标三维外形;具体为:
将多视摄像机的公共观测区域离散化为一个三维体素空间Ω;
首先,使用{Silhouette1,t,...,Silhouettej,t,...,SilhouettenCamNum,t},基于体素着色法重建目标三维外形的体素模型Shape_Datat,其中,
然后,重建目标三维外形,及初始化场景流估计所需的水平集函数:
Step1:初始化水平集函数φ(x):在Ω内,靠近Ω边缘的区域构造一个足够大的封闭初始曲面Γ(0),确保其能够包括Shape_Data的所有体素,构造初始水平集函数φ0(x):
其中c0为一预先给定的正整数;
Step2:构造关于水平集函数φ(x)的能量函数E(φ):
其中,α、β和γ为比例系数,g(x)为在Ω中计算距离场为:g(x)=dist(x,Shape_Data),其中,x∈Ω,dist(x,Shape_Data)表示体素x到三维外形Shape_Data的最短距离,δ为Dirac函数;
P(φ)为惩罚项为:
为:
A(φ)为加速项为:
H(x)是Heaviside函数,η是偏移程度,当g<η时,加速项失效,从而可确保曲面不会穿过空洞;
对于能量函数E(φ),其相应的梯度下降流,即水平集函数的演化速度为:
Step3:令更新水平集函数:
φn+1(x)=φn(x)+δτ·D(φn(x)) (7)
n表示迭代次数,δτ为时间步长;
Step4:判断是否小于阈值来判断是否收敛,若不收敛,则按照式(7)计算φn+1(x)的值,并转至Step4,若收敛,则结束;
令ft(x)=φn+1(x),作为时刻t目标三维外形的水平集函数表示;
步骤3:构建时间序列上的关于水平集函数的能量泛函;具体为:
将多视环境获取的非刚性目标运动视频提供的信息作为约束条件,构建关于水平集函数的能量泛函E(ft+1,Vt):
①时空颜色相关性约束项
时间颜色相关性是指在时刻t目标三维外形上的某一体素以速度运动,在时刻t+1对应的目标三维外形上的体素为vox,其运动前后的颜色保持一致;
时间颜色相关性为:
nVisNum表示对体素vox可见的视点个数,proj(vox)表示体素vox在视点j的二维投影,photo(X,t+1)为时刻t+1像素X对应的像素颜色值,反映了目标三维外形上的体素运动前后在多视图像中投影的颜色相关性:越小,颜色相关性越大;
空间颜色相关性φ_space(vox,t+1)是指时刻t+1目标三维外形上体素vox与其周围的体素具有颜色一致性;
空间颜色相关性φ_space(vox,t+1)为:
其中:
将时间颜色相关性和空间颜色相关性结合,得出时空颜色相关性约束项:
其中,表示时刻t体素是否被判断为目标三维外形上的体素且已被着色,其取值方式为:
此时,Ω中所有体素的时空颜色相关性约束对应的能量函数为:
②投影区域一致性约束项
投影区域一致性约束项对应的能量函数为:
其中in_Silhouette(vox)表示体素vox在多视图像中的投影是否都落入目标的侧影轮廓中:
③水平集函数规整项
水平集函数规整项对应的能量函数P(f)为:
在上述约束项和规整项的基础上,能量泛函E(ft+1,Vt)为:
E(ft+1,Vt)=κgEcolor(ft+1,Vt)+λgEregion(ft+1)+μgP(ft+1) (14)
其中,μ>0为常量参数,用于控制f偏离符号距离函数后的惩罚效应,κ、λ表示权重系数;
步骤4:获取动态非刚性目标三维外形及其场景流。
2.根据权利要求1所述的多视环境中基于水平集函数演化的非刚性目标场景流估计方法,其特征在于,在曲面演化开始前,所述η赋值为以体素为单位的模型最大空洞的直径长度。
3.根据权利要求1所述的多视环境中基于水平集函数演化的非刚性目标场景流估计方法,其特征在于,为了加快所述Step3的更新速度,使用窄带法:提取零水平集φ(x,τ)=0,将提取出的体素放入集合LevelSet中,对于每个体素i,i∈LevelSet,构造窄带其中为体素i的邻域,r为邻域的范围,通常指定其为以i为中心,2r+1为边长的立方体,即更新只在零水平集的邻域内进行。
4.根据权利要求1所述的多视环境中基于水平集函数演化的非刚性目标场景流估计方法,其特征在于,所述步骤4具体为:
最小化能量函数E(ft+1,Vt),对应的水平集函数ft+1的梯度下降流为:
则水平集函数ft+1的演化方程:
其中,δτ表示水平集函数演化的时间步长;
将更新后的水平集函数作为已知条件,那么场景流的估计问题就相当于求取时空颜色相关性约束项中关于场景流的梯度下降流:
场景流相应的估计过程为:
当水平集函数停止演化时,其对应的零水平集即为时刻t+1的目标三维外形,此时的Vt即为所估计的场景流。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610824712.4A CN106384361B (zh) | 2016-09-14 | 2016-09-14 | 多视环境中基于水平集函数演化的非刚性目标场景流估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610824712.4A CN106384361B (zh) | 2016-09-14 | 2016-09-14 | 多视环境中基于水平集函数演化的非刚性目标场景流估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106384361A CN106384361A (zh) | 2017-02-08 |
CN106384361B true CN106384361B (zh) | 2019-06-14 |
Family
ID=57935607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610824712.4A Expired - Fee Related CN106384361B (zh) | 2016-09-14 | 2016-09-14 | 多视环境中基于水平集函数演化的非刚性目标场景流估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106384361B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657644B (zh) * | 2017-09-28 | 2019-11-15 | 浙江大华技术股份有限公司 | 一种移动环境下稀疏场景流检测方法和装置 |
CN110473228B (zh) * | 2019-07-03 | 2022-03-04 | 西安理工大学 | Rgbd视频中基于局部刚性假设的场景流估计方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719264A (zh) * | 2009-12-28 | 2010-06-02 | 清华大学 | 一种多视角动态场景采集的视觉场计算方法 |
CN102104735A (zh) * | 2011-01-28 | 2011-06-22 | 清华大学 | 一种计算光照的运动场景图像捕获方法及装置 |
CN102521846A (zh) * | 2011-12-21 | 2012-06-27 | 浙江大学 | 基于3d视频的时空域运动分割与运动估计方法 |
CN103955948A (zh) * | 2014-04-03 | 2014-07-30 | 西北工业大学 | 一种动态环境下的空间运动目标检测方法 |
CN104036500A (zh) * | 2014-05-30 | 2014-09-10 | 西安交通大学 | 一种窄带背景探测的快速双循环水平集方法 |
CN105046718A (zh) * | 2015-06-30 | 2015-11-11 | 西安理工大学 | 一种多视环境下刚性目标三维运动估计方法 |
CN105809130A (zh) * | 2016-03-08 | 2016-07-27 | 武汉大学 | 一种基于双目深度感知的车辆可行驶区域计算方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040091047A1 (en) * | 2002-11-11 | 2004-05-13 | Sony Corporation | Method and apparatus for nonlinear multiple motion model and moving boundary extraction |
US7616836B2 (en) * | 2004-05-25 | 2009-11-10 | Siemens Medical Solutions Usa, Inc. | Method and system for motion compensation in a temporal sequence of images |
-
2016
- 2016-09-14 CN CN201610824712.4A patent/CN106384361B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101719264A (zh) * | 2009-12-28 | 2010-06-02 | 清华大学 | 一种多视角动态场景采集的视觉场计算方法 |
CN102104735A (zh) * | 2011-01-28 | 2011-06-22 | 清华大学 | 一种计算光照的运动场景图像捕获方法及装置 |
CN102521846A (zh) * | 2011-12-21 | 2012-06-27 | 浙江大学 | 基于3d视频的时空域运动分割与运动估计方法 |
CN103955948A (zh) * | 2014-04-03 | 2014-07-30 | 西北工业大学 | 一种动态环境下的空间运动目标检测方法 |
CN104036500A (zh) * | 2014-05-30 | 2014-09-10 | 西安交通大学 | 一种窄带背景探测的快速双循环水平集方法 |
CN105046718A (zh) * | 2015-06-30 | 2015-11-11 | 西安理工大学 | 一种多视环境下刚性目标三维运动估计方法 |
CN105809130A (zh) * | 2016-03-08 | 2016-07-27 | 武汉大学 | 一种基于双目深度感知的车辆可行驶区域计算方法 |
Non-Patent Citations (2)
Title |
---|
Dense 3d motion capture from synchronized video streams;Y.Fumkawa等;《Image and Geometry Processing for 3-D Cinematography》;20101231;第193-211页 |
动态变形表面的三维测量与跟踪方法研究;史金龙;《中国博士学位论文全文数据库 信息科技辑》;20150315(第3期);第6-9,28-39页 |
Also Published As
Publication number | Publication date |
---|---|
CN106384361A (zh) | 2017-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986136B (zh) | 一种基于语义分割的双目场景流确定方法及系统 | |
CN108027984B (zh) | 用于在3d重建中检测和组合结构特征的方法和系统 | |
Campbell et al. | Automatic 3d object segmentation in multiple views using volumetric graph-cuts | |
CN109427007B (zh) | 基于多视角的虚拟试衣方法 | |
CN105184857B (zh) | 基于点结构光测距的单目视觉重建中尺度因子确定方法 | |
CN108648270A (zh) | 基于eg-slam的无人机实时三维场景重建方法 | |
US10937182B2 (en) | Non-rigid alignment for volumetric performance capture | |
US20150243035A1 (en) | Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest | |
CN102074020B (zh) | 对视频进行多体深度恢复和分割的方法 | |
Ulusoy et al. | Image-based 4-d reconstruction using 3-d change detection | |
Jaimez et al. | Motion cooperation: Smooth piece-wise rigid scene flow from rgb-d images | |
Prasad et al. | Sfmlearner++: Learning monocular depth & ego-motion using meaningful geometric constraints | |
CN106887021B (zh) | 立体视频的立体匹配方法、控制器和系统 | |
CN113538667B (zh) | 动态场景光场重建方法及装置 | |
Hung et al. | Consistent binocular depth and scene flow with chained temporal profiles | |
Yang et al. | Reactive obstacle avoidance of monocular quadrotors with online adapted depth prediction network | |
CN106384361B (zh) | 多视环境中基于水平集函数演化的非刚性目标场景流估计方法 | |
Jordt et al. | Direct model-based tracking of 3d object deformations in depth and color video | |
CN107918948A (zh) | 4d视频渲染方法 | |
CN103049929A (zh) | 基于联合优化的多摄像机动态场景3d重建方法 | |
White et al. | An iterative pose estimation algorithm based on epipolar geometry with application to multi-target tracking | |
Zhu et al. | Real-time indoor scene reconstruction with RGBD and inertial input | |
Han et al. | 3D dense reconstruction from 2D video sequence via 3D geometric segmentation | |
CN107767393B (zh) | 一种面向移动硬件的场景流估计方法 | |
CN102663812A (zh) | 基于变分光流的三维运动检测与稠密结构重建的直接方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190614 Termination date: 20210914 |