CN107169529B - 一种非刚性物体运动结构恢复方法 - Google Patents

一种非刚性物体运动结构恢复方法 Download PDF

Info

Publication number
CN107169529B
CN107169529B CN201710421828.8A CN201710421828A CN107169529B CN 107169529 B CN107169529 B CN 107169529B CN 201710421828 A CN201710421828 A CN 201710421828A CN 107169529 B CN107169529 B CN 107169529B
Authority
CN
China
Prior art keywords
matrix
coordinates
predicted
motion structure
rigid object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710421828.8A
Other languages
English (en)
Other versions
CN107169529A (zh
Inventor
鲍秉坤
年福东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Jingjunhai Network Technology Co ltd
Original Assignee
Nanjing Jingjunhai Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Jingjunhai Network Technology Co ltd filed Critical Nanjing Jingjunhai Network Technology Co ltd
Priority to CN201710421828.8A priority Critical patent/CN107169529B/zh
Publication of CN107169529A publication Critical patent/CN107169529A/zh
Application granted granted Critical
Publication of CN107169529B publication Critical patent/CN107169529B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2111Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Physiology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种高性能非刚性物体运动结构恢复方法,基于任意两点之间的相对位置关系的基础上,提出了一种均方相对坐标误差度量函数MSRCE;并在不改变主体算法的基础上,将其完美的嵌入到现有主体方法中去,运用本发明提出的误差度量函数,最终优化目标不仅考虑每一个预测坐标与其真实坐标的关系,还同时考虑了任意两个预测坐标之间的位移矢量的精确度,有助于提高非刚性物体运动结构恢复的精度,解决了传统算法仅用均方误差MSE作为度量函数的缺点;可精确度量不同三维形状直接的误差,实用价值显著,应用广泛。

Description

一种非刚性物体运动结构恢复方法
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种高性能非刚性物体运动结构恢复方法。
背景技术
非刚性运动恢复结构技术主要是利用物体二维图像序列的特征点观察数据,建立空间投影模型,估计出物体的三维结构和相关的运动参数。作为计算机视觉研究领域的一个重要方向,非刚性运动恢复结构技术目前广泛应用于人脸识别、场景重构等众多应用场合。
现有技术主要分为三类:第一类是基于矩阵分解或者EM算法拟合形状的概率分布;第二类是将非刚性物体运动结构恢复看作是运动轨迹估计问题,此类方法采用关键点的跟踪去拟合三维形状;这两类方法最大的问题在于需要预先知道图片序列的时间顺序;而第三类方法是通过考虑形状空间的空间变化平滑性提升算法效果,以处理时间顺序未知的非刚性物体运动结构恢复问题。
上述三种现存的方法目前虽然效果尚佳,但是均存在一个重大缺陷:在衡量估计出的非刚性物体的三维形状与其真实形状之间的误差时均采用均方误差 (MSE)作为算法误差评价指标,进而利用MSE作为监督信号改进算法。而 MSE虽然有效但存在巨大的缺陷:只考虑对应点之间的误差,无法表示不同点之间的相对关系,从而丧失了对整体形状的度量。
因此,需要提出一种新的算法来解决现有MSE算法存在的问题。
发明内容
发明目的:为了解决现有技术中所存在的问题,本发明提出了一种在保持算法主体结构不变的情况下,将可有效衡量相对位置关系的误差度量函数完美嵌入现有主体方法中去,可精确度量不同三维形状之间的误差,以有效提高非刚性物体运动结构恢复精度的高性能非刚性物体运动结构恢复方法。
技术方案:为达以上目的,本发明采取以下技术方案:一种高性能非刚性物体运动结构恢复方法,具体采用一种均方相对坐标误差度量函数MSRCE进行恢复,包括如下步骤:
S1:MSRCE损失函数的定义:
首先,假设我们有N个样本,每个样本具有M个需要预测的关键点,每个样本中的预测坐标为
Figure BDA0001315139840000021
而相应的基准坐标为(xni,yni),其中n=1,2,...,N是样本索引,i=1,2,...,M是坐标指数;
定义两个符号,即Δnijx和Δnijy来测量样本n的两个坐标i和j之间的相关性,如公式(1)和式(2),
Figure BDA0001315139840000022
Figure BDA0001315139840000023
再定义MSRCE损失函数为表达式(3);
Figure BDA0001315139840000024
根据公式(1)和(2)定义两个点
Figure BDA0001315139840000025
和B(xni-xnj,yni-ynj);
公式(3)中的
Figure BDA0001315139840000026
为点A和B的欧氏距离损失;其中,A是两个预测坐标的位移,B是两个真实坐标的位移,如等式(4)和式(5):
Figure BDA0001315139840000027
B=(xni,yni)-(xnj,ynj) (5)
等式(3)的目的是衡量任意两个预测坐标的位移与其对应的两个真实坐标的位移之间的误差,即移动点A到点;
当公式(3)达到最优解时,任意两个预测关键点之间的相对位置接近于它们对应的的两个真实关键点之间的相对位置;
S2:非刚性物体运动结构恢复NRSFM的基本公式:
对于T图像相机的NRSFM问题,n个输入的二维点轨迹在输入矩阵 W∈R2T×n中给出;[xt,j,yt,j]T是第t个图像上第j个三维点的二维投影,t=1,2,...,T,j=1,2,...,n;为了公式表示无歧义,现在假设:1)W是完备的,意味着在跟踪过程中没有二维点被遮挡;2)其均值列向量t∈R2T已经从所有列中减去,使其为零均值;使用正交投影和以观察到的三维物体为中心的世界坐标系, t给出了所观察到的2D摄像机在每个图像的转变;
矩阵分解法模型W=MS作为两个低秩3K矩阵因子的乘积,其中 M∈R2T×3K,S∈R3K ×n
Figure BDA0001315139840000031
因子
Figure DA00013151398467674578
)包括块对角旋转矩阵D∈R2T×3T和形状系数矩阵 C∈RT×K
目标是最小化2D重投影误差,
Figure BDA0001315139840000033
W*=MS=MM?W(7)
其中,M是模型参数矩阵X∈Rd×K的函数,d是中的低频DCT系数的数量;此外,In是n×n单位矩阵;
Figure BDA0001315139840000034
是两个矩阵的Kronecker乘积;
Figure BDA0001315139840000035
表示A的 Moore-Penrose伪逆;||A||F是Frobenius规范;
S3:将MSRCE函数约束用到非刚性物体运动结构恢复任务中:
首先定义一个残差矩阵
Figure BDA0001315139840000036
来测量预测和真实值坐标的差异:
Figure BDA0001315139840000037
表示
Figure BDA0001315139840000038
是矩阵
Figure BDA0001315139840000039
的第*列,那么MSRCE函数可以写成如下:
Figure BDA00013151398400000310
因此,最终的优化函数是:
L=e(M)+λLΥ (10)
标量λ用于平衡两个损失函数;
为了在统一的框架中用公式(7)进行训练,使用高斯-牛顿算法来优化公式 (9);计算梯度矩阵G∈R(d*K)×1和Hessian矩阵H∈R(d*K)×(d*K);方程(9)的一阶导数是:
Figure BDA0001315139840000041
式(9)的二阶导数是:
Figure BDA0001315139840000042
目标是计算
Figure BDA0001315139840000043
Figure BDA0001315139840000044
表示两个雅可比矩阵:Ji∈R2T×(d*K)和Jj∈R2T×(d*K)来模拟低阶3K条件下所有变量的导数;梯度矩阵和Hessian矩阵计算如下:
Figure BDA0001315139840000045
Figure BDA0001315139840000046
当公式(10)达到最优时,即可获得高精度的非刚性物体运动结构恢复结果。
有益效果:本发明提供的一种高性能非刚性物体运动结构恢复方法,基于任意两点之间的相对位置关系的基础上,提出了一种均方相对坐标误差度量函数 MSRCE;并在不改变主体算法的基础上,将其完美的嵌入到现有主体方法中去,运用本发明提出的误差度量函数,最终优化目标不仅考虑每一个预测坐标与其真实坐标的关系,还同时考虑了任意两个预测坐标之间的位移矢量的精确度,有助于提高非刚性物体运动结构恢复的精度,解决了传统算法仅用均方误差MSE作为度量函数的缺点;可精确度量不同三维形状直接的误差,实用价值显著,应用广泛。
附图说明
图1为本发明具体实施例算法的工作原理示意图;
图2为现有技术中MSE算法存在的缺陷示意图。
具体实施方式
实施例1:
一种高性能非刚性物体运动结构恢复方法,具体采用一种均方相对坐标误差度量函数MSRCE进行恢复,包括如下步骤:
S1:MSRCE损失函数的定义:
首先介绍现有的算法如何应用到非刚性物体运动结构恢复任务中去,假设我们有N个样本,每个样本具有M个需要预测的关键点,每个样本中的预测坐标为
Figure BDA0001315139840000051
而相应的基准坐标为(xni,yni),其中n=1,2,...,N是样本索引, i=1,2,...,M是坐标指数。那么传统的MSE定义如下:
Figure BDA0001315139840000053
然而,MSE在用于坐标预测相关任务中具有重大缺陷;由于公式(A)忽略了两个坐标之间的相对关系,这可能会导致在一些情况下,每个预测坐标接近真实值,但是一些坐标的相对位置会被错误的预测。一个典型的错误案例如图2 所示,两个预测标志(五角星标注)接近他们的真实值(圆点标注)。然而与真实值相比,两个预测标志的相对坐标是错误的。图1(左)的一个示例解释了这种情况,优化的MSE损失函数仅能保证预测坐标围绕相应的真实值,而不约束整体形状导致不准确的任意两个预测坐标的相对位置关系。
为了克服上述算法的缺陷,我们提出来一种均方相对坐标误差度量函数 MSRCE:
定义两个符号,即Δnijx和Δnijy来测量样本n的两个坐标i和j之间的相关性,如公式(1)和式(2),
Figure BDA0001315139840000054
Figure BDA0001315139840000055
再定义MSRCE损失函数为表达式(3);
Figure BDA0001315139840000056
根据公式(1)和(2)定义两个点
Figure BDA0001315139840000057
和B(xni-xnj,yni-ynj);
公式(3)中的
Figure BDA0001315139840000058
为点A和B的欧氏距离损失;其中,A是两个预测坐标的位移,B是两个真实坐标的位移,如等式(4)和式(5):
Figure BDA0001315139840000061
B=(xni,yni)-(xnj,ynj) (5)
等式(3)的目的是衡量任意两个预测坐标的位移与其对应的两个真实坐标的位移之间的误差,即移动点A到点B;图1展示的一个示例通过预测位置和真实点的偏移来约束坐标位置;当公式(3)达到最优解时,任意两个预测关键点之间的相对位置接近于它们对应的的两个真实关键点之间的相对位置;
S2:非刚性物体运动结构恢复NRSFM的基本公式:
对于T图像相机的NRSFM问题,n个输入的二维点轨迹在输入矩阵 W∈R2T×n中给出;[xt,j,yt,j]T是第t个图像上第j个三维点的二维投影, t=1,2,...,T,j=1,2,...,n;为了公式表示无歧义,现在假设:1)W是完备的,意味着在跟踪过程中没有二维点被遮挡;2)其均值列向量t∈R2T已经从所有列中减去,使其为零均值;使用正交投影和以观察到的三维物体为中心的世界坐标系, t给出了所观察到的2D摄像机在每个图像的转变;
矩阵分解法模型W=MS作为两个低秩3K矩阵因子的乘积,其中 M∈R2T×3K,S∈R3K ×n
Figure BDA0001315139840000062
因子
Figure DA00013151398467694328
)包括块对角旋转矩阵D∈R2T×3T和形状系数矩阵 C∈RT×K
目标是最小化2D重投影误差,
Figure BDA0001315139840000064
W*=MS=MMW (7)
其中,M是模型参数矩阵X∈Rd×K的函数,d是中的低频DCT系数的数量;此外,In是n×n单位矩阵;
Figure BDA0001315139840000071
是两个矩阵的Kronecker乘积;
Figure BDA0001315139840000072
表示A的 Moore-Penrose伪逆;||A||F是Frobenius规范;以前的NRSFM技术通常使用高斯-牛顿算法来最小化等式(7);显然地,公式(7)没有考虑到坐标之间的相对位置信息,造成现有方法的精度不足;
S3:将MSRCE函数约束用到非刚性物体运动结构恢复任务中:
首先定义一个残差矩阵
Figure BDA0001315139840000073
来测量预测和真实值坐标的差异:
Figure BDA0001315139840000074
表示
Figure BDA0001315139840000075
是矩阵
Figure BDA0001315139840000076
的第*列,那么MSRCE函数可以写成如下:
Figure BDA0001315139840000077
因此,最终的优化函数是:
L=e(M)+λLΥ (10)
标量λ用于平衡两个损失函数;假如λ设为0,以前的NRSFM方法的优化目标可以被认为是公式(10)的特殊情况;
为了在统一的框架中用公式(7)进行训练,使用高斯-牛顿算法来优化公式 (9);计算梯度矩阵G∈R(d*K)×1和Hessian矩阵H∈R(d*K)×(d*K);方程(9)的一阶导数是:
Figure BDA0001315139840000078
式(9)的二阶导数是:
Figure BDA0001315139840000079
目标是计算
Figure BDA0001315139840000081
Figure BDA0001315139840000082
回想一下,M是模型参数矩阵X∈Rd×K的函数,
Figure BDA0001315139840000083
是M的函数。因此,
Figure BDA0001315139840000084
Figure BDA0001315139840000085
都是X的函数;然后我们表示两个雅可比矩阵:Ji∈R2T×(d*K)和Jj∈R2T ×(d*K)来模拟低阶3K条件下所有变量的导数;梯度矩阵和Hessian矩阵计算如下:
Figure BDA0001315139840000086
Figure BDA0001315139840000087
当公式(10)达到最优时,即可获得高精度的非刚性物体运动结构恢复结果。
采用6个非刚性物体运动结构恢复研究中常用的数据集face1,stretch, pick-up,yoga,dance,walking评估以上所提出的恢复方法,并采用3D重构误差和标准差作为评估度量。结果如表1所示:
表1:恢复方法评估结果
Figure BDA0001315139840000088
表1在实际公开数据集的效果(+MSRCE是本发明的最终效果,上标π表示在数据没有时间信息情况下的结果)
从表1的数据,可以明显的看出本发明提出的算法可以大幅度提高非刚性物体运动结构恢复的性能。
应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (1)

1.一种非刚性物体运动结构恢复方法,其特征在于为提出一种均方相对坐标误差度量函数MSRCE进行恢复,具体包括如下步骤:
S1:MSRCE损失函数的定义:
首先,假设我们有N个样本,每个样本具有M个需要预测的关键点,每个样本中的预测坐标为
Figure FDA0003136467780000011
而相应的基准坐标为(xni,yni),其中n=1,2,...,N是样本索引,i=1,2,...,M是坐标指数;
定义两个符号,即Δnijx和Δnijy来测量样本n的两个坐标i和j之间的相关性,如公式(1)和式(2),
Figure FDA0003136467780000012
Figure FDA0003136467780000013
再定义MSRCE损失函数为表达式(3);
Figure FDA0003136467780000014
根据公式(1)和(2)定义两个点
Figure FDA0003136467780000015
和B(xni-xnj,yni-ynj);
公式(3)中的
Figure FDA0003136467780000016
为点A和B的欧氏距离损失;其中,A是两个预测坐标的位移,B是两个真实坐标的位移,如等式(4)和式(5):
Figure FDA0003136467780000017
B=(xni,yni)-(xnj,ynj) (5)
等式(3)的目的是衡量任意两个预测坐标的位移与其对应的两个真实坐标的位移之间的误差,即移动点A到点B;
当公式(3)达到最优解时,任意两个预测关键点之间的相对位置接近于它们对应的两个真实关键点之间的相对位置;
S2:非刚性物体运动结构恢复NRSFM的基本公式:
对于T图像相机的NRSFM问题,n个输入的二维点轨迹在输入矩阵W∈R2T×n中给出;[xt,j,yt,j]T是第t个图像上第j个三维点的二维投影,t=1,2,...,T,j=1,2,...,n;为了公式表示无歧义,现在假设:1)W是完备的,意味着在跟踪过程中没有二维点被遮挡;2)其均值列向量t∈R2T已经从所有列中减去,使其为零均值;使用正交投影和以观察到的三维物体为中心的世界坐标系,t给出了所观察到的2D摄像机在每个图像的转变;
矩阵分解法模型W=MS作为两个低秩3K矩阵因子的乘积,其中M∈R2T×3K,S∈R3K×n
Figure FDA0003136467780000021
因子
Figure FDA0003136467780000022
包括块对角旋转矩阵D∈R2T×3T和形状系数矩阵C∈RT×K
目标是最小化2D重投影误差,
Figure FDA0003136467780000023
其中,M是模型参数矩阵X∈Rd×K的函数,d是表示物体3D形状变化的低频DCT系数的数量;此外,In是n×n单位矩阵;
Figure FDA0003136467780000024
是两个矩阵的Kronecker乘积;M+表示M的Moore-Penrose伪逆;|| ||F是Frobenius范数;
S3:将MSRCE损失函数约束用到非刚性物体运动结构恢复任务中:
首先定义一个残差矩阵
Figure FDA0003136467780000025
来测量预测和真实值坐标的差异:
Figure FDA0003136467780000026
表示
Figure FDA0003136467780000027
是矩阵
Figure FDA0003136467780000028
的第*列,那么MSRCE损失函数可以写成如下:
Figure FDA0003136467780000029
因此,最终的优化函数是:
L=e(M)+λLγ (10)
标量λ用于平衡两个损失函数;
为了在统一的框架中用公式(7)进行训练,使用高斯-牛顿算法来优化公式(9);计算梯度矩阵G∈R(d*K)×1和Hessian矩阵H∈R(d*K)×(d*K);方程(9)的一阶导数是:
Figure FDA0003136467780000031
式(9)的二阶导数是:
Figure FDA0003136467780000032
目标是计算
Figure FDA0003136467780000033
Figure FDA0003136467780000034
表示两个雅可比矩阵:Ji∈R2T×(d*K)和Jj∈R2T×(d*K)来模拟低阶3K条件下所有变量的导数;梯度矩阵和Hessian矩阵计算如下:
Figure FDA0003136467780000035
Figure FDA0003136467780000036
当公式(10)达到最优时,即可获得高精度的非刚性物体运动结构恢复结果。
CN201710421828.8A 2017-06-07 2017-06-07 一种非刚性物体运动结构恢复方法 Active CN107169529B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710421828.8A CN107169529B (zh) 2017-06-07 2017-06-07 一种非刚性物体运动结构恢复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710421828.8A CN107169529B (zh) 2017-06-07 2017-06-07 一种非刚性物体运动结构恢复方法

Publications (2)

Publication Number Publication Date
CN107169529A CN107169529A (zh) 2017-09-15
CN107169529B true CN107169529B (zh) 2021-08-13

Family

ID=59824675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710421828.8A Active CN107169529B (zh) 2017-06-07 2017-06-07 一种非刚性物体运动结构恢复方法

Country Status (1)

Country Link
CN (1) CN107169529B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112330735B (zh) * 2020-10-26 2022-06-17 武汉中海庭数据技术有限公司 一种车体相对位置测量精度置信度评估方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060074292A1 (en) * 2004-09-30 2006-04-06 Accuray, Inc. Dynamic tracking of moving targets
EP1646006A1 (en) * 2003-07-11 2006-04-12 Toyota Jidosha Kabushiki Kaisha Image processing device, image processing method, image processing program, and recording medium
CN1920886A (zh) * 2006-09-14 2007-02-28 浙江大学 基于视频流的三维动态人脸表情建模方法
CN101216949A (zh) * 2008-01-14 2008-07-09 浙江大学 一种基于区域分割和分段学习的三维人脸动画制作的方法
CN102254154A (zh) * 2011-07-05 2011-11-23 南京大学 一种基于三维模型重建的人脸身份认证方法
CN102289801A (zh) * 2011-05-16 2011-12-21 大连大学 一种运动捕捉的数据修复方法、系统及运动捕捉系统
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1646006A1 (en) * 2003-07-11 2006-04-12 Toyota Jidosha Kabushiki Kaisha Image processing device, image processing method, image processing program, and recording medium
US20060074292A1 (en) * 2004-09-30 2006-04-06 Accuray, Inc. Dynamic tracking of moving targets
CN101076282A (zh) * 2004-09-30 2007-11-21 安科锐公司 移动目标的动态追踪
CN1920886A (zh) * 2006-09-14 2007-02-28 浙江大学 基于视频流的三维动态人脸表情建模方法
CN101216949A (zh) * 2008-01-14 2008-07-09 浙江大学 一种基于区域分割和分段学习的三维人脸动画制作的方法
US8204301B2 (en) * 2009-02-25 2012-06-19 Seiko Epson Corporation Iterative data reweighting for balanced model learning
US8260039B2 (en) * 2009-02-25 2012-09-04 Seiko Epson Corporation Object model fitting using manifold constraints
CN102289801A (zh) * 2011-05-16 2011-12-21 大连大学 一种运动捕捉的数据修复方法、系统及运动捕捉系统
CN102254154A (zh) * 2011-07-05 2011-11-23 南京大学 一种基于三维模型重建的人脸身份认证方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
3D reconstruction of non-rigid surfaces from realistic monocular video;Maryam Sepehrinour,et al.;《 2015 9th Iranian Conference on Machine Vision and Image Processing (MVIP)》;20160204;全文 *
Procrustean Normal Distribution for Non-Rigid Structure from Motion;Minsik Lee,et al.;《IEEE Transactions on Pattern Analysis and Machine Intelligence ( Volume: 39, Issue: 7, July 1 2017)》;20160801;全文 *
基于NRSFM算法的三维人脸建模研究;张凌华;《中国优秀硕士学位论文全文数据库(电子期刊)》;20170227;全文 *
非刚性运动分析方法的现状与展望;李防震等.;《中国图象图形学报》;20050131;全文 *

Also Published As

Publication number Publication date
CN107169529A (zh) 2017-09-15

Similar Documents

Publication Publication Date Title
CN108416840B (zh) 一种基于单目相机的三维场景稠密重建方法
KR102647351B1 (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
US10803546B2 (en) Systems and methods for unsupervised learning of geometry from images using depth-normal consistency
Bian et al. Auto-rectify network for unsupervised indoor depth estimation
CN110910447B (zh) 一种基于动静态场景分离的视觉里程计方法
CN109712172A (zh) 一种初始位姿测量结合目标追踪的位姿测量方法
WO2016034059A1 (zh) 基于颜色-结构特征的目标对象跟踪方法
KR101926563B1 (ko) 카메라 추적을 위한 방법 및 장치
Liu et al. Direct visual odometry for a fisheye-stereo camera
CN108932734B (zh) 单目图像的深度恢复方法及装置、计算机设备
CN103854283A (zh) 一种基于在线学习的移动增强现实跟踪注册方法
CN110390685A (zh) 一种基于事件相机的特征点跟踪方法
CN110070578B (zh) 一种回环检测方法
Li et al. Sgs-slam: Semantic gaussian splatting for neural dense slam
CN113393503A (zh) 一种分割驱动形状先验变形的类别级物体6d位姿估计方法
CN109872343B (zh) 弱纹理物体姿态跟踪方法、系统及装置
CN107169529B (zh) 一种非刚性物体运动结构恢复方法
CN1766929B (zh) 一种基于三维数据库的运动对象运动重构方法
Xu et al. Video-object segmentation and 3D-trajectory estimation for monocular video sequences
Butt et al. Monocular SLAM initialization using epipolar and homography model
CN102034248B (zh) 单目图像序列的运动分割和3d表达方法
CN103559722B (zh) 基于灰度线性建模的序列图像抖动量计算方法
Liu et al. Visual odometry algorithm based on deep learning
Noguchi et al. Geometric and timing calibration for unsynchronized cameras using trajectories of a moving marker
CN104376600B (zh) 基于在线管理超分辨率块的稳定三维模型跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant