CN108428249A - 一种基于光流跟踪和双几何模型的初始位姿估计方法 - Google Patents
一种基于光流跟踪和双几何模型的初始位姿估计方法 Download PDFInfo
- Publication number
- CN108428249A CN108428249A CN201810087276.6A CN201810087276A CN108428249A CN 108428249 A CN108428249 A CN 108428249A CN 201810087276 A CN201810087276 A CN 201810087276A CN 108428249 A CN108428249 A CN 108428249A
- Authority
- CN
- China
- Prior art keywords
- model
- key points
- optical flow
- flow tracking
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于光流跟踪和双几何模型的初始位姿估计方法,包括以下步骤:通过检测图像的FAST关键点,选取第一帧图像;使用光流跟踪法对第一帧图像的FAST关键点进行匹配,并对匹配的FAST关键点进行视觉差检测,归一化所有关键点;创建两个线程,并行地计算单应矩阵和基础矩阵模型;根据单应矩阵和基础矩阵模型得分选择合适的模型进行求解。该发明只对第一帧图像帧检测FAST关键点,然后使用光流跟踪法进行关键点匹配,可以实现快速的数据关联;同时估计单应矩阵模型和基础矩阵模型,并通过打分机制选择合适的模型求解初始位姿,可以在平面和非平面场景中鲁棒地进行单目视觉里程计的初始化,并且估计的初始姿态的误差较小。
Description
【技术领域】
本发明涉及信息技术领域,尤其涉及一种基于光流跟踪和双几何模型的初始位姿估计方法。
【背景技术】
在单目视觉里程计的开始阶段,只有图像间的信息,没有三维空间信息,此时需要进行初始化,估计初始位姿和构建初始地图。现有的初始位姿估计方法主要有光流跟踪+单应矩阵估计方法和ORB+单应矩阵/基础矩阵估计方法。光流跟踪+单应矩阵估计方法通过光流跟踪FAST关键点,进行数据关联,使用单应矩阵模型来求解初始位姿;ORB+单应矩阵/基础矩阵估计方法通过ORB特征的提取与匹配进行数据关联,然后并行计算单应矩阵和基础矩阵,选择合适的模型来求解初始位姿。
但是,上述两种方法都存在一定的缺陷。光流跟踪+单应矩阵初始位姿估计方法存在一个强假设:图像特征点处于同一平面上,大多数情况下的场景并不满足该假设,特征点并不在同一平面上,因此在这种情况下求解的初始位姿误差较大,容易导致单目视觉里程计初始化失败,鲁棒性较差。ORB+单应矩阵/基础矩阵初始位姿估计方法,需要对每帧图像提取特征和计算特征描述子,计算量较大;另外没有在选择第二帧图像时先对特征点的像素视差进行检查,在像机平移较小的情况下,完成模型的求解后,选择最优初始位姿时容易出现不存在最优初始位姿,而导致前面的模型求解无效。
【发明内容】
鉴于以上内容,本发明旨在提供一种基于光流跟踪和双几何模型的初始位姿估计方法基于光流跟踪和双几何模型的初始位姿估计方法,采用光流跟踪和双几何模型对初始位姿进行估计,完成单目视觉里程计的初始化,具有较好的鲁棒性、较高的模型平均得分以及较小的姿态估计误差。
为达到上述目的,本发明所采用的技术方案是:一种基于光流跟踪和双几何模型的初始位姿估计方法,包括以下步骤:
S10,通过检测图像的FAST关键点,选取第一帧图像;
S20,使用光流跟踪法对第一帧图像的FAST关键点进行匹配,并对匹配的FAST关键点进行视觉差检测,归一化所有关键点;
S30,创建两个线程,并行地计算单应矩阵和基础矩阵模型;
其中,计算单应矩阵和基础矩阵时,采用RANSC算法迭代地进行以下子步骤:
S31,随机选取求解模型用的8对匹配关键点;
S32,分别求解单应矩阵和基础矩阵;
S33,计算匹配关键点在此次迭代求解的单应矩阵和基础矩阵上的对称转换误差;
S34,将满足对称转换误差阈值的关键点作为内点,利用内点的对称转换误差计算此次迭代求解的模型的得分;
S35,更新模型最高得分SH、SF,并保存最高得分所对应的模型和内点;
其中模型得分的计算公式如下:
在上述计算公式中:
SM为模型M的得分;
分别为第1张图像的特征点通过模型M转换到第2张图像上的对称转换误差、第2张图像的特征点通过模型M转换到第1张图像上的对称转换误差;tM为内点的对称转换误差阈值;
Γ为与单应矩阵的对称转换误差阈值tH相等;
S40,根据单应矩阵和基础矩阵模型得分选择合适的模型进行求解,得到多组初始位姿,利用每组位姿对内点进行三角化估计特征点深度,并计算3D点的重投影误差和3D点在两个图像帧中的视差角,用于选择最优的初始位姿,如果多组位姿解里面存在最优解,则初始化成功,否则初始化失败;
其中,单应矩阵或基础矩阵模型选择机制如下:
如果RH大于0.45则选择单应矩阵模型求解初始位姿,否则选取基础矩阵模型求解初始位姿。
进一步地,步骤S10中,当FAST关键点数量满足阈值时,选取该帧图像为第一帧图像。
进一步地,步骤S20中包括以下子步骤:
S21,使用光流跟踪法对第一帧图像的FAST关键点进行匹配,当匹配数量达到阈值时,对匹配的FAST关键点进行视觉差检测;
S22,计算所有跟踪到的FAST关键点的像素移动距离的中值,如果移动距离中值大于距离阈值,则归一化所有关键点。
相对现有技术,本发明具有以下有益效果:
该发明采用光流跟踪和双几何模型对初始位姿进行估计,完成单目视觉里程计的初始化,只对第一帧图像帧检测FAST关键点,然后使用光流跟踪法进行关键点匹配,可以实现快速的数据关联;同时估计单应矩阵模型和基础矩阵模型,并通过打分机制选择合适的模型求解初始位姿,可以在平面和非平面场景中鲁棒地进行单目视觉里程计的初始化,并且估计的初始姿态的误差较小。
【附图说明】
图1是本发明一种基于光流跟踪和双几何模型的初始位姿估计方法的一流程图。
图2是本发明步骤S2的子流程图。
图3是本发明步骤S3的子流程图。
如下具体实施方式将结合上述附图进一步说明本发明。
【具体实施方式】
为了本领域技术人员更加清楚地理解本发明技术方案,以下结合说明书附图对本发明技术方案作进一步详细说明,值得注意的是,以下具体实施方式仅用以说明本发明技术方案,而非限定。
请参阅图1、图2及图3,在本发明的一种基于光流跟踪和双几何模型的初始位姿估计方法,包括以下步骤:
S10,通过检测图像的FAST关键点,选取第一帧图像;当FAST关键点数量满足阈值时,则选取该帧图像为第一帧图像;
S20,使用光流跟踪法对第一帧图像的FAST关键点进行匹配,并对匹配的FAST关键点进行视觉差检测,归一化所有关键点;
其中,包括以下子步骤:
S21,使用光流跟踪法对第一帧图像的FAST关键点进行匹配,当匹配数量达到阈值时,对匹配的FAST关键点进行视觉差检测;
S22,计算所有跟踪到的FAST关键点的像素移动距离的中值,如果移动距离中值大于距离阈值,则归一化所有关键点。
S30,创建两个线程,并行地计算单应矩阵和基础矩阵模型;
其中,计算单应矩阵和基础矩阵时,采用RANSC算法迭代地进行以下子步骤:
S31,随机选取求解模型用的8对匹配关键点;
S32,分别求解单应矩阵和基础矩阵;
S33,计算匹配关键点在此次迭代求解的单应矩阵和基础矩阵上的对称转换误差;
S34,将满足对称转换误差阈值的关键点作为内点,利用内点的对称转换误差计算此次迭代求解的模型的得分;
S35,更新模型最高得分SH、SF,并保存最高得分所对应的模型和内点;
其中模型得分的计算公式如下:
在上述计算公式中:
SM为模型M的得分;
分别为第1张图像的特征点通过模型M转换到第2张图像上的对称转换误差、第2张图像的特征点通过模型M转换到第1张图像上的对称转换误差;tM为内点的对称转换误差阈值;
Г为与单应矩阵的对称转换误差阈值tH相等;
S40,根据单应矩阵和基础矩阵模型得分选择合适的模型进行求解,得到多组初始位姿,利用每组位姿对内点进行三角化估计特征点深度,并计算3D点的重投影误差和3D点在两个图像帧中的视差角,用于选择最优的初始位姿,如果多组位姿解里面存在最优解,则初始化成功,否则初始化失败;
其中,单应矩阵或基础矩阵模型选择机制如下:
如果RH大于0.45则选择单应矩阵模型求解初始位姿,否则选取基础矩阵模型求解初始位姿。
试验例
从公开标准数据集The EuRoC MAV Dataset的Machine Hall 01中的选取8个初始化场景,对使用光流跟踪+单应矩阵估计方法、ORB+单应矩阵/基础矩阵估计方法以及本发明的光流跟踪+单应矩阵/基础矩阵估计方法,三种初始位姿估计方法进行单目视觉里程计的初始化试验对比。为了有效对比三种初始位姿估计方法,试验中使用相同的初始图像帧作为输入,以及统一使用ORB+单应矩阵/基础矩阵估计方法中单目视觉里程计初始化结果判断条件和模型评分机制对求解的模型进行打分。
对比指标主要有:单目视觉里程计初始化结果以及初始化所需的处理时间、模型平均得分、姿态估计误差。其中:
1.初始化结果:初始化成功与否;即从模型中求解的多组初始位姿中,如果存在最优解,则初始化成功,用1表示;否则初始化失败,用0表示。
2.处理时间:包括从特征提取、特征匹配、模型计算、位姿估计等所有处理时间。
3.模型平均得分:利用满足对称转换误差阈值的内点对模型进行打分,模型的得分除以内点数量即为模型平均得分。用于评价求解的单应矩阵或基础矩阵的质量。
4.姿态估计误差:由于单目视觉里程计初始化求解的初始位姿具有尺度不确定性,实验中仅对比了求解的初始姿态的估计误差。以旋转向量的形式表示姿态,将真实旋转向量与估计的初始姿态的旋转向量相减的模作为评价指标。
使用三种初始位姿估计方法的单目视觉里程计初始化在8个初始化场景下的实验对比结果如表1所示。表1中,LK_H表示光流跟踪+单应矩阵估计方法,ORB_H_F表示ORB+单应矩阵/基础矩阵估计方法,LK_H_F表示本发明的光流跟踪+单应矩阵/基础矩阵估计方法。
表1实验对比结果
从表1的结果可以看出,该发明的方法具有较好的鲁棒性、较高的模型平均得分以及较小的姿态估计误差。
上述说明是针对本发明较佳可行实施例的详细说明,但实施例并非用以限定本发明的专利申请范围,凡本发明所提示的技术精神下所完成的同等变化或修饰变更,均应属于本发明所涵盖专利范围。
Claims (3)
1.一种基于光流跟踪和双几何模型的初始位姿估计方法,其特征在于:包括以下步骤:
S10,通过检测图像的FAST关键点,选取第一帧图像;
S20,使用光流跟踪法对第一帧图像的FAST关键点进行匹配,并对匹配的FAST关键点进行视觉差检测,归一化所有关键点;
S30,创建两个线程,并行地计算单应矩阵和基础矩阵模型;
其中,计算单应矩阵和基础矩阵时,采用RANSC算法迭代地进行以下子步骤:
S31,随机选取求解模型用的8对匹配关键点;
S32,分别求解单应矩阵和基础矩阵;
S33,计算匹配关键点在此次迭代求解的单应矩阵和基础矩阵上的对称转换误差;
S34,将满足对称转换误差阈值的关键点作为内点,利用内点的对称转换误差计算此次迭代求解的模型的得分;
S35,更新模型最高得分SH、SF,并保存最高得分所对应的模型和内点;
其中模型得分的计算公式如下:
在上述计算公式中:
SM为模型M的得分;
分别为第1张图像的特征点通过模型M转换到第2张图像上的对称转换误差、第2张图像的特征点通过模型M转换到第1张图像上的对称转换误差;tM为内点的对称转换误差阈值;
Γ为与单应矩阵的对称转换误差阈值tH相等;
S40,根据单应矩阵和基础矩阵模型得分选择合适的模型进行求解,得到多组初始位姿,利用每组位姿对内点进行三角化估计特征点深度,并计算3D点的重投影误差和3D点在两个图像帧中的视差角,用于选择最优的初始位姿,如果多组位姿解里面存在最优解,则初始化成功,否则初始化失败;
其中,单应矩阵或基础矩阵模型选择机制如下:
如果RH大于0.45则选择单应矩阵模型求解初始位姿,否则选取基础矩阵模型求解初始位姿。
2.如权利要求1所述的一种基于光流跟踪和双几何模型的初始位姿估计方法,其特征在于:步骤S10中,当FAST关键点数量满足阈值时,选取该帧图像为第一帧图像。
3.如权利要求1所述的一种基于光流跟踪和双几何模型的初始位姿估计方法,其特征在于:
步骤S20中包括以下子步骤:
S21,使用光流跟踪法对第一帧图像的FAST关键点进行匹配,当匹配数量达到阈值时,对匹配的FAST关键点进行视觉差检测;
S22,计算所有跟踪到的FAST关键点的像素移动距离的中值,如果移动距离中值大于距离阈值,则归一化所有关键点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810087276.6A CN108428249A (zh) | 2018-01-30 | 2018-01-30 | 一种基于光流跟踪和双几何模型的初始位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810087276.6A CN108428249A (zh) | 2018-01-30 | 2018-01-30 | 一种基于光流跟踪和双几何模型的初始位姿估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108428249A true CN108428249A (zh) | 2018-08-21 |
Family
ID=63156111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810087276.6A Pending CN108428249A (zh) | 2018-01-30 | 2018-01-30 | 一种基于光流跟踪和双几何模型的初始位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108428249A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109523589A (zh) * | 2018-11-13 | 2019-03-26 | 浙江工业大学 | 一种更鲁棒的视觉里程计的设计方法 |
CN109544636A (zh) * | 2018-10-10 | 2019-03-29 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
CN110108258A (zh) * | 2019-04-09 | 2019-08-09 | 南京航空航天大学 | 一种单目视觉里程计定位方法 |
CN110148163A (zh) * | 2019-04-29 | 2019-08-20 | 东南大学 | 一种基于有效区域的改进ransac算法求解单应矩阵的方法 |
CN110954134A (zh) * | 2019-12-04 | 2020-04-03 | 上海有个机器人有限公司 | 陀螺仪偏差校正方法、校正系统、电子设备及存储介质 |
CN112734797A (zh) * | 2019-10-29 | 2021-04-30 | 浙江商汤科技开发有限公司 | 图像特征跟踪方法、装置及电子设备 |
CN113436119A (zh) * | 2021-08-25 | 2021-09-24 | 上海海栎创科技股份有限公司 | 基于光流对齐的双目手机预览实时计算视差图方法 |
CN114170306A (zh) * | 2021-11-17 | 2022-03-11 | 埃洛克航空科技(北京)有限公司 | 图像的姿态估计方法、装置、终端及存储介质 |
WO2023279867A1 (zh) * | 2021-07-07 | 2023-01-12 | 北京字跳网络技术有限公司 | 同步定位与建图后端优化方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537709A (zh) * | 2014-12-15 | 2015-04-22 | 西北工业大学 | 一种基于位姿变化的实时三维重建关键帧确定方法 |
CN104599286A (zh) * | 2013-10-31 | 2015-05-06 | 展讯通信(天津)有限公司 | 一种基于光流的特征跟踪方法及装置 |
CN107291093A (zh) * | 2017-07-04 | 2017-10-24 | 西北工业大学 | 基于视觉slam的复杂环境下无人机自主降落区域选择方法 |
CN107301618A (zh) * | 2017-06-21 | 2017-10-27 | 华中科技大学 | 基于gpu并行加速的基础矩阵和单应矩阵估计方法和系统 |
-
2018
- 2018-01-30 CN CN201810087276.6A patent/CN108428249A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104599286A (zh) * | 2013-10-31 | 2015-05-06 | 展讯通信(天津)有限公司 | 一种基于光流的特征跟踪方法及装置 |
CN104537709A (zh) * | 2014-12-15 | 2015-04-22 | 西北工业大学 | 一种基于位姿变化的实时三维重建关键帧确定方法 |
CN107301618A (zh) * | 2017-06-21 | 2017-10-27 | 华中科技大学 | 基于gpu并行加速的基础矩阵和单应矩阵估计方法和系统 |
CN107291093A (zh) * | 2017-07-04 | 2017-10-24 | 西北工业大学 | 基于视觉slam的复杂环境下无人机自主降落区域选择方法 |
Non-Patent Citations (3)
Title |
---|
JUNQIN SU 等: "Monocular visual-inertial state estimation on 3D large-scale scenes for UAVs navigation", 《2017 IEEE INTERNATIONAL SYMPOSIUM ON SAFETY, SECURITY AND RESCUE ROBOTICS (SSRR)》 * |
侯荣波 等: "基于ORB_SLAM的室内机器人定位和三维稠密地图构建", 《计算机应用》 * |
秦宝岭: "基于光流—场景流的单目视觉三维重建研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109544636A (zh) * | 2018-10-10 | 2019-03-29 | 广州大学 | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 |
CN109523589A (zh) * | 2018-11-13 | 2019-03-26 | 浙江工业大学 | 一种更鲁棒的视觉里程计的设计方法 |
CN109523589B (zh) * | 2018-11-13 | 2021-06-08 | 浙江工业大学 | 一种更鲁棒的视觉里程计的设计方法 |
CN110108258A (zh) * | 2019-04-09 | 2019-08-09 | 南京航空航天大学 | 一种单目视觉里程计定位方法 |
CN110148163A (zh) * | 2019-04-29 | 2019-08-20 | 东南大学 | 一种基于有效区域的改进ransac算法求解单应矩阵的方法 |
CN112734797A (zh) * | 2019-10-29 | 2021-04-30 | 浙江商汤科技开发有限公司 | 图像特征跟踪方法、装置及电子设备 |
CN110954134A (zh) * | 2019-12-04 | 2020-04-03 | 上海有个机器人有限公司 | 陀螺仪偏差校正方法、校正系统、电子设备及存储介质 |
CN110954134B (zh) * | 2019-12-04 | 2022-03-25 | 上海有个机器人有限公司 | 陀螺仪偏差校正方法、校正系统、电子设备及存储介质 |
WO2023279867A1 (zh) * | 2021-07-07 | 2023-01-12 | 北京字跳网络技术有限公司 | 同步定位与建图后端优化方法、装置及存储介质 |
CN113436119A (zh) * | 2021-08-25 | 2021-09-24 | 上海海栎创科技股份有限公司 | 基于光流对齐的双目手机预览实时计算视差图方法 |
CN113436119B (zh) * | 2021-08-25 | 2021-12-28 | 上海海栎创科技股份有限公司 | 基于光流对齐的双目手机预览实时计算视差图方法 |
CN114170306A (zh) * | 2021-11-17 | 2022-03-11 | 埃洛克航空科技(北京)有限公司 | 图像的姿态估计方法、装置、终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108428249A (zh) | 一种基于光流跟踪和双几何模型的初始位姿估计方法 | |
US20240064391A1 (en) | Methods for refining rgbd camera poses | |
CN109544636B (zh) | 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法 | |
CN109166149B (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
US11763485B1 (en) | Deep learning based robot target recognition and motion detection method, storage medium and apparatus | |
CN108717531B (zh) | 基于Faster R-CNN的人体姿态估计方法 | |
Del Bue et al. | Non-rigid metric shape and motion recovery from uncalibrated images using priors | |
CN108682027A (zh) | 基于点、线特征融合的vSLAM实现方法及系统 | |
CN108010081B (zh) | 一种基于Census变换和局部图优化的RGB-D视觉里程计方法 | |
CN107990899A (zh) | 一种基于slam的定位方法和系统 | |
CN109934847B (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
CN106355147A (zh) | 一种活体人脸检测头部姿态回归器的获取方法及检测方法 | |
CN108955718A (zh) | 一种视觉里程计及其定位方法、机器人以及存储介质 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN107016319B (zh) | 一种特征点定位方法和装置 | |
CN108597009A (zh) | 一种基于方向角信息进行三维目标检测的方法 | |
CN106534833B (zh) | 一种联合空间时间轴的双视点立体视频稳定方法 | |
CN112785705B (zh) | 一种位姿获取方法、装置及移动设备 | |
CN110310331A (zh) | 一种基于直线特征与点云特征结合的位姿估计方法 | |
EP3185212B1 (en) | Dynamic particle filter parameterization | |
US8948461B1 (en) | Method and system for estimating the three dimensional position of an object in a three dimensional physical space | |
Singh et al. | Fusing semantics and motion state detection for robust visual SLAM | |
Del Bue et al. | Non-rigid structure from motion using non-parametric tracking and non-linear optimization | |
CN103337082A (zh) | 基于统计形状先验的视频分割方法 | |
Caunce et al. | Locating facial features and pose estimation using a 3D shape model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180821 |
|
RJ01 | Rejection of invention patent application after publication |