CN100444191C - 基于活动形状模型的多表情整脸轮廓检测方法 - Google Patents

基于活动形状模型的多表情整脸轮廓检测方法 Download PDF

Info

Publication number
CN100444191C
CN100444191C CNB2006101233998A CN200610123399A CN100444191C CN 100444191 C CN100444191 C CN 100444191C CN B2006101233998 A CNB2006101233998 A CN B2006101233998A CN 200610123399 A CN200610123399 A CN 200610123399A CN 100444191 C CN100444191 C CN 100444191C
Authority
CN
China
Prior art keywords
model
whole face
face
eyes
mouth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2006101233998A
Other languages
English (en)
Other versions
CN1949246A (zh
Inventor
赖剑煌
李英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CNB2006101233998A priority Critical patent/CN100444191C/zh
Publication of CN1949246A publication Critical patent/CN1949246A/zh
Application granted granted Critical
Publication of CN100444191C publication Critical patent/CN100444191C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供一种基于活动形状模型的多表情整脸轮廓检测方法,包括下述步骤(1)获取训练图像;(2)构建局部模型及全局模型;(3)获取目标人脸图像;(4)局部模型与全局模型相结合对人脸图像进行搜索;(5)用选择的全局模型初始化整脸,然后运算定位,得到整脸轮廓。本发明将局部ASM和全局ASM结合提出了多模型ASM方法,事先确定人脸的表情状态,选用更精细的单表情状态模型下进行检测,能提高ASM在形状有较大非线性变化的、多表情的人脸特征点的检测准确率,更好地为后续的人脸目标的识别以及图像的理解与分析等打下基础。

Description

基于活动形状模型的多表情整脸轮廓检测方法
技术领域
本发明涉及一种人脸特征点检测方法,特别涉及一种基于活动形状模型的多表情整脸轮廓检测方法。
背景技术
在过去的十几年中,基于可变形模型对目标物体特征点定位的研究取得了很大成就,特别是对于图像中的目标物体变化很大的情况。可变形模型的基本思想是:设计一个目标物体的通用模型,对于任意给定图片,如果图片中有与该模型相同的目标物体,则可以根据物体图像的内部和外部特征与模型之间的差异,通过调整模型参数将模型进行变化,其形状和纹理能够与目标物体在一定误差内实现匹配。
由Cootes等人于1995年提出的活动形状模型(ASM),其方法是从某种物体的图像样本集合中提取出一个物体形状的统计的模式,同时利用边界点附近的纹理信息,按照一定算法,以此模型为依据,在测试图像中与目标物体进行快速匹配,找到被定位物体的位置。它的优点在于用容易抽取的目标轮廓作为建模基础,选择合理的参数加快匹配速度,并在轮廓的基础上借助图像的纹理特征,更好地匹配图像的组织结构,达到提高定位精度的目的。
但是,这种全局ASM方法有其局限性:ASM方法是基于统计的方法,只适合对某一类表情状态下的人脸进行检测。人脸丰富多样的表情使眼睛和嘴巴有多种状态从而使得形状有较大的非线性变化,不能简单的放在同一个线性模型下处理。也就是说,单一线性模型并不能精确地区分人脸不同的表情状态,其直接结果是眼睛和嘴巴的形状不精确。例如,人在微笑时两个嘴角上扬这个状态是很难用上面的模型精确表达的。不过,如果我们能事先知道人脸的微笑状态,并用基于微笑状态下的训练图像所提取的模型进行处理,那么定位结果无疑会精确得多。为提高ASM在形状有较大非线性变化的、多表情的人脸特征点的检测准确率,我们提出局部ASM和全局ASM相结合的多模型ASM方法。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种操作方便,可明显提高检测准确率的基于活动形状模型的多表情整脸轮廓检测方法。利用本方法可基本不需人工干预的情况下自动检测出目标人脸的关键轮廓点,为后续的人脸目标的识别以及图像的理解与分析等打下基础。
本发明的目的通过下述技术方案实现:一种基于活动形状模型的多表情整脸轮廓检测方法,包括下述步骤——
(1)获取训练图像;即获取多幅不同人的不同表情的正面人脸图像,用来进行建模。
(2)构建局部模型及全局模型
人脸表情丰富多样,有多种眼睛状态和嘴巴状态,故有必要采用局部模型进行细致搜索,并采用全局模型来对整脸轮廓进行全局约束。用标准ASM中的方法构建以下模型:
局部模型分为眼睛模型和嘴巴模型。所述眼睛模型分为开眼模型和闭眼模型;所述嘴巴模型分张大的嘴巴模型、微笑的嘴巴模型、O型的嘴巴模型、紧闭的嘴巴模型。
全局模型则分为总体整脸形状模型和细分状态的整脸模型。其中总体整脸形状模型分为开眼的总体整脸形状模型和闭眼的总体整脸形状模型,它们只是形状模型,不包含任何灰度或特征信息,给定两个眼睛的内角点和两个嘴角点,用它们得到眼睛和嘴巴的大概位置;而细分状态的整脸模型跟标准ASM模型一样,包含形状信息和特征信息。鉴于眼睛有两种状态嘴巴有四种状态,细分状态的整脸模型应包含以下八个:开眼且张大的嘴的整脸模型、开眼且微笑的嘴的整脸模型、开眼且O型的嘴的整脸模型、开眼且紧闭的嘴的整脸模型、闭眼且张大的嘴的整脸模型、闭眼且微笑的嘴的整脸模型、闭眼且O型的嘴的整脸模型、闭眼且紧闭的嘴的整脸模型。
(3)获取目标人脸图像,以利用已建好的模型在目标人脸图像上进行检测。
(4)局部模型与全局模型相结合进行搜索:
对于一幅待检测的目标人脸图像,给定眼角点与嘴角点(如手工标定两个眼睛的内角点和两个嘴角点)之后,局部模型和全局模型交替使用发挥作用:首先用总体整脸形状模型根据已标定的四个点初始化整脸轮廓,得到眼睛和嘴巴的大概位置,然后用局部眼睛模型去寻找眼睛轮廓,用局部嘴巴模型去寻找嘴巴轮廓。由于眼睛状态是未知的,我们先分别用开眼模型和闭眼模型寻找眼睛轮廓,然后用豪斯多夫(Hausdorff)距离判断这两个轮廓哪个更像真实轮廓,从而知道眼睛状态。同理知道嘴巴状态。
其中,Hausdorff距离是一种极大极小距离,常用于衡量两个点集之间的相似程度。由于使用Hausdorff距离作为距离测度时无需考虑两个点集中的点与点之间的一一对应关系,因此可以对具有不完全相同点的两个点集之间的相似性进行度量,有效解决当图像中存在噪声和目标被部分遮挡时的识别问题。
给定两个有限集A={a1,a2,...,ap}和B={b1,b2,...,bq},则A、B之间的Hausdorff距离定义如下:
H(A,B)=max(h(A,B),h(B,A))
其中
h ( A , B ) = max a ∈ A min b ∈ B | | a - b | | , h ( B , A ) = max b ∈ B min a ∈ A | | b - a | |
其中‖·‖为定义在点集A和B上的某种距离范数,例如本文使用的欧氏距离;函数h(A,B)称为从点集A到点集B的有向Hausdorff距离,以下我们定义一个点到一个有限集合的距离为该点与这个集合所有点的距离的最小值,那么h(A,B)即为点集A中的每个点到点集B的距离的最大值;显然一般情况下h(A,B)并不等于h(B,A),如果h(A,B)=d,则说明点集A中的点到点集B的最短距离都在0到d的范围之内。Hausdorff距离H(A,B)取h(A,B)和h(B,A)的最大值,这样通过计算h(A,B)和h(B,A)的最大值即可获得两个点集A和B之间的匹配程度。
本发明中,我们需要计算两幅二值图像BI1和BI2之间的Hausdorff距离,只需取 A = { ( i k 1 , j k 1 ) , where BI 1 ( i k 1 , j k 1 ) = 1 } k 1 = 1 N 1 , 即第一幅图BI1中所有取值为1的点的坐标; B = { ( i k 2 , j k 2 ) , where BI 2 ( i k 2 , j k 2 ) = 1 } k 2 = 1 N 2 , 即第二幅图BI2中所有取值为1的点的坐标,则H(BI1,BI2)=H(A,B)。
最后调用相应的细分状态的整脸模型去寻找整个人脸轮廓。比如说如果检测到眼睛是开眼,嘴巴是O型的嘴,则调用开眼且嘴巴为O型的嘴的整脸模型去搜索。
(5)用选择的整脸模型初始化整脸,然后开始迭代搜索;通过ASM的不断迭代并结合多分辨率的算法,在粗糙(低分辨率)的图像中确定目标大概的位置,然后在一系列越来越清晰(高分辨率)的图像中进行精确的定位,直到ASM收敛或者迭代次数达到最大即停止,得到整脸轮廓。
本发明与现有技术相比具有如下的优点及有益效果:由于人脸丰富的表情,如微笑,惊讶,生气,发呆等等,不能简单地放在同一个线性模型下处理,否则会导致眼睛和嘴巴的检测结果不够精细;而本发明提出的将局部ASM和全局ASM结合的多模型ASM方法的多表情整脸轮廓检测方法,事先确定人脸的表情状态,选用更精细的单表情状态模型下进行检测,能提高ASM在形状有较大非线性变化的、多表情的人脸特征点的检测准确率。实验表明,本章提出的基于ASM方法的多表情整脸轮廓检测算法的检测准确率比标准ASM有明显提高,更好地为后续的人脸目标的识别以及图像的理解与分析等打下基础。
附图说明
图1为整脸轮廓上的特征点图;其中,左图为开眼的98个特征点,右图为闭眼的84个特征点。
图2为两种眼睛状态和四种嘴巴状态。第一行:(a)开着的眼睛,前三为一般开着的眼睛,后三分别为向上看的眼睛,瞪大的眼睛和左右看的眼睛。(b)闭着的眼睛。第二行从左到右分别为张大的嘴,微笑的嘴,O型的嘴(如惊讶时)和紧闭的嘴。其中白色的是轮廓线。
图3是嘴巴状态估计图。
图4是本发明训练得到的部分模型。
(a)局部模型。左二为眼睛模型(开的和闭的),右四为嘴巴模型(张大的,微笑的,O型的和紧闭的)。
(b)总体整脸形状模型。闭眼的总体整脸形状模型和开眼的总体整脸形状模型。
(c)部分细分状态的整脸模型。从左到右分别为开眼且张大的嘴的整脸模型、开眼且微笑的嘴的整脸模型、开眼且O型的嘴的整脸模型、开眼且紧闭的嘴的整脸模型和眼睛为闭的整脸模型。
图5为本发明方法的操作流程图(包括局部和全局模型结合的基于多模型的改进的ASM方法的搜索过程)。
图6为人工标定的两个眼睛的内角点和两个嘴角点。
图7为用开眼的总体整脸形状模型初始化整脸轮廓。
图8(a)用开眼的总体整脸形状模型初始化整脸轮廓得到的眼睛的大概位置(右眼为例);(b)用开眼模型寻找得到的开眼轮廓;(c)用闭眼模型寻找得到的闭眼轮廓。
图9第一行:眼睛和它的真实轮廓(用canny算子计算)。第二行:分别为用开眼模型和闭眼模型搜索得到的眼睛轮廓的二值图。
图10为同一个人不同表情下改进的ASM的部分检测结果以及与标准ASM的检测结果对比图。第一行:本技术方案改进的ASM;第二行:标准ASM。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本基于活动形状模型的多表情整脸轮廓检测方法,包括下述步骤(如图5所示):
(1)获取训练图像;即获取两幅不同人的不同表情的正面人脸图像,用来进行建模。
(2)构建局部模型及全局模型
首先用标准ASM中的方法构建以下模型,其中采样点的选取请参见图1。
局部模型分为眼睛模型和嘴巴模型;如图2所示,所述眼睛模型分为开眼模型和闭眼模型;所述嘴巴模型分张大的嘴巴模型、微笑的嘴巴模型、O型的嘴巴模型、紧闭的嘴巴模型。
全局模型则分为总体整脸形状模型和细分状态的整脸模型。其中总体整脸形状模型分为开眼的总体整脸形状模型和闭眼的总体整脸形状模型,它们只是形状模型,不包含任何灰度或特征信息,给定两个眼睛的内角点和两个嘴角点,用它们得到眼睛和嘴巴的大概位置;而细分状态的整脸模型跟标准ASM模型一样,包含形状信息和特征信息。鉴于眼睛有两种状态嘴巴有四种状态,细分状态的整脸模型应包含以下八个:开眼且张大的嘴的整脸模型、开眼且微笑的嘴的整脸模型、开眼且O型的嘴的整脸模型、开眼且紧闭的嘴的整脸模型、闭眼且张大的嘴的整脸模型、闭眼且微笑的嘴的整脸模型、闭眼且O型的嘴的整脸模型、闭眼且紧闭的嘴的整脸模型,具体见图4。
(3)获取目标人脸图像,以利用已建好的模型在目标人脸图像上进行检测。
(4)局部模型与全局模型相结合的搜索方法(见图5):
1.人工标定测试图像中两个眼睛的内角点和两个嘴角点位置(见图6),首先用开眼的总体整脸形状模型(或闭眼的总体整脸形状模型)根据已标定的四个点的位置初始化整脸(见图7),得到两个眼睛外角点的大概位置(见图8)。
2.对于眼睛,局部使用ASM。由于眼睛状态未知,先用开眼模型初始化并搜索得到开眼轮廓;再用闭眼模型初始化并搜索得到闭眼轮廓。同时在原图中用canny算子计算得到实际的眼睛边缘图,其中canny算子是一种图像边缘检测算子,在MATLAB等编程软件中可利用图像处理工具箱函数实现。具体见图9。此时,开眼轮廓、闭眼轮廓与实际眼睛边缘图都是经过二值化后的二值图:即搜索得到的眼睛轮廓线与用canny算子得到的眼睛边缘处的像素值取1,其它部分的像素值取0。根据Hausdorff距离的定义,计算两个Hausdorff距离:开眼轮廓与实际眼睛边缘的Hausdorff距离;闭眼轮廓与实际眼睛边缘的Hausdorff距离。从而判断这两个轮廓哪个更接近真实轮廓,从而知道眼睛状态。
3.对于嘴巴,同理也局部使用ASM,最后得到嘴巴状态(张大的嘴巴,微笑的嘴巴,O型的嘴巴,紧闭的嘴巴),如图3所示。
4.选用相应的细分状态的整脸全局模型。比如说如果检测到眼睛是闭眼,则选用眼睛为闭的整脸模型;如果检测到眼睛是开眼,嘴巴是O型的嘴巴,则选用开眼且嘴巴为O型的嘴巴的整脸模型;其他情况类推。
(5)用选择的整脸模型初始化整脸,然后开始迭代搜索。通过ASM的不断迭代并结合多分辨率的算法,在粗糙(低分辨率)的图像中确定目标大概的位置,然后在一系列越来越清晰(高分辨率)的图像中进行精确的定位,直到ASM收敛或者迭代次数达到最大,停止。得到整脸轮廓。
图10为利用本发明方法的检测结果及与标准ASM的检测结果对比的效果图。第一行:本技术方案改进的ASM;第二行:标准ASM。由图10对比可知,本发明方法的检测准确率比标准ASM有明显提高,眼睛和嘴巴的特征点检测得更加准确,由于人脸各部位的相关性,眼睛和嘴巴的准确使得其它部位检测的准确性都有所提高。

Claims (5)

1、一种基于活动形状模型的多表情整脸轮廓检测方法,其特征在于包括下述步骤——
(1)获取训练图像;
(2)构建局部模型及全局模型;
(3)获取目标人脸图像;
(4)局部模型与全局模型相结合对人脸图像进行搜索;
(5)用选择的全局模型初始化整脸,然后运算定位,得到整脸轮廓;
所述局部模型分为眼睛模型和嘴巴模型;所述全局模型分为总体整脸形状模型和细分状态的整脸模型;所述总体整脸形状模型分为开眼的总体整脸形状模型和闭眼的总体整脸形状模型;所述细分状态的整脸模型包含开眼且张大的嘴的整脸模型、开眼且微笑的嘴的整脸模型、开眼且O型的嘴的整脸模型、开眼且紧闭的嘴的整脸模型、闭眼且张大的嘴的整脸模型、闭眼且微笑的嘴的整脸模型、闭眼且O型的嘴的整脸模型、闭眼且紧闭的嘴的整脸模型。
2、根据权利要求1所述的基于活动形状模型的多表情整脸轮廓检测方法,其特征在于:所述眼睛模型分为开眼模型和闭眼模型;所述嘴巴模型分张大的嘴巴模型、微笑的嘴巴模型、O型的嘴巴模型、紧闭的嘴巴模型。
3、根据权利要求1所述的基于活动形状模型的多表情整脸轮廓检测方法,其特征在于:所述步骤(4)具体为给定眼角点与嘴角点之后,局部模型和全局模型交替使用发挥作用:首先用总体整脸形状模型初始化整脸轮廓,得到眼睛和嘴巴的大概位置,然后用局部眼睛模型去寻找眼睛轮廓,用局部嘴巴模型去寻找嘴巴轮廓。
4、根据权利要求3所述的基于活动形状模型的多表情整脸轮廓检测方法,其特征在于:先分别用开眼模型和闭眼模型寻找眼睛轮廓,然后用豪斯多夫距离判断这两个轮廓哪个更像真实轮廓,从而知道眼睛状态;先分别用各嘴巴模型寻找嘴巴轮廓,然后用豪斯多夫距离判断几个轮廓哪个更像真实轮廓,从而知道嘴巴状态。
5、根据权利要求1所述的基于活动形状模型的多表情整脸轮廓检测方法,其特征在于:所述步骤(5)具体是用选择的整脸模型初始化整脸,然后开始迭代搜索;通过活动形状模型的不断迭代并结合多分辨率的算法,在粗糙的图像中确定目标大概的位置,然后在一系列越来越清晰的图像中进行精确的定位,直到活动形状模型收敛或者迭代次数达到最大即停止,得到整脸轮廓。
CNB2006101233998A 2006-11-08 2006-11-08 基于活动形状模型的多表情整脸轮廓检测方法 Expired - Fee Related CN100444191C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNB2006101233998A CN100444191C (zh) 2006-11-08 2006-11-08 基于活动形状模型的多表情整脸轮廓检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNB2006101233998A CN100444191C (zh) 2006-11-08 2006-11-08 基于活动形状模型的多表情整脸轮廓检测方法

Publications (2)

Publication Number Publication Date
CN1949246A CN1949246A (zh) 2007-04-18
CN100444191C true CN100444191C (zh) 2008-12-17

Family

ID=38018760

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2006101233998A Expired - Fee Related CN100444191C (zh) 2006-11-08 2006-11-08 基于活动形状模型的多表情整脸轮廓检测方法

Country Status (1)

Country Link
CN (1) CN100444191C (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745192A (zh) * 2013-11-27 2014-04-23 苏州清研微视电子科技有限公司 计算机基于层叠式主成分分析法智能识别视频中人眼状态的方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101299235B (zh) * 2008-06-18 2010-06-02 中山大学 一种基于核主成分分析的人脸超分辨率重构方法
KR101527408B1 (ko) * 2008-11-04 2015-06-17 삼성전자주식회사 얼굴 표정 검출 방법 및 시스템
CN104166977B (zh) * 2013-05-17 2017-10-10 中国航空工业集团公司洛阳电光设备研究所 一种图像匹配相似性测度方法及其图像匹配方法
CN104156700A (zh) * 2014-07-26 2014-11-19 佳都新太科技股份有限公司 基于活动形状模型和加权插值法的人脸图像眼镜去除方法
CN104951743A (zh) * 2015-03-04 2015-09-30 苏州大学 基于主动形状模型算法分析人脸表情的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1341401A (zh) * 2001-10-19 2002-03-27 清华大学 基于部件主分量分析的多模式人脸识别方法
US20050135679A1 (en) * 2003-12-17 2005-06-23 Yoon Ho S. Face detecting system and method using symmetric axis
CN1687957A (zh) * 2005-06-02 2005-10-26 上海交通大学 结合局部搜索和活动外观模型的人脸特征点定位方法
US7127081B1 (en) * 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127081B1 (en) * 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
CN1341401A (zh) * 2001-10-19 2002-03-27 清华大学 基于部件主分量分析的多模式人脸识别方法
US20050135679A1 (en) * 2003-12-17 2005-06-23 Yoon Ho S. Face detecting system and method using symmetric axis
CN1687957A (zh) * 2005-06-02 2005-10-26 上海交通大学 结合局部搜索和活动外观模型的人脸特征点定位方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
融合全局与局部特征的子空间人脸识别算法. 王蕴红,范伟,谭铁牛.计算机学报,第28卷第10期. 2005
融合全局与局部特征的子空间人脸识别算法. 王蕴红,范伟,谭铁牛.计算机学报,第28卷第10期. 2005 *
鉴别局部特征分析及其在人脸识别中的应用. 杨琼,丁晓青.清华大学学报(自然科学版),第44卷第4期. 2004
鉴别局部特征分析及其在人脸识别中的应用. 杨琼,丁晓青.清华大学学报(自然科学版),第44卷第4期. 2004 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745192A (zh) * 2013-11-27 2014-04-23 苏州清研微视电子科技有限公司 计算机基于层叠式主成分分析法智能识别视频中人眼状态的方法
CN103745192B (zh) * 2013-11-27 2016-11-16 苏州清研微视电子科技有限公司 计算机基于层叠式主成分分析法智能识别视频中人眼状态的方法

Also Published As

Publication number Publication date
CN1949246A (zh) 2007-04-18

Similar Documents

Publication Publication Date Title
Barnea et al. Colour-agnostic shape-based 3D fruit detection for crop harvesting robots
Engelhard et al. Real-time 3D visual SLAM with a hand-held RGB-D camera
Dornaika et al. On appearance based face and facial action tracking
CN102262724B (zh) 目标图像特征点定位方法和目标图像特征点定位系统
CN100444191C (zh) 基于活动形状模型的多表情整脸轮廓检测方法
CN109299643B (zh) 一种基于大姿态对准的人脸识别方法及系统
Chhaya et al. Monocular reconstruction of vehicles: Combining slam with shape priors
Sundaresan et al. Model driven segmentation of articulating humans in Laplacian Eigenspace
CN100389430C (zh) 基于aam的头部姿态实时估算方法及系统
Schmaltz et al. Region-based pose tracking with occlusions using 3d models
US20170287162A1 (en) Method and system for scanning an object using an rgb-d sensor
CN105608710B (zh) 一种非刚性人脸检测和追踪定位方法
CN113160275B (zh) 一种基于多个视频的自动目标跟踪和轨迹计算的方法
Dai et al. Non-rigid 3D shape registration using an adaptive template
CN107093182B (zh) 一种基于特征拐点的人体高度估计方法
Sturm et al. 3d pose estimation, tracking and model learning of articulated objects from dense depth video using projected texture stereo
Chen et al. Detecting 6d poses of target objects from cluttered scenes by learning to align the point cloud patches with the cad models
Koganti et al. Real-time estimation of human-cloth topological relationship using depth sensor for robotic clothing assistance
CN104361573B (zh) 融合颜色信息和全局信息的sift特征匹配算法
Li et al. Recent advances on application of deep learning for recovering object pose
Guo et al. A hybrid framework based on warped hierarchical tree for pose estimation of texture-less objects
Lv et al. Cheating behavior detection based-on pictorial structure model
Hartanto et al. Hand-motion-guided articulation and segmentation estimation
Pan et al. A Novel RGB-D SLAM for Recognizing Features on Static Objects
CN116740820B (zh) 基于自动增广的单视角点云三维人体姿态与形状估计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20081217

Termination date: 20091208