CN107622262A - 一种基于重叠肢体和自适应视点选择的姿势估计方法 - Google Patents

一种基于重叠肢体和自适应视点选择的姿势估计方法 Download PDF

Info

Publication number
CN107622262A
CN107622262A CN201711075952.XA CN201711075952A CN107622262A CN 107622262 A CN107622262 A CN 107622262A CN 201711075952 A CN201711075952 A CN 201711075952A CN 107622262 A CN107622262 A CN 107622262A
Authority
CN
China
Prior art keywords
mrow
msub
msubsup
msup
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201711075952.XA
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201711075952.XA priority Critical patent/CN107622262A/zh
Publication of CN107622262A publication Critical patent/CN107622262A/zh
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明中提出的一种基于重叠肢体和自适应视点选择的姿势估计方法,其主要内容包括:单一视点姿势估计、多视点姿势估计、训练方法,其过程为,首先使用预训练网络对输入图像进行单一视点的姿势估计,通过构建并迭代能量函数找到最优的估计结果,然后根据该结果及图像配对视点的校准极线进行多视点的自适应选择,最后通过微调网络结构得到最终的姿势估计结果。本发明可以处理不同姿态的人体姿势估计,同时提高在肢体重叠或遮挡状态下的估计效果,在测试精度方面带来明显提升。

Description

一种基于重叠肢体和自适应视点选择的姿势估计方法
技术领域
本发明涉及人体动作分析领域,尤其是涉及了一种基于重叠肢体和自适应视点选择的姿势估计方法。
背景技术
在人体分析领域中,动作识别和姿势估计是一个非常活跃的领域,它有很多潜在的应用。静态图像的动作识别比视频动作识别更具挑战性,在视频中运动线索可以为区分不同的动作提供丰富的信息源,而静态图像的动作识别研究主要根据图像中人动作的姿势特征或者结合人体部位和相关物体的空间结构进行动作识别。姿势估计作为新兴课题,在许多领域有着实用性发展,比如图像搜索、行为归类、安防监控方面,特别地,在交通领域中的无人驾驶、智能家居中的动作识别、医疗诊断中的人机交互等都具有广阔的应用前景。
然而,现如今对于准确地进行人体姿势估计还是较大的挑战。首先不同的肢体如果进行重叠,信息的缺失导致了估计的错误。其次,传统方法单一视点的估计方法没有先验知识,对最终的估计结果误差较大。此外,在二维图像中估计三维人体的姿势,受限于数学模型的建立,依然带来难度。
本发明提出了一种基于配对自适应多视点估计姿势的新框架。使用预训练网络对输入图像进行单一视点的姿势估计,通过构建并迭代能量函数找到最优的估计结果,然后根据该结果及图像配对视点的校准极线进行多视点的自适应选择,最后通过微调网络结构得到最终的姿势估计结果。本发明可以处理不同姿态的人体姿势估计,同时提高在肢体重叠或遮挡状态下的估计效果,在测试精度方面带来明显提升。
发明内容
针对解决在重叠肢体和单一视点进行人体姿势估计的问题,本发明的目的在于提供一种基于重叠肢体和自适应视点选择的姿势估计方法,提出了一种基于配对自适应多视点估计姿势的新框架。
为解决上述问题,本发明提供一种基于重叠肢体和自适应视点选择的姿势估计方法:
(一)单一视点姿势估计;
(二)多视点姿势估计;
(三)训练方法。
其中,所述的单一视点姿势估计,给定图像I,其含有K个部位,用pi=(x,y)表示该图像中第i(i=1,...,K)个部位的像素坐标,则pi为优化目标,具体为:
1)定义潜在变量ti∈{1,...,T},其代表该部位pi不同的形状;
2)定义完整姿势p={pi},则该单一视点姿势估计的能量函数为:
其中,权重系数由潜在变量ti决定;ψ(pi-pj)=[dx dx2 dy dy2]T,dx=xi-xj,dy=yi-yj;b是偏置项,训练过程中不断对S进行迭代优化,则可得到最优的单一视点姿势估计pi
所述的多视点姿势估计,基于单一视点的能量函数,构建全局能量函数S2(IA,IB,pA,pB,tA,tB),用于控制估计的姿势对A和B其质量程度:
其中,S1是单一视点的能量函数,ξ和λ是用于保持姿势一致性的系数,α和β是控制各自两项总量的系数,此外具体地,为求解S2,对公式(2)进行条件约束,分别为几何约束、表面约束和自适应视点选择。
所述的几何约束,给定已校准的相机,一对不同视点的输入图像IA、IB,从A的角度看过去,B的图像实际上是A的极线处,于是用ξ函数约束其变化程度:
其中,指从A的角度看B的视点其极线所在处,d是指欧几里得距离。
所述的表面约束,对于公式(2)中的参数λ,用于对潜在变量ti进行控制,具体为使用无参数的方法对训练数据进行离散分布的学习,令
所述的自适应视点选择,使用一个二元选择器对几何约束和表面约束进行控制,具体为,对公式(2)中的αi,有:
其中,τi是从训练集中得到的平均错误阈值,σi(pA,θ)是一个估值函数,对给定的完整姿势估计pA和其估计参数θ,得到误差结果,通过最小化其损失函数L,迭代得到最终结果。
所述的损失函数,给定估值函数σ和相应输入,损失函数为:
其中,e是现实多视点不同部位的姿势估计误差值向量,‖·‖2表示L2范数。
所述的训练方法,包括一致性参数设置和视点选择参数。
所述的一致性参数设置,对于使用弱监督方式进行估计,特别地,使用单一视点的姿势进行误差估计,如果误差足够小,则ti投入训练层。
所述的视点选择参数,使用16层的深度卷积网络进行预训练,对训练得到的误差进行期望回归,由此决定估值函数σ的输出值。
附图说明
图1是本发明一种基于重叠肢体和自适应视点选择的姿势估计方法的系统流程图。
图2是本发明一种基于重叠肢体和自适应视点选择的姿势估计方法的人体姿势估计结果的比较图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于重叠肢体和自适应视点选择的姿势估计方法的系统流程图。主要包括单一视点姿势估计;多视点姿势估计;训练方法。
其中,单一视点姿势估计,给定图像I,其含有K个部位,用pi=(x,y)表示该图像中第i(i=1,...,K)个部位的像素坐标,则pi为优化目标,具体为:
1)定义潜在变量ti∈{1,...,T},其代表该部位pi不同的形状;
2)定义完整姿势p={pi},则该单一视点姿势估计的能量函数为:
其中,权重系数由潜在变量ti决定;ψ(pi-pj)=[dx dx2 dy dy2]T,dx=xi-xj,dy=yi-yj;b是偏置项,训练过程中不断对S进行迭代优化,则可得到最优的单一视点姿势估计pi
多视点姿势估计,基于单一视点的能量函数,构建全局能量函数S2(IA,IB,pA,pB,tA,tB),用于控制估计的姿势对A和B其质量程度:
其中,S1是单一视点的能量函数,ξ和λ是用于保持姿势一致性的系数,α和β是控制各自两项总量的系数,此外具体地,为求解S2,对公式(2)进行条件约束,分别为几何约束、表面约束和自适应视点选择。
几何约束,给定已校准的相机,一对不同视点的输入图像IA、IB,从A的角度看过去,B的图像实际上是A的极线处,于是用ξ函数约束其变化程度:
其中,指从A的角度看B的视点其极线所在处,d是指欧几里得距离。
表面约束,对于公式(2)中的参数λ,用于对潜在变量ti进行控制,具体为使用无参数的方法对训练数据进行离散分布的学习,令
自适应视点选择,使用一个二元选择器对几何约束和表面约束进行控制,具体为,对公式(2)中的αi,有:
其中,τi是从训练集中得到的平均错误阈值,σi(pA,θ)是一个估值函数,对给定的完整姿势估计pA和其估计参数θ,得到误差结果,通过最小化其损失函数L,迭代得到最终结果。
损失函数,给定估值函数σ和相应输入,损失函数为:
其中,e是现实多视点不同部位的姿势估计误差值向量,‖·‖2表示L2范数。
训练方法,包括一致性参数设置和视点选择参数。
一致性参数设置,对于使用弱监督方式进行估计,特别地,使用单一视点的姿势进行误差估计,如果误差足够小,则ti投入训练层。
视点选择参数,使用16层的深度卷积网络进行预训练,对训练得到的误差进行期望回归,由此决定估值函数σ的输出值。
图2是本发明一种基于重叠肢体和自适应视点选择的姿势估计方法的人体姿势估计结果的比较图。如图所示,上面一行估计结果为当前流行的FMP方法所实施,下面一行估计结果为本发明的方法所实施,可以观察到本文方法能够捕捉到更多的人体肢体信息,已经姿势估计准确度比对比方法要更好。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (10)

1.一种基于重叠肢体和自适应视点选择的姿势估计方法,其特征在于,主要包括单一视点姿势估计(一);多视点姿势估计(二);训练方法(三)。
2.基于权利要求书1所述的单一视点姿势估计(一),其特征在于,给定图像I,其含有K个部位,用pi=(x,y)表示该图像中第i(i=1,...,K)个部位的像素坐标,则pi为优化目标,具体为:
1)定义潜在变量ti∈{1,...,T},其代表该部位pi不同的形状;
2)定义完整姿势p={pi},则该单一视点姿势估计的能量函数为:
<mrow> <mi>S</mi> <mrow> <mo>(</mo> <mi>I</mi> <mo>,</mo> <mi>p</mi> <mo>,</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mi>V</mi> </mrow> </msub> <msubsup> <mi>w</mi> <mi>i</mi> <msub> <mi>t</mi> <mi>i</mi> </msub> </msubsup> <mi>&amp;phi;</mi> <mrow> <mo>(</mo> <mi>I</mi> <mo>,</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mi>j</mi> <mo>&amp;Element;</mo> <mi>E</mi> </mrow> </msub> <msubsup> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>j</mi> </msub> </mrow> </msubsup> <mi>&amp;psi;</mi> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>p</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mi>V</mi> </mrow> </msub> <msubsup> <mi>b</mi> <mi>i</mi> <msub> <mi>t</mi> <mi>i</mi> </msub> </msubsup> <mo>+</mo> <msub> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mi>j</mi> <mo>&amp;Element;</mo> <mi>V</mi> </mrow> </msub> <msubsup> <mi>b</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> <mrow> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>t</mi> <mi>j</mi> </msub> </mrow> </msubsup> <mo>,</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,权重系数由潜在变量ti决定;ψ(pi-pj)=[dx dx2 dy dy2]T,dx=xi-xj,dy=yi-yj;b是偏置项,训练过程中不断对S进行迭代优化,则可得到最优的单一视点姿势估计pi
3.基于权利要求书1所述的多视点姿势估计(二),其特征在于,基于单一视点的能量函数,构建全局能量函数S2(IA,IB,pA,pB,tA,tB),用于控制估计的姿势对A和B其质量程度:
<mrow> <msup> <mi>S</mi> <mn>2</mn> </msup> <mo>=</mo> <msup> <mi>S</mi> <mn>1</mn> </msup> <mrow> <mo>(</mo> <msup> <mi>I</mi> <mi>A</mi> </msup> <mo>,</mo> <msup> <mi>p</mi> <mi>A</mi> </msup> <mo>,</mo> <msup> <mi>t</mi> <mi>A</mi> </msup> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;alpha;&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mi>V</mi> </mrow> </msub> <msub> <mi>&amp;alpha;</mi> <mi>i</mi> </msub> <mi>&amp;xi;</mi> <mrow> <mo>(</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mi>A</mi> </msubsup> <mo>,</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mi>B</mi> </msubsup> <mo>)</mo> </mrow> <mo>+</mo> <msup> <mi>S</mi> <mn>1</mn> </msup> <mrow> <mo>(</mo> <msup> <mi>I</mi> <mi>B</mi> </msup> <mo>,</mo> <msup> <mi>p</mi> <mi>B</mi> </msup> <mo>,</mo> <msup> <mi>t</mi> <mi>B</mi> </msup> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;beta;&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <mi>V</mi> </mrow> </msub> <msub> <mi>&amp;alpha;</mi> <mi>i</mi> </msub> <mi>&amp;lambda;</mi> <mrow> <mo>(</mo> <msubsup> <mi>t</mi> <mi>i</mi> <mi>A</mi> </msubsup> <mo>,</mo> <msubsup> <mi>t</mi> <mi>i</mi> <mi>B</mi> </msubsup> <mo>)</mo> </mrow> <mo>,</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,S1是单一视点的能量函数,ζ和λ是用于保持姿势一致性的系数,α和β是控制各自两项总量的系数,此外具体地,为求解S2,对公式(2)进行条件约束,分别为几何约束、表面约束和自适应视点选择。
4.基于权利要求书3所述的几何约束,其特征在于,给定已校准的相机,一对不同视点的输入图像IA、IB,从A的角度看过去,B的图像实际上是A的极线处,于是用ξ函数约束其变化程度:
<mrow> <mi>&amp;xi;</mi> <mrow> <mo>(</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mi>A</mi> </msubsup> <mo>,</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mi>B</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mi>d</mi> <mrow> <mo>(</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mi>A</mi> </msubsup> <mo>,</mo> <mi>e</mi> <mo>(</mo> <mrow> <mi>A</mi> <mo>,</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mi>B</mi> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>-</mo> <mi>d</mi> <mrow> <mo>(</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mi>B</mi> </msubsup> <mo>,</mo> <mi>e</mi> <mo>(</mo> <mrow> <mi>B</mi> <mo>,</mo> <msubsup> <mi>p</mi> <mi>i</mi> <mi>A</mi> </msubsup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>,</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
其中,指从A的角度看B的视点其极线所在处,d是指欧几里得距离。
5.基于权利要求书3所述的表面约束,其特征在于,对于公式(2)中的参数λ,用于对潜在变量ti进行控制,具体为使用无参数的方法对训练数据进行离散分布的学习,令
6.基于权利要求书3所述的自适应视点选择,其特征在于,使用一个二元选择器对几何约束和表面约束进行控制,具体为,对公式(2)中的αi,有:
其中,τi是从训练集中得到的平均错误阈值,σi(pA,θ)是一个估值函数,对给定的完整姿势估计pA和其估计参数θ,得到误差结果,通过最小化其损失函数L,迭代得到最终结果。
7.基于权利要求书6所述的损失函数,其特征在于,给定估值函数σ和相应输入,损失函数为:
<mrow> <mi>L</mi> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>&amp;theta;</mi> </munder> <mo>|</mo> <mo>|</mo> <msub> <mi>&amp;sigma;</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <msup> <mi>p</mi> <mi>A</mi> </msup> <mo>,</mo> <mi>&amp;theta;</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>e</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>,</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,e是现实多视点不同部位的姿势估计误差值向量,‖·‖2表示L2范数。
8.基于权利要求书1所述的训练方法(三),其特征在于,包括一致性参数设置和视点选择参数。
9.基于权利要求书8所述的一致性参数设置,其特征在于,对于使用弱监督方式进行估计,特别地,使用单一视点的姿势进行误差估计,如果误差足够小,则ti投入训练层。
10.基于权利要求书8所述的视点选择参数,其特征在于,使用16层的深度卷积网络进行预训练,对训练得到的误差进行期望回归,由此决定估值函数σ的输出值。
CN201711075952.XA 2017-11-06 2017-11-06 一种基于重叠肢体和自适应视点选择的姿势估计方法 Withdrawn CN107622262A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711075952.XA CN107622262A (zh) 2017-11-06 2017-11-06 一种基于重叠肢体和自适应视点选择的姿势估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711075952.XA CN107622262A (zh) 2017-11-06 2017-11-06 一种基于重叠肢体和自适应视点选择的姿势估计方法

Publications (1)

Publication Number Publication Date
CN107622262A true CN107622262A (zh) 2018-01-23

Family

ID=61093117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711075952.XA Withdrawn CN107622262A (zh) 2017-11-06 2017-11-06 一种基于重叠肢体和自适应视点选择的姿势估计方法

Country Status (1)

Country Link
CN (1) CN107622262A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241853A (zh) * 2018-08-10 2019-01-18 平安科技(深圳)有限公司 行人特征采集方法、装置、计算机设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1888814A (zh) * 2006-07-25 2007-01-03 深圳大学 三维主动视觉传感器的多视点姿态估计和自标定方法
CN102122343A (zh) * 2010-01-07 2011-07-13 索尼公司 躯干倾斜角度确定及姿势估计方法和装置
CN104851129A (zh) * 2015-05-21 2015-08-19 成都绿野起点科技有限公司 一种基于多视点的3d重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1888814A (zh) * 2006-07-25 2007-01-03 深圳大学 三维主动视觉传感器的多视点姿态估计和自标定方法
CN102122343A (zh) * 2010-01-07 2011-07-13 索尼公司 躯干倾斜角度确定及姿势估计方法和装置
CN104851129A (zh) * 2015-05-21 2015-08-19 成都绿野起点科技有限公司 一种基于多视点的3d重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JAN CZARNOWSKI ET AL.: "Multi-view pose estimation with mixtures-of-parts and adaptive viewpoint selection", 《ARXIV》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241853A (zh) * 2018-08-10 2019-01-18 平安科技(深圳)有限公司 行人特征采集方法、装置、计算机设备及存储介质
CN109241853B (zh) * 2018-08-10 2023-11-24 平安科技(深圳)有限公司 行人特征采集方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN109635917B (zh) 一种多智能体合作决策及训练方法
Carlevaris-Bianco et al. Generic node removal for factor-graph SLAM
CN107492121B (zh) 一种单目深度视频的二维人体骨骼点定位方法
WO2020258611A1 (zh) 一种基于时空循环注意力机制的ct淋巴结检测系统
WO2017133009A1 (zh) 一种基于卷积神经网络的深度图像人体关节定位方法
CN108171748A (zh) 一种面向机器人智能抓取应用的视觉识别与定位方法
CN107358293A (zh) 一种神经网络训练方法及装置
CN105320944A (zh) 一种基于人体骨架运动信息的人体行为预测方法
CN105512621A (zh) 一种基于Kinect的羽毛球动作指导系统
CN103824050A (zh) 一种基于级联回归的人脸关键点定位方法
CN106127125B (zh) 基于人体行为特征的分布式dtw人体行为识别方法
CN110659565A (zh) 一种基于带孔卷积的3d多人人体姿态估计方法
CN107451594A (zh) 一种基于多元回归的多视角步态分类方法
CN105426872B (zh) 一种基于相关高斯过程回归的面部年龄估计方法
CN108924148A (zh) 一种多源信号协同压缩感知数据恢复方法
CN111105439A (zh) 一种使用残差注意力机制网络的同步定位与建图方法
CN114036969A (zh) 一种多视角情况下的3d人体动作识别算法
CN103839280B (zh) 一种基于视觉信息的人体姿态跟踪方法
Song et al. 2d lidar map prediction via estimating motion flow with gru
CN107622262A (zh) 一种基于重叠肢体和自适应视点选择的姿势估计方法
CN110785777A (zh) 确定可移动的设备的位置
Ge et al. Causal intervention for human trajectory prediction with cross attention mechanism
CN108537156A (zh) 一种抗遮挡的手部关键节点追踪方法
Koganti et al. Real-time estimation of human-cloth topological relationship using depth sensor for robotic clothing assistance
CN116612513A (zh) 头部姿态估计方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20180123