CN109635724A - 一种动作智能比对方法 - Google Patents

一种动作智能比对方法 Download PDF

Info

Publication number
CN109635724A
CN109635724A CN201811510258.0A CN201811510258A CN109635724A CN 109635724 A CN109635724 A CN 109635724A CN 201811510258 A CN201811510258 A CN 201811510258A CN 109635724 A CN109635724 A CN 109635724A
Authority
CN
China
Prior art keywords
coordinate
movement
angle
calculating
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811510258.0A
Other languages
English (en)
Inventor
关山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongguan Qiangyi Sports Equipment Co Ltd
Original Assignee
Dongguan Qiangyi Sports Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongguan Qiangyi Sports Equipment Co Ltd filed Critical Dongguan Qiangyi Sports Equipment Co Ltd
Priority to CN201811510258.0A priority Critical patent/CN109635724A/zh
Publication of CN109635724A publication Critical patent/CN109635724A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种动作智能比对方法,用于乒乓球运动中对于技术动作与标准动作相似度的智能判定;包括:数据预处理:数据预处理包括确定基准坐标和计算关节点的角度;人体坐标变换:人体坐标变换包括坐标平移和直角坐标系转球坐标系;动作拆分:动作拆分包括在捕捉动作数据时,通过把1个动作拆分为若干个动作模版来分别识别,记录为动作不同阶段的关节点3D位置数据;以及,在绘制动作曲线时,通过算法找出分割点,拆分成若干段数据;计算动作偏差:计算动作偏差包括计算动作轨迹局部偏差和计算动作轨迹整体偏差。本发明基于关节的3D位置信息来进行姿态的相似度度量,避免利用关节角度来度量人体姿态的误差,并且计算量小。

Description

一种动作智能比对方法
技术领域
本发明涉及动作比对技术领域,具体涉及一种动作智能比对方法,用于乒乓球运动中对于技术动作与标准动作相似度的智能判定。
背景技术
现有人体动作比对方法有:肉眼观察方法、基于视频帧的方法和时间序列的相似性度量;其中:
1、肉眼观察方法只能靠经验丰富的教练员才能指出动作间的差异。
2、基于视频帧的方法属于模式识别领域,利用帧图像之间的区别来进行动作比对,这种方法局限于平面的比对,人体动作是三维立体的,涉及到关节之间的相对位置、相对旋转等问题。
3、时间序列的相似性度量有几个特点:数据量大、维度高、结构复杂。目前时间序列相似性度量的方法有下面三种:
1)欧式距离
欧式距离是时间序列相似性度量中使用得最早也是最广泛的一种度量方法,但在实际情况中,时间序列的长度,噪声和变形的情况很复杂,欧式距离已经不能满足这些数据的相似性。
2)动态时间弯曲距离
为了解决欧式距离存在的噪声敏感、无法辨识变形等问题,把语音识别中的动态弯曲算法引入到时间序列的相似性度量问题,形成了动态时间弯曲距离算法,用来解决长度不相等的、时间轴上变形的时间序列相似性度量。
3)最长公共子序列
最长公共子序列的基本原理是找出两段字符串中的公共子串的最大长度来表示字符串的相似程度。该算法可以直接用于时间序列的相似性度量,只需要将时间序列的单点值离散为单个字符,这种方法被称为最长公共子序列度量。该方法要求两个匹配上的字符值相同,并且字符的下标需要按顺序严格递增。
现有人体动作比对方法的缺点为:
1、人眼观察方法需要经验丰富的教练人员,基本无法大量应用并且无法精确的度量动作偏差。
2、人体动作是三维立体的,视频帧方法局限于平面的比对,无法满足精确度量的标准并且对于不同角度的动作变形无法判定。
3、欧式距离只能代表多维空间中点之间的距离,无法体现姿态之间的相似程度,也无法作为最长公共子序列中序列匹配的判定,具体缺点:1.对时间序列的噪声和波动非常敏感。2.要求序列长度一致。3.不支持时间序列的变形,如时间轴的弯曲,伸缩等。
4、动态时间弯曲距离跟欧式距离对比,动态弯曲距离能够更好地描述时间序列的相似性,能够很好的解决欧式距离无法解决的问题,但是也存在一定缺陷:1.求解比较复杂,计算量大;2.不能满足三角不等式。
5、最长公共子序列能够避免时间序列的短期突变或间断带来的相似性问题,但是无法处理振幅平移、时间轴伸缩和弯曲等变形。
发明内容
针对上述问题中存在的不足之处,本发明提供一种动作智能比对方法。
本发明公开了一种动作智能比对方法,包括:
数据预处理:
所述数据预处理包括确定基准坐标和计算关节点的角度;
人体坐标变换:
所述人体坐标变换包括坐标平移和直角坐标系转球坐标系;
动作拆分:
所述动作拆分包括在捕捉动作数据时,通过把1个动作拆分为若干个动作模版来分别识别,记录为动作不同阶段的关节点3D位置数据;以及,在绘制动作曲线时,通过算法找出分割点,拆分成若干段数据;
计算动作偏差:
所述计算动作偏差包括计算动作轨迹局部偏差和计算动作轨迹整体偏差。
作为本发明的进一步改进,所述确定基准坐标为坐标旋转,消除设备安装时俯仰角度对设备的影响;包括:
通过深度相机或3D体感设备获取当前设备俯仰角度;
计算调整角度后的坐标值:
若旋转a°,关节点的坐标为(x,y),则:
x'=x×cos(a)+y×sin(a)
y'=y×cos(a)-x×sin(a)
式中,(x',y')为调整后的坐标。
作为本发明的进一步改进,所述计算关节点的角度包括:
计算已知的空间中三个点a(x1,y1,z1),b(x2,y2,z2),c(x3,y3,z3)在点b处的夹角:
根据向量计算公式:
ab=(x2-x1,y2-y1,z2-z1);
ab为向量ab;
同理,得出向量ba和向量bc;
根据公式:
|a|:向量a的模;
同理,得出|ba|和|bc|;
当|ba|≠0,|bc|≠0时,<a,b>的夹角通过以下公式获取:
a.b=(x1x2+y1y2+z1z2)
a=(x1,y1,z1),b=(x2,y2,z2),a和b都为不为零的向量;
acos为反余弦;
<a,b>的取值范围是:[0,π];
由此,获取<a,b>的角度值;
计算肢体和身体平面的夹角:
根据身体上三个不共线的点A(X1,Y1,Z1),B(X2,Y2,Z2),C(X3,Y3,Z3);生成方程组:
{
A×X1+B×Y1+C×Z1=0
A×X2+B×Y2+C×Z2=0
A×X3+B×Y3+C×Z3=0
}
解出方程组获得身体平面的方程:
A×X+B×Y+C×Z=0
此时可知
m=(A,B,C),m为平面的法线向量;
根据上述公式获取肢体的向量v(Xv,Yv,Zv);
根据上述公式,得到<m,v>,即得到夹角值。
作为本发明的进一步改进,所述坐标平移包括:
对于A(X,Y,Z),需要平移m(m1,m2,m3)
那么:
A,=(X+m1,Y+m2,Z+m3)
A’为平移后的坐标。
作为本发明的进一步改进,所述直角坐标系转球坐标系包括:
直角坐标系(x,y,z)与球坐标系的转换关系为:
作为本发明的进一步改进,通过深度相机或3D体感设备捕捉动作数据。
作为本发明的进一步改进,所述计算动作轨迹局部偏差包括:
假设标准动作的回归模型为:
Y=β01X1+…+βnXn
并且有k组数据(y(t),x1(t),…,xn(t))kt=1(y(t),x1(t),…,xn(t))t=1k;OLS回归用于计算回归系数βi的估值b0,b1,…bn,使误差平方∑t=1k(y(t)-b0-b1x1(t)-…-bnxn(t))2最小化;
X1,X2…Xn指代的是参数;
在获取回归模型之后,将用户数据代入回归方程,即可得到:
f(x’,y’,z’)=Y(tn)
f(tn)为按预期回归方程获取的结果
Y为回归方程
tn为用户的数据
R为给出的模型偏差值;
∑r:∑r=(|f(t1)|-|t1|)2+…(|f(tn)|-|tn|)2
tn为第n个坐标参数
f(tn):代入tn进入回归方程的后获取的坐标
|x|为对于代入的参数a1,a2…an
n为坐标数量
ε为一个计算常量,用于评价的加权;
由此得出一个动作的局部评价。
作为本发明的进一步改进,所述计算动作轨迹整体偏差包括:
假设局部动作回归模型为Y1,Y2,Y3…Yn
用户数据为t1,t2…tn
则:
∑ε:对于ε12+…+εn恒等于1
∑R:最终偏差值,取值在[0,+∞],越接近于0,偏差越小。
与现有技术相比,本发明的有益效果为:
本发明基于关节的3D位置信息来进行姿态的相似度度量,避免利用关节角度来度量人体姿态的误差,并且计算量小;
本发明建立了统一的骨架模型,利用该骨架模型结构和关节旋转数据求解关节位置数据,能解决时间序列的变形,如弯曲,伸缩、平移等相关问题。
附图说明
图1为本发明一种实施例公开的动作智能比对方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图对本发明做进一步的详细描述:
如图1所示,本发明提供一种动作智能比对方法,包括:
S1、数据预处理:数据预处理包括确定基准坐标和计算关节点的角度;其中:
S11、确定基准坐标为坐标旋转,消除设备安装时俯仰角度对设备的影响;包括:
S111、通过深度相机或3D体感设备获取当前设备俯仰角度;
S112、计算调整角度后的坐标值:
若旋转a°,关节点的坐标为(x,y),则:
x’=x×cos(a)+y×sin(a)
y’=y×cos(a)-x×sin(a)
式中,(x’,y’)为调整后的坐标。
S12、计算关节点的角度包括:
S121、计算已知的空间中三个点a(x1,y1,z1),b(x2,y2,Z2),c(x3,y3,z3)在点b处的夹角:
根据向量计算公式:
ab=(x2-x1,y2-y1,z2-z1);
ab为向量ab;
同理,得出向量ba和向量bc;
根据公式:
|a|:向量a的模;
同理,得出|ba|和|bc|;
当|ba|≠0,|bc|≠0时,<a,b>的夹角通过以下公式获取:
a.b=(x1x2+y1y2+Z1z2)
a=(x1,y1,z1),b=(x2,y2,z2),a和b都为不为零的向量;
acos为反余弦;
<a,b>的取值范围是:[0,π];
由此,获取<a,b>的角度值;
S122、计算肢体和身体平面的夹角:
根据身体上三个不共线的点A(X1,Y1,Z1),B(X2,Y2,Z2),C(X3,Y3,Z3);生成方程组:
{
A×X1+B×Y1+C×Z1=0
A×X2+B×Y2+C×Z2=0
A×X3+B×Y3+C×Z3=0
}
解出方程组获得身体平面的方程:
A×X+B×Y+C×Z=0
此时可知
m=(A,B,C),m为平面的法线向量;
根据上述公式获取肢体的向量v(Xv,Yv,Zv);
根据上述公式,得到<m,v>,即得到夹角值。
S2、人体坐标变换:人体坐标变换包括坐标平移和直角坐标系转球坐标系;其中:
S21、坐标平移包括:
对于A(X,Y,Z),需要平移m(m1,m2,m3)
那么:
A’=(X+m1,Y+m2,Z+m3)
A’为平移后的坐标。
S22、直角坐标系转球坐标系包括:
S221、概念:假设P(x,y,z)为空间内一点,则点P也可用这样三个有次序的数来确定,其中r为原点O与点P间的距离;θ为有向线段OP与z轴正向的夹角;为从正z轴来看自x轴按逆时针方向转到OM所转过的角,这里M为点P在xOy面上的投影;。这样的三个数r,θ,叫做点P的球面坐标,显然,这里r,θ,的变化范围为r∈[0,+∞),θ∈[0,π],
S222、球坐标系与直角坐标系(x,y,z)的转换关系:
z=rcosθ;
S223、反之,直角坐标系(x,y,z)与球坐标系的转换关系为:
S3、动作拆分:
动作拆分包括在深度相机或3D体感设备捕捉动作数据时,通过把1个动作拆分为若干个动作模版来分别识别,记录为动作不同阶段的关节点3D位置数据;以及,在绘制动作曲线时,通过算法找出分割点,拆分成若干段数据;
S4、计算动作偏差:计算动作偏差包括计算动作轨迹局部偏差和计算动作轨迹整体偏差;其中:
S41、计算动作轨迹局部偏差包括:
假设标准动作的回归模型为:
Y=β01X1+…+βnXn
并且有k组数据(y(t),x1(t),…,xn(t))kt=1(y(t),x1(t),…,xn(t))t=1k;OLS回归用于计算回归系数βi的估值b0,b1,…bn,使误差平方∑t=1k(y(t)-b0-b1x1(t)-…-bnxn(t))2最小化;
X1,X2…Xn指代的是参数;
在获取回归模型之后,将用户数据代入回归方程,即可得到:
f(x',y',z')=Y(tn)
f(tn)为按预期回归方程获取的结果
Y为回归方程
tn为用户的数据
R为给出的模型偏差值;
∑r:∑r=(|f(t1)|-|t1|)2+…(|f(tn)|-|tn|)2
tn为第n个坐标参数
f(tn):代入tn进入回归方程的后获取的坐标
|x|为对于代入的参数a1,a2…an
n为坐标数量
ε为一个计算常量,用于评价的加权;
由此得出一个动作的局部评价。
S42、计算动作轨迹整体偏差包括:
假设局部动作回归模型为Y1,Y2,Y3…Yn
用户数据为t1,t2…tn
则:
∑ε:对于ε12+…+εn恒等于1
∑R:最终偏差值,取值在[0,+∞],越接近于0,偏差越小。
进一步,本发明还可通过从动作捕捉系统获取人体动作数据,执行动作数据转换后,从世界坐标系进行坐标转换并运用最小二乘距离算法和最长公共子序列算法进行动作智能比对。
本发明的优点为:
本发明基于关节的3D位置信息实现的人体坐标变换和动作拆分,从而进行姿态的相似度度量,避免利用关节角度来度量人体姿态的误差,并且计算量小;同时,本发明建立了统一的骨架模型,利用该骨架模型结构和关节旋转数据求解关节位置数据,能解决时间序列的变形,如弯曲,伸缩、平移等相关问题。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种动作智能比对方法,其特征在于,包括:
数据预处理:
所述数据预处理包括确定基准坐标和计算关节点的角度;
人体坐标变换:
所述人体坐标变换包括坐标平移和直角坐标系转球坐标系;
动作拆分:
所述动作拆分包括在捕捉动作数据时,通过把1个动作拆分为若干个动作模版来分别识别,记录为动作不同阶段的关节点3D位置数据;以及,在绘制动作曲线时,通过算法找出分割点,拆分成若干段数据;
计算动作偏差:
所述计算动作偏差包括计算动作轨迹局部偏差和计算动作轨迹整体偏差。
2.如权利要求1所述的动作智能比对方法,其特征在于,所述确定基准坐标为坐标旋转,消除设备安装时俯仰角度对设备的影响;包括:
通过深度相机或3D体感设备获取当前设备俯仰角度;
计算调整角度后的坐标值:
若旋转a°,关节点的坐标为(x,y),则:
x’=x×cos(a)+y×sin(a)
y’=y×cos(a)-x×sin(a)
式中,(x’,y’)为调整后的坐标。
3.如权利要求1所述的动作智能比对方法,其特征在于,所述计算关节点的角度包括:
计算已知的空间中三个点a(x1,y1,z1),b(x2,y2,z2),c(x3,y3,z3)在点b处的夹角:
根据向量计算公式:
ab=(x2-x1,y2-y1,z2-z1);
ab为向量ab;
同理,得出向量ba和向量bc;
根据公式:
|a|:向量a的模;
同理,得出|ba|和|bc|;
当|ba|≠0,|bc|≠0时,<a,b>的夹角通过以下公式获取:
a.b=(x1x2+y1y2+z1z2)
<a,b>=acos(cos<a,b>)
a=(x1,y1,z1),b=(x2,y2,z2),a和b都为不为零的向量;
acos为反余弦;
<a,b>的取值范围是:[0,π];
由此,获取<a,b>的角度值;
计算肢体和身体平面的夹角:
根据身体上三个不共线的点A(X1,Y1,Z1),B(X2,Y2,Z2),C(X3,Y3,Z3);生成方程组:
{
A×X1+B×Y1+C×Z1=0
A×X2+B×Y2+C×Z2=0
A×X3+B×Y3+C×Z3=0
}
解出方程组获得身体平面的方程:
A×X+B×Y+C×Z=0
此时可知
m=(A,B,C),m为平面的法线向量;
根据上述公式获取肢体的向量v(Xv,Yv,Zv);
根据上述公式,得到<m,v>,即得到夹角值。
4.如权利要求1所述的动作智能比对方法,其特征在于,所述坐标平移包括:
对于A(X,Y,Z),需要平移m(m1,m2,m3)
那么:
A’=(X+m1,Y+m2,Z+m3)
A’为平移后的坐标。
5.如权利要求1所述的动作智能比对方法,其特征在于,所述直角坐标系转球坐标系包括:
直角坐标系(x,y,z)与球坐标系的转换关系为:
6.如权利要求1所述的动作智能比对方法,其特征在于,通过深度相机或3D体感设备捕捉动作数据。
7.如权利要求1所述的动作智能比对方法,其特征在于,所述计算动作轨迹局部偏差包括:
假设标准动作的回归模型为:
Y=β01X1+…+βnXn
并且有k组数据(y(t),x1(t),…,xn(t))kt=1(y(t),x1(t),…,xn(t))t=1k;OLS回归用于计算回归系数βi的估值b0,b1,…bn,使误差平方∑t=1k(y(t)-b0-b1x1(t)-…-bnxn(t))2最小化;
X1,X2…Xn指代的是参数;
在获取回归模型之后,将用户数据代入回归方程,即可得到:
f(x’,y',z’)=Y(tn)
f(tn)为按预期回归方程获取的结果
Y为回归方程
tn为用户的数据
R为给出的模型偏差值;
∑r:∑r=(|f(t1)|-|t1|)2+…(|f(tn)|-|tn|)2
tn为第n个坐标参数
f(tn):代入tn进入回归方程的后获取的坐标
|x|为对于代入的参数a1,a2…an
n为坐标数量
ε为一个计算常量,用于评价的加权;
由此得出一个动作的局部评价。
8.如权利要求7所述的动作智能比对方法,其特征在于,所述计算动作轨迹整体偏差包括:
假设局部动作回归模型为Y1,Y2,Y3…Yn
用户数据为t1,t2…tn
则:
∑ε:对于ε12+…+εn恒等于1
∑R:最终偏差值,取值在[0,+∞],越接近于0,偏差越小。
CN201811510258.0A 2018-12-11 2018-12-11 一种动作智能比对方法 Pending CN109635724A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811510258.0A CN109635724A (zh) 2018-12-11 2018-12-11 一种动作智能比对方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811510258.0A CN109635724A (zh) 2018-12-11 2018-12-11 一种动作智能比对方法

Publications (1)

Publication Number Publication Date
CN109635724A true CN109635724A (zh) 2019-04-16

Family

ID=66072608

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811510258.0A Pending CN109635724A (zh) 2018-12-11 2018-12-11 一种动作智能比对方法

Country Status (1)

Country Link
CN (1) CN109635724A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110666811A (zh) * 2019-09-26 2020-01-10 同济大学 一种基于RoboCup标准平台组的球位置预测方法
CN113327267A (zh) * 2021-07-15 2021-08-31 东南大学 一种基于单目rgb视频的动作评价方法
CN115190237A (zh) * 2022-06-20 2022-10-14 亮风台(上海)信息科技有限公司 一种确定承载设备的转动角度信息的方法与设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104133813A (zh) * 2014-08-11 2014-11-05 南通大学 一种基于Kinect的海军旗语训练方法
CN104598867A (zh) * 2013-10-30 2015-05-06 中国艺术科技研究所 一种人体动作自动评估方法及舞蹈评分系统
CN105512621A (zh) * 2015-11-30 2016-04-20 华南理工大学 一种基于Kinect的羽毛球动作指导系统
CN108764120A (zh) * 2018-05-24 2018-11-06 杭州师范大学 一种人体规范动作评价方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104598867A (zh) * 2013-10-30 2015-05-06 中国艺术科技研究所 一种人体动作自动评估方法及舞蹈评分系统
CN104133813A (zh) * 2014-08-11 2014-11-05 南通大学 一种基于Kinect的海军旗语训练方法
CN105512621A (zh) * 2015-11-30 2016-04-20 华南理工大学 一种基于Kinect的羽毛球动作指导系统
CN108764120A (zh) * 2018-05-24 2018-11-06 杭州师范大学 一种人体规范动作评价方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JAMIE SHOTTON等: "Real-time human pose recognition in parts from single depth images", 《COMMUNICATIONS OF THE ACM》 *
李昕迪: "基于Kinect的人体姿势识别方法在舞蹈训练中的应用", 《中国优秀硕士学位论文全文数据库 信息科技辑(月刊)计算机软件及计算机应用》 *
韩丽 等: "基于特征向量匹配的舞蹈实时姿态分析方法", 《计算机应用研究》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110666811A (zh) * 2019-09-26 2020-01-10 同济大学 一种基于RoboCup标准平台组的球位置预测方法
CN110666811B (zh) * 2019-09-26 2022-08-05 同济大学 一种基于RoboCup标准平台组的球位置预测方法
CN113327267A (zh) * 2021-07-15 2021-08-31 东南大学 一种基于单目rgb视频的动作评价方法
CN115190237A (zh) * 2022-06-20 2022-10-14 亮风台(上海)信息科技有限公司 一种确定承载设备的转动角度信息的方法与设备
CN115190237B (zh) * 2022-06-20 2023-12-15 亮风台(上海)信息科技有限公司 一种确定承载设备的转动角度信息的方法与设备

Similar Documents

Publication Publication Date Title
CN109635724A (zh) 一种动作智能比对方法
CN105512621B (zh) 一种基于Kinect的羽毛球动作指导系统
CN106776482B (zh) 一种轨迹相似度计算方法
CN104462217B (zh) 一种基于分段统计近似表示的时间序列相似性度量方法
US20170293354A1 (en) Calculation method of line-of-sight direction based on analysis and match of iris contour in human eye image
CN109800624A (zh) 一种基于行人重识别的多目标跟踪方法
CN106373145B (zh) 基于跟踪片段置信度和区分性外观学习的多目标跟踪方法
Chojnacki et al. Rationalising the renormalisation method of Kanatani
CN104394588B (zh) 基于Wi‑Fi指纹和多维尺度分析的室内定位方法
CN111105439B (zh) 一种使用残差注意力机制网络的同步定位与建图方法
CN108537101B (zh) 一种基于状态识别的行人定位方法
CN110555408A (zh) 一种基于自适应映射关系的单摄像头实时三维人体姿态检测方法
CN106650805B (zh) 一种视觉目标跟踪方法及装置
CN113192105B (zh) 一种室内多人追踪及姿态估量的方法及装置
CN111768430B (zh) 一种基于多特征级联匹配的高速公路外场车辆跟踪方法
CN109598196A (zh) 一种多形变多姿态人脸序列的特征点定位方法
CN109448025A (zh) 视频中短道速滑运动员的自动跟踪与轨迹建模方法
CN109886356A (zh) 一种基于三分支神经网络的目标追踪方法
CN110009060A (zh) 一种基于相关滤波与目标检测的鲁棒性长期跟踪方法
CN110232727A (zh) 一种连续姿态动作评估智能算法
CN114495267A (zh) 基于多维数据融合的老人跌倒风险评估方法
Dymczyk et al. Erasing bad memories: Agent-side summarization for long-term mapping
Okugawa et al. Evaluation for the Synchronization of the Parade with OpenPose.
CN106874881B (zh) 一种多模板时空关联的局部反联合稀疏表示目标跟踪方法
CN109934849A (zh) 基于轨迹度量学习的在线多目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination