CN117694841B - 一种重心轨迹数据获取方法 - Google Patents

一种重心轨迹数据获取方法 Download PDF

Info

Publication number
CN117694841B
CN117694841B CN202410170124.8A CN202410170124A CN117694841B CN 117694841 B CN117694841 B CN 117694841B CN 202410170124 A CN202410170124 A CN 202410170124A CN 117694841 B CN117694841 B CN 117694841B
Authority
CN
China
Prior art keywords
axis direction
acceleration
discrete
function
gravity center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410170124.8A
Other languages
English (en)
Other versions
CN117694841A (zh
Inventor
温川飙
屈旭
蒋璐霞
杨涛
李子奇
朱红霞
许雅馨
冯杰
刘勇春
周帅
孙佳琦
郭富强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu University of Traditional Chinese Medicine
Original Assignee
Chengdu University of Traditional Chinese Medicine
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu University of Traditional Chinese Medicine filed Critical Chengdu University of Traditional Chinese Medicine
Priority to CN202410170124.8A priority Critical patent/CN117694841B/zh
Publication of CN117694841A publication Critical patent/CN117694841A/zh
Application granted granted Critical
Publication of CN117694841B publication Critical patent/CN117694841B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M1/00Testing static or dynamic balance of machines or structures
    • G01M1/12Static balancing; Determining position of centre of gravity
    • G01M1/122Determining position of centre of gravity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1075Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4005Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
    • A61B5/4023Evaluating sense of balance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Geometry (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种重心轨迹数据获取方法,其包括:建立三维空间坐标系;获取目标对象腰部的离散加速度、离散角度和离散角速度;基于各方向的所述离散加速度获取各方向的加速度函数;基于各方向的加速度函数获取各方向的速度函数;基于各方向的速度函数获取各方向的位移函数,基于位移函数获取基础重心位置坐标;基于离散角度建立第一修正模型,基于第一修正模型修正基础重心位置坐标获取第一重心位置坐标;基于离散角速度建立第二修正模型,基于第二修正模型修正所述第一重心位置坐标获取第二重心位置坐标;基于第二重心位置坐标进行曲线拟合获得重心轨迹函数。本方法将离散的数据集处理得到可靠的可视化的重心轨迹数据供作运动信息评价。

Description

一种重心轨迹数据获取方法
技术领域
本发明涉及一种重心轨迹信息数据处理技术领域,尤其涉及一种重心轨迹数据获取方法。
背景技术
人体重心轨迹在运动中扮演着关键角色,深刻影响着平衡、姿势控制和动作执行。不论是行走、跑步还是其他基本动作,保持稳定的重心轨迹是维持平衡的先决条件。此外,重心的位置直接塑造身体姿势,对于各种动作的效果和效率有着显著影响。在执行复杂的运动或动作组合时,良好的重心控制可提高动作的稳定性和协调性。此外,适当的重心位置还有助于力量的有效传递,增强动作的力量和效果。因此,理解和精准掌握人体重心轨迹对于提高运动技能、防止受伤以及优化整体运动表现至关重要。
现有技术中,一种采用计算机视觉技术来找到人体轮廓在通过计算得到重心轨迹,这种方法对于网络环境和摄像设备要求较高,便携性较差,应用场景有限;另一种是采用多个传感器的方案,对于使用者来说便携性较差,体验感不好,而且这个方案只能识别重心位置是否异常,不能描绘人体的重心轨迹。
发明内容
本发明提出一种重心轨迹数据获取方法,所述重心轨迹识别方法基于离散加速度、离散角度和离散角速度数据进行积分和修正,将离散的数据集处理成可靠的可视化的重心轨迹供作运动评价。
根据本发明的第一个方面,提出一种重心轨迹数据获取方法,其包括:
建立三维空间坐标系;获取目标对象腰部的离散加速度、离散角度和离散角速度;
基于所述离散加速度获取在三维空间坐标系中x轴方向、y轴方向以及z轴方向的加速度函数;
基于所述x轴方向、y轴方向以及z轴方向的加速度函数获取x轴方向、y轴方向以及z轴方向的速度函数;
基于所述x轴方向、y轴方向以及z轴方向的速度函数获取x轴方向、y轴方向以及z轴方向的位移函数,基于所述位移函数获取基础重心位置坐标;
基于所述离散角度建立第一修正模型,基于所述第一修正模型修正所述基础重心位置坐标获取第一重心位置坐标;
基于所述离散角速度建立第二修正模型,基于所述第二修正模型修正所述第一重心位置坐标获取第二重心位置坐标;
基于所述第二重心位置坐标进行曲线拟合获得重心轨迹函数。
所述轨迹函数可以用于任意曲线图像绘制工具进行重心轨迹绘制。
该方法通过将采集到的目标对象腰部的离散加速度数据集进行两次积分获得位移函数,通过位移函数值确认目标对象的未经修正的基础重心位置坐标与时间t的数据,所述未经修正的基础重心位置坐标也可以视作是目标对象在标准(站立)姿势下的基础重心位置坐标,而考虑到目标对象在运动过程中存在转身的情况下,目标对象的姿势不再是标准姿势,因此所述基础重心位置坐标与实际运动中目标对象的重心位置坐标会存在偏差,为了消除转身等一些非标准姿势带来的重心偏移,需要对所述基础重心位置坐标进行修正,所以本发明基于离散角度和离散角速度建立了第一和第二修正模型,通过两个模型对所述基础重心位置坐标进行两次修正,从而得到准确的重心坐标,基于重心坐标进行曲线拟合获得重心轨迹函数,该重心轨迹函数所代表的曲线便是目标用户的重心轨迹。
在一些实施方式中,获取腰部的离散加速度、离散角度和离散角速度具体包括:通过设置在腰部两侧的两个六轴传感器分别获取目标对象腰部两侧的离散加速度、离散角度和离散角速度。
需要说明的是,站立时,人体重心一般在身体正中面上第三骶椎上缘前方7厘米处,因此采集腰部两侧的数据合并作为基础数据进行重心轨迹绘制,可以得到最接近真实人体重心运动轨迹,相对于现有技术的基于图像或多个传感器所实现的重心运动轨迹获取方式更简单更方便。
在一些实施方式中,基于所述离散加速度获取在三维空间坐标系中x轴方向、y轴方向以及z轴方向的加速度函数具体包括:首先,从两个所述六轴传感器获取离散加速度的合加速度,并将合加速度分解到三维空间坐标系的x轴方向、y轴方向与z轴方向,然后,基于三次样条插值获取x轴方向、y轴方向与z轴方向的加速度函数,其中,
x轴方向上的加速度函数为:,其中,/>为x轴方向上拟合的加速度随时间t变化的函数,/>,/>为x轴方向上的偏移误差;
y轴方向上的加速度函数为:,其中,/>为y轴方向上拟合的加速度随时间t变化的函数,/>,/>为y轴方向上的偏移误差;
z轴方向上的加速度函数为:,其中,/>为z轴方向上拟合的加速度随时间t变化的函数,/>为z轴方向上的偏移误差。
在一些实施方式中,基于所述x轴方向、y轴方向以及z轴方向的加速度函数获取x轴方向、y轴方向以及z轴方向的速度函数具体包括:对x轴方向、y轴方向以及z轴方向的加速度函数积分得到x轴方向、y轴方向以及z轴方向的速度函数,其中,
x轴方向上的速度函数为:t;
y轴方向上的速度函数为:t;
z轴方向上的速度函数为:t。
在一些实施方式中,基于所述x轴方向、y轴方向以及z轴方向的速度函数获取x轴方向、y轴方向以及z轴方向的位移函数,基于所述位移函数确定基础重心位置坐标(X,Y,Z),具体包括:对x轴方向、y轴方向以及z轴方向的速度函数积分得到x轴方向、y轴方向以及z轴方向的位移函数,分别取x、y、z轴方向上的位移函数值作为重心位置坐标中X、Y、Z的坐标值,其中,
x轴方向上的位移函数为dt=/>
y轴方向上的位移函数为dt=/>
z轴方向上的位移函数为dt=/>
在一些实施方式中,基于所述离散角度建立第一修正模型具体包括:基于vicon系统获取目标对象在不同角度下的第一修正重心位置坐标(X1,Y1,Z1),基于目标对象腰部两侧的离散角度K、J与第一修正重心位置坐标(X1,Y1,Z1)建立第一修正模型,并基于最下二乘法求解所述第一修正模型,其中,所述第一修正模型为:
X’=-X1=aK+bJ+c
Y’=-Y1=dK+eJ+f
Z’=-Z1=gK+hJ+i
其中,X’、Y’、Z’为第一修正量,a、b、c、d、e、f、g、h、i为常数。
在一些实施方式中,基于所述第一修正模型修正所述基础重心位置坐标获取第一重心位置坐标具体包括:获取t1时刻下目标对象腰部两侧的离散角度K1、J1,将t1时刻下目标对象腰部两侧的离散角度K1、J1输入第一修正模型获取t1时刻下的第一修正坐标(X’,Y’,Z’),基于位移函数计算t1时刻的基础重心位置坐标(X,Y,Z),基于矢量定理计算(X,Y,Z)与(X’,Y’,Z’)的差值以获取第一重心位置坐标(X-X’,Y-Y’,Z-Z’)。
需要说明的是,在初始建立第一修正模型时,将分别取多个t时刻下的离散角度K、离散角度J、位移函数值S(t)和第一修正重心位置坐标值X1,Y1,Z1代入第一修正模型,利用最小二乘法求解这个方程获取常数a、b、c、d、e、f、g、h、i以确定第一修正模型,其中,所述第一修正模型以矩阵方程可以表示为:
[] * [/>] = X’=/>-X1
[] * [/>] = Y’=/>-Y1
[] * [/>] = Z’=/>-Z1
在一些实施方式中,基于所述离散角速度建立第二修正模型具体包括:基于vicon系统获取目标对象在不同角速度下的第二修正重心位置坐标(X2,Y2,Z2),基于目标对象腰部两侧的离散角速度L、M与第二修正重心位置坐标(X2,Y2,Z2)建立第二修正模型:
X’’=-X2=nL+oM+p
Y’’=-Y2=qL+rM+s
Z’’=-Z2=tL+uM+w
其中,X’’、Y’’、Z’’为第二修正量,n、o、p、q、r、s、u、v、w为常数。
在一些实施方式中,基于所述第二修正模型修正所述第一重心位置坐标获取第二重心位置坐标具体包括:获取t1时刻下目标对象腰部两侧的离散角度L1、M1,将t1时刻下目标对象腰部两侧的离散角速度L1、M1输入第二修正模型获取t1时刻下的第二修正坐标(X’’,Y’’,Z’’),基于矢量定理计算(X-X’,Y-Y’,Z-Z’)与(X’’,Y’’,Z’’)的差值以获取第二重心位置坐标(X-X’-X’’,Y-Y’-Y’’,Z-Z’-Z’’)。
需要说明的是,在初始建立第二修正模型时,将分别取多个t时刻下的离散角度L、离散角度M、位移函数值S(t)和第二修正重心位置坐标值X2,Y2,Z2代入第二修正模型,利用最小二乘法求解这个方程获取常数n、o、p、q、r、s、u、v、w以确定第二修正模型,其中,所述第二修正模型以矩阵方程可以表示为
[] * [/>] = X’’=/>-X2
[] * [/>] = Y’’=/>-Y2
[] * [/>] = Z’’=/>-Z2
在一些实施方式中,基于所述第二重心位置坐标进行曲线拟合获得重心轨迹函数具体包括:
令目标函数为:=/>
=/>
=/>
分别将修正后得到的第二重心位置坐标代入目标函数,获取最小化残差平方和:
基于最小化残差平方和获得重心轨迹函数:
S(t)=
与现有技术相比,本发明具有如下的有益效果:
本发明提出的重心轨迹数据获取方法,只需要获取目标对象腰间的加速度、角度、角速度数据,基于上述数据集通过积分和修正可描绘出重心轨迹,该重心轨迹经过两次修正后可以准确的表示人体重心的移动情况,该重心轨迹可用于运动评价,而目标对象腰间的加速度、角度和角速度的获取可以基于腰间的两个传感器获得,其数据获取方式简单直接,相比于现有技术,具有更强的便携性,在降低应用场景限制基础上可以切实可靠的描述人体重心轨迹的变化情况。
附图说明
图1是本发明的重心轨迹数据获取方法的流程框架图;
图2是本发明的三维空间坐标系示意图;
图3是本发明的x轴方向加速度函数示意图;
图4是本发明的x轴方向速度函数示意图;
图5是本发明的x轴方向位移函数示意图;
图6是本发明的以x轴为例的重心轨迹拟合示意图。
具体实施方式
下面将参照附图更详细地描述本发明的优选实施方式。虽然附图中显示了本发明的优选实施方式,然而应该理解,可以以各种形式实现本发明而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本发明更加透彻和完整,并且能够将本发明的范围完整地传达给本领域的技术人员。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。在本发明和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明可能采用术语“第一”、“第二”、“第三”等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。
本发明所采用的方法和设备,如无特殊说明,均为本技术领域常规试剂、方法和设备。
下面结合附图对本发明作进一步详细的说明。
首先,参考图1,本发明第一种具体实施例提供一种重心轨迹数据获取方法,
其包括:
S100,建立三维空间坐标系;
具体的,参考图2,将目标对象的正前方作为x轴的正方向,目标对象的左侧作为y轴的正方向,z轴垂直于x、y轴向上,使用Python中Matplotlib库的mplot3d工具包,绘制三维空间坐标,建立空间直角坐标系。S200,获取目标对象腰部的离散加速度、离散角度和离散角速度;
具体的,通过设置在腰部两侧的两个六轴传感器分别获取目标对象腰部两侧的离散加速度、离散角度和离散角速度,其中,所述两个六轴传感器可以设置在一个腰带装置上,目标用户只需要穿着所述腰带装置即可获取所述离散加速度、离散角度和离散角速度数据。
需要说明的是,站立时,人体重心一般在身体正中面上第三骶椎上缘前方7厘米处,因此采集腰部两侧的数据合并作为基础数据进行重心轨迹绘制,可以得到最接近真实人体重心运动轨迹,相对于现有技术的基于图像或多个传感器所实现的重心运动轨迹获取方式更简单更方便。
S300,基于所述离散加速度获取在三维空间坐标系中x轴方向、y轴方向以及z轴方向的加速度函数;
具体的,参考图3,基于所述离散加速度获取在三维空间坐标系中x轴方向、y轴方向以及z轴方向的加速度函数具体包括:首先,从两个所述六轴传感器获取离散加速度的合加速度,并将合加速度分解到三维空间坐标系的x轴方向、y轴方向与z轴方向,然后,基于三次样条插值获取x轴方向、y轴方向与z轴方向的加速度函数,其中,
x轴方向上的加速度函数为:,其中,/>为x轴方向上拟合的加速度随时间t变化的函数,,/>为x轴方向上的偏移误差;
y轴方向上的加速度函数为:,其中,/>为y轴方向上拟合的加速度随时间t变化的函数,,/>为y轴方向上的偏移误差;
z轴方向上的加速度函数为:,其中,/>为z轴方向上拟合的加速度随时间t变化的函数,,/>为z轴方向上的偏移误差。
利用python中scipy.interpolate模块进行三次样条插值,所述三次样条插值将两个相邻离散点当成一个小段,在每一个小段中用3阶多项式进行拟合,利用每个小段的连接位置根据连接位置两端的函数值相等、一阶导数值相等和二阶导数值相等,第一段和最后一段的二阶导数为零以确定系数、/>、/>、/>,由于数据采集的时间间隔相等,样条插值的具体过程简化表示为
其中,、/>、/>分别表示x轴、y轴、z轴方向拟合的加速度函数,i表示第i段,i的取值由采集点的个数n确定i=n-1,/>表示该段的启始点的横坐标,t表示该段以时间为自变量(这里的各个点是以x、y、z为纵坐标,t为横坐标的点),/>、/>、/>、/>是第i段的待定系数;
各个方向的加速度数据的函数分别表示为
其中,、/>、/>分别代表各个方向加入偏移误差的加速度函数,t代表时间,/>、/>、/>分别代表各个方向拟合的加速度随时间变化函数,/>、/>、/>代表各个方向偏移误差,此处偏移误差设为常量。
S400,基于所述x轴方向、y轴方向以及z轴方向的加速度函数获取x轴方向、y轴方向以及z轴方向的速度函数;
具体的,参考图4,基于所述x轴方向、y轴方向以及z轴方向的加速度函数获取x轴方向、y轴方向以及z轴方向的速度函数具体包括:对x轴方向、y轴方向以及z轴方向的加速度函数积分得到x轴方向、y轴方向以及z轴方向的速度函数,其中,
x轴方向上的速度函数为:t;
y轴方向上的速度函数为:t;
z轴方向上的速度函数为:t。
其中,、/>、/>分别代表x轴、y轴、z轴方向速度的组成变量,/>、/>t、/>t分别代表由加速度偏移误差得出的速度量。
S500,基于所述x轴方向、y轴方向以及z轴方向的速度函数获取x轴方向、y轴方向以及z轴方向的位移函数,基于所述位移函数获取基础重心位置坐标;
具体的,参考图5,基于所述x轴方向、y轴方向以及z轴方向的速度函数获取x轴方向、y轴方向以及z轴方向的位移函数,基于所述位移函数确定基础重心位置坐标(X,Y,Z),具体包括:对x轴方向、y轴方向以及z轴方向的速度函数积分得到x轴方向、y轴方向以及z轴方向的位移函数,分别取x、y、z轴方向上的位移函数值作为重心位置坐标中X、Y、Z的坐标值,其中,
x轴方向上的位移函数为dt=/>
y轴方向上的位移函数为dt=/>
z轴方向上的位移函数为dt=/>
其中、/>、/>分别代表x轴、y轴、z轴方向位移的组成变量,/>、/>、/>分别代表x轴、y轴、z轴方向的加速度偏移误差带来的位移量,得到的/>、/>、/>位移函数分别代表在x轴、y轴、z轴方向的位移变化,其中,x轴、y轴、z轴方向的位移量可以视作重心相对三维空间坐标系原点的x、y、z坐标。
S600,基于所述离散角度建立第一修正模型,基于所述第一修正模型修正所述基础重心位置坐标获取第一重心位置坐标;
具体的,基于所述离散角度建立第一修正模型具体包括:基于vicon系统获取目标对象在不同角度下的第一修正重心位置坐标(X1,Y1,Z1),基于目标对象腰部两侧的离散角度K、J与第一修正重心位置坐标(X1,Y1,Z1)建立第一修正模型,并基于最下二乘法求解所述第一修正模型,其中,所述第一修正模型为:
X’=-X1=aK+bJ+c
Y’=-Y1=dK+eJ+f
Z’=-Z1=gK+hJ+i
其中,X’、Y’、Z’为第一修正量,a、b、c、d、e、f、g、h、i为常数;
其中,基于所述第一修正模型修正所述基础重心位置坐标获取第一重心位置坐标具体包括:获取t1时刻下目标对象腰部两侧的离散角度K1、J1,将t1时刻下目标对象腰部两侧的离散角度K1、J1输入第一修正模型获取t1时刻下的第一修正坐标(X’,Y’,Z’),基于位移函数计算t1时刻的基础重心位置坐标(X,Y,Z),基于矢量定理计算(X,Y,Z)与(X’,Y’,Z’)的差值以获取第一重心位置坐标(X-X’,Y-Y’,Z-Z’)。
需要说明的是,在初始建立第一修正模型时,将分别取多个t时刻下的离散角度K、离散角度J、位移函数值S(t)和第一修正重心位置坐标值X1,Y1,Z1代入第一修正模型,利用最小二乘法求解这个方程获取常数a、b、c、d、e、f、g、h、i以确定第一修正模型,其中,所述第一修正模型以矩阵方程可以表示为:
[] * [/>] = X’=/>-X1
[] * [/>] = Y’=/>-Y1
[] * [/>] = Z’=/>-Z1
S700,基于所述离散角速度建立第二修正模型,基于所述第二修正模型修正所述第一重心位置坐标获取第二重心位置坐标;
具体的,基于所述离散角速度建立第二修正模型具体包括:基于vicon系统获取目标对象在不同角速度下的第二修正重心位置坐标(X2,Y2,Z2),基于目标对象腰部两侧的离散角速度L、M与第二修正重心位置坐标(X2,Y2,Z2)建立第二修正模型:
X’’=-X2=nL+oM+p
Y’’=-Y2=qL+rM+s
Z’’=-Z2=tL+uM+w
其中,X’’、Y’’、Z’’为第二修正量,n、o、p、q、r、s、u、v、w为常数。
基于所述第二修正模型修正所述第一重心位置坐标获取第二重心位置坐标具体包括:获取t1时刻下目标对象腰部两侧的离散角度L1、M1,将t1时刻下目标对象腰部两侧的离散角速度L1、M1输入第二修正模型获取t1时刻下的第二修正坐标(X’’,Y’’,Z’’),基于矢量定理计算(X-X’,Y-Y’,Z-Z’)与(X’’,Y’’,Z’’)的差值以获取第二重心位置坐标(X-X’-X’’,Y-Y’-Y’’,Z-Z’-Z’’)。
需要说明的是,在初始建立第二修正模型时,将分别取多个t时刻下的离散角度L、离散角度M、位移函数值S(t)和第二修正重心位置坐标值X2,Y2,Z2代入第二修正模型,利用最小二乘法求解这个方程获取常数n、o、p、q、r、s、u、v、w以确定第二修正模型,其中,所述第二修正模型以矩阵方程可以表示为
[] * [/>] = X’’=/>-X2
[] * [/>] = Y’’=/>-Y2
[] * [/>] = Z’’=/>-Z2
S800,基于所述第二重心位置坐标进行曲线拟合获得重心轨迹函数。
具体的,参考图6(以x轴为例的重心轨迹拟合示意图),基于所述第二重心位置坐标进行曲线拟合获得重心轨迹函数具体包括:令目标函数为:=
=/>
=/>
分别将修正后得到的第二重心位置坐标代入目标函数,获取最小化残差平方和:
基于最小化残差平方和获得重心轨迹函数:
S(t)=
所述轨迹函数可以用于任意曲线图像绘制工具进行重心轨迹绘制。
本发明提供的重心轨迹数据获取方法,通过建立一个空间直角坐标系用于绘制重心轨迹的变化情况。利用左右腰部的两个六轴传感器采集离散加速度、离散角度、离散角速度数据,将采集到的离散加速度进行合成得到合加速度,再将其分解到三维空间坐标系中x轴、y轴、z轴方向上。对各个方向的加速度数据进行曲线拟合,得到加速度函数,对加速度函数进行二重积分得到位移函数,进而得到重心位置。由于通过位移函数值确认目标对象的未经修正的基础重心位置坐标与时间t的数据,所述未经修正的基础重心位置坐标也可以视作是目标对象在标准(站立)姿势下的基础重心位置坐标,而考虑到目标对象在运动过程中存在转身的情况下,目标对象的姿势不再是标准姿势,因此所述基础重心位置坐标与实际运动中目标对象的重心位置坐标会存在偏差,为了消除转身等一些非标准姿势带来的重心偏移,需要对所述基础重心位置坐标进行修正,因此建立角度、加速度和精确重心的修正模型,利用角度得到的第一修正模型对位移函数得到的重心位置进行第一次修正,再利用得到的角速度得到的第二修正模型对第一次修正后的重心位置进行第二次修正,将两次修正后的重心位置进行曲线拟合,即得到重心的运动轨迹,最后绘制在建立的空间直角坐标系中,让目标对象直观的感受到重心变化的方向和幅度,适当的重心位置还有助于力量的有效传递,增强动作的力量和效果,因此,理解和精准掌握人体重心轨迹对于提高运动技能、防止受伤以及优化整体运动表现至关重要。相比于现有技术,具有更强的便携性,在降低应用场景限制基础上可以切实可靠的描述人体重心轨迹的变化情况。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (6)

1.一种重心轨迹数据获取方法,其特征在于,其包括:
建立三维空间坐标系;获取目标对象腰部的离散加速度、离散角度和离散角速度;
基于所述离散加速度获取在三维空间坐标系中x轴方向、y轴方向以及z轴方向的加速度函数;
基于所述x轴方向、y轴方向以及z轴方向的加速度函数获取x轴方向、y轴方向以及z轴方向的速度函数;
基于所述x轴方向、y轴方向以及z轴方向的速度函数获取x轴方向、y轴方向以及z轴方向的位移函数,基于所述位移函数获取基础重心位置坐标;
基于所述离散角度建立第一修正模型,基于所述第一修正模型修正所述基础重心位置坐标获取第一重心位置坐标;
基于所述离散角速度建立第二修正模型,基于所述第二修正模型修正所述第一重心位置坐标获取第二重心位置坐标;
基于所述第二重心位置坐标进行曲线拟合获得重心轨迹函数;
其中,基于所述离散角度建立第一修正模型具体包括:基于vicon系统获取目标对象在不同角度下的第一修正重心位置坐标(X1,Y1,Z1),基于目标对象腰部两侧的离散角度K、J与第一修正重心位置坐标(X1,Y1,Z1)建立第一修正模型:
X’=-X1=aK+bJ+c
Y’=-Y1=dK+eJ+f
Z’=-Z1=gK+hJ+i
其中,X’、Y’、Z’为第一修正量,a、b、c、d、e、f、g、h、i为常数,、/>、/>分别为x、y、z轴方向的位移量;
基于所述第一修正模型修正所述基础重心位置坐标获取第一重心位置坐标具体包括:获取t1时刻下目标对象腰部两侧的离散角度K1、J1,将t1时刻下目标对象腰部两侧的离散角度K1、J1输入第一修正模型获取t1时刻下的第一修正坐标(X’,Y’,Z’),基于位移函数计算t1时刻的基础重心位置坐标(X,Y,Z),基于矢量定理计算(X,Y,Z)与(X’,Y’,Z’)的差值以获取第一重心位置坐标(X-X’,Y-Y’,Z-Z’);
基于所述离散角速度建立第二修正模型具体包括:基于vicon系统获取目标对象在不同角速度下的第二修正重心位置坐标(X2,Y2,Z2),基于目标对象腰部两侧的离散角速度L、M与第二修正重心位置坐标(X2,Y2,Z2)建立第二修正模型:
X’’=-X2=nL+oM+p
Y’’=-Y2=qL+rM+s
Z’’=-Z2=uL+vM+w
其中,X’’、Y’’、Z’’为第二修正量,n、o、p、q、r、s、u、v、w为常数;
基于所述第二修正模型修正所述第一重心位置坐标获取第二重心位置坐标具体包括:获取t1时刻下目标对象腰部两侧的离散角速度L1、M1,将t1时刻下目标对象腰部两侧的离散角速度L1、M1输入第二修正模型获取t1时刻下的第二修正坐标(X’’,Y’’,Z’’),基于矢量定理计算(X-X’,Y-Y’,Z-Z’)与(X’’,Y’’,Z’’)的差值以获取第二重心位置坐标(X-X’-X’’,Y-Y’-Y’’,Z-Z’-Z’’)。
2.根据权利要求1所述的重心轨迹数据获取方法,其特征在于,获取腰部的离散加速度、离散角度和离散角速度具体包括:通过设置在腰部两侧的两个六轴传感器分别获取目标对象腰部两侧的离散加速度、离散角度和离散角速度。
3.根据权利要求2所述的重心轨迹数据获取方法,其特征在于,基于所述离散加速度获取在三维空间坐标系中x轴方向、y轴方向以及z轴方向的加速度函数具体包括:首先,从两个所述六轴传感器获取离散加速度的合加速度,并将合加速度分解到三维空间坐标系的x轴方向、y轴方向与z轴方向,然后,基于三次样条插值获取x轴方向、y轴方向与z轴方向的加速度函数,其中,
x轴方向上的加速度函数为:,其中,/>为x轴方向上拟合的加速度随时间t变化的函数,/>为x轴方向上的偏移误差;
y轴方向上的加速度函数为:,其中,/>为y轴方向上拟合的加速度随时间t变化的函数,/>,/>为y轴方向上的偏移误差;
z轴方向上的加速度函数为:,其中,/>为z轴方向上拟合的加速度随时间t变化的函数,/>为z轴方向上的偏移误差;
其中,、/>、/>、/>为第i段加速度的常数,/>为第i段加速度的起始时间点,t为第i段加速度的终止时间点。
4.根据权利要求3所述的重心轨迹数据获取方法,其特征在于,基于所述x轴方向、y轴方向以及z轴方向的加速度函数获取x轴方向、y轴方向以及z轴方向的速度函数具体包括:对x轴方向、y轴方向以及z轴方向的加速度函数积分得到x轴方向、y轴方向以及z轴方向的速度函数,其中,
x轴方向上的速度函数为:t;
y轴方向上的速度函数为:t;
z轴方向上的速度函数为:t。
5.根据权利要求4所述的重心轨迹数据获取方法,其特征在于,基于所述x轴方向、y轴方向以及z轴方向的速度函数获取x轴方向、y轴方向以及z轴方向的位移函数,基于所述位移函数确定基础重心位置坐标(X,Y,Z),具体包括:对x轴方向、y轴方向以及z轴方向的速度函数积分得到x轴方向、y轴方向以及z轴方向的位移函数,分别取x、y、z轴方向上的位移函数值作为重心位置坐标中X、Y、Z的坐标值,其中,
x轴方向上的位移函数为dt=/>
y轴方向上的位移函数为dt=/>
z轴方向上的位移函数为dt=/>
6.根据权利要求1所述的重心轨迹数据获取方法,其特征在于,基于所述第二重心位置坐标进行曲线拟合获得重心轨迹函数具体包括:
令目标函数为:=/>
=/>
=/>
分别将修正后得到的第二重心位置坐标代入目标函数,获取最小化残差平方和:
基于最小化残差平方和获得重心轨迹函数:
S(t)=
其中,、/>、/>分别为x、y、z轴方向的位移量,S(t)为重心位置,/>、/>、/>、/>、/>为常数,n为采集点的个数,i表示第i段。
CN202410170124.8A 2024-02-06 2024-02-06 一种重心轨迹数据获取方法 Active CN117694841B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410170124.8A CN117694841B (zh) 2024-02-06 2024-02-06 一种重心轨迹数据获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410170124.8A CN117694841B (zh) 2024-02-06 2024-02-06 一种重心轨迹数据获取方法

Publications (2)

Publication Number Publication Date
CN117694841A CN117694841A (zh) 2024-03-15
CN117694841B true CN117694841B (zh) 2024-04-30

Family

ID=90162950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410170124.8A Active CN117694841B (zh) 2024-02-06 2024-02-06 一种重心轨迹数据获取方法

Country Status (1)

Country Link
CN (1) CN117694841B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11166877A (ja) * 1997-12-04 1999-06-22 Mitsubishi Heavy Ind Ltd 重心位置の推定方法および推定装置
JP2001082963A (ja) * 1999-09-13 2001-03-30 Yoshiaki Kato 運動センサ振動体および振動ジャイロスコープ
CN101466507A (zh) * 2006-07-18 2009-06-24 丰田自动车株式会社 机器人及其控制方法
CN104136900A (zh) * 2012-10-24 2014-11-05 三菱重工机械科技株式会社 重心位置检测装置、重心位置检测方法及程序
JPWO2013042245A1 (ja) * 2011-09-22 2015-03-26 トヨタ自動車株式会社 車両重心位置推定装置
CN105910606A (zh) * 2016-06-20 2016-08-31 天津大学 一种基于角速度差值的方向修正方法
CN107844124A (zh) * 2017-12-01 2018-03-27 吉林大学 一种四旋翼飞行器携带不平衡负载稳定飞行的控制方法
CN110329888A (zh) * 2019-07-16 2019-10-15 浙江梅轮电梯股份有限公司 一种可调节重心的对重架
CN111209882A (zh) * 2020-01-13 2020-05-29 孝感峰创智能科技有限公司 一种全向运动装置的步态信息获取方法、系统及可读存储介质
CN111347294A (zh) * 2020-03-30 2020-06-30 中科院南京天文仪器有限公司 一种高陡度光学镜面误差抛光修正加工方法
WO2020134254A1 (zh) * 2018-12-27 2020-07-02 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法
KR20220061670A (ko) * 2020-11-06 2022-05-13 영남대학교 산학협력단 Rls 알고리즘을 이용한 차량의 무게 및 무게중심 추정방법
CN115793683A (zh) * 2022-11-10 2023-03-14 北京启奥人工智能科技有限公司 一种重心控制方法、调整机构及足式机器人
CN117073652A (zh) * 2023-07-07 2023-11-17 湖北工程学院 智能陀螺仪的动量轮转速调节杆平衡性控制系统及方法
CN117387838A (zh) * 2023-10-18 2024-01-12 中兵无人机研究院有限公司 一种重型设备的重心、转动惯量测试装置及方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671595B2 (en) * 2002-01-08 2003-12-30 Ford Global Technologies, Llc Vehicle side slip angle estimation using dynamic blending and considering vehicle attitude information
JP4673326B2 (ja) * 2007-01-11 2011-04-20 オークマ株式会社 回転軸の位置制御装置
JP5401233B2 (ja) * 2009-09-18 2014-01-29 本田技研工業株式会社 倒立振子型移動体
EP2508404A4 (en) * 2009-12-04 2015-10-14 Univ Tokyo Nat Univ Corp TILT CALCULATING DEVICE
JP5803408B2 (ja) * 2011-08-11 2015-11-04 富士通株式会社 通信方法及び情報処理システム
US9417151B2 (en) * 2011-11-28 2016-08-16 The Boeing Company Center of gravity determination

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11166877A (ja) * 1997-12-04 1999-06-22 Mitsubishi Heavy Ind Ltd 重心位置の推定方法および推定装置
JP2001082963A (ja) * 1999-09-13 2001-03-30 Yoshiaki Kato 運動センサ振動体および振動ジャイロスコープ
CN101466507A (zh) * 2006-07-18 2009-06-24 丰田自动车株式会社 机器人及其控制方法
JPWO2013042245A1 (ja) * 2011-09-22 2015-03-26 トヨタ自動車株式会社 車両重心位置推定装置
CN104136900A (zh) * 2012-10-24 2014-11-05 三菱重工机械科技株式会社 重心位置检测装置、重心位置检测方法及程序
CN105910606A (zh) * 2016-06-20 2016-08-31 天津大学 一种基于角速度差值的方向修正方法
CN107844124A (zh) * 2017-12-01 2018-03-27 吉林大学 一种四旋翼飞行器携带不平衡负载稳定飞行的控制方法
WO2020134254A1 (zh) * 2018-12-27 2020-07-02 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法
CN110329888A (zh) * 2019-07-16 2019-10-15 浙江梅轮电梯股份有限公司 一种可调节重心的对重架
CN111209882A (zh) * 2020-01-13 2020-05-29 孝感峰创智能科技有限公司 一种全向运动装置的步态信息获取方法、系统及可读存储介质
CN111347294A (zh) * 2020-03-30 2020-06-30 中科院南京天文仪器有限公司 一种高陡度光学镜面误差抛光修正加工方法
KR20220061670A (ko) * 2020-11-06 2022-05-13 영남대학교 산학협력단 Rls 알고리즘을 이용한 차량의 무게 및 무게중심 추정방법
CN115793683A (zh) * 2022-11-10 2023-03-14 北京启奥人工智能科技有限公司 一种重心控制方法、调整机构及足式机器人
CN117073652A (zh) * 2023-07-07 2023-11-17 湖北工程学院 智能陀螺仪的动量轮转速调节杆平衡性控制系统及方法
CN117387838A (zh) * 2023-10-18 2024-01-12 中兵无人机研究院有限公司 一种重型设备的重心、转动惯量测试装置及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于三维运动捕捉技术的踩跷法运动学参数特征研究;刘元华;冯跃;李庆兵;万义文;罗才贵;罗建;;北京中医药大学学报;20180330(03);全文 *
基于重心位移监测的卡路里消耗计算算法;陈莉莉;;西南师范大学学报(自然科学版);20160720(07);全文 *

Also Published As

Publication number Publication date
CN117694841A (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
Qiao et al. Real-time human gesture grading based on OpenPose
CN108762495B (zh) 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实系统
CN108268129B (zh) 对动作捕捉手套上的多个传感器进行校准的方法和装置及动作捕捉手套
EP2728548B1 (en) Automated frame of reference calibration for augmented reality
Zhou et al. Reducing drifts in the inertial measurements of wrist and elbow positions
EP1596332B1 (en) Information processing method and apparatus for finding position and orientation of targeted object
EP1975878B1 (en) Projective transformation convergence calculation method
CN105252532A (zh) 动作捕捉机器人协同柔性姿态控制的方法
Tao et al. A novel sensing and data fusion system for 3-D arm motion tracking in telerehabilitation
CN111015653A (zh) 机器人控制方法、装置、计算机可读存储介质及机器人
CN106990836B (zh) 一种头戴式人体学输入设备空间位置及姿态测量方法
CN115122325A (zh) 一种具有视场约束的拟人化机械手鲁棒视觉伺服控制方法
CN113829343A (zh) 基于环境感知的实时多任务多人人机交互系统
CN112894812A (zh) 一种面向机械臂的视觉伺服轨迹跟踪控制方法及系统
KR102456872B1 (ko) 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법
CN117694841B (zh) 一种重心轨迹数据获取方法
CN111158482B (zh) 一种人体动作姿态捕捉方法及系统
JP2009186244A (ja) 傾斜角度推定システム、相対角度推定システム及び角速度推定システム
Fuchs et al. Advanced 3-D trailer pose estimation for articulated vehicles
CN112712030A (zh) 三维姿态信息还原方法及装置
WO2020152879A1 (ja) 動作分析装置、動作分析方法、動作分析プログラム及び動作分析システム
Ababsa et al. Hybrid three-dimensional camera pose estimation using particle filter sensor fusion
CN112057083B (zh) 可穿戴人体上肢位姿采集设备及采集方法
CN115311353A (zh) 一种多传感器多手柄控制器图优化紧耦合追踪方法及系统
CN114756130A (zh) 一种手部虚实交互系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant